首页
论坛
Yoo趣儿
›
探索分享
›
问与答
›
4060 本地部署 LLM 求推荐?
4060 本地部署 LLM 求推荐?
查看
24
|
回复
1
作者:
KIRAYOMATO
发布时间:2024-9-20 19:02:07
不训练,就用来自己推理玩玩,4060 能跑的起来的模型哪个效果最好?
dyexlzc
2024-9-20 19:02:50
2060s 跑 llama3.1 ,qwen2 7b 都是 20+ token/s ,你的 4060 应该速度更快,13B 以下的都可以玩玩(显存够就可以)
显存不够用内存跑也可以。
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
过年相亲的老铁们来聊聊
问一下哪个ai模型便宜点啊
电脑输入密码进入桌面就断电重启求方法解决
zblog和wordpress谁更安全
杭州一医院昨夜接诊20人!“罪魁祸首”的这
deepseek说明了什么?
电脑不行也没用还不如API
B站视频下载器 Bili23-Downloader v1.55.0
求 Vue3+Django4全新技术实战全栈项目
大家好,在此收集免费的可左右拼接的批量视
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部