首页
论坛
Yoo趣儿
›
探索分享
›
问与答
›
4060 本地部署 LLM 求推荐?
4060 本地部署 LLM 求推荐?
查看
68
|
回复
1
作者:
KIRAYOMATO
发布时间:2024-9-20 19:02:07
不训练,就用来自己推理玩玩,4060 能跑的起来的模型哪个效果最好?
dyexlzc
2024-9-20 19:02:50
2060s 跑 llama3.1 ,qwen2 7b 都是 20+ token/s ,你的 4060 应该速度更快,13B 以下的都可以玩玩(显存够就可以)
显存不够用内存跑也可以。
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
浏览过的版块
服务器
优惠信息
IOS/macOS
社会资讯
分享发现
搜索
热门主题
买显示器还是高亮度好啊,不然白天看不清
收集 安卓4.3 可以安装的 影音软件
收adsense for search账号
[反对业委会成立] 我们小区空降了一帮人想
需要虚拟卡,商务开卡,批量开卡,可以找我
全网付费资源27号更新
你们有 Vision Pro 吗
2025 求推荐能注册甲骨文服务器的虚拟卡
问大家一个问题,换位思考
体感感觉 Claude4.5 比 ChatGPT 在总结计算
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部