首页
论坛
Yoo趣儿
›
探索分享
›
问与答
›
4060 本地部署 LLM 求推荐?
4060 本地部署 LLM 求推荐?
查看
97
|
回复
1
作者:
KIRAYOMATO
发布时间:2024-9-20 19:02:07
不训练,就用来自己推理玩玩,4060 能跑的起来的模型哪个效果最好?
dyexlzc
2024-9-20 19:02:50
2060s 跑 llama3.1 ,qwen2 7b 都是 20+ token/s ,你的 4060 应该速度更快,13B 以下的都可以玩玩(显存够就可以)
显存不够用内存跑也可以。
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
有出 ovh 10G上下对等 机器的吗?
大哥们,狐帝云怎么搭建梯子,我这边怎么已
写了个爬98堂的脚本
高价出一个EDU全局,7500用户
隐私研究员质疑微软Edge免费“扶墙”宣传
论坛什么时候纳新?是否应该讨论政治?我的
刚发现墙洞(DlerCloud)复活了,改名 oixC
做了一个 AI 图片增强工具集 Image Enhance
【出】RARECLOUD 7欧绝版 JP机,M247线路 2
2026 年了,求推荐高性价比的迷你主机
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部