4060 本地部署 LLM 求推荐?

查看 25|回复 1
作者:KIRAYOMATO   
不训练,就用来自己推理玩玩,4060 能跑的起来的模型哪个效果最好?
dyexlzc   
2060s 跑 llama3.1 ,qwen2 7b 都是 20+ token/s ,你的 4060 应该速度更快,13B 以下的都可以玩玩(显存够就可以)
显存不够用内存跑也可以。
您需要登录后才可以回帖 登录 | 立即注册

返回顶部