首页
论坛
Yoo趣儿
›
探索分享
›
问与答
›
4060 本地部署 LLM 求推荐?
4060 本地部署 LLM 求推荐?
查看
110
|
回复
1
作者:
KIRAYOMATO
发布时间:2024-9-20 19:02:07
不训练,就用来自己推理玩玩,4060 能跑的起来的模型哪个效果最好?
dyexlzc
2024-9-20 19:02:50
2060s 跑 llama3.1 ,qwen2 7b 都是 20+ token/s ,你的 4060 应该速度更快,13B 以下的都可以玩玩(显存够就可以)
显存不够用内存跑也可以。
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
浏览过的版块
优惠信息
社会资讯
Windows
服务器
Google
分享发现
站长
HarmonyOS
IOS/macOS
搜索
热门主题
鼻炎有什么你亲身体验过好用的工具或治疗方
找到一个创业方向
[开源分享] 这两个月我一边准备算法实习一
求企业投屏器推荐
web 模拟-机场翻页的航班信息面板
REDMI K90 Max官宣支持IP66、IP68、IP69防
搜外 今天今天结算了吗
核云特价区隐藏款 香港三网优化100M不限流
mjj ai编程的时候真的觉得语音输入更快吗
[注册送 5 刀] [含抽奖] 招募小白鼠, Mirr
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部