首页
论坛
Yoo趣儿
›
探索分享
›
问与答
›
4060 本地部署 LLM 求推荐?
4060 本地部署 LLM 求推荐?
查看
93
|
回复
1
作者:
KIRAYOMATO
发布时间:2024-9-20 19:02:07
不训练,就用来自己推理玩玩,4060 能跑的起来的模型哪个效果最好?
dyexlzc
2024-9-20 19:02:50
2060s 跑 llama3.1 ,qwen2 7b 都是 20+ token/s ,你的 4060 应该速度更快,13B 以下的都可以玩玩(显存够就可以)
显存不够用内存跑也可以。
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
浏览过的版块
分享发现
二手交易
优惠信息
Google
HarmonyOS
站长
服务器
通讯人
搜索
热门主题
求推荐 300 价位电视盒子
[分享] 纯前端撸了一个「交互式哺乳动物演
她说离婚原因是男的挣不到钱
这是缅北开发的游戏…
短视频里,高速现在都开始堵车了啊,大家都
百度统计或者cnzz的数据,来源分析,直接访
必应移动端有流量的吗?
发现了很多这种后缀的的百度收录,是怎么做
我看那个huoban网站权重被百度干没了。。。
按 Ctrl 好累?我不是一个人吧
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部