首页
论坛
Yoo趣儿
›
探索分享
›
问与答
›
本地大模型多大显存够用?
本地大模型多大显存够用?
查看
41
|
回复
3
作者:
s2555
发布时间:2026-4-15 21:01:14
有没有人跑本地大模型养龙虾,多大显存能用得爽一点?我打算买个 4090 魔改 48G 的,够用了吗?
mokeyjay
2026-4-15 21:01:47
你至少也要先规划一下自己想跑多少 B 的模型吧?如果你对「够用」的定义是能跑就行,那 2B 4B 的小模型手机都跑得动
s2555
OP
2026-4-15 21:02:42
@mokeyjay 没概念,能达到 ds 刚出来的效果吗?
zhandouji2023
2026-4-15 21:03:29
论文助手,润色之类需要什么显卡够了
@mokeyjay
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
马云、马化腾懂代码吗?
自建的ai中转站,搞付费 行吗
为什么我们站长是这个抠门群体?
有几个24年的个备域名出售,有要的老板么
搜狗拼音16.4 PE版
网站还赚钱吗?
.mhtml格式是什么文件的?保存的网页单页,
谷歌优化谁有好方法
必应流量 为什么会被谷歌判为无效流量
Wellcms 模板之导航
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部