买丐版 Mac Mini M4 用来搭本地大模型的,是不是伪需求

查看 76|回复 7
作者:yavdein   
今天自己用 ollama 搭大模型时候发现
llama 3.2 vision 11b 其实要求颇高
参照 R 站测评结果

一张图等于要 1 分多钟才能反馈
丐版 m4 其实能顺利跑起来的也就是 llama3.2 3b
回到了两年前文字大模型的时代
真要搞还真至少得内存拉满
icestraw   
我跑了,内存够,可以跑,速度一样,半分多钟才出结果,GPU 和内存性能低了。Pro 和 Max 会好一些
不过真要用肯定直接接别家 API 了,搞开发的话,哪怕是 max ,好像修改模型的性能根本不够,一时间还真想不到应用场景...只能说可以学习的时候用下。有谁想得到其他的应用场景吗?
winglight2016   
@icestraw 只能用于开发验证流程,日常使用还是 chatgpt 。我试过 11b 和 90b ,只有后者还能勉强跟 chatgpt 比,前者实际效果很差,几乎没有实用价值。
Hookery   
因为内存和显存是共用的,所有 16G 内存可用部分肯定是小于一张显卡 16G 显存的可用部分。单纯推理的话,性价比不如 4060TI 16G
yavdein
OP
  


顺便问问 所以咱国产这 qwq 有实用价值么
mkdirmushroom   
同样的 qwen2.5 14B q4 量化模型,推理速度 m4 16g 不如 m1 pro 32g 。大模型对内存带宽的要求挺高的,m4 的内存带宽只有 120GB/s 。
至于应用场景,我之前也很推崇本地大模型,毕竟数据隐私能够得到保证。但是目前开源模型( 32B 以下)的质量明显不如商用模型,真的硬要找个应用场景的话,放在家里当个智能语音助手蛮好。
zfyStars   
没必要吧
mkdirmushroom   
@yavdein https://qwenlm.github.io/blog/qwq-32b-preview/
看数据很厉害,实际效果就不知道了,我已经不想测试了哈哈,前面好几个开源模型脚踢 o1 ,拳打 Claude3.5 的,实际测试效果真的很一般。
您需要登录后才可以回帖 登录 | 立即注册

返回顶部