用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.

查看 22|回复 1
作者:JoeJoeJoe   
顺便贴一下从网上随便找了一个测试 Token 生成速度的代码跑了下, 测试结果如下

zenfsharp   
我勒个槽 120B ,我只敢部署 20B 的。
大概半年前 OpenAI 丢出来的开源模型,我试了 20B 的大概才 GPT-4mini 的水平,远不如如今线上小模型。
您需要登录后才可以回帖 登录 | 立即注册

返回顶部