首页
论坛
Yoo趣儿
›
探索分享
›
分享发现
›
用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120 ...
用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.
查看
40
|
回复
1
作者:
JoeJoeJoe
发布时间:2026-3-11 09:22:04
顺便贴一下从网上随便找了一个测试 Token 生成速度的代码跑了下, 测试结果如下
zenfsharp
2026-3-11 09:22:54
我勒个槽 120B ,我只敢部署 20B 的。
大概半年前 OpenAI 丢出来的开源模型,我试了 20B 的大概才 GPT-4mini 的水平,远不如如今线上小模型。
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
搜狗拼音16.4 PE版
网站还赚钱吗?
.mhtml格式是什么文件的?保存的网页单页,
谷歌优化谁有好方法
必应流量 为什么会被谷歌判为无效流量
Wellcms 模板之导航
腾讯云还有3年5年的轻量服务器卖吗?
那里还有年付的云主机,比较稳定的?
【每日一问,除了周末】经济不景气是真的吗
狐云是不是彻底落幕了?所有服务器好像都停
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部