首页
论坛
Yoo趣儿
›
探索分享
›
分享发现
›
用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120 ...
用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.
查看
22
|
回复
1
作者:
JoeJoeJoe
发布时间:2026-3-11 09:22:04
顺便贴一下从网上随便找了一个测试 Token 生成速度的代码跑了下, 测试结果如下
zenfsharp
2026-3-11 09:22:54
我勒个槽 120B ,我只敢部署 20B 的。
大概半年前 OpenAI 丢出来的开源模型,我试了 20B 的大概才 GPT-4mini 的水平,远不如如今线上小模型。
返回列表
您需要登录后才可以回帖
登录
|
立即注册
发表回复
搜索
热门主题
用过的分享一下狐蒂云服务器怎么样
高德努力缩小可预览地球……
Claude Code 反代 - Cloudflare 一键部署
[无广] AI 中转站的底裤,扒给你看
猫棒的问题
收Interserver 7950x 89刀款 出60刀洛杉矶1
大家在业务项目中如何管理 AI 编程时的提示
之前的群链接被攻击了,重新发一下。建了一
早知道不做改版了 收录掉的好快啊 你们呢?
轻量云服务器有没有需要的
热门板块
问与答
分享发现
分享创造
奇思妙想
分享邀请码
商业推广
优惠信息
Python
PHP
Java
JavaScript
Node.js
Go语言
C++
HTML
公告
网站帮助 - Yoo趣儿
2022-03-27
我们的愿景
2022-03-27
在 Yoo趣儿 投放广告
2022-03-27
Yoo趣儿网站用户应遵守规则
2022-03-24
返回顶部