我发现 CC 和 Codex 越来越像是温水煮青蛙

查看 32|回复 3
作者:MuyuQ   
新模型改分词器、新模型倍数消耗额度,单任务额度消耗被抬高;
在速度上也是,最近普通模式的速度体验明显变慢,他们顺势推出 fast 模式按倍数烧额度。
怕用户直接察觉到问题,好心推出短期额度翻倍让你适应高消耗,等活动结束你只会觉得“额度不禁用了”,而不是意识到它其实是在变相涨价。

消耗, 速度, 涨价

sentinelK   
模型提供商自从开始转型成“token 收费”,就没有动机去优化费效比了。
而且你这次请求跑了多少 token ,其实也是他们说了算。
有的提供商甚至会弄类似“代币”的虚拟概念。他说你花了多少,就是多少,无需解释。
hsir   
而且我严重怀疑 OpenAI 故意降低了缓存命中率,issue 故意迟迟不解决,很多人都遇到了,看来就是要多收费: https://github.com/openai/codex/issues/20301
AEDaydreamer   
感觉对于现在的 llm 厂商来说似乎没有理由提高 token efficiency ,能订购 plan 的用户基本被绑定了,无非是这家跳到那家。同时这种基于 scale 的更新基模方式也挺恶性循环,瘫坐-好用-降智-降速-预热-新版本。
您需要登录后才可以回帖 登录 | 立即注册

返回顶部