GLM Coding 用户体验

查看 42|回复 3
作者:faoisdjioga   
一直是 GLM coding 套餐。
[ol]

  • 刚出来的时候是 ClaudeCode 平替。后来感觉越来越笨,在 GLM4.5 时代弃用。改用 codex

  • 后来 4.6 时间又感觉还行。,重新使用。

  • 到 4.7-GLM5 时代,又感觉差的不行。改用 CaludeCode
    [/ol]
    最近我在想,可能不是模型的问题,是我的问题。通过 chatgpt 进行治疗,得出如下结论。
    这种现象在科学上可以归纳为:在感官适应( Sensory Adaptation )导致奖励阈值提高的基础上,大脑受制于确认偏差( Confirmation Bias )而完成的一次“记忆与感知的重构”。
    简而言之,并不是产品在物理性能上必然发生了衰减,而是你大脑中的“预测编码”被外部负面信息污染,导致你的神经系统开始主动捕捉、甚至放大那些原本被忽略的微小瑕疵,最终达成了一种“证实了外界差评”的逻辑自洽,从而在主观现实中完成了一次并不一定存在的“产品降级”。
    所以,GLM 升级其实是越来越好吧。

    模型, 适应, 偏差

  • kphcdr   
    {'code': '1302', 'message': '您的账户已达到速率限制,请您控制请求频率'}
    经常出现这个,我一个人写前后端 + 一个公共的小龙虾
    astro1boy   
    用惯了 codex ,肯定会觉得它差的不行。codex 太好用了。
    owt5008137   
    GLM 据说是夜晚战神。白天老出现:Please try again later. rawError=429 该模型当前访问量过大,请您稍后再试。
    您需要登录后才可以回帖 登录 | 立即注册

    返回顶部