GLM-Coding 调用持续报错: z.ai 的 Lite 套餐几乎无法使用,官方 Pro/Max 是否稳定?

查看 37|回复 3
作者:zhoudaniu   
各位 V 友,TRAE 和 CODEX 的 gpt 量都块用完了,
最近在尝试使用 GLM-Coding 进行代码生成相关任务,遇到了比较头疼的问题,想咨询一下大家的实际使用情况。
当前遇到的问题
  • 我目前购买了 z.ai 提供的 Lite 套餐
  • 但几乎 每次调用都在报错(各种超时、内部错误、或直接无响应),基本无法正常完成一次代码生成。
  • 已经尝试过切换网络、调整请求参数、降低并发,问题依旧。

    想咨询大家的经验
    [ol]
  • 官方 Pro 套餐Max 套餐 是否可以稳定调用?有没有同样频繁报错的情况?
  • 是否有人对比过 z.ai 的 Lite官方 Pro/Max 在实际可用性上的差异?
  • 如果官方 Pro/Max 也不稳定,有没有其他相对靠谱的渠道或替代方案(比如私有部署或其他 API 厂商)?
    [/ol]
    希望有实际使用经验的朋友分享一下现状,避免继续踩坑。非常感谢!
    (如果有官方人员看到,也欢迎解释一下 Lite 套餐的可用性状态。)
  • Sezxy   
    我用 lite 的 glm5.1 + opencode , 限流了会自己重试,所以没怎么打扰到我,就是慢了点
    soouu   
    一样的慢 MAX 可能稍微快一点 我的年 MAX 已经退款了
    zhoudaniu
    OP
      
    @Sezxy 我的 opencode   用 z.ai 的 glm5.1 lite 套餐, 一个小时前分配的任务,到现在还在重试
    您需要登录后才可以回帖 登录 | 立即注册

    返回顶部