GLM 是什么情况?

查看 20|回复 3
作者:feelapi   
买 pro 套餐将近一个月,烧掉 16 亿 token ,我算 pro 用户了吧,写代码角度来看,算是合格的工程师了,我主要用 C++开发。
vscode+claude code cli,使用 glm 文档给出的配置直连,最近几天经常并发受限,这个能理解,但是下面这个经常出现的错误是什么意思?
API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 188024 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302194338de7319971d9142ab"}
188024 > 202752
现在代码都直接交给大模型运算了?着什么算数?
算例紧张可以理解,但是频繁出现这个错误,是 claude code 的锅?是有人要害朕?
为啥出现这个?我没干什么,就是让他帮我翻译文章。
再发一个吉祥号码的:
API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 181818 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302164128475cc4e7028843b6"}
181818 > 202752
如果是这个所谓的 input token 和我理解的不一样,是不是可以换个说法?
zhonghao01   
有并发上限,是 1 还是 3 来着,文档有些。
加 GLM 企业微信客服咨询,他们能告诉你答案, 发工单 群里问基本不叼你的, 发这里更没用。
TimPeake   
调用频繁了 会有莫名其妙的错误,感觉他们打击灰产过头了。另外,最近三天两头崩是常态。正改 bug 呢,用不了了  能想象那种心情吗😡
vpjacob   
同,昨天切换 minimax-m2 可以了
您需要登录后才可以回帖 登录 | 立即注册

返回顶部