高强度使用了半年 claude code 后,我终于无法忍受了,并且我发现了绝佳替代

查看 986|回复 101
thet   
@QAZXCDSWE 牛啊,你咋知道的? https://content-static.cctvnews.cctv.com/snow-book/video.html?item_id=13518694563795549236&t=1773563661926&toc_style_id=video_default&track_id=0BAABA6E-360D-41E2-8215-0FA7EA0D1262_795260339862&share_to=wechat
h4nru1
OP
  
用起来也太麻烦了
h4nru1
OP
  
@QAZXCDSWE 要不再看看这个? https://www.sohu.com/a/997224735_121198369
K332   
@thet 我帮你催催开发者让他们再降点门槛
h4nru1
OP
  
就是一个插件吧,核心功能还是其他三方模型,只是这个插件的优势是能省 token 和自己总结使用记录写 skill 。
另外 v 站发帖图床不用买啊,默认用 imgur 的就行了。
teaguexiao   
@K332 省 token 、自进化。还不够吗?
K332   
用了半年 claude code 最大的感受是它的 context 管理和记忆机制确实是硬伤,每次开新会话都要重新喂背景,GA 的连续学习机制看起来确实解决了这个痛点。去看看这个项目,感谢分享!
h4nru1
OP
  
@h4nru1 #24 额,这个省 token 是因为上下文不到 30k ,但是现在的 token 缓存计费很低,输入输出高,所以实际上这个看上去消耗 token 少,但是真计费不一定比其他少。至于 skill 自进化这个可有可无吧,让 claude 自己总结历史写个 skill 也差不多的。
horizon   
@K332 建议看技术报告的 2.1 章节。如果你感兴趣我可以再开一篇帖子详细讲讲。推荐你看一下这三篇论文: https://arxiv.org/abs/2307.03172
https://arxiv.org/abs/2410.18745
https://arxiv.org/abs/2302.00093
上下文长度的选择不光是从成本的角度考虑。
h4nru1
OP
  
top3 是哪所大学
您需要登录后才可以回帖 登录 | 立即注册

返回顶部