@QAZXCDSWE 牛啊,你咋知道的? https://content-static.cctvnews.cctv.com/snow-book/video.html?item_id=13518694563795549236&t=1773563661926&toc_style_id=video_default&track_id=0BAABA6E-360D-41E2-8215-0FA7EA0D1262_795260339862&share_to=wechat
@h4nru1 #24 额,这个省 token 是因为上下文不到 30k ,但是现在的 token 缓存计费很低,输入输出高,所以实际上这个看上去消耗 token 少,但是真计费不一定比其他少。至于 skill 自进化这个可有可无吧,让 claude 自己总结历史写个 skill 也差不多的。
@K332 建议看技术报告的 2.1 章节。如果你感兴趣我可以再开一篇帖子详细讲讲。推荐你看一下这三篇论文: https://arxiv.org/abs/2307.03172 https://arxiv.org/abs/2410.18745 https://arxiv.org/abs/2302.00093 上下文长度的选择不光是从成本的角度考虑。