LLM 调用为什么不能像 requests 一样简单?上下文管理就不能自动搞定吗?

查看 14|回复 0
作者:pmpmp   
兄弟们,我今天在 github 上发了一个库 —— chak, 极简风格连接全球主流模型,重点是 —— 可以自动管理上下文,确实方便
项目在这里:https://github.com/zhixiangxue/chak-ai
说说我为啥要写这个库哈~
我自己的几个痛点:
[ol]

  • OpenAI 的 API 很方便,但上下文得自己管
    每次对话一长,自己算 token 、截断历史、写策略...重复劳动,烦。

  • 虽然都支持 OpenAI API,但各家文档翻起来也烦
    想用 DeepSeek?翻文档找 base_url 和 model 名。想用百炼?火山?腾讯云?再翻一遍文档。切换模型?又得改配置、查参数。多数时候我只是想快速验证个想法,不想在文档里跳来跳去,烦。

  • 虽然有 one-api 、OpenRouter 这种聚合方案
    但要自己部署服务、配置路由、管理密钥...我就想写个脚本测试模型,不想搞运维,烦。

  • 想要个本地网关?自己搭又麻烦
    有时候就想在本地起个服务,快速测试不同厂商的模型,最好还有个 UI 能直接对话。但现有方案要么配置复杂,要么功能太重,烦。
    [/ol]
    所以我撸了个库,叫 chak 。
    我的目标特别简单:能不能搞一个像 requests 一样简单的 LLM 客户端?
  • requests 几行代码就能发 HTTP 请求
  • chak 几行代码就能和全球任意 LLM 对话
  • 不要花里胡哨的东西,开箱即用,上下文自动管理
  • 10 分钟搞不定都算我失败了

    看代码就懂了:
    pip install chakpy[all]
    import chak
    # 就这么简单,像 requests.get()一样直观
    conv = chak.Conversation("deepseek/deepseek-chat", api_key="your_key")
    print(conv.send("介绍一下 Python 装饰器").content)
    # 继续聊,一直聊,上下文自动帮你管
    print(conv.send("那装饰器用类怎么实现?").content)
    # 换个模型?改一行就行
    conv2 = chak.Conversation("openai/gpt-4o-mini", api_key="your_key")
    它不是要取代 OpenAI SDK 或 one-api ,而是:
  • OpenAI SDK: 功能强大,但上下文、重试、格式转换都得自己写
  • one-api: 功能齐全,但得自己部署服务、配置路由、管理密钥
  • chak: 开箱即用,import 就能用,上下文自动管理,配置零负担

    上下文管理?内置 FIFO 、总结、LRU 三种策略,自动触发。
    多家供应商?provider/model统一格式,支持 18+家。
    复杂配置?不存在的,api_key 一给就能用。
    本地网关?chak.serve()一行代码,内置对话界面,1 分钟就能和不同厂商模型对话。
    如果你也:
  • 烦手动管理上下文
  • 烦翻各家文档找配置
  • 烦部署和配置复杂的网关服务
  • 想快速搭个本地网关测试模型

    可以试试。纯粹是解决自己的痛点,希望能帮到有同样困扰的人
    觉得有用?给个 Star 吧 ⭐ → https://github.com/zhixiangxue/chak-ai
    欢迎交流,有兴趣的兄弟给我留言哈~
  • 您需要登录后才可以回帖 登录 | 立即注册

    返回顶部