项目在这里:https://github.com/zhixiangxue/chak-ai
说说我为啥要写这个库哈~
我自己的几个痛点:
[ol]
OpenAI 的 API 很方便,但上下文得自己管
每次对话一长,自己算 token 、截断历史、写策略...重复劳动,烦。
虽然都支持 OpenAI API,但各家文档翻起来也烦
想用 DeepSeek?翻文档找 base_url 和 model 名。想用百炼?火山?腾讯云?再翻一遍文档。切换模型?又得改配置、查参数。多数时候我只是想快速验证个想法,不想在文档里跳来跳去,烦。
虽然有 one-api 、OpenRouter 这种聚合方案
但要自己部署服务、配置路由、管理密钥...我就想写个脚本测试模型,不想搞运维,烦。
想要个本地网关?自己搭又麻烦
有时候就想在本地起个服务,快速测试不同厂商的模型,最好还有个 UI 能直接对话。但现有方案要么配置复杂,要么功能太重,烦。
[/ol]
所以我撸了个库,叫 chak 。
我的目标特别简单:能不能搞一个像 requests 一样简单的 LLM 客户端?
看代码就懂了:
pip install chakpy[all]
import chak
# 就这么简单,像 requests.get()一样直观
conv = chak.Conversation("deepseek/deepseek-chat", api_key="your_key")
print(conv.send("介绍一下 Python 装饰器").content)
# 继续聊,一直聊,上下文自动帮你管
print(conv.send("那装饰器用类怎么实现?").content)
# 换个模型?改一行就行
conv2 = chak.Conversation("openai/gpt-4o-mini", api_key="your_key")
它不是要取代 OpenAI SDK 或 one-api ,而是:
上下文管理?内置 FIFO 、总结、LRU 三种策略,自动触发。
多家供应商?provider/model统一格式,支持 18+家。
复杂配置?不存在的,api_key 一给就能用。
本地网关?chak.serve()一行代码,内置对话界面,1 分钟就能和不同厂商模型对话。
如果你也:
可以试试。纯粹是解决自己的痛点,希望能帮到有同样困扰的人
觉得有用?给个 Star 吧 ⭐ → https://github.com/zhixiangxue/chak-ai
欢迎交流,有兴趣的兄弟给我留言哈~

