Langcli 具有以下优势:
[ol]
使用用法与 Claude code 是完全一样
Langcli 是基于 Claude code 泄露的代码二次开发而成,它保留了 Claude code 绝大部分的功能,且使用方法与 Claude code 完全一致。
支持主流的 LLM 大模型
Langcli 通过与LangRouter 平台深度集成,你可以在一个正在工作的 session 中根据需求随意使用、切换主流的 LLM 模型(包括 Claude OPUS 4.6, Deepseek v4 flash, Deepseek v4 pro, Kimi K2.6, GLM 5.1, Minimax M2.5 等),而不会中断你的上下文。
大幅降低 LLM 模型的使用成本
在使用 Langcli 进行项目开发过程,由于在工作会话 session 中可以根据需求自由切换 LLM 大模型,你可以使用经济的 LLM 模型处理简易的大部分任务,而使用较贵的 Claude OPUS 处理复杂的少部分任务,这样你可以节省大量的 Tokens 花费。根据部分社区成员统计,部分项目可以节省 90%的 Tokens 花费。
轻松使用 web 搜索功能
仅需要 LangRouter 平台的一个 api-key ,你不单可以使用主流的 LLM 模型进行项目开发,还可以为 Langcli 编程助手装备上 web 搜索功能,助你进一步提高开发效率。省去了额外配置其它的 api-key 才能使用 web 搜索功能的麻烦。
不担心封号
天下苦 Anthropic 封号久已。LangRouter 平台通过合法的美国公司向 Anthropic 签订批量的采购合同,既不存在封号的问题,又可以向终端客户提供优惠的 Claude OPUS 、Claude sonnet 模型 api 。
[/ol]
有朋友对这款工具同样感兴趣吗?
我体验了 2 天,感觉体验很棒。尤其是 Langcli + deepseek v4 pro 组合,简直是王炸。对于简单任务,动态切换到 v4 flash 模型,速度飞快。

