我们这边踩过一圈坑,大概是这样:
最开始用 Claude Code + 一堆 skill ,想把公司内部框架的规则和上下文喂给 AI 。结果实际效果很玄学,什么时候触发、触发得准不准,基本像开盲盒。
后来又改成用 hook 做拦截,根据上下文去判断该加载哪些 skill ,于是开始疯狂写路由、写判断、写分发逻辑。表面上更“可控”了,但维护成本也直线上升,系统越来越像在给 AI 外挂一个 AI 翻译层。
再后来还接了 MCP ,尝试让它按需补充证据和上下文,效果有提升,但整体还是没达到“真正好用”的程度。说白了,就是链路越搭越复杂,体验却没有质变,多少有点像给拖拉机装涡轮,声音很大,速度一般。
所以想问问大家:
你们在企业内部落地 AI 编程时,碰到这种“内部框架太重、AI 适配不好”的情况,一般怎么处理?
是靠更细的规则编排、RAG / MCP / hook 这类方案,还是干脆从工程规范、框架抽象、代码组织方式上反过来改?
很想听听一线经验,少踩点坑。

