原因太多了,可能是: 1. Coder 提示词不干净 2. 自己加了提示词 3. 模型因没有针对性训练,出现幻觉随口瞎答 4. 模型因上下文太长出现幻觉 5. 主观上想蒸馏,直接收集和训练了 Claude Sonnet 的数据 6. 主观上不想蒸馏,但搜集到的互联网训练数据被 Claude Sonnet 污染的比例太大 7. …… > 底层是 claude 吗 我很好奇「底层」是什么意思?有种「拿着前后端知识强行解释不熟悉的领域」的美。我猜你是指「阿里云提供的 Coder API 实际上是直接调用 Claude 的 API 」? Anthropic 的 API 那么贵,阿里图啥?就为了名声硬烧钱?而且 Anthropic 自己肯定会阻止这种行为啊,人又不傻 > 我使用千问 coder 回答是 Claude3.5 但是我使用千问 3max 回答就是 Claude4 ,内置不应该回答是同一个模型吗 不应该啊,为什么应该?你绝对肯定地给出这个论断的理论依据是什么?