@xiaomushen 之前爆出过,但是我一直没用过国内的,我一般都是 chatgpt 刚刚刷到 Qwen3max 全球前三 https://www./t/1161512#reply32 这个帖子,然后就体验了下国内的,就感觉应该不会犯这种低级错误了才对
模型不存在什么底层不底层,我也是用这个插件,也是用的千问 coder3 ,我这随便换一个国外模型他也是说自己是 claude ,很明显这个插件内置了提示词,它是开源的,代码找找就知道了。 
@ZzzWatch 蛮正常的,不是说最新就最好,否则就没有那么多新的算法逻辑,工程逻辑弄出来的长上下文,高效推理技术,工具,多模态这些了.发展到这个时间了.基本就是各种蒸馏数据了.传统数据垃圾信息太多,不好做训练处理.蛮正常,越发展数据越雷同,最后就看各家的架构和算法了
@ZzzWatch 这个问题恰好说明了 ai 的不可靠性,现在固定回复的,都是有规则干预的,原始训练的数据出来的 ai ,会出现乱回复的很正常,它本身没有一个自我的认知,真能感知自我,那乐子就大了去了。
@ZzzWatch #16 用一部分 claude 输入输出来训练,跟模型能力超过 claude ,完全不冲突。不恰当的比方,跟路边大妈问路,说明大妈学历高吗? “你是谁”或者“你是哪个模型”这种问题没啥意义,厂商微调过这类问题就能回答得很好,没关心这类问题就会回答的五花八门。