比如我自定义了一大堆内容,在 chatgpt 中调好了,放在 llama 、mistral 、文心一言等各大模型,究竟有多大差异? 这背后的问题是,每个大模型都得用其专有的 prompt 来使用吗? 如果我开发时使用某个模型,后来模型升级了,难道提示词又得变?我觉得未来大模型升级可能会是一个问题 prompt, 模型, 文心, mistral
最好针对不同的大模型微调,我原来写的一个视频总结 prompt ,gpt4 可以稳定使用,gpt3.5 就有概率返回的 json 格式不规范,星火也会出现各种奇怪的问题。最好能针对在各个模型上出现的 bad case 进行微调