可以参考下 sillytavern 圈子里的各种方法(他们叫「破限」),我从里面看到的一个比较巧妙的方法是在 system prompt 里面,让 AI 以一些"安全词"替换"危险词",然后输出到本地时,通过正则表达式替换为正确的词语。 当然,最简单的还是选择道德审查比较弱的开源模型,比如 commander+ 这些