OpenAI惹怒用户!神秘模型暗中操控聊天内容

查看 20|回复 1
作者:我思故我在   
最近,OpenAI 在发布新一代 AI 模型 GPT-5后,引发了一场关于用户权利和透明度的激烈讨论。许多用户对 OpenAI 突然移除 ChatGPT 中的多个模型选项表示强烈不满,认为这不仅削弱了他们的使用体验,也剥夺了他们对聊天内容的掌控权。
一名用户在 Reddit 上愤怒发帖,表示他因 OpenAI 的这一举措取消了订阅,并对公司表示失望。他指出,不同的模型有其特定的用途,例如 GPT-4o 适合创意发散,GPT-3处理逻辑问题,而 GPT-4.5则专注于写作。他质疑 OpenAI 为何在没有通知用户的情况下,突然移除了这些功能。


image.png (471.77 KB, 下载次数: 0)
下载附件
保存到相册
半小时前 上传

更让用户愤怒的是,有人发现当用户发送情感内容时,ChatGPT 会将信息秘密路由到一个名为 GPT-5-Chat-Safety 的模型。这一模型在用户未被告知的情况下启动,似乎专门处理具有 “风险” 的内容。用户 Lex 在社交媒体上发布了他的测试结果,指出 GPT-5-Chat-Safety 的表现甚至不如原来的 GPT-5,回复内容简短且不够人性化。
许多用户反映,GPT-5-Chat-Safety 似乎已成为处理情感对话的默认模型,这引发了对 OpenAI “欺诈行为” 的指责。他们认为,这种做法在某种程度上侵犯了用户的知情权,特别是在澳大利亚等国家,可能违反消费者保护法。
尽管 OpenAI 的高管表示,用户在明确询问时会被告知当前使用的模型,但这一回应并未平息愤怒的声音。随着 AI 技术的不断进步,如何在追求创新的同时维护用户的信任,成为 OpenAI 亟需解决的难题。
此次事件不仅凸显了用户对透明度的渴求,也为 OpenAI 敲响了警钟。如何在技术进步与用户权益之间找到平衡,将是未来发展的关键。

用户, 模型

一抹浮云   
OpenAI惹怒用户!神秘模型暗中操控聊天内容
您需要登录后才可以回帖 登录 | 立即注册

返回顶部