大量用户发现,OpenAI 刚刚部署了一个名为 GPT-5-Chat-Safety 的新模型,只要用户请求里出现任何情绪化的内容,主模型的输出就会被忽略并用新的安全模型提供响应。

官方从未承认 GPT-5-Chat-Safety 的存在,在 FAQ、API 文档或服务条款里从未提及。OpenAI 曾表示自杀、自残或重大危机场景时才会自动路由,但当前正常对话也会被秘密路由到该模型。目前还没有办法禁用这种行为,并且也不清楚切换具体何时发生。

有用户称之为欺诈行为,因为新模型整体性能更差,只会提供简短回复,而且从未公开披露。在该事件引发轩然大波后,OpenAI 高管 Nick Turley 解释说,新的安全路由系统适用于“敏感和情绪化话题”,并且是基于每条消息和临时机制进行工作的。

—— TechRadar最早发现者Lex

🍀🍀 文章来自网络随意转载 🍀🍀