OpenAI回应Codex模型“哥布林禁令”:称是模型形成的奇怪习惯

OpenAI近日解释了其编程模型中一项看似离奇的内部指令:不要谈论哥布林、精灵、浣熊、巨魔、食人魔、鸽子等生物。此前有报道称,OpenAI给编码模型的提示中包含相关限制,引发外界对模型行为控制方式的关注。OpenAI随后在官网回应称,这类生物引用并非产品功能设计,而是模型在使用过程中形成的一种“奇怪习惯”,公司试图通过提示约束减少它在代码生成或解释中跑题。事件也反映出大模型在特定任务中可能出现意外语言模式,开发者需要通过系统提示、训练和评估持续修正。OpenAI表示,这类规则背后目的是提升模型在编程场景下的专注度和可用性。据The Verge报道。

来源:The Verge
原始发布时间:2026-04-30T09:42:29-04:00