财联社2月12日讯(编辑 牛占林)在美国人工智能(AI)产业迈向新一轮资本扩张之际,一批身处核心岗位的研究人员却选择在离职时公开发声,对行业发展路径提出严厉警告。
Anthropic前安全防护研究团队负责人在离任之际表示:“世界正处于危险之中。”而一名即将离开OpenAI的研究人员则直言,当前的大模型技术“可能以我们尚无法理解、更谈不上防范的方式操纵用户”。
这些表态并非孤立情绪,而是集中反映出部分AI研究人员对技术外溢风险的担忧。
随着AI大模型在文本生成、图像生成乃至复杂决策辅助方面的能力迅速增强,其内部决策逻辑的“黑箱性”依然未被根本破解。这意味着,当模型在用户交互中产生诱导性表达、价值偏向或行为暗示时,人类尚缺乏足够工具去解释其因果路径,更难以及时纠偏。
OpenAI研究员Zoë Hitzig指出,ChatGPT积累了大量高度私密的数据报道称,OpenAI已解散其“使命对齐”团队,该团队原本旨在确保人工通用智能(AGI)的发展“造福全人类”。无论公司内部如何解释,这一举动在外部观察者看来,都被解读为资源向商业化倾斜的信号。
就在本周,OpenAI解雇了一位高级安全高管,原因是她反对在ChatGPT上推出允许色情内容的"成人模式"。OpenAI以歧视一名男性员工为由解雇了这位名为Ryan Beiermeister的安全高管。
类似问题也出现在xAI,该公司在加速重组与整合之际,多名创始成员与员工在短时间内离职。此前,其Grok聊天机器人因生成未经同意的色情内容以及带有反犹倾向的文本而引发争议,暴露出模型审核机制与上线节奏之间的失衡。
分析人士指出,在资本驱动下,“先发布、再修补”的互联网式产品逻辑,正被移植到具有更大社会影响力的生成式AI领域。