当地时间4日,13位来自OpenAI和Google的现任及前任员工联合发布了一封公开信,引发广泛关注。这些员工在信中表达了对人工智能技术潜在风险的严重担忧,并呼吁相关公司采取更加透明和负责任的措施来应对这些风险。

13位OpenAI、谷歌现任及前任员工发联名信

这封公开信由多位知名人士联名背书,包括被誉为“人工智能教父”的杰弗里•辛顿(Geoffrey Hinton)、因开创性AI研究获得图灵奖的约书亚•本吉奥(Yoshua Bengio)以及AI安全领域的学者斯图尔特•罗素(Stuart Russell)。

“AI教父”背书,13位OpenAI、谷歌现任及前任员工联名警告:AI失控或导致人类灭绝-编程日记
图片来源:Right To Warn AI

信中指出,尽管人工智能技术可能会给人类带来巨大益处,但其带来的风险同样不容忽视。这些风险包括加剧社会不平等、操纵和虚假信息传播,以及自主AI系统失控可能导致的人类灭绝信中强调,这些风险不仅得到了人工智能公司本身的确认,也得到了世界各国政府和其他AI专家的认可。

公开信签署者们表示,他们希望在科学界、政策制定者和公众的指导下,能够充分缓解这些风险。然而,他们担心,人工智能公司由于强烈的经济动机,可能会避免接受有效的监督。他们认为,仅靠现有的公司治理结构不足以解决这一问题。

信中还提到,人工智能公司掌握着大量关于其系统能力和局限性、保护措施的充分性以及各种风险水平的非公开信息。然而,这些公司目前对与政府分享信息的义务很弱,且完全没有义务与公众分享。签署者们认为,不能完全依赖这些公司自愿分享信息。

信中提到,由于严格的保密协议,员工们在表达对AI风险的担忧时,面临着种种限制。而目前对于举报人的保护措施尚存在不足,一些员工担心因提出批评而遭受报复。

联名信呼吁人工智能公司承诺员工对公司提出风险相关的批评时,不对其进行打击报复,建立匿名举报机制,支持开放批评的文化,并保护员工公开分享风险相关信息的权利。

“AI教父”背书,13位OpenAI、谷歌现任及前任员工联名警告:AI失控或导致人类灭绝-编程日记
图片来源:X

OpenAI前员工丹尼尔•科泰洛 (Daniel Kokotajlo)是此次联名信公开署名人员中的一位。他在社交平台上连发15条消息表示:“我们中一些最近从OpenAI辞职的人聚集在一起,要求实验室对透明度作出更广泛的承诺。”

丹尼尔提到,他今年四月辞职,是因为对该公司在构建通用人工智能方面是否会采取负责任的行为失去了信心。他指出,尽管他希望公司在AI功能越来越强大的同时,能在安全研究方面投入更多资金,但OpenAI并未做出相应调整,导致多名员工相继辞职。

他强调,OpenAI等实验室构建的系统有能力给人类社会带来巨大的好处,但如果不谨慎处理,长期来看,可能是灾难性的。他还提到,当前AI技术几乎未收监管,主要是公司在进行自我监管,而这种方式存在巨大的风险。

丹尼尔透露,离职时他被要求签署一份“封口协议”,其中包含一项不贬损条款,禁止他发表任何批评公司的话,否则将失去已归属的股权。然而,他在深思熟虑后,依旧决定放弃签署协议。

“AI教父”背书,13位OpenAI、谷歌现任及前任员工联名警告:AI失控或导致人类灭绝-编程日记
图片来源:Dwarkesh Podcast

此外,6月4日,OpenAI前超级对齐部门成员利奥波德•阿申布伦纳(Leopold Aschenbrenner)也在播客节目Dwarkesh Podcast中透露他被开除的真实原因:他给几位董事会成员分享了一份OpenAI安全备忘录,结果导致OpenAI管理层不满。

利奥波德在社交平台表示,到2027年实现AGI是极其有可能的,需要更严格的监管和更透明的机制,确保人工智能的安全发展。

“AI教父”背书,13位OpenAI、谷歌现任及前任员工联名警告:AI失控或导致人类灭绝-编程日记

图片来源:X

OpenAI安全主管辞职、“超级对齐团队”解散

此前,OpenAI原首席科学家伊利亚•苏茨克维(Ilya Sutskever)和前安全主管、超级对齐团队负责人杨•莱克(Jan Leike)相继离职。

莱克在离职后,公开批评了OpenAI的管理层,指责其追求华而不实的产品,忽视了AGI(通用人工智能)的安全问题。他称OpenAI领导层关于公司核心优先事项的看法一直不合,超级对齐团队过去几个月一直在逆风航行,在提升模型安全性的道路上受到公司内部的重重阻碍,“(OpenAI)安全文化和安全流程已经让位给闪亮的产品”。

“AI教父”背书,13位OpenAI、谷歌现任及前任员工联名警告:AI失控或导致人类灭绝-编程日记

图片来源:X

每日经济新闻综合公开消息