财联社10月14日讯(编辑 黄君芝)Meta首席人工智能科学家、有“AI教父”之称的杨立昆(Yann LeCun)似乎并不不担心人工智能会对人类构成威胁。

他在接受最新采访时详细阐述了自己的观点,并在回答有关AI是否聪明到足以对人类构成威胁的问题时,他说道:“请原谅我的法语不好,但这完全是胡说八道。

杨立昆认为,当今的大型语言模型缺乏一些关键的能力,如持久记忆、推理、规划和理解物理世界。在他看来,AI只是证明你可以操纵语言,但并不聪明,永远不会带来真正的通用式人工智能(AGI)。

事实上,这也并非杨立昆首次发表此类观点。他此前就公开表达过自己的怀疑态度,例如他在X上发帖称,“在我们担心控制超级智能AI之前,我们需要先设计一个更聪明的系统。”

他认为并不能依靠现有的先进大型语言模型来创造出媲美人类智慧的通用人工智能(AGI),因为这些模型只有在获得了正确的训练数据的情况下才能准确回答提示。

总的来说就是,杨立昆认为,目前的大型语言模型尽管在自然语言处理、对话理解、对话交互、文本创作上有着出色的表现,但其仍然只是一种“统计建模”技术,通过学习数据中的统计规律来完成相关任务,本质上并非真正拥有理解和推理能力。

不过,这并不是说他完全怀疑人工智能。他只是认为需要新的方法。例如,他指出Meta的基础AI研究团队正在研究如何消化现实世界的视频。

2018 年,杨立昆与两位同事——蒙特利尔学习算法研究所主任本吉奥(Yoshua Bengio)与前谷歌副总裁杰弗里·辛顿(Geoffrey Hinton)因“让深度神经网络成为计算的关键组成部分”,共同摘得计算机领域的诺贝尔奖——图灵奖。

也正因为如此,上述三位计算机科学家也均被尊称为“人工智能教父”。他们的开创性工作为我们今天使用的人工智能模型开辟了道路,例如OpenAI的ChatGPT和Anthropic的Claude。

但值得一提的是,“AI教父”对这上述问题的看法并不相同。就在上周,同样有“AI教父”之称的本吉奥警告称,我们正在创造比人类更强大的怪物(人工智能)。

“智慧赋予力量,无论谁控制了这种力量——无论是人类水平还是高于人类水平,都将变得非常非常强大。总的来说,技术会被那些想要更多权力的人所利用,例如他们想要经济主导地位、军事主导地位、政治主导地位。因此,在我们创造可能以危险方式集中权力的技术之前,我们需要非常小心。”他说。