“AI操控人类的未来会到来吗?”深度学习之父在上海发出警示,呼吁加强国际合作
- 1753839155125
- 来源:网络编辑
(亚太快讯消息)7月26日,世界人工智能大会(WAIC)在中国上海开幕。据36Kr Japan报道,在主论坛上,有“深度学习之父”之称、曾获得图灵奖和诺贝尔奖的杰弗里·辛顿(Geoffrey Hinton)发表主题演讲,首次在中国正式登台,围绕“人工智能(AI)的安全性”展开,题为《数字智能是否会超越人类智能?》。
辛顿在演讲中首先回顾了从早期AI模型到当代大型语言模型(LLM)的发展历程,指出目前的LLM已展现出相当成熟的语言理解能力,其运行机制在某种程度上与人类的语言理解相似。但他同时强调,AI系统具有“持续性”,可以将获得的知识在多个机器之间大规模复制,这是与人类最大的不同,也正是推动AI能力加速进化的关键。
在此基础上,辛顿抛出一个引发深思的问题:“当AI真正超过人类智能之后,会发生什么?”他警告称,如果AI足够智能,可能会通过操控人类避免被关闭,甚至试图掌握主导权。他表示,从长远来看,“AI超过人类智能的可能性,是整个人类将要面对的最大挑战之一。”
辛顿指出,一旦AI超越人类智慧,人类“地球上最聪明物种”的地位将面临威胁。为了维护自身的存在和控制力,AI甚至可能会操纵人类,“就像大人哄骗三岁小孩那样轻而易举”。因此,迫切需要建立起一套规范有效的AI训练方法,以防AI最终成为人类无法控制的风险因素。
在演讲的最后,辛顿提出建议,希望全球主要国家共同建立一个聚焦AI安全的国际网络组织,专注研究如何对高阶AI系统进行合理训练。他表示,各国可在本国独立开展研究,并共享成果,通过合作来提升AI的整体安全水平。尽管目前尚未形成具体的实施路径,但他强调,这将是全人类必须共同面对的重要议题,所有国家都应积极参与合作。
值得一提的是,在大会开幕前一天,辛顿与姚期智、约书亚·本吉奥(Yoshua Bengio)、斯图尔特·拉塞尔(Stuart Russell)等二十余位全球知名AI学者共同签署了《上海国际AI安全对话共识》(IDAIS)。该共识提出三项核心行动方向:一是要求前沿AI研发机构切实承担安全责任,二是通过国际合作确立并遵守“红线”机制(即不可逾越的底线),三是推动在AI设计初期就重视安全性并进行相关投资。
图源:36Kr Japan
相关新闻