联系我们

人工智能

研究人员说人类将无法控制超智能AI

更新

 on

任何了解人工智能(AI)的人都可能听说过有关人工智能的某些版本,最终摆脱了人工控制。这不仅是科幻电影的主题,而且还有很大的可能性被相关行业的许多专家所采用。许多这样的专家,包括科学家,都主张我们开始为这种可能性做准备,并以任何可能的方式避免这种可能性。 

现在,一个国际研究人员团队采纳了这个想法,并通过理论计算来支持它。该团队由马克斯·普朗克人类发展研究所人类与机器中心的科学家组成,他们使用这些计算来证明如何控制超级智能AI。 

该研究最近发表在 人工智能研究杂志

超智能AI系统

对超级智能AI系统的恐惧与这样一个事实有关,即这样一个系统将远远优于人类。它不仅能够独立学习,而且还可以访问所有现有数据并极其快速地对其进行处理。 

此类事件可能导致超智能AI在线超过所有现有机器,尽管它可以并且将做诸如治愈疾病和解决人类面临的其他主要问题之类的事情,但失控的风险也很高。 

曼努埃尔·塞布里安(Manuel Cebrian)是该研究的合著者,也是马克斯·普朗克人类发展研究所人类与机器中心的数字动员小组的负责人。 

“控制世界的超级智能机器听起来像科幻小说。但是,已经有机器独立执行某些重要任务,而程序员却没有完全了解他们是如何学习的。因此,出现的问题是,这是否有可能在某时变得不可控制且对人类构成危险,” Cebrian says. 

控制系统

关于控制这样的系统,有两种主要的思想流派。首先,人类可以通过限制对某些数据源(例如整个互联网)的访问来限制超级智能AI的功能。该系统也可以在不与外界接触的情况下运行。但是,这样做的问题是,它将极大地限制AI的潜力。

仅通过允许该系统追求有益于人类的结果,就可以控制该系统,而这可以通过在其中编写道德原则来实现。 

该研究涉及团队开发一种理论上的遏制算法,该算法可防止超智能AI在任何情况下都对人类造成伤害。这可以通过首先创建AI行为的模拟并检测任何可能有害的行为来实现。尽管有这种有前途的理论,但当前的分析表明无法开发这种算法。 

伊亚德·拉万(Iyad Rahwan)是人与机器中心的主任。

“如果将问题分解为理论计算机科学的基本规则,就会发现,命令AI不破坏世界的算法可能会无意中止其自身的运行。如果发生这种情况,您将不知道遏制算法是否仍在分析威胁,或者它是否已停止遏制有害的AI。实际上,这使遏制算法无法使用,” says Rahwan.

另一个问题是,专家甚至可能不会意识到超级智能机器何时达到该状态,这主要是因为它比人类更智能。 

 

亚历克斯·麦克法兰(Alex McFarland)是一位历史学家和新闻工作者,报道了人工智能的最新发展。