联系我们

思想领袖

先进的AI技术带来道德挑战– Thought Leaders

mm

已发表

 on

小副总裁阿尔弗雷德·克鲁斯(Alfred Crews)&情报局首席顾问 & Security sector of BAE系统公司

今年年初,在全球大流行之前,我参加了 城堡的情报道德会议 在查尔斯顿(Charleston),我们讨论了情报收集中的道德问题,因为这与保护国家安全有关。在国防工业中,我们看到了知识,计算和先进技术的扩散,特别是在人工智能(AI)和 机器学习 (ML)。但是,在情报收集或实时战斗的环境中部署AI时可能会遇到重大问题。

人工智能与量子计算结合存在风险

我们必须质疑,分析和确定前进的道路是在战时决策过程中结合使用AI和量子计算功能。例如,还记得终结者吗?随着我们技术的飞跃发展,天网呈现的现实已经摆在我们面前。我们可能会问自己:“天网会来吸引我们吗?”和我一起在记忆里漫步; AI机器接管是因为它们有能力自己思考和做出决定,而无需人工指导。当机器推断出人类是虫子时,他们便开始消灭人类。不要误会我的意思,人工智能具有巨大的潜力,但我认为它必须具有控制参数,因为涉及到风险因素。

AI的道德歧义&哲学困境

我认为这正是美国国防部(DoD)发布自己的文件的原因 人工智能的道德原则,因为使用AI会引发新的道德歧义和风险。当将AI与量子计算功能相结合时,决策能力的改变和失控风险的增加将比我们今天意识到的要多。量子计算使人脑的操作系统蒙羞,因为超级计算机可以比人脑所能做到的更快,更准确地进行指数级的计算。

此外,将AI与计算结合使用会带来哲学上的困境。世界将在什么时候允许机器拥有自己的意志;如果允许机器独立思考,这是否意味着机器本身已经具有自我意识?自我意识是否构成生活?作为一个社会,我们尚未确定如何定义这种情况。因此,按照今天的现状,机器在没有人控制的情况下自行采取行动可能会导致后果。机器能超越人类的干预来灭火吗?如果机器自己运行,我们可以拔下插头吗?

如我所见,从防御的角度使用AI很容易。但是,转移到进攻中会容易得多吗?在进攻端,机器将当场做出战斗射击决定。射向敌人的机器会违反《日内瓦公约》和武装冲突法吗?迅速进入这个领域,世界必须同意,在战斗中使用AI和量子计算必须纳入我们目前制定的法律中。

国防部在将AI与自治系统配合使用时处于有利位置,并指出始终会有人参与决策过程;一个人最终会拉动扳机发射武器。这是我们的规则,但是如果对手决定走另一条路线并让具有AI能力的机器做出所有最终决定,会发生什么?然后,正如我们所讨论的,已经更快,更智能,更准确的机器将具有优势。

让我们看一下配备有AI和面部识别功能的无人驾驶飞机:这架无人驾驶飞机是由于预先确定的标为恐怖分子的目标而自行发射的。谁真正负责解雇?如果有偏见,是否有责任制?

偏向AI / ML

研究指出了这样一个事实:机器比人类更容易犯错误。但是,研究也证明,基于人类“老师”对机器进行教学的机器学习存在偏见。国防部的AI的五项道德原则指出,“国防部将采取有步骤的措施以最大程度地减少AI功能中的意外偏差。”我们已经知道了 可靠的研究 在使用面部识别应用程序时,偏向带有假阳性的有色人种。当一个人创建教机器如何做决定的代码时,就会有偏差。这可能是无意的,因为创建AI的人并不了解自己内部存在的偏见。

那么,如何消除偏见呢? AI输出仅与输入一样好。因此,必须有控件。您必须控制流入的数据,因为这会使AI结果的有效性降低。开发人员将不得不不断地重新编写代码以消除偏差。

定义最佳技术使用的世界  

技术本身不是好事还是坏事。一个国家如何利用它,可以善意利用并使其出错。随着技术以影响人类生活的方式发展,世界必须共同努力确定适当的行动。如果我们在AI应用程序中将人排除在外,那么在拉动触发器之前,我们也会采取停顿措施–指导我们的道德指南针;当我们停下来并问:“这对吗?”被教导要参与的机器不会暂停。那么,问题是,未来世界将代表这一立场吗?世界将走多远才能让机器做出战斗决定?

小阿尔弗雷德·克鲁斯(Alfred Crews) is vice president and情报局首席顾问 & Security sector of BAE Systems Inc,是为美国国防部,情报部门,联邦民政机构和在世界各地部署的部队提供跨越空中,陆地,海洋,太空和网络领域的大规模系统工程,集成和维护服务的领导者。乘员组负责监督该部门的法律,出口控制和道德职能。