联系我们

人工智能

AI是存在威胁吗?

mm

更新

 on

在讨论人工智能(AI)时,一个普遍的辩论是AI是否是存在的威胁。答案需要了解背后的技术 机器学习 (ML),并认识到人类有拟人化的趋势。我们将探索两种不同类型的AI,即现在已经存在并引起人们关注的人工智能(ANI),以及与AI的世界末日演绎形式最常见的威胁,即AI(人工智能)。

人工窄带威胁

要了解什么是ANI,您只需要了解当前可用的每个AI应用程序都是ANI的一种形式。这些是AI领域,其专业领域很狭窄,例如,自动驾驶汽车使用AI的唯一目的是将车辆从A点移动到B点。另一类ANI可能是经过优化可玩的国际象棋程序象棋,即使象棋程序通过使用 强化学习,国际象棋程序将永远无法操作自动驾驶汽车。

由于ANI系统专注于其负责的任何操作,因此无法使用广义学习来占领世界。这是个好消息;坏消息是,由于AI系统依赖人工操作,因此容易受到数据偏差,人工错误甚至更糟糕的人工操作的影响。

AI监控

对人类来说,没有比使用AI侵犯隐私的人更大的危险了,在某些情况下,使用AI监视可以完全阻止人们自由活动。  中国,俄罗斯和其他国家/地区在COVID-19期间通过了法规 使他们能够监视和控制各自人口的流动。这些法律一经制定,就很难消除,特别是在具有专制领导人的社会中。

在中国,相机被安置在人外’家,在某些情况下是在人体内’的家。每次有家庭成员离开时,AI都会监视到达和离开的时间,并在必要时向当局发出警报。似乎还不够,借助面部识别技术,中国可以跟踪每个人每次被摄像机识别出的运动情况。这为控制AI的实体提供了绝对的权力,向其公民提供了绝对零的资源。

为什么这种情况很危险,是因为腐败的政府可以仔细监视记者,政治反对派或任何敢于质疑政府权威的人的动向。很容易理解,当监视每一个动作时,记者和公民将如何谨慎批评政府。

幸运的是,有许多城市正在努力防止面部识别渗透到他们的城市中。值得注意的是 俄勒冈州波特兰市最近通过了一项法律 阻止在城市中不必要地使用面部识别。尽管这些法规的变化可能不会引起公众的注意,但将来,这些法规可能会成为提供某种类型的自治和自由的城市与感到压迫的城市之间的差异。

自主武器和无人驾驶飞机

超过4500项AI研究一直在呼吁禁止使用自动武器, 禁止致命的自主武器 网站。该组织有许多著名的非营利组织作为签署方,例如 人权观察, 大赦国际生命的未来研究所 它本身拥有一个出色的科学顾问委员会,包括埃隆·马斯克(Elon Musk),尼克·博斯特罗姆(Nick Bostrom)和斯图尔特·罗素(Stuart Russell)。

在继续之前,我将分享“生命的未来研究所”的这句话,它最好地解释了为什么存在明显的令人担忧的原因:“与需要人为监督以确保每个目标都在道德和法律上合法的合法性进行验证的半自主武器相反,此类完全自主的武器在没有人工干预的情况下选择和交战目标,完全实现了致命伤害的自动化。”

当前,部署的智能炸弹具有人类选择的目标,然后炸弹使用AI绘制路线并着陆在其目标上。问题是,当我们决定将人完全从等式中删除时,会发生什么?

当AI选择人类需要针对的目标以及被认为可以接受的附带损害的类型时,我们可能已经跨过了不归路。这就是为什么如此多的AI研究人员反对研究与自动武器远程相关的任何事物的原因。

仅试图阻止自主武器研究存在多个问题。第一个问题是,即使加拿大,美国和大多数欧洲国家等发达国家选择同意该禁令,但事实并非如此。 ’这意味着中国,朝鲜,伊朗和俄罗斯等流氓国家将与之抗衡。第二个更大的问题是设计用于一个领域的AI研究和应用程序可能会用于完全无关的领域。

例如, 计算机视觉 不断改进,对于开发自动驾驶汽车,精密医学和其他重要用例至关重要。对于常规无人机或可以修改为自主的无人机,这也至关重要。先进无人机技术的一个潜在用例是开发可以监视和扑灭森林大火的无人机。这将彻底消除消防员的危害。为了做到这一点,您将需要建造能够飞入危害道路,以低能见度或零能见度导航并且能够以无可挑剔的精确度滴水的无人机。然后,在旨在选择性地针对人类的自主无人机中使用这一相同技术并不是一件容易的事。

这是一个危险的困境,在这个时候,没有人完全了解推进或试图阻止自主武器发展的影响。尽管如此,我们仍需要继续关注,增强 吹哨保护 可能使现场人员能够举报滥用行为。

除了流氓操作员,如果AI偏见渗透到旨在成为自主武器的AI技术中,会发生什么?

AI偏差

关于AI的最鲜为人知的威胁之一是AI偏见。这很容易理解,因为大多数是无意的。当AI审查人类提供给它的数据时,使用来自提供给AI的数据的模式识别,AI偏差就会溜走,AI会错误地得出结论,这可能会对社会产生负面影响。例如,从上个世纪的文献中获取有关如何识别医务人员的AI可能会得出有害的性别歧视结论: 女人永远是护士,男人永远是医生.

更危险的情况是 用于判罪犯的AI有偏见 给予少数族裔更长的徒刑。人工智能’犯罪风险评估算法只是研究已馈入系统的数据中的模式。该数据表明,从历史上看,某些少数群体更有可能再次犯罪,即使这是由于数据集不佳而可能受到警察种族特征的影响。有偏见的人工智能会加剧负面的人为政策。这就是为什么AI应该作为指导方针,而不要进行判断和陪审。

回到自动武器,如果我们的AI对某些族裔有偏见,它可以选择基于有偏见的数据来针对某些个人,并且可以确保任何类型的附带损害对某些人口的影响都小于其他人。 。例如,在针对恐怖分子时,在袭击之前,它可以等到恐怖分子被那些遵循穆斯林信仰而不是基督徒的人包围。

幸运的是,事实证明,由不同团队设计的AI不太容易产生偏见。对于企业而言,这是有足够的理由尝试尽可能雇用多样化的全面团队的原因。

人工智慧威胁

应该说,尽管AI呈指数级增长,但我们仍未实现AGI。我们何时到达AGI尚待辩论,每个人在时间表方面都有不同的答案。我个人赞同Ray Kurzweil(发明家,未来派和作者)的观点‘奇点接近”谁相信我们会 到2029年实现AGI.

AGI将成为世界上最具变革性的技术。在AI获得人类级智能的几周内,它将达到 超级智能 被定义为远远超过人类的智力。

借助这种智能水平,AGI可以快速吸收所有人类知识,并使用模式识别来识别引起健康问题的生物标记,然后通过使用 数据科学。它可以创造出进入血液中以靶向癌细胞或其他攻击媒介的纳米机器人。 AGI所能取得的成就是无限的。我们’我以前曾探索过一些 AGI的好处.

问题在于人类可能不再能够控制AI。 Elon Musk对此描述如下:”借助人工智能,我们可以召唤恶魔.’我们能控制这个恶魔的问题吗?

除非AI离开模拟环境以在我们的开放世界中进行真正的交互,否则实现AGI可能根本是不可能的。不能设计自我意识,相反,人们认为 紧急意识 当AI具有具有多个输入流的机器人体时,它可能会演变。这些输入可能包括触觉刺激,具有增强的自然语言理解能力的语音识别以及增强的计算机视觉。

可以使用无私的动机对高级AI进行编程,并希望拯救地球。不幸的是,人工智能可能会使用 数据科学,甚至 决策树 以得出不想要的错误逻辑,例如评估是否有必要对人类进行消毒或消除某些人口以控制人口过多。

构建具有远远超过人类的智能的AI时,需要仔细思考和思考。已经探索了许多噩梦场景。

回形针最大化器论证中的尼克·博斯特罗姆教授 有人认为,如果配置不正确的AGI,如果指示他们生产回形针,只会消耗地球的全部资源来生产这些回形针。虽然这似乎有些牵强,但更务实的观点是AGI可以由流氓国家或道德不佳的公司控制。该实体可以训练AGI以使利润最大化,并且在这种情况下,如果程序设计不佳且悔恨为零,它可以选择破产竞争对手,摧毁供应链,入侵股票市场,清算银行账户或攻击政治对手。

这是我们需要记住人类趋于拟人化的时候。我们不能给AI人性化的情感,需求或欲望。虽然有一些以娱乐为生的恶性人类,但没有理由相信AI容易受到这种行为的影响。对于人类来说,甚至无法考虑AI如何看待世界。

取而代之的是,我们要做的是教AI始终尊重人类。 AI应该始终由人工确认设置的任何更改,并且应该始终具有故障保护机制。再有一次,有人争论说AI只会在云端复制自己,而到我们意识到它具有自我意识时,可能为时已晚。

这就是为什么尽可能多地开放AI并就这些问题进行理性讨论如此重要的原因。

概要

人工智能面临着许多挑战,幸运的是,我们仍然有很多年时间来共同弄清楚我们希望AGI采取的未来道路。在短期内,我们应该专注于创建多样化的AI劳动力,其中包括尽可能多的女性和男性,以及尽可能多的具有不同观点的族裔群体。

我们还应该为从事AI的研究人员建立举报人保护机制,并应通过法律和法规,以防止对州或公司范围的监视行为的广泛滥用。人类有千载难逢的机会在AI的帮助下改善人类状况,我们只需要确保我们精心创建一个社会框架即可最大程度地发挥积极作用,同时减轻负面影响,包括生存威胁。

安东尼·塔迪夫(Antoine Tardif)是 Futurist 他对AI和机器人技术的未来充满热情。他是 BlockVentures.com并已投资了50多个AI和区块链项目。他是的联合创始人 Securities.io 一个专注于数字证券的新闻网站,是unite.AI的创始合伙人。他也是 福布斯技术委员会。