联系我们

人工神经网络

缺乏对人工智能的信任的新见解

已发表

 on

最近的研究为确定个人对人工智能(AI)的信任程度提供了新的见解。由关系心理学家Omri Gillath领导的堪萨斯大学团队,详细介绍了这种关系如何受到个人的现实生活关系或依恋风格的影响。

该团队由来自心理学,工程学,商业和医学等不同学科的各种专家组成。 

该论文发表在杂志上 人类行为中的计算机

根据研究,如果人们担心与人类之间的现实关系,他们对AI系统的信任度就会降低。本文还详细介绍了如何通过提醒个人与人之间稳定的人际关系来增强对人工智能的信任。

尽管估计全球人工智能市场在2019年将达到399亿美元,但新的人工智能技术之间仍然存在高度不信任。 

增加信任

研究团队不仅发现了AI系统缺乏信任的问题,而且还提出了增加信任的方法。关于人际关系的研究提出了一些不同的东西。

首先,据预测患有依恋焦虑的人对人工智能的信任度较低。其次,通过增强依恋焦虑,降低了对人工智能的信任。最后,当附件安全性得到增强时,对人工智能的信任也会增加。 

Gillath是KU的心理学教授。 

“对人工智能信任的大多数研究都集中在增进信任的认知方法上。在这里,我们采取了一种不同的方法,将重点放在“关系情感”途径上以增进信任,将AI视为合作伙伴或团队成员而不是设备,” Gillath说。 

“发现依恋风格之间的关联—代表人们在亲密关系中的感觉,思维和行为方式的个体差异—她对AI的信任为获得新的认识和可能进行新的干预以诱导信任铺平了道路。”

通过研究,该团队提出了一种新的方式来研究人工智能及其周围的信任,特别是影响信任的因素。它可以起到促进将AI引入工作场所和新环境中的作用。 

吉拉特说:“研究结果表明,您可以根据人们与人类的早期关系,预测并提高人们对非人类的信任程度。” “这有可能改善新技术的采用以及在工作场所中集成AI。” 

对AI的不信任

人们对AI的不信任并不是什么新鲜事。在过去的几年中,人们对该技术及其实施方式一直持怀疑态度。这绝不是没有根据的,因为多年来形成了各种问题以引起这种不信任。 

就在最近,来自一些世界顶级机构的国际科学家 批评人工智能研究缺乏透明度。早在2019年6月,美国就看到了 由于算法错误而导致误捕的第一种情况。还有更多示例,例如 偏向 计算机视觉政府对AI的使用 用于战斗和监视。 

尽管所有这些示例似乎都离个人很远’凭着AI的亲身经历,它们无疑在形成对该技术的整体认知中发挥了作用。堪萨斯大学即将开展的新研究为解决其中一些问题提供了急需的见识。 

 

亚历克斯·麦克法兰(Alex McFarland)是一位历史学家和新闻工作者,报道了人工智能的最新发展。