联系我们

伦理

提倡风险的机器人在新研究中超越了直接的经验和直觉

更新

 on

南安普敦大学的一项新研究表明,与没有什么影响人们行为的机器人相比,机器人可以如何鼓励人们承担更大的风险。在模拟赌博场景中进行的实验可帮助专家从道德和实践角度更好地理解冒险行为和机器人技术。

该研究由南安普敦大学风险管理副教授Yaniv Hanoch博士领导。它发表在杂志上 网络安全,行为和社交网络.

Hanoch博士说:“我们知道同伴的压力会导致更高的冒险行为。” “随着人与技术之间(无论是在网络上还是在身体上)互动的规模不断扩大,至关重要的是,我们必须了解有关机器是否可以产生类似影响的更多信息。”

本实验

这项研究涉及180名参加气球模拟风险任务(BART)的大学生,这是一项计算机评估,要求用户通过按键盘上的空格键在屏幕上膨胀气球。每按一次,气球就会略微膨胀,并且玩家每次在其“临时货币库”中都会获得一分钱。气球可以随时爆炸,导致玩家损失任何金钱,但是他们可以选择“兑现”,然后再给气球充气。

三分之一的参与者是对照组,他们独自在房间里参加了测试。另有三分之一的人在仅提供指令的机器人的陪伴下进行了测试,否则完全保持沉默。最后一个小组是实验小组,与一个提供指导并说出令人鼓舞的陈述的机器人一起参加了测试,例如“为什么停止抽水”。

受机器人鼓励的第三组比其他组表现出更多的危险行为,炸毁了气球。同时,与其他群体相比,他们的收入更高。至于由无声机器人陪伴且没有任何机器人的组,两者之间没有显着差异。

汉诺克博士说:“我们看到,处于控制状态的参与者在气球爆炸后降低了冒险行为,而处于实验状态的参与者继续承担着与以往一样大的风险。” “因此,从提倡风险的机器人那里获得直接鼓励似乎超越了参与者的直接经验和直觉。”

研究人员将进行进一步的研究,以更好地了解人类与其他人工智能(AI)系统(包括数字助手)的交互。

Hanoch博士继续说:“随着AI技术的广泛普及及其与人类的互动,这是一个需要研究界紧急关注的领域。”

“一方面,我们的结果可能会引起人们对机器人通过增加危险行为造成伤害的前景的警觉。另一方面,我们的数据指出了在预防计划中使用机器人和AI的可能性,例如学校的反吸烟运动,以及难以上瘾的人群,例如上瘾者。”