联系我们

人工神经网络

人工智能 可以通过新算法避免特定的有害行为

mm

已发表

 on

随着人工智能算法和系统变得越来越复杂并承担更大的责任,确保人工智能系统避免危险的有害行为变得越来越重要。最近,来自马萨诸塞州大学阿默斯特分校和斯坦福大学的一组研究人员 published a paper 通过使用一种引发精确数学指令的技术来演示如何避免特定的AI行为,该数学指令可用于调整AI的行为。

根据TechXplore,这项研究是基于这样的假设,即可以用数学函数和变量定义不公平/不安全行为。如果这是真的,那么研究人员应该有可能训练系统来避免这些特定行为。该研究团队旨在开发一种工具箱,供AI的用户使用,以指定他们希望AI避免哪些行为,并使AI工程师能够可靠地训练系统,从而避免在实际场景中使用时会避免不必要的动作。

菲利普·托马斯(Phillip Thomas)是第一篇论文的作者,也是密歇根大学阿默斯特分校的助理计算机科学教授。 机器学习 算法可以使AI利用者更容易描述不良行为,并且AI系统极有可能避免该行为。

研究小组通过将其应用于以下常见问题来测试他们的技术 数据科学 ,性别偏见。该研究小组旨在通过减少性别偏向使用于预测大学生GPA的算法更加公平。研究团队利用实验数据集并指示其AI系统避免创建一个模型,该模型对某一种性别的GPA均被低估/高估。根据研究人员的指示,该算法创建了一个模型,该模型可以更好地预测学生的GPA,并且系统性别偏见要比以前的模型好得多。以前的GPA预测模型存在偏差,因为偏差减少模型通常太受限制而无法使用,或者根本没有使用偏差减少。

研究小组还开发了另一种算法。该算法在自动胰岛素泵中实现,该算法旨在兼顾性能和安全性。自动化胰岛素泵需要确定患者应服用多少剂量的胰岛素。进餐后,理想情况下,该泵将输送足够大的胰岛素剂量以控制血糖水平。输送的胰岛素剂量不能太大或太小。

机器学习算法已经能够熟练识别个体对胰岛素剂量的反应模式,但是这些现有的分析方法可以’•让医生指定应避免的结果,例如低血糖崩溃。相比之下,研究团队能够开发出一种方法,可以对其进行训练,以提供两种极端情况下的胰岛素剂量,从而防止用药过量或用药过量。虽然,系统是’尚未准备好在实际患者中进行测试,基于此方法的更先进的AI可以改善患有糖尿病的患者的生活质量。

在研究论文中,研究人员将该算法称为“ Seledonian”算法。这是参考科幻作者Isaac Asimov所描述的三个机器人定律。这意味着AI系统“可能不会伤害人类,也不会通过无所作为而伤害人类。”研究团队希望他们的框架将允许AI研究人员和工程师创建各种避免危险行为的算法和系统。该论文的资深作者,斯坦福大学计算机科学助理教授Emma Brunskill, 向TechXplore解释:

“我们希望推动尊重人类用户价值并证明我们对自治系统的信任的人工智能。”