联系我们

人工神经网络

研究人员开发“ DeepTrust”工具来帮助提高AI的可信度

已发表

 on

人工智能(AI)的安全性和可信赖性是该技术的最大方面之一。不同领域的顶级专家正在不断地对其进行改进和研究,这对于在整个社会中全面实施AI至关重要。 

其中一些新工作来自南加州大学,南加州大学维特比工程学院的研究人员开发了一种新工具,该工具能够生成自动指标,用于确定AI算法在其数据和预测中是否值得信赖。 

该研究发表于 人工智能前沿 ,标题为“ 毕竟有希望:在神经网络中量化意见和可信度”。该论文的作者包括USC网络物理系统小组的Mingming Cheng,Shahin Nazarian和Paul Bogdan。 

神经网络的可信度

该领域最大的任务之一是使神经网络生成可以信任的预测。在许多情况下,这就是阻止完全采用依赖人工智能的技术的原因。 

例如,要求自动驾驶车辆独立行动并做出关于自动驾驶的准确决策。他们需要能够非常快速地做出这些决策,同时还要解密和识别道路上的物体​​。这一点至关重要,尤其是在该技术必须破译减速带,某些其他物体或生物之间的差异的情况下。 

其他场景包括自动驾驶汽车决定当另一辆汽车正面朝上时该怎么做,而最复杂的决定是,该自动驾驶汽车是否需要在击中它所感知的另一辆汽车,某些物体,或生物。

这一切都意味着我们将极大地信任自动驾驶汽车软件的能力,以在短短的几分之一秒内做出正确的决定。当来自不同传感器的信息冲突时,这将变得更加困难,例如 计算机视觉 从相机和激光雷达。 

主要作者程敏西决定在考虑了这个项目后说:“即使在某些决策场景中,人类也可能举棋不定。在涉及信息冲突的情况下,为什么机器在不知道的时候不能告诉我们?”

深度信任

明谢电子与计算机工程学系副教授保罗·博格丹(Paul Bogdan)表示,研究人员创建的工具称为DeepTrust,它能够量化不确定性。 

该团队花费了近两年的时间开发DeepTrust,主要使用主观逻辑来评估神经网络。在该工具发挥作用的一个例子中,它能够查看2016年总统大选的民意调查,并预测希拉里·克林顿(Hillary Clinton)获胜的可能性更大。 

深度信任 工具还使测试通常在多达数百万个数据点上训练的AI算法的可靠性更加容易。另一种方法是通过独立检查每个数据点以测试准确性,这是一项非常耗时的任务。 

根据研究人员的说法,这些神经网络系统的体系结构更加准确,并且准确性和信任度可以同时最大化。

“据我们所知,没有信任量化模型或工具可用于 深度学习,人工智能和 机器学习。这是第一种方法,开辟了新的研究方向。” 

Bogdan还相信DeepTrust可以帮助将AI推进到“感知和自适应”的地步。