联系我们

伦理

研究人员相信AI可以用来帮助保护人们’s Privacy

mm

已发表

 on

两位信息科学教授最近发表了 对话中的一块,他们认为AI可以帮助保护人们的隐私,并纠正它造成的一些问题。

Chen Zhiyuan Chen和Aryya Gangopadhyay认为,人工智能算法可用于捍卫人们的隐私,从而抵消了AI其他用途引起的许多隐私问题。 Chen和Gangopadhyay承认,我们为方便起见而使用的许多AI驱动产品如果不访问大量数据就无法工作,乍一看似乎与保护隐私的尝试相悖。此外,随着AI扩展到越来越多的行业和应用程序中,将会收集更多数据并将其存储在数据库中,从而破坏了这些数据库的吸引力。但是,Chen和Gangopadhyay认为,正确使用AI可以缓解这些问题。

Chen和Gangopadhyay在其帖子中解释说,与AI相关的隐私风险至少来自两个不同的来源。第一个来源是收集的用于训练神经网络模型的大型数据集,而第二个隐私威胁是模型本身。数据可能会从这些模型中“泄漏”,而模型的行为会泄露有关用于训练它们的数据的详细信息。

深度神经网络由多层神经元组成,每一层都与它们周围的层相连。单个神经元以及神经元之间的链接对训练数据的不同位进行编码。即使该模型没有过拟合,该模型也可能会记住记忆训练数据的模式,因此效果很好。训练数据的痕迹存在于网络中,恶意行为者可能能够确定训练数据的各个方面,例如康奈尔大学 在他们的一项研究中发现。 康奈尔大学的研究人员发现,攻击者可以利用面部识别算法来揭示使用哪些图像,进而识别哪些人来训练面部识别模型。康奈尔大学的研究人员发现,即使攻击者无法访问用于训练应用程序的原始模型,攻击者仍然可以通过使用模型来探测网络并确定特定人是否包含在训练数据中是经过高度相似的数据训练的。

目前,一些AI模型正用于防止数据泄露,并试图确保人们的隐私。 AI模型通常用于通过识别黑客用来渗透安全方法的行为模式来检测黑客尝试。但是,黑客通常会改变自己的行为,以愚弄模式检测AI。

AI培训和开发的新方法旨在使AI模型和应用程序更不容易受到黑客方法和安全规避策略的攻击。对抗性学习努力在模拟恶意或有害输入的过程中训练AI模型,从而使该模型更易于利用,因此,其名称就是“对抗性”。根据Chen和Gangopadhyay的研究 已经发现 旨在窃取人们私人信息的恶意软件防护方法。两位研究人员解释说,他们发现抵御恶意软件最有效的方法之一是将不确定性引入模型。目的是使不良行为者更难预测模型将如何响应任何给定的输入。

利用AI来保护隐私的其他方法包括在创建和训练模型时最大程度地减少数据泄露,以及探索发现网络的漏洞。在保护数据隐私方面, 联合学习 可以帮助保护敏感数据的私密性,因为它允许训练模型,而训练数据则永远不会离开包含该数据的本地设备,从而隔离了数据和许多模型参数,以防止间谍活动。

最终,Chen和Gangopadhyay认为,尽管AI的扩散给人们的隐私带来了新的威胁,但经过精心设计的AI也可以帮助保护隐私。

专门从事以下工作的Blogger和程序员 Machine Learning Deep Learning 话题。 Daniel希望帮助他人将AI的力量用于社会公益。