联系我们

采访

安德鲁·珀西,伦理福音师,卑鄙– Interview Series

mm

更新

 on

Andrew Pery,是道德福音师艾比,数字情报公司。他们使组织能够获得有价值的,但往往难以实现,洞察力洞察力,以实现真正的业务转型。

Abbyy最近发布了一个全球倡议促进值得信赖的人工智能发展。我们决定向Andrew关于AI,AI滥用的道德的问题,以及AI行业可以对此致力于前进的问题。

最初煽动您对AI伦理的兴趣是什么?

最初引发了我对AI伦理的兴趣是对法律和AI技术交叉的深刻兴趣。我在刑事司法系统中开始了我的职业生涯,代表了没有财政意义承担合法服务的贫困被告。然后,我转变为专注于在法律实践中应用高级搜索和AI的应用。作为一名认证数据隐私专业人士,我特别热衷于隐私法,正确使用与其对齐和提高隐私权的AI技术。

面部识别技术通常被包括美国政府在内的权力来源滥用。这应该是有多重要的社会关注?

面部识别技术的影响应该是一个重要的社会关注,因为这项技术可能会影响许多基本权利,包括经济,社会和担保权。

有明确且引人注目的证据表明面部识别算法不可靠。一个nist面部识别算法发现,非洲裔美国人最可能被错误识别100倍。乔治城法学院的类似研究发现,基于Mug Shots的面部识别算法产生了与非洲裔美国人相关的误报的高比例,以及2018 MIT亚马逊面部识别软件研究发现,虽然白人被准确地确定了99%的时间,黑斑的个体产生高达35%的误报。

由于这些原因,监管机构开始采取措施禁止使用面部识别技术,特别是在监测和分析的背景下。例如,加利福尼亚州参议院通过了全州禁令论面部识别技术的使用和其他生物识别方法。

科技界中还有势头来抵御面部识别软件的营销。 IBM宣布将停止销售面部识别软件,引用它违反基本人权和基本自由。微软还宣布了类似决定停止销售其面部识别技术,也引用了基本的人权。

美国法院用于犯罪风险评估的Compas软件错误地标记了可见的少数罪犯,比白犯罪者更容易重新冒犯。知道这应该在法院中使用AI甚至是一种选择?

学习Compas发现它在预测犯罪时比随机人更好。虽然预测分析在商业背景下提供了重大价值,但已被证明导致其在刑事司法中的申请不公平。这在一个中很明显报告由Pro Publica出版,发现这一点伙计是美国法院使用的最受欢迎的软件,用于犯罪风险评估,错误地标记了可见的少数罪犯,因为较可能会将其两倍于白犯罪者重新偿还。

这些不公平能力促使律师普通埃里克持有人质疑公平性和表达担忧关于AI技术在罪犯群体中预测常规率提出的潜在不公平。

社会如何避免无意地编程到AI系统中的负面偏见?

首先,必须有一个确认,AI可能具有产生意外偏差的倾向,称为无意识的偏差。减轻其不利影响需要一个整体方法,包括道德AI指南的发展,例如经合组织道德框架提出的。这是基于七项基础原则,包括人工机构和监督,技术稳健性和安全,隐私和治理,透明度,多样性和无与伦比,社会福祉和责任。

其次,坚持保护防止自动分析的法律框架是关键。例如,欧盟历史悠久,尊重和保护隐私权,具有最新且强大的表达,是专门保护的一般数据保护条例(GDPR)自动决策.

第三,需要为如何制定AI技术以及提供透明度而不影响其专有知识产权的承诺的行业问责制。这里存在积极的发展。例如, 对AI的伙伴关系是一个有超过80名成员的组织,致力于研究和讨论关键AI问题。

最后,技术组织应该坚持在AI算法的商业发布前进行偏见影响评估的承诺,特别是当他们的应用影响隐私和救济权时。问题技术领导者应考虑在释放新的AI启用的应用程序之前包括:这项技术是否受到充分不同的数据?如何检测偏差?它是如何测试的,由谁?开发商的激励措施是什么?谁将从商业上获得?

重要的是要记住,AI解决方案反映了这些应用程序培训的底层数据,因此确保该数据没有偏见并且正确地反映了解决方案所服务的成分的多样性至关重要。用AI研究人员教授的话语乔安布里松,“如果底层数据反映了刻板印象,或者如果您从人类文化中培训AI,则会找到偏见。如果我们不小心,我们就会将该偏差集成到快速接管从医院到学校到监狱的所有内容的计算机程序中的偏差 - 所谓的计划首先消除这些偏见的程序。“

Abbyy最近推出了一个全球倡议,促进了值得信赖的人工智能发展。这项倡议对艾比未来有多重要?

发展我们的决定支持AI的全球倡议是我们信仰推动的重要决定,即作为世界各地的技术影响企业和成千上万的个人用户服务的组织,我们有义务成为具有社会良知的良好的企业公民。这不仅有助于从我们的全球客户和合作伙伴那里获得更大的信任,但它还有助于确保我们的技术继续对利益良好的方式产生深远的影响。

它还具有良好的经营意识,促进和支持互惠使用AI。它加强了我们的品牌股权,引导人们信任我们全球客户和合作伙伴生态系统的选区。信任转化为重复业务和可持续增长。

这一倡议的一部分是争夺促进促进AI和其社会效用的道德使用的文化。其他公司需要做些什么来培养类似的文化?

科技公司需要建立一个框架,以便遵守AI的道德使用。这种承诺的程度取决于AI算法的预期应用。衡量其影响的最佳方法是应用不危害原则并有一个对值得信赖的AI的致力于致力于致力于。

同样重要的是对透明度的承诺。虽然知识产权应该与值得信赖的AI原则相平衡,但应在整个组织中明确阐明和沟通透明度和负责任的责任责任的重要性。

ab致力于提供社会和经济上有益的AI技术的举措之一。这可能是实现困难的平衡。如何最好地实现这一点?

领导者可以通过考虑所提供的建议来实现这一余额deloitte.:将道德设计为AI,首先是确定对客户,员工,监管机构和公众等利益相关者的事项。公司应建立一个专门的AI治理和咨询委员会,来自跨职能领袖和外部顾问,这些咨询委员会将与多利益攸关方工作组互动,并建立和监督支持AI的解决方案,包括他们的设计,开发,部署和使用。

我们如何平衡我们的商业利益和社会益处是最近在冠状病毒大流行期间的举例说明。我们造成了许多可免费的技术或折扣率,以帮助个人和组织导航危机,维护业务连续性,并在不可预测的情况下支持客户。

我们最近还通过了我们的技术框架neoml.,我们的跨平台开源机器学习库使软件开发人员能够利用经过验证和可靠的模型来推进AI创新。

您可以使用AI为Covid-19应用程序分享视图,用于联系跟踪以及平衡隐私权的需求吗?

这是一个特别令人烦恼的问题。有些人认为移动跟踪应用程序的实施代表了隐私权的不受欢迎的侵扰。另一方面,涉及公共安全时,总始终限制。它是权衡权和责任之间的替代。但是,权利不是绝对的。遏制全球流行病需要协调的行动和应用资源和技术,这些资源和技术可以负责保护人口大。

个人隐私权与共同利益之间的这种平衡在法律框架内得到认可。例如,GDPR识别有六个基础,用于处理个人可识别信息的合法处理,包括提供服务,当处理对于公共利益不可或缺时,在未能获得数据主体同意的情况下,保证了PII的这种处理。

此外,GDPR的第46首页46直接规定了PII的处理,而不获得在包括流行病的人道主义紧急情况下的数据主体同意。但是,重要的是要注意,重要的46非常狭隘地将公共利益提供的申请制约,并注意到它只应该在无法基于另一种法律依据时进行。

除了具有公共利益的隐私权的平衡之外,还在技术部门和政策制定者上担任政策制定者,以实现与使用AI驱动的分析和共享高度敏感的健康信息的道德声音,透明和公平指导。包括谷歌和Facebook在内的主要科技公司已经开始举办倡议来追踪用户的动作,以确定病毒如何传播和评估社会疏散措施的有效性。

我相信只要信息被匿名,它的使用就有了社会效用。

您是否希望分享关于ABBYY的新全球倡议促进值得信赖的人工智能的发展?

规定倾向于滞后于技术创新,因此,公司需要在促进AI技术以及它们如何影响隐私和救济权的透明度和问责制方面进行积极主动的作用。我们的倡议反映了我们对此努力的承诺。自从我们的成立以来,我们创建了创新的技术,以保留有价值的信息并将其变成可行的知识。

此外,不仅应当以法律依据考虑人工智能技术的道德使用,而且是作为道德义务和企业势在必行。如果您的解决方案具有远远范围,并影响业务关键函数,则应在AI技术应用中是一种透明的行业标准。

非常感谢您回答这些重要问题。查看ABBYY指导原则和遵守信任AI原则的遵守和倡导的方法点击这里。任何希望了解有关Abbyy的更多关于ABBYY的人可能会访问ab网站.

antoine tardif是一个未来谁对AI和机器人的未来充满热情。他是首席执行官blockventures.com.,并投资于超过50个AI和区块链项目。他是联合创始人证券.IO.专注于数字资产,数字证券和投资的新闻网站。他是Unite.ai和A成员的创始合作伙伴福布斯技术委员会。