联系我们

伦理

AI Now学院警告有关滥用情绪检测软件和其他道德问题的警告

mm

已发表

 on

AI Now学院已经发布了一份报告,敦促立法者和其他监管机构对使用情感检测技术设定严格的限制,在可能被用于做出重要决定(例如雇用员工或接受学生)的情况下,禁止使用该技术。此外,该报告还包含有关AI领域中一系列主题的许多其他建议。

AI Now学院 是位于纽约大学的研究机构,其任务是研究AI对社会的影响。 AI Now每年发布一份年度报告,展示他们关于AI研究现状的发现以及当前AI使用方式的伦理意义。 如英国广播公司报道,今年的报告探讨了算法歧视,人工智能研究缺乏多样性以及人工问题等主题。

情感识别是情感检测算法的技术术语,是人工智能研究领域中发展迅速的领域。那些使用该技术进行决策的人经常声称,该系统可以通过分析微表情以及其他提示(如语气和肢体语言)来绘制有关人们情绪状态的可靠信息。 AI Now研究所指出,该技术已广泛应用于各种应用中,例如确定聘请谁,确定保险价格以及监视学生是否在课堂上受到关注。

AI Now的联合创始人Kate Crawford教授解释说,它通常认为可以使用相对简单的模型来准确预测人的情绪。克劳福德说,一些公司将其软件的开发基于保罗·埃克曼(Paul Ekman)的工作,他是心理学家,他假设脸上只有六种基本类型的情绪。但是,克劳福德(Crawford)指出,自从引入埃克曼理论以来,研究发现面部表情的变异性要大得多,而且表情可以很容易地在各种情况和文化之间变化。

“在推出这些技术的同时,大量研究表明…没有实质性证据表明人们在您所感受到的情绪与您的脸部表情之间有着这种一致的关系,” 克劳福德对英国广播公司说.

因此,AI Now研究所认为,情感识别的大部分是基于不可靠的理论和可疑的科学。因此,在完成更多研究后,才应部署情绪检测系统,“政府应明确禁止在高风险的决策过程中使用情感识别”。 AI Now认为我们应该特别停止在“敏感的社会和政治环境”,包括就业,教育和警务的环境。

至少有一家专门从事情感识别的AI开发公司Emteq同意应该制定法规,以防止滥用该技术。 Emteq的创始人查尔斯·恩杜卡(Charles Nduka)向英国广播公司(BBC)解释说,尽管人工智能系统可以准确识别不同的面部表情,但从表情到情感的映射并不简单。恩杜卡(Nduka)确实对监管过于严格和扼杀研究表示担忧,并指出,“如果一切都将被禁止,’人们要做的非常重要’不要把婴儿洗澡水扔掉。”

如NextWeb报道,AI Now还推荐了其他一些指导AI行业向前发展的政策和规范。

AI Now强调了AI行业需要使工作场所更加多样化,并指出应确保工人有权表达其对入侵性和剥削性AI的担忧。科技工作者还应有权知道他们的努力是否被用于构建有害或不道德的工作。

AI Now还建议立法者采取步骤,要求所有使用与健康相关的AI数据的知情同意。除此之外,还建议进一步重视数据隐私,各州应努力设计涵盖私人和公共实体的生物识别数据的隐私法律。

最后,该研究所建议AI产业开始在全球范围内进行更多思考和行动,以应对AI所带来的更大的政治,社会和生态后果。建议做出巨大的努力来说明AI对地理位移和气候的影响,并且政府应将AI行业对气候的影响公之于众。

专门从事以下工作的Blogger和程序员 Machine Learning Deep Learning 话题。 Daniel希望帮助他人将AI的力量用于社会公益。