联系我们

思想领袖

Facebook如何’AI传播错误信息并威胁民主

mm

更新

 on

负责LinkedIn人工智能研究的Dan Tunkelang表示:“建议具有影响决策的能力的那一刻,它们就成为垃圾邮件发送者,骗子和其他动机不高的人的目标。”

这是诸如Facebook之类的大型社交媒体公司所经历的。 Facebook使用 隐式反馈 跟踪点击次数,观看次数和其他可衡量的用户行为。这用于设计被标识为“推荐引擎”,这是一种AI系统,具有决定谁看到什么内容以及何时看到内容的最终权力。

Facebook已优化其推荐器引擎,以最大程度地提高用户参与度,这取决于胶粘到Facebook平台所花费的时间。时间的最大化比其他任何变量(包括所建议的质量或准确性)都具有更高的优先级。

该系统旨在奖励利用认知偏见吸引用户的耸人听闻的头条,即使这些头条恰好是由俄罗斯巨魔撰写的,目的是分裂社会或摇摆不定的政治选举。

Facebook如何 Uses AI

人们对Facebook如何使用AI来决定其用户所见和与之互动的认识不足。首先必须了解什么是确认偏差。 今日心理学描述 this as:

确认偏差是一种以确认或支持方式搜索,解释,偏爱和召回信息的趋势’先前的信念或价值观。

Facebook了解到,用户更有可能点击新闻,这成为人类寻求确认偏见的趋势。这为阴谋理论的传播和创建回声室树立了危险的先例,在回声室中,无论准确性如何,都将用户想要看到的东西专门喂给他们,无论所看到的东西是否具有社会影响力。

A 麻省理工学院学习 能够证明Twitter上的虚假新闻传播速度是真实新闻的6倍。

这意味着Twitter和Facebook都可以被武器化。尽管Twitter使任何人都可以故意 跟随 由于观点狭窄或带有偏见,Facebook会更进一步。 Facebook上的用户当前拥有零种方式来控制或衡量所看到的内容,这完全由Facebook控制’的推荐引擎,如何衡量用户参与度以及如何针对同一用户参与度进行优化。

Facebook试图塑造和预测用户的需求。 Facebook估计用户在多大程度上会喜欢或不喜欢用户尚未体验到的新闻。为了避免损失用户参与度,Facebook然后选择绕过可能降低参与度的新闻条目,并选择通过提供新闻条目来吸引用户,从而确保确认,更多的点击,评论,喜欢和分享。

Facebook还使用对历史用户行为和意见的自动协作过滤来自动将参与者(朋友)与相似的意见进行匹配。 Facebook使用实用程序功能,可以自动数学地预测并排列您要查看的商品的偏好。

这会导致用户掉进兔子洞,他们被困在虚假新闻中,被喂饱了内容,加剧了他们的偏见。所呈现的内容是为影响您单击的内容而设计的。毕竟,如果您相信比尔·盖茨(Bill Gates)试图通过使用疫苗来骗人的阴谋,那么Facebook为什么要向您提供矛盾的证据,这可能会导致您脱离该平台?如果您支持某个政治候选人,那么Facebook为什么要提供可能与您对同一候选人的正面观点相矛盾的新闻?

好像不是’足够的Facebook也参与了所谓的“social proof”。社会证明是人们将跟随群众的行动的概念。这样做的想法是,由于许多其他人以某种特定的方式行事,因此它必须是正确的行为。

Facebook在喜欢,评论或分享的背景下提供此社交证明。由于只有某些朋友可以看到新闻提要项(除非他们专门搜索用户的新闻提要),因此社交证明只会起到加强确认偏见的作用。

Facebook还使用 过滤气泡 限制接触矛盾,矛盾或挑战性观点的机会。

Facebook广告

毫无戒心的Facebook用户可能是 在不知不觉中点击广告 向他们展示广告。原因很简单,如果有一个广告,则只有第一个展示广告的人才能看到该广告的免责声明。如果该用户分享广告,则其朋友列表中的每个人都只会看到“share”作为新闻源项目,因为Facebook故意放弃了广告免责声明。用户立即放弃了警惕,他们无法区分广告是什么和在新闻源中自然出现的内容。

Facebook分享

不幸的是,情况变得更糟。如果用户有1000个同时共享内容的朋友,则推荐器引擎将优先考虑共享相同观点的少数群体的内容,即使这些观点通常包含未经证实的阴谋论。然后,用户会幻想每个人都可以看到这些新闻提要项。通过与该新闻提要互动,这些用户正在相互优化’s social proof.

如果用户试图启发另一个用户误导或伪造商品,评论或参与新闻源的行为只会增加原始用户的参与时间。此反馈循环使Facebook加强了与该用户的其他虚假新闻的接触。

这会导致产生回声室,即过滤器气泡,在此气泡中,训练用户仅相信他们看到的内容。真相只是一种幻想。

问题的严重性

超过一千万人 从事新闻源 声称弗朗西斯教皇出来支持特朗普’在2016年大选期间没有任何证据。这只是从俄罗斯传出的虚假新闻报导,但这是在2016年大选前三个月中Facebook上分享最多的新闻报导。

这则新闻是由俄罗斯巨魔农场产生的,该农场自称“互联网研究机构 ”。这个组织负责在Twitter和Facebook上宣传和分享比赛诱饵文章,以帮助妖魔化黑生活问题,并利用假新闻传播对美国政客的虚假主张。

情报选择委员会发布了一份 85页的报告 详细介绍了俄罗斯积极措施运动和干预活动,其中大部分涉及分裂性假新闻的传播,以及旨在影响2016年美国大选的宣传。

快进到2020年大选,问题只会加剧。联邦调查局(FBI)提出建议后,2020年9月& Twitter 终止的社交媒体帐户 一家名为PeaceData的新闻机构,该机构与俄罗斯有联系’国家的宣传工作。

不幸的是,关闭帐户是一种暂时且无效的解决方案。俄语帐户通常以朋友请求的形式出现,经常被具有有吸引力吸引力的,以男性为目标的女性讨厌,或者被劫持的具有常规职位历史的用户帐户。这些被劫持的账户逐渐转移到更多的政治职位,直到它们被宣传或阴谋论所主导。

毫无戒心的用户可能不会意识到朋友帐户已被盗用。如果该用户容易受到阴谋论的影响,他们可能会使用伪造的新闻提要项目(通常是机器人的俄罗斯巨魔),然后以喜欢或评论的形式提供其他社会证据。

易受攻击的用户通常是最不了解技术和人工智能如何工作的用户。 65岁以上的人口是最有可能投票的人口,也是最有可能传播假新闻的人群,因为 纽约时报报道.

根据这项研究,年龄在65岁及65岁以上的Facebook用户在假新闻网站上发表的文章是29岁及以下的七倍。缺乏数字媒体素养使这个年龄段的人无法为新闻提要做好准备,而新闻提要并非基于事实或准确性,而仅仅是基于用户参与度。

坏演员正在利用Facebook’的推荐器引擎,利用我们对我们的认知偏见。这些相同的组织已经优化了对Facebook的滥用’AI传播阴谋论和宣传。最初似乎无罪的阴谋理论经常被用作通向白人至上,极右翼民族主义或 QAnon 一种涉及特朗普试图从自由恋童癖中拯救世界的诡计多端的阴谋论,这种阴谋在现实中是零基础的。

概要

Facebook清楚意识到存在问题,并且已经公开 宣布了一项策略 着重于删除违反Facebook社区标准的内容。问题是删除帐户是一种临时的权宜之计,当机器人大量生成帐户或对用户帐户进行大规模黑客入侵时,删除帐户是无效的。它也不能解决大多数共享是由不知道自己散布错误信息的普通用户共享的问题。

添加警告标签只是为了加强阴谋论,即社交媒体巨头偏爱保守派,而保守派是最 容易受到假新闻.

该解决方案需要是一个新的推荐器引擎,该引擎不仅可以衡量用户参与度,还可以通过传递真相并增强自我意识来优化用户满意度。

同时,Facebook应该遵循 推特取缔政治广告.

最后,需要提出一个重要的问题。如果人们不再对所看到的新闻有选择,那么什么时候不再成为推荐,什么时候成为头脑控制?

推荐读物:

俄罗斯积极措施运动和干涉 –美国参议院情报选择委员会的报告。

令人震惊的论文预示着民主的终结 – By 乔治华盛顿大学历史新闻网的创始人里克·申克曼(Rick Shenkman)。

老年人在Facebook上分享假新闻更多 – By New York Times

安东尼·塔迪夫(Antoine Tardif)是 Futurist 他对AI和机器人技术的未来充满热情。他是 BlockVentures.com并已投资了50多个AI和区块链项目。他是的联合创始人 Securities.io 一个专注于数字证券的新闻网站,是unite.AI的创始合伙人。他也是 福布斯技术委员会。