联系我们

数据科学

AI模型可以在信息传播者起作用之前识别它们

mm

已发表

 on

由谢菲尔德大学的研究人员创建的AI模型可以潜在地确定哪些Twitter用户实际发布虚假信息。如果该模型证明可靠,则可以用于补充现有的在社交媒体上消除虚假信息的方法。

根据TechXplore,这项研究由谢菲尔德大学计算机科学系的研究人员领导,其中包括Nikos Aletras博士和Yida Mu。该研究发表在《 PeerJ》杂志上,它详细介绍了用于预测社交媒体用户是否可能通过发布来自不可靠新闻来源的内容来传播虚假信息的方法。

研究小组从6000多名Twitter用户中收集了超过100万条推文,所有这些信息都是公开的。团队申请 自然语言处理 准备数据以训练AI模型的技术。 AI是一个二进制分类模型,将用户标记为可能共享来自不可靠来源的信息或不太可能共享信息。在对模型进行数据训练后,它可以达到大约79.7%的分类精度。

在分析模型性能的结果时,研究人员发现,大量使用不礼貌的语言并经常发布有关宗教和政治的推文的用户更有可能发布来自不可靠来源的信息。特别是大量使用了诸如“自由”,“媒体”,“政府”,“以色列”和“伊斯兰”之类的词。同时,从可靠来源发布信息的用户倾向于使用诸如“我”,“会”,“想要”,“心情”,“兴奋”和“生日”之类的词。除此之外,他们通常会分享有关其个人生活的故事,例如与朋友的互动,他们的情感或有关其爱好的信息。

这项研究的发现可以帮助Facebook,Reddit和Twitter等社交媒体公司设计出新的方法来应对在线错误信息的传播。该研究还可以帮助心理学家和社会科学家更好地理解导致错误信息在整个社交网络中广泛传播的行为。

正如Aletras根据TechXplore解释的那样,社交媒体已转变为人们获取新闻的主要方式之一。全世界每天都有数以百万计的用户通过Facebook和Twitter获得新闻报道,但这些平台也已成为在整个社会传播虚假信息的工具。 Aletras继续解释说,可靠地识别用户行为的某些趋势可以帮助遏制虚假信息。正如阿莱特拉斯(Aletras)解释的那样,“使用不礼貌的语言与传播不可靠的内容之间存在相关性,这可以归因于高度的在线政治敌意。”

据Mu分析,共享不可靠信息的用户的行为可以通过补充现有的事实检查方法和用户级别的模型虚假信息来辅助社交媒体平台。 正如Mu通过TechXplore所说:

“研究和分析用户从不可靠的新闻来源共享内容的行为可以帮助社交媒体平台防止虚假新闻在用户级别的传播,从而补充了在帖子或新闻来源级别工作的现有事实检查方法。 ”

Aletras和Mu进行的研究可能是使用AI对抗AI产生的错误信息的一个实例。在过去的几个月中,围绕地方和国家政治的虚假信息激增,其中许多内容都是由AI算法生成和传播的。深度神经网络已被用来为伪造的帐户构造逼真的照片和配置文件,以充当伪造新闻的传播者。 Aletras和Mu从事的研究可以帮助社交媒体公司找出哪些帐户是伪造的,旨在传播有害宣传和错误信息的机器人帐户。

专门从事以下工作的Blogger和程序员 Machine Learning Deep Learning 话题。 Daniel希望帮助他人将AI的力量用于社会公益。