如果你还没有注意到,社交媒体对各种形式的活动家来说都是一个巨大的恩惠。你有想要传播的信息吗?socials指的是你的朋友。
但是,作为作者纸在科学的进步解释,同样的事情,让积极分子高兴社交媒体——容易开始,易于使用,易于分享工作,容易目标任何特定国家的任何一个地方——也使它容易受到有组织的操纵运动资源充足的演员包括国内和外国政府。
领导的研究中,Meysam Alizadeh普林斯顿大学的我们,将“协同影响作业”定义为活动的组织,党或国家政治的影响一个或多个特定方面国内或另一个状态,通过社会媒体,在当地生产内容设计出现目标受众或状态。
自第一次有记录2012年在韩国,这种被称为“政治造势”的做法在社交媒体上广泛传播。作者称:“从2013年到2018年,至少有53次这样的影响行动,目标是全球24个国家。”
也许社交媒体影响行动最著名的例子是俄罗斯互联网研究机构(IRA)试图塑造美国政治的努力它被起诉2018年2月被美国政府批准。随着美国即将在几个月后举行另一场总统选举,对此类行动的担忧正迅速上升。
Alizadeh的团队开发了一种自动机器学习系统,他们表示,该系统可以检测涉及影响活动的社交媒体帖子,无论平台是什么,重要的是,只根据帖子的内容。
他们的研究结果显示,基于内容的功能,如帖子的字数、网页链接和发帖时间,可以充当此类活动的数字指纹,这可能有助于社交媒体公司、用户或调查人员防止错误信息的传播和选举干预。
以前侦测虚假信息的尝试都集中在更简单的方法上,例如侦测机器人或比较海报的追随者/好友网络。但此类方法往往会受到人类代理人或新账户发帖的阻碍,而且往往是特定平台的。
Alizadeh和他的同事假设,大型在线政治影响力操作使用相对较少的人工代理快速发布大量内容,这将使这些帖子在主题、字数、链接文章和其他功能上趋于相似。
为了测试这一点,他们创建了一个人工智能学习系统,根据俄罗斯、中国和委内瑞拉在Twitter和Reddit上的影响活动的早期活动数据集进行训练。他们发现,该系统可以可靠地识别这些活动的后续帖子,并将它们与普通用户的常规帖子区分开来。
不幸的是,种种迹象表明,这种系统目前还不是一个全面的解决办法。当用较旧的数据进行训练时,当所讨论的活动更复杂时,它就不那么可靠了
这组作者认为,虽然这种机器学习系统的广泛使用可能会促使不良行为者改变他们的方法以避免被检测,但也可能迫使他们采取成本更高或影响力更小的策略来这样做。
他们写道:“我们看到了未来(改善学习系统)的两个主要途径。”“首先,应该优先考虑制定有效跟踪影响活动的方法。
“其次,可以通过使用从troll分享的图片和视频中提取的特征,基于帖子链接的内容开发更丰富的特征集,并在账户层面采用利用更长的历史记录的分类方法,来提高预测性能。”
阅读科学事实,而不是虚构……
现在是解释事实、珍惜循证知识、展示最新科学、技术和工程突破的最重要时刻。《宇宙》由澳大利亚皇家学会出版,这是一个致力于将人类与科学世界联系起来的慈善机构。财政捐助,无论大小,都有助于我们在世界最需要的时候获得可信的科学信息。请通过捐款或购买订阅来支持我们。