点击上方蓝色字,关注我们
研究人员研发出了一种自动化的机器学习系统。他们表示,该系统可发现涉及协调性影响政治活动的社交媒体帖子(诸如所谓的俄罗斯影响2016年美国大选结果的做法);该系统的机制仅基于帖子内容,因而适用于任何平台。
研究人员的发现表明,以内容为基础的特征(如帖子的字数,网页链接和发布时间)可令此类施加影响的运动表现得像数字指纹一样,因此可帮助社媒公司、用户或调查人员防止错误信息的传播及对选举的干扰。
之前检测协调性散播虚假信息做法的尝试,都聚焦于较为简单的手法上,如发现机器人程序或比较发帖者的关注者/朋友网络等。然而,这些方法通常会被人类代理者或来自新帐户的帖子挫败,而且它们通常具平台特异性。
Meysam Alizadeh和同事假设,大型的在线影响政治的操作会用相对较少的人员来快速发布大量内容,往往会令这些帖子在主题、字数、链接文章和其它特征上趋于雷同。
为测试这一点,Alizadeh等人创建了一个机器学习系统,该系统在Twitter和Reddit上接受了早期来自俄罗斯、中国和委内瑞拉影响活动数据集的测试。
他们发现,该系统能可靠地发现那些运动的后续帖子,并将其与正常用户的普通帖子进行区别。当用较旧的数据进行测试时,或当有问题的活动更为复杂时,该系统的可靠性就会降低,表明这样一种系统并非全面的解决方案。
作者提出,尽管此类机器学习系统的广泛使用可能促使行为不良者改变其方法以避免被识破,但它也可能迫使他们采取成本更高或影响力较小的策略。
点击下方“阅读原文”访问开放获取论文