国际特赦组织利用机器学习来量化Twitter上对妇女的虐待程度-王其杉博客|程序员|科技新闻
更新:Twitter的回复已经添加到本文结尾。
国际特赦组织(Amnesty International)和人工智能元素(Element AI)的一项新研究试图将数字与许多女性已经知道的问题联系起来:Twitter是骚扰和虐待的粪池。在6500名志愿者的帮助下,这项由大赦国际(Amnesty International)宣布的“有史以来规模最大的”针对女性在线虐待的研究利用人工智能元素(Element AI)的机器学习软件分析了2017年期间发给778名女性政治家和记者的tweet。调查发现,其中7.1%或110万条是“有问题的”或“滥用的”,大赦国际说,这相当于每30秒发送一条滥用的推特。
人权倡导组织在一个互动网站上分解了该研究的方法和结果,她说,许多妇女要么审查她们发布的内容,限制她们在Twitter上的互动,要么就完全退出这个平台:“在世界各地妇女利用她们的集体力量通过Twitter来扩大声音的分水岭时刻。在社交媒体平台上,Twitter未能始终如一和透明地执行自己的社区标准来处理暴力和虐待,这意味着妇女正被推向沉默的文化。”
大赦国际(Amnesty International)过去两年来一直在研究Twitter上虐待妇女的行为,今年早些时候发布了一份报告,将Twitter描述为女性的“有毒”场所,之后签约了6500名志愿者,称之为“巨魔巡逻队”。
总的来说,志愿者分析了2017年1月至12月间发给778名受调查的妇女的288000条推文,其中包括来自英国和美国的政治家和记者。政治家包括英国议会和美国国会议员,而记者则代表了各种各样的出版物,包括《每日邮报》、《纽约时报》、《卫报》、《太阳报》、《加德姆》、《粉红新闻》和《布莱特巴特》。
巨魔巡逻队的志愿者来自150个国家,年龄从18岁到70岁不等,他们接受了关于构成有问题或虐待的tweet的培训。然后他们看到匿名推文,提到778名妇女中的一个,并询问这些推文是否有问题或虐待。每条推特都显示给几个志愿者。此外,国际特赦组织表示,“三位关于对妇女的暴力和虐待的专家”还对1000条推文进行了分类,“以确保我们能够评估由数字志愿者标记的推文的质量。”
该研究将“有问题的”定义为“包含有害或敌意的内容的tweet”,尤其是多次向个人重复但未必达到滥用阈值的,“滥用”是指“违反Twitter自身规则并包含促进针对人的暴力或威胁的内容的tweet”。基于他们的种族、种族、国籍、性取向、性别、性别身份、宗教信仰、年龄、残疾或严重疾病。”
γ
然后,使用Element AI的机器学习软件处理贴有标签的tweet的子集,以将分析外推到2017年期间提到778名妇女的总计1450万条tweet。(由于直到2018年3月才为该研究收集到tweet,大赦国际指出,滥用的规模可能更高,因为一些滥用tweet可能已经被删除或由被暂停或禁用的帐户发出)。元素AI的推断得出的结论是,发送给女性的推特中有7.1%存在问题或受到虐待,在2017年达到110万条。
与白人女性相比,黑人、亚洲人、拉丁人和混血种族的女性在有问题或虐待性的推特上被提及的几率要高出34%。尤其是黑人妇女,她们尤其容易受到伤害:她们比白人妇女更容易在有问题或虐待的Twitter上被提及。在研究样本中,十分之一的Twitter提到黑人女性是有问题的或虐待的,而白人女性只有15%。
“我们发现,尽管虐待的对象是政治范围内的妇女,有色人种妇女更容易受到影响,而黑人妇女受到的打击比例过高。”大赦国际战术研究高级顾问Milena Marin在声明中说:“Twitter未能对这一问题进行镇压,意味着它正在为已经边缘化的声音的沉默做出贡献。”
按专业分类的结果显示,研究中提到454名记者的推特中有7%存在问题或者有辱人格。被调查的324位政客也以相似的比率作为目标,其中7.12%的tweet提到他们存在问题或虐待。
当然,来自英国和美国778名记者和政治家的调查结果很难推测到其他职业、国家或一般人口。然而,这项研究的发现很重要,因为许多政治家和记者需要使用社交媒体来有效地完成他们的工作。妇女,尤其是有色人种妇女,在这两个行业中都代表不足,许多人留在Twitter上只是为了发表关于能见度的声明,即使这意味着要处理不断的骚扰和虐待。此外,Twitter API的改变意味着许多第三方反欺凌工具不再工作,正如技术记者Sarah Jeong在她自己的Twitter简介中指出的,该平台还没有提出复制其功能的工具。
很长一段时间,我使用block.,自动阻止少于7天的帐户以及少于15个追随者的帐户。在Twitter的API更改之后,这个选项对我来说不再可用。
-sarah jeong(@sarah jeong)2018年12月18日
一个朋友为我编了一个方法,可以自动对那些给我发过某些触发词的人进行静音。(比如,说“gook”)由于API的改变,我也不再可以使用它。
-sarah jeong(@sarah jeong)2018年12月18日
国际特赦组织在Twitter上关于虐待妇女行为的其他研究包括2017年对8个国家的妇女进行的在线调查,以及对英国2017年大选前国会女议员面临的虐待的分析。该组织表示,Troll Patrol不是“监管Twitter或者强迫它删除内容”。相反,该组织希望该平台更加透明,特别是关于它用来检测滥用的机器学习算法。
因为目前最大的社交媒体平台都依赖机器学习来扩展其反滥用监控的规模,元素AI还利用该研究的数据开发了一个自动检测滥用推文的机器学习模型。在接下来的三周里,该模型将在大赦国际的网站上进行测试,以便“展示人工智能技术的潜在和当前的局限性”。这些限制意味着社交媒体平台需要非常仔细地调整它们的算法,以便检测滥用内容,而不会标记为合法内容。演讲。
“这些权衡是基于价值的判断,对言论自由和在线其他人权有严重的影响,”该组织说,并补充说,“就目前情况而言,自动化在评估趋势或标记内容以供人类审查方面可以发挥有益的作用,但它最多应该用于帮助受过训练的主持人,d当然不应该替换它们。”
TechCrunch已经联系Twitter发表评论。Twitter的回复引用了12月12日向大赦国际(Amnesty International)发布的正式回复,Vijaya Gadde,Twitter的法律、政策、信任和安全全球领先。
“Twitter已公开承诺改善我们服务的公众对话的集体健康、公开性和礼貌性。Twitter的健康是通过我们如何帮助鼓励更健康的辩论、对话和批判性思维来衡量的。相反,滥用、恶意自动化和操纵会损害Twitter的健康。我们致力于使自己对这方面的进展承担公众责任。
“Twitter使用机器学习和人类审查的结合来判断滥用报告以及它们是否违反了我们的规则。”在评估虐待行为和确定适当的执法行动时,上下文很重要。我们可以考虑的因素包括,但不限于:行为是针对个人或群体的;报告是由虐待目标或旁观者提交的;行为有新闻价值,符合合法的公共利益。Twitter随后向报告滥用行为的个人提供后续通知。我们还为个人为改善其Twitter体验可以采取的额外行动提供建议,例如使用块或静音功能。
关于您即将提交的报告,我注意到为了对内容进行分类而出现的“有问题”内容的概念值得进一步讨论。目前尚不清楚您是如何定义或分类这些内容的,或者您是否建议将其从Twitter中删除。我们努力建立全球可实施的规则,并已开始咨询公众,作为该过程的一部分——业内的新方法。
“正如许多民间社会团体所强调的,为了让用户清楚哪些内容被允许和不被允许,公司必须仔细定义其政策的范围。我们欢迎进一步讨论你们如何根据保护言论自由和确保政策明确和狭义起草的需要,将“有问题”定义为这项研究的一部分。