机器学习方法可以帮助清除假消息

2020年6月25日,兰德公司网站发布博客文章,题为“A Machine Learning Approach Could Help Counter Disinformation”,作者是凯特·考克斯(高级分析师)、琳达·斯拉帕科娃(分析师)和威廉·马切利诺(资深行为与社会学家、帕蒂兰德研究生院教授)。博文指出,旨在增强在线用户识别虚假或误导性信息能力的在线媒体素养计划可以帮助增强公众对假消息的抵御能力。

假消息已成为COVID-19危机的主要特征。根据最近的一项调查,有关疫情的虚假或误导性信息几乎覆盖了英国半数在线新闻消费者。这类恶意信息和高科技“深度造假”图像可以在网上如此迅速地传播,它通过增加公众对政府和公共当局的不信任感而对全世界的民主社会构成风险,这种现象被称为“真相衰退”(truth decay)。然而,新的研究强调了在线检测和消除虚假消息的新方法。

有几种因素可以解释COVID-19大流行期间假消息的迅速传播。鉴于疫情的全球性,更多的团体正在利用假消息来推进其议程。机器或计算机学习的进步也导致了这个问题,因为人工智能驱动的虚假信息活动扩大了在线和社交媒体平台上恶意信息所达的范围。

卡内基梅隆大学的研究表明,社交媒体“聊天机器人”可能涉及所有与COVID-19相关的推特活动的45%-60%,而在美国选举和自然灾害等其它事件的推特活动中却只占10%-20%。这些“聊天机器人”可以自动生成消息、倡导想法、关注其它用户,并使用伪造的账户自己获取关注者。

该大学的研究发现超过100种不正确的COVID-19理论,包括关于州、地方当局实施的预防、治疗和紧急措施的误导性报告。在这种情况下,假消息会对个人、社区、社会和民主治理产生有害影响。关于冠状病毒的虚假或误导性主张可能会鼓励人们承担更大的风险,并对自己和他人的健康构成威胁,例如消费有害物质或无视社会隔离准则。

假消息还可用于针对包括移民和难民在内的脆弱群体,从而增加仇外暴力和仇恨犯罪的风险。

公共和私营部门团体以及民间社会组织已经采取了各种对策来应对在线虚假信息。这包括内容适度的倡议以及使用社交媒体算法来识别虚假信息的存在。旨在增强在线用户识别虚假或误导性信息能力的在线媒体素养计划可以帮助增强公众对假消息的抵御能力。

脸书拥有的WhatsApp公司现在也对消息转发施加了新的限制,以解决在其消息传递渠道上传播假消息的问题。

兰德欧洲公司一项新的研究发现现在可以帮助进一步加强这些努力。这项研究受英国国防科学技术实验室(DSTL)委托,展示了如何使用机器学习模型在线检测恶意行为者,其中之一是俄罗斯赞助的网络喷子。

克里姆林宫的虚假信息战术在COVID-19期间继续迅速发展,其中包括与中国协调说法,声称冠状病毒是移民造成的,或者是美国军事实验室研制的生物武器。

假消息还包括有关俄罗斯对美国和意大利等国开展“人道主义援助”。这些说法都会破坏各国政府的抵御、恢复和危机应对能力。

在DSTL的研究中,研究人员借鉴了2016年美国总统大选的推特数据,并使用计算机模型来区分俄罗斯“网络喷子”的说法与真实的政治支持者。

该模型能够通过检测瞄准民主党和共和党坚定支持者的“我们对他们”这种操纵性语言来成功识别网络喷子。

为了提高人们的意识并增强对这些策略的适应力,政府机构可以向目标群体的成员展示它,从而使其能够认识到社交媒体操纵技术。

通过研究网络喷子如何瞄准与2016年美国总统大选有关的在线辩论,将来可以重新配置模型的机构检测、文本分析、机器学习和可视化组件,以创建强大的通用社交媒体监控工具。这样的工具可以帮助集中公共部门的力量,以应对与COVID-19相关的在线虚假信息,以及其它具有公共重要性的问题。

了解在线行为者如何瞄准国家的脆弱性,可能是迈向建立更广泛的假消息抵制能力的第一步。 进一步开发抵御这些操纵策略的方法可能有助于大规模清除假消息,而这显然是COVID-19的一个核心问题。

原始信息…]

2020-07-22智邦网

声明:本平台发布部分内容来自公开资料或者网络,版权归原作者所有,转载的目的在于传递信息及用于网络分享,不代表本平台赞同其观点,如涉版权问题,请与我们联系,我们第一时间处理!