机器学习算法提供了一种基于写作风格和文章共享方式来检测错误信息的方法。

在诸如气候变化和疫苗安全性之类的各种各样的话题上,您会在社交媒体上发现一波错误信息。
人们对传统新闻来源的信任度似乎比以往任何时候都低,但是研究人员正在研究使人们对是否可以相信所读内容有更多了解的方法中国机械网okmao.com。研究人员一直在测试有助于过滤合法新闻的人工智能(AI)工具。但是,在阻止错误信息传播方面,人工智能的可信度如何?
在研究人员 伦斯勒理工学院 (RPI)和田纳西大学合作研究AI在帮助人们识别的消息是否正在阅读是合法与否的作用。
该 研究论文,“裁缝启发式和定时AI干预支持新闻准确性的评估,”发表在 计算机在人类行为的报告。
它讨论了如何使用众包市场 Amazon Mechanical Turk(AMT) 来识别有关新消息和特定启发式方法的错误信息,后者是用于处理信息并考虑其准确性的经验法则。换句话说,启发式方法本质上是“决策的捷径” ,RPI Lally管理学院副教授,论文的主要作者Dorit Nevo解释说 。
Nevo说,研究发现,只有在读者对该主题没有意见的情况下,AI才能成功标记虚假故事。当研究对象置信于他们的信念时,确认偏差使他们无法重新评估他们的观点。
Nevo说,该项目的第一部分着眼于受试者是否可以检测到有关气候变化的错误信息和疫苗,例如旨在预防水痘的疫苗。然后,从2020年4月开始,她的团队研究了人们如何回应与COVID-19相关的新闻。
Nevo说:“对于COVID-19,有很大的不同。” 他们发现,约有72%的受访者可以在没有启发式线索的情况下识别有关冠状病毒的错误信息,而大约93%的受访者能够通过研究者的启发式方法确信其内容是假的。
Nevo说,启发式线索的例子包括大写字母过多的文字或使用粗俗语言的文字。
团队论文中提到了两种启发式:客观启发式和源启发式。他们在受试者阅读的每篇文章的顶部都声明了一个标题。它指示他们阅读该文章,并指出他们是否相信其核心论点。
Nevo说:“我们要么发表声明说AI会根据客观启发式方法认为这篇文章可靠且准确,要么我们说AI会找到可靠的来源。” “所以这就是启发式方法。”
Nevo在启发式研究中发现,人们的思维采取以下两种途径之一:第一种途径是阅读文章,仔细考虑并决定他们是否相信;第二个是考虑新闻来源以及其他人对新闻的看法,并在阅读之前决定是否相信它。
RPI的研究人员研究了启发式技术和AI在检测人们是否认为新闻可信方面的作用哈佛大学的研究人员在《美国国家科学院院刊》上发表的另一篇研究论文《纠正假新闻的时机很重要》 ,与RPI研究人员的发现有所不同。
当Nevo和她的合作者发现在阅读故事之前使人们相信一个故事是假新闻更容易时,由心理学家和神经科学家Nadia M. Brashier领导的哈佛研究人员发现,事实检查甚至可以说服人们错误的信息,甚至阅读标题后。
Brashier和她的团队发现,与没有标签的标题相比,当研究对象阅读标题后阅读真假标签时,“后续错误分类”减少了25.3%。
田纳西大学信息科学助理教授,Nevo的合著者之一Benjamin D. Horne说,最后,与错误信息作斗争将需要计算和人力,例如政策上的改变。他说RPI-Tennessee的工作受到他先前设计的AI工具的启发。Horne以前是RPI的研究助理,在那里他开发了机器学习(ML)算法,该算法可以检测部分真相以及去上下文化的真相和过时的信息。
霍恩说:“我们的算法在使用文章的文本内容以及从中获取新闻的其他新闻来源网络时,都经过源级别的行为训练。” “我们发现这两种类型的功能一起很好地区分了由外部新闻来源评级为可靠或不可靠的来源。”
霍恩说,机器学习算法分析新闻媒体的写作风格和内容共享行为。研究人员训练了一种称为随机森林的监督ML算法,该算法使用决策树。
人工智能检测虚假新闻
那么,人工智能成功检测错误信息的潜力是什么?
Horne说:“我们开发的工具以及在该领域开发的其他工具在实验室环境中具有相当高的准确性。” “例如,我们 最近的技术工作 表明,在预测新闻来源可靠或不可靠的时候,准确性约为83%。”
尽管算法有效,但仍需要新闻工作者进行老式的事实核查以打击假新闻。霍恩说,人工智能可以过滤信息供事实检查者核实。
霍恩说:“人工智能工具擅长快速处理大量信息,但缺乏记者或事实检查员可以提供的细致分析。” “我看到了两者一起工作的未来。”