人们听到或读到的信息总是有可能不准确,无论是来自报纸、杂志、网络资源还是广播。虚假信息自人类文化诞生以来就一直存在,但人们从相互关联的网络世界接收到的大量信息,使我们特别容易在不经意间摄入被扭曲或伪造的材料。人们需要了解分享了人工智能如何帮助解决假新闻问题和偏见的复杂性。
消费者习惯了自己的观点受到他们在网上读到、看到和听到的东西的影响,比如通过网红营销或名人代言。无论事实是否支持,观点都有很大的力量,许多虚假新闻依赖于激起强烈的情绪。当涉及到人们的注意力和感觉时,经常需要停下来思考我们所听到或读到的是否准确。
根据麻省理工学院的研究人员打开一个新窗口,真实新闻在推特上传播到1500人所需的时间是假新闻的六倍。此外,准确新闻和假新闻的链条长度(分享社交媒体帖子的人数)是高度不成比例的。可证实的新闻从未超过10条,但虚假新闻增加到19条。这部分是由于恶意行为者使用机器人群来传播不正确的信息。
虚假信息现在在全球范围内影响着人们、政府和企业。在当今不断扩张的数字信息经济中,发现并分离所谓的“假新闻”是一项重大任务。然而,人工智能(AI)的改进可能会使在线信息用户更容易区分现实和虚构。
以下来探讨一下如何利用人工智能来阻止错误信息的传播,并使互联网成为一个更平衡的新闻来源。
通过使用先进的算法来发现和接触可能容易吸收信息的人群,合法公司利用人工智能来定位和瞄准一条信息或观点最可能的消费者。例如,谷歌公司已经实现了它的RankBrain算法,在2015年打开了一个新的窗口,以改进其识别权威结果的能力。
为了区分计算机生成的材料和人工生成的文章,基于人工智能的技术可以对文本内容进行语言分析,并找到词语模式、句法结构和可读性等线索。这些算法可以分析任何文本,通过查看单词向量、单词位置和内涵来找到仇恨言论的实例。
假新闻来源通常在信息扩散之前来自一个非法来源。Fandango项目在使用人工事实核查人员认定为虚假的文章后,寻找具有相同术语或主张的社交媒体帖子或互联网网站。这使得记者和专家能够追踪虚假信息的来源,并在他们有机会失控之前消除任何危险。
Politifact、Snopes和FactCheck使用人工编辑进行必要的主要调查,以确认报道或图像的真实性。一旦识别出假货,人工智能系统就会在网上搜索可能引发社会动荡的类似信息。此外,如果确定该材料是真实的,应用程序可以为网站文章分配声誉评分。
一些人工智能引擎目前在其评估评分中使用以下措施:
•情绪分析:记者对新闻总体或他们所写的特定主题的态度。
•观点分析:对记者的作品进行个人感受、观点、信念或评估
•修订分析:研究新闻故事如何随着时间的推移而变化,以及它如何操纵公众的看法和情绪。
•宣传分析:使用宣传分析检测多达18种不同的说服策略,可以帮助您发现潜在的虚假信息。
所有这四个结合起来可以全面了解一篇文章的可信度,以及我们面临的问题。
像GPT-3这样的语言模型已经可以基于一行提示创建文章、诗歌和散文。人工智能已经接近完美地制造出与人相似的材料。人工智能使得操纵各种信息变得如此容易,以至于FaceSwap和DeepFaceLab等开源程序可能会让缺乏经验的新用户成为潜在的社会动荡中心。
这些问题变得更糟,因为这些语义分析算法无法破译仇恨言论图片的实质,这些图片没有被修改,而是在有害或不准确的背景下传播。
一旦发现欺诈内容,删除它比看起来更具挑战性。一些组织可能被指控进行审查,并试图隐藏某一组织或另一组织认为不真实的信息。在言论自由权利和打击虚假信息和假新闻之间找到平衡是很困难的。
人工智能通常也缺乏识别幽默和恶搞的能力。因此,如果以轻松或开玩笑的方式使用假新闻或虚假信息,则可以将其归类为恶意虚假信息。但不可否认的是,人工智能可以成为打击假新闻的巨大资产。在打击虚假互联网新闻的战斗中,技术至关重要,因为它可以处理大量的材料。
假新闻不是一个仅靠算法就能解决的问题——我们需要在如何获取知识的过程中改变心态。虽然专业团体之间协作知识的众包对评估原始数据至关重要,但知识渊博的用户社区也可以支持道德监测行动。
缺乏各方参与的积极行动可能加速公众对机构和媒体失去信心,这是无政府状态的前奏。在人类能够发展出客观分析在线内容的能力之前,基于人工智能的技术必须成为打击互联网错误信息的合作伙伴。
以上是人工智能如何消除互联网上的假新闻和偏见的详细内容。更多信息请关注PHP中文网其他相关文章!