注册 投稿
经济金融网 中国经济学教育科研网 中国经济学年会 EFN通讯社

如何解决Facebook的假新闻问题

如果发布假消息则被禁止使用Facebook 能有效,那么就不需要专家们这样大费周章了。

自从美国大选以来, 假新闻,宣传和错误信息的影响已经受到广泛的审查。根据美国新闻网站Buzzfeed 的分析,在选举的最后几个星期Facebook上的假新闻事实上已经胜过了真实的新闻,对此,甚至连即将离任的总统巴拉克奥巴马也表示了他的担忧也表达了他的担忧。

现在越来越多的技术专家,学者和媒体专家开始尝试思考该问题的解决方案,但其过程从互联网信息创始人Eli Pariser创建的100多页的谷歌公开文挡 开始进行是不切实际的。

该项目自从11月17号在巴黎启动以来已经像滚雪球般不断壮大,贡献者提出了无数的解决方案,他们说。“看着参与其中的人越来越多,这是一件美妙的事情”,巴黎的组织者们如是说道。 “我们在谈论设计如何构建人们的互动方式。无意间,这变成了一个你与成千上万的人以一种美妙的方式在一起合作的地方。

与此同时,在硅谷,一些程序员已经在  Hacker News 上抨击了该解决方案,Hacker News是由创业孵化器Y Combinator运营的计算机论坛。他们的一些想法比其他想法更现实。

哥伦比亚大学数字新闻中心Tow中心研究主任Claire Wardle说:“最大的挑战是谁要成为真理的仲裁者和什么才是真理”。 “人们获取信息的方式越来越多的是依靠社交网络,所以社交网络上任何人提出的解决方案都值得参考”。
记者,公众还是算法?

所有的解决方法基本可以归为三类: 招聘人工编辑; 众包, 还有技术式或算法式解决方案。

人工编辑需是训练有素的专业人员,在信息到达消息流之前对其进行评估.其支持者说,人类的判断比算法更可靠,后者会被心怀不轨的人操纵,当面临复杂的编辑,需要做决策时,可以说算法不如人工编辑细致。脸书的算法系统上的疏忽就将 越南照片风波闹得沸沸扬扬。

然而,如果招聘人工编辑,特别是像处理脸谱网庞大内容量的系统,成本是及其昂贵的,要迅速采取这样的行动或许对脸书来时是很困难的。 社会网络生态系统是庞大的, 瓦尔德说,,任何人类的解决方案几乎是不可能实现.。而人也会有主观性。如果Facebook任命一个编辑, 即使这个“信息编辑“再包容也无法发挥其相应位置的影响力 ,而且会被公开指责。.

而众包评审会打开对政治体的评估,当人们开始申请像“验证信息检查者”这样职位的时候,他们就可以将看到的新闻进行排序。 这与维基百科的工作方式很相似,但相比只有一小组付费员工,这种方式似乎更民主。因为理论上来说,任何人都可以加入进来,所以不大可能因为偏见或其审查方式而受指责。 但是却更容易被想要传播虚假或带有偏见的信息的人操控,也可能会为了广告收益,利用自动化系统 增加点击量。

算法和机器学习审查是第三种方法, 也是脸书现在所推崇的。早在2016年,脸书就已经解雇了人类新闻团队,用算法系统取而代之。. 但目前系统无法识别 或撤退 虚假信息, 也无法从真实的故事中分辨出哪些是具有讽刺意味的新闻。脸书的算法系统几乎自成立之日起,就在不断吐出虚假信息!

技术公司总爱宣称算法系统不带有任何个人偏见,但是算法系统却无可避免的反映了其设计者的主观决定, 而对于工程师来说,新闻的真实性并不是首要的。

相比起人工编辑来说,算法管理起来也更容易,更便宜。但瓦尔德说,算法式解决方案必须是透明的。不得不说,利用算法系统进行审查变得相对容易些。

怎样处理脸书上的虚假信息以及夸大讽刺的言辞?
脸书已经开始渐渐承认其在新闻推送中存在错误信息, 而每天会有11.亿八千万的人看到推送消息。 无论是自动系统还是雇佣人类编辑,推送消息的系统开始总会出现一些错误。而帕里泽的项目具体的展示了下面几种开始的方法:

媒介页面的验证消息
类似于推特的“蓝蜱”系统, 验证意味着新的组织必须申请验证,证明其是可靠的消息来源,有了已通过验证的小旗帜,他们才能够发布消息。而在消息推送算法中,也需要最先通过验证,。当不断推送虚假消息时,同时也就意味着失去了其“已通过验证的地位”
支持者: 这个系统很容易实施,通过浏览器插件就能实现, ,更容易吸引主要的信息发布者。
反对者: 需要额外的人力去评估其申请,维护系统,如果管理不慎, 就会被指责带有偏见, 而且对于年轻人,还有不成熟的新建立的网站来说也会带有一定的歧视性。

将个人信息分享与新闻文章分开
,”阿曼达·哈里斯, 是帕里斯项目的成员之一,她写道 :.在社交媒体上分享新闻文章和新闻看法,巧妙地将 意见归属人从作者变成分享者。当有关文章的对话转向第三个人的时候,事情就会往好的方向发展了。 相比起你错了,作者错了这样的说法就会少一些侵略性。
支持者: 实施起来更容易,也更便宜。.
反对者: 效果不明显,对于解决问题没有实际的帮助。

增加“虚假信心”标记
给有问题的文章贴上这样的标签就说明脸书用户在文章真实性方面存在一些问题。就如目前滥用报告一样,可以用相同的方法来实施,。用户标记虚假信息,当足够多的用户标记了文章,在读者点开浏览之前,就会看到一个警示框:大多数用户已经标记这是虚假信息。

支持者: 标记文章便捷,简单,并且只需做出微小的改变, 这样用户对其阅读和分享的内容就会多一些质疑。通过减缓虚假消息的传播速度,可以提高分享虚假消息的标准。
反对者: 我们并不知道做标记这样的做法是否能改变人们的行为。.遭遇破坏和操纵行为时,系统仍旧很脆弱。如“错误标记“操作一样,”用户也会将真实的消息标记成虚假信息。

转发的延时性
在脸书和推特上的文章分享一旦到达了特定的界限,就可以设置时间延时,而像纽约时报这样“白色标签”网站就可以拥有豁免权。

支持者: 会减缓虚假消息的传播速度
反对者: 减缓虚假消息传播的同时也会影响真实信息的传播, 同样“”白色标签“网站也会因为偏见和不公平而受到攻击。尤其是那些真实信息传播用户。 对于强制的延迟,他们会感到很失望。我想随心所欲的在任何时间分享。

与事实审查网站合作,例如Snopes 公司
虚假消息可以自动附上一个链接,能够跳转到Snope上调试虚假消息的文章。 当然,无可避免的是,当其修正网站因为其政治偏见而被攻击时,脸书也会被公开指责。
支持者: 更容易标记虚假新闻,也可以提高对于事实验证来源及其过程的警惕性。
反对者: 人们也许会职责这种做发带有一定的政治偏见, 而任务实行起来也会缓慢些。这种方法对政治性主页是否同样适用?

标题与内容分析
算法系统能够通过分析信息的标题和内容来判断是否含有虚假信息,继而对其进行标记。 可以通过合法的来源对文章的内容进行检查–设置超链接至美联社或其他白名单的媒体组织。
支持者: 成本低,更易与现有算法系统融合.
反对者: 自动的系统能否让真实信息顺利通过?
跨平台指示

从算法上来说:通过核查政治观点与分享节点的热图,能有效促进无党派信息的传播。相比于之前只有一方政治团体进行传播,这种方式能够将已分享的信息更大范围的传播出去。 能够增强关键词搜索功能来对抗极左或极右人群最常用语料库。
支持者: . 成本低,更容易与现有算法融合。. 也可以与其他措施同时使用。这种方式相对也更加柔和些,能够在没有审查的的条件下,让读者远离虚假信息。
反对者 : 不能够完全移除虚假信息

公示声望排名
这种方法能够促进或阻止以分享者声望为衡量标准传播的文章。每一个社交网站上用户基于自己分享的文章反馈会获得相应积分。
支持者: 通过用户反馈能够迅速支撑新系统.
反对者: 用户反馈系统容易被操纵, 进而想要使用虚假信息混淆视听的人轻而易举的就能够操纵虚假信息使其能够像真实信息那样传播。

虚假信息提示
在信息推送中虚假信息可以显示为红色,而真实信息可以显示为绿色、具有讽刺意味的消息可以显示为橘色
支持者: 能够通过即时的视觉标记将从真实信息汇总将虚假信息或浏览器插件分辨出。
反对者: 无论是使用算法系统,还是大规模雇佣人力,仍旧需要分辨不同的信息任何系统的失误,比如说将布赖特帕特的文章标记成了红色,那脸书就会因偏见遭受指责。

对发布虚假信息者设立惩罚措施
如果在脸书上发布虚假消息,规定会受到相应惩罚, 继而就能够阻止机构采取传播虚假信息的行为。
支持者: 从根源解决问题,抵制最严重的虚假信息传播。.
反对者: 系统会因为偏见遭受指责。 那对于那些讽刺性的文章或者说并不算虚假,只是存在争议的文章该如何处置呢?

以脸书之外的方式处理网上虚假信息问题
从SMS到像“what's app”和“snapchat”这样的消息应用程序,从谷歌搜过引擎发布的消息到像Flipboard这样的门户网站,消息是通过成千上百不同的网站和服务进行分享的。 怎样才能准确的从如此复杂的环境中识别成不合适的消息和仍为达成共识的讽刺性言辞?

事实核查 程序应用界面
可以在程序应用界面中添加一项事实核查服务, 不断实时更新推送的信息,以保证任何浏览人都能够对新文章进行查询。将人工编辑与算法两种方式进行组合,继而反馈关于新故事和气URL的相关信息。当然包括这些信息是否为虚假信息 (如果信息来源于已知的点击量欺骗网站) .消息也会像广告软件那样有了自己的指纹
人们可以选择自己的的事实核查系统– 是Snopes 或者Politifact 还是其他类似网站 – 然后就像安装浏览器插件或者脸书或推特插件一样,继而使用渐进的色码标示出那些事真实信息,那些是虚假消息,还有介于两者之家不同程度的消息类型。
反对者: 随着算法学习的完善,人工标记就会逐步解放,不需要在亲自审查每一条消息。同时,鼓励大家自己选择事实核查方式还能够促进批判性思维发展
支持者: 开始的话,成本高并且要消耗大量人力。会因偏见受到公众指责,尤其是当算法系统开始接管人工工作的时候。可以说, 只有已经知晓存在问题的消息会被过滤掉,除非像脸书或谷歌这样的平台为其设定标准,到底哪些消息应该过滤掉。
主页排名系统
Parse ly的 Mike Sukmanowsky 建议:就像谷歌最初的网页排名算法, 可以通过其域名和URL记录来判断消息的权威性。,
Sukmanowsky写道,这种方法很有效,源算法系统能够对在线内容计算出一个“基本公正分数”,像脸书这样的主页可以以此创建自己的热门话题算法系统。同样,对于媒体来说,还有“评级机构有太多的Stephen Glass式的虚假报告丑闻,就算”纽约时报都可能会失去其3A评级。
支持者: 使用开源建立相对来说较容易, 也能够应用到已有的结构中。连续传播虚假信息的域址会受到排名降级的处罚,从而有效阻断他们对于虚假信息的传播。
反对者: 对于网站来说没有足够的信息来降级相关媒体排名,对刚开始创建不成熟的网站来说, 就会很难通过验证,造成不公平的局面。

将虚假信息与信息核实网站进行连接
通过这个系统,将虚假信息,与一像Snopes或Politifact这样令人信服的事实核查网站相相互关联。可以采取浏览器插件的方式。 (Rbutr在一定程度上已经这样做了.)
支持者: 这样的验证网站已经能够建立好了。.Facebook和谷歌可以在其算法中使用像Snopes 这样的数据库
反对者: 除非这种系统能够与脸书或谷歌进行硬链接, 人们才能知晓到底自己所获取的信息哪些是虚假的。
根据目前的证据来说, 面对这些不触犯自己偏见和喜好的消息时,即使这些消息不准确,具有误导性甚至是错误的,也不会感到不舒服。
以上这些解决方法没有提到的是教导给大众推行开放,有根据讨论的重要性是一项繁琐复杂且长期的挑战。– 那威为什么能够从问题的另外一个方面出发,恰当的形成更为一个准确,合理并有力的观点式民主过程十分重要的一部分呢?

“克莱尔·瓦尔德说:在寻找各种各样的解决方法时,我们似乎意识到当下我们正面临着飞镖效应的威胁-揭穿的越多,就会有越来越多的人不再相信发布的信息” .当人们接收到的信息 与他们所看的世界不相符时,我们怎样将人们团结在一起,让大家对于事实达成一致?

(责任编辑:郭倩荷)
文章评论
关注我们

快速入口
回到顶部
深圳网站建设