脸书吹哨人出镜《60分钟》,称该公司放大仇恨言论

向《华尔街日报》泄露大量Facebook文件的举报人弗朗西斯·豪根(Frances Haugen)周日(10月3日)在《60分钟》节目中公开了这个世界上最强大的社交媒体平台的内部运作情况。豪根在国家电视台披露了她的身份,声称脸书为了产品优化而使用放大仇恨言论的算法。

豪根告诉《60分钟》主持人斯科特·佩利(Scott Pelley):“它用我们的安全来换取利润。”

根据已经删除的LinkedIn资料,豪根是Facebook的产品经理,被分配到公民诚信小组。在该小组解散后,她于2021年选择离开该公司。她说,她不相信脸书真心实意想降低该社交媒体的危险性。

因此,她向美国证券交易委员会泄露了一份内部研究报告,希望能推动对该公司的更好监管。她指出,她曾在一些公司工作过,包括谷歌和Pinterest,但在Facebook的情况大大恶化,因为该公司希望将其利润置于用户的福利之上。

“对公众有利的东西和对Facebook有利的东西之间存在冲突,”豪根告诉佩利:“Facebook一次又一次地选择为自己的利益进行优化–比如赚更多的钱。”

虽然该公司一再声称它正在帮助阻止仇恨言论,至少是在其自己的产品上,但豪根泄露的一份Facebook内部文件说:“我们估计,尽管我们在这方面是世界上最好的,但我们在Facebook上可能只对3-5%的仇恨和~0.6%的V&I(暴力和煽动)采取行动。”

另一份文件甚至更加直白:“我们有来自各种渠道的证据表明,Facebook和应用程序家族中的仇恨言论、分裂性政治言论和错误信息正在影响世界各地的社会。”

豪根声称,问题的根源在于2018年推出的算法,这些算法管理着你在平台上看到的内容。据她说,这些算法是为了推动参与度。而该公司发现,最吸引人参与的是在用户中灌输恐惧和仇恨的那种内容。她说:“激发人们的愤怒比激发其他情绪更容易。”

当时,扎克伯格将算法的变化说成是积极的:”我们感到有责任确保我们的服务不仅仅是使用上的乐趣,而且对人们的福祉也有好处。“

但是,根据《华尔街日报》对豪根的担忧的报道,其结果是急剧转向愤怒和仇恨。《华尔街日报》引用的一份内部备忘录在形容变化的影响时说:”错误的信息、毒性和暴力内容在转发中极为普遍。“

《华尔街日报》于9月开始以”Facebook档案“的名义公布其从缓存中获得的发现。有一篇报道称,Facebook有研究证明Instagram伤害了少女,这导致了国会听证会的召开。在听证会之前,Facebook试图在一篇博客文章中改变说法,其中转载了《华尔街日报》报道中提到的两份报告。

在《60分钟》报道之前,Facebook试图以不同的形式进行同样的转述。周日下午,Facebook全球事务副总裁尼克·克莱格(Nick Clegg)出现在CNN的“可靠消息”(Reliable Sources)节目中,为该公司辩护,此时距豪根出镜仅几个小时。

“我认为这很可笑,”克莱格在谈到社交媒体应对1月6日的骚乱负责的指控时说:“我认为这给了人们错误的安慰剂,认为美国的政治两极化问题一定有一个科技或者技术上的解释。“

豪根在采访结束时呼吁对社交网络进行更广泛的监管,而Facebook本身也以更有限的形式呼吁这样做。她定于周二出席参议院商业小组的会议。

点击这里看原文:Facebook encourages hate speech for profit, says whistleblower

热门 媒体