用户:BensonLin0606/沙盒

过滤气泡(英语:filter bubble),又称为同温层、个人化资料过滤[1]、筛选小圈圈、资讯茧房、信息茧房 (information cocoons)[2]等,是一种网站针对个人化搜寻而提供筛选后内容的结果。网站内嵌的演算法会透过使用者的地区、先前活动纪录或是搜寻结果,给予使用者想要的或是观点一致的结果。这种智力隔离(intellectual isolation)的结果可能会导致使用者越来越看不到他们不同意的观点或资讯,使得认知过于单向,并处于他们的文化、意识形态气泡之中。

过滤气泡(filter bubble)在2010年被Eli Pariser提出

主要的例子为Google搜寻的个人化搜寻结果以及Facebook的个人化动态消息、亚马逊Netflix的过滤性推荐系统。

概念

这个词汇被网路活动者Eli Pariser在2010年左右提出。在他著名的同名著作The Filter Bubble: What the Internet Is Hiding from You (2011)中,透露Google政策的改变,使搜寻结果变得个人化,而且这些过滤、筛检的程式是用户所看不到的,用户并不知道被隐藏了什么内容。

Pariser对于过滤气泡的想法在2011年的TED Talks后得到推广[3],他提到在Facebook、Google、网路新闻机构等网站会利用过滤气泡处理搜寻结果。一位工程师曾告诉他,虽然用户登出了帐户,但是用户的电脑类型、浏览器的选择,甚至是用户的所在位置,仍然有57个讯号被Google观察著,目的是要为用户量身打造搜寻结果。他举了一个例子,他要求他的朋友同样用Google搜寻“Egypt”一词,一个的搜寻结果大部分都与当时的埃及革命事件有关;另一个则完全没有看到相关的新闻,尽管此事件在当时造成轰动。而经由过滤气泡的影响,用户甚至不知道他的搜寻结果与其他人有所不同。

研究

2015年,Facebook研究员在《科学》期刊发表一篇报告“脸书上具多元意识形态的新闻与评论接触”(Exposure to ideologically diverse news and opinion in Facebook)[4][5],探讨“硬”新闻(如国家事务、政治)对于不同政治立场的用户的分享比率、用户的交友政治立场组成,及在网路上所接触到特定立场的政治文章的比率,是因为“个人选择”或是“系统演算法”而造成较大影响。

研究发现

  • 用户分享“硬”新闻呈现两极化现象,越是偏向自由派或是保守派,用户分享文章的比率就越高。
  • 用户交友情形呈现同质性,用户的朋友较高比例为相同政治立场,但是也有跨越派别的友谊,其中自由派与保守派成为朋友的中位数比例为0.20;保守派与自由派成为朋友的中位数比例为0.18。
  • 研究分析用户在四种情形下所看到“交叉内容”(与用户政治立场相反的文章)的比率。研究结果显示在“随机”状况下(用户可随机看到脸书上的所有文章),自由派所接触的交叉内容为45%,保守派则为40%。在“朋友分享”的情况下,自由派所接触的交叉内容为24%,保守派则为35%,保守派有较高比例会分享对立派别的文章。在“脸书的运算机制”运作后,两派在动态墙上的交叉内容比率都下降1-2%。在“挑选”的情况下(用户自行点击连结),自由派所接触的交叉内容比率为21%,保守派则为30%。
  • 脸书运算机制所呈现的动态墙内容是由许多因素所构成(例如:用户使用脸书的频率、过去用户点击动态墙的内容),经由分析,“脸书运算机制”对于自由派看到交叉内容比率的变化(8%)比保守派(5%)还要高。在“个人点击”方面,保守派看到交叉内容比率的变化(17%)则是比自由派(6%)还要高。

结论

Facebook研究员表示:“在脸书平均状况而言,个人点击选择比起脸书演算法限制了更多冲击个人价值观的文章。”

社会学家评论

  • 密西根大学传播学系副教授克里斯提· 桑维(Christian Sandvig)发表了“脸书的‘这不是我们的错’”研究(The Facebook “It's Not Our Fault”Study)[6],他提到:“不存在“个人选择”和“演算法”可以互相制衡的情形,因为他们是同时发生的。”“该报告只有对于美国脸书的4%的用户进行研究,而且这些人不寻常的对于政治立场做出发表,研究结果可能与普通人不同。”
  • 除了与上述相似的评论,Eli Pariser也提到自由派在“脸书运算机制”和“个人点击”的变化与保守派的两项变化有所不同,所以此研究的结论并不尽然。他更提出:“此研究强调“个人选择”比“演算法”更重要,我认为有点夸大。但是事实上,如果演算法的影响与“用户自身的朋友组成”和“个人点击”的影响相似,这其实就是一个严重的问题。”[7]

法律问题

在2021年左右,美国的多名众议院议员提出了《过滤气泡透明度法案》(Filter Bubble Transparency Act),要求用户能够使用不被演算法筛选过后的服务。推动此法案的其中一位众议员肯·巴克表示:“消费者应该有与网路平台互动的选择,而不被特定数据所形成的秘密演算法所操纵。”[8][9]

参考资料

  1. ^ Filter Bubble是甚麼? « Seo搜尋引擎優化 « 台灣搜尋引擎優化與行銷研究院:SEO:SEM. web.archive.org. 2016-11-22 [2023-12-06]. 
  2. ^ 微博的“信息繭房”效應及其思考--傳媒--人民網. media.people.com.cn. [2023-12-06]. 
  3. ^ Pariser, Eli, Beware online "filter bubbles", 2011-05-02 [2023-12-05] 
  4. ^ Bakshy, Eytan; Messing, Solomon; Adamic, Lada A. Exposure to ideologically diverse news and opinion on Facebook. Science. 2015-06-05, 348 (6239). ISSN 0036-8075. doi:10.1126/science.aaa1160 (英语). 
  5. ^ 誰該為Facebook的「過濾氣泡」現象負責?. PanSci 泛科学. [2023-12-06] (中文(台湾)). 
  6. ^ Sandvig, Christian. The Facebook “It’s Not Our Fault” Study. Social Media Collective. 2015-05-07 [2023-12-09] (英语). 
  7. ^ elipariser. Did Facebook’s Big Study Kill My Filter Bubble Thesis?. Backchannel. 2015-05-08 [2023-12-09] (英语). 
  8. ^ Wilson, Sara; November 10, Colorado Newsline; 2021. Rep. Buck introduces bipartisan bill aimed at increasing Big Tech transparency. Colorado Newsline. [2023-12-04] (美国英语). 
  9. ^ 美國國會推動新法案,讓使用者可退出社交平臺演算法. iThome. [2023-12-04] (中文(繁体)). 

相关条目