跳至內容

使用者:BensonLin0606/沙盒

維基百科,自由的百科全書

過濾氣泡(英語:filter bubble),又稱為同溫層、個人化資料過濾[1]、篩選小圈圈、資訊繭房、信息繭房 (information cocoons)[2]等,是一種網站針對個人化搜尋而提供篩選後內容的結果。網站內嵌的演算法會透過使用者的地區、先前活動紀錄或是搜尋結果,給予使用者想要的或是觀點一致的結果。這種智力隔離(intellectual isolation)的結果可能會導致使用者越來越看不到他們不同意的觀點或資訊,使得認知過於單向,並處於他們的文化、意識形態氣泡之中。

過濾氣泡(filter bubble)在2010年被Eli Pariser提出

主要的例子為Google搜尋的個人化搜尋結果以及Facebook的個人化動態消息、亞馬遜Netflix的過濾性推薦系統。

概念

[編輯]

這個詞彙被網路活動者Eli Pariser在2010年左右提出。在他著名的同名著作The Filter Bubble: What the Internet Is Hiding from You (2011)中,透露Google政策的改變,使搜尋結果變得個人化,而且這些過濾、篩檢的程式是用戶所看不到的,用戶並不知道被隱藏了什麼內容。

Pariser對於過濾氣泡的想法在2011年的TED Talks後得到推廣[3],他提到在Facebook、Google、網路新聞機構等網站會利用過濾氣泡處理搜尋結果。一位工程師曾告訴他,雖然用戶登出了帳戶,但是用戶的電腦類型、瀏覽器的選擇,甚至是用戶的所在位置,仍然有57個訊號被Google觀察著,目的是要為用戶量身打造搜尋結果。他舉了一個例子,他要求他的朋友同樣用Google搜尋「Egypt」一詞,一個的搜尋結果大部分都與當時的埃及革命事件有關;另一個則完全沒有看到相關的新聞,儘管此事件在當時造成轟動。而經由過濾氣泡的影響,用戶甚至不知道他的搜尋結果與其他人有所不同。

研究

[編輯]

2015年,Facebook研究員在《科學》期刊發表一篇報告「臉書上具多元意識形態的新聞與評論接觸」(Exposure to ideologically diverse news and opinion in Facebook)[4][5],探討「硬」新聞(如國家事務、政治)對於不同政治立場的用戶的分享比率、用戶的交友政治立場組成,及在網路上所接觸到特定立場的政治文章的比率,是因為「個人選擇」或是「系統演算法」而造成較大影響。

研究發現

[編輯]
  • 用戶分享「硬」新聞呈現兩極化現象,越是偏向自由派或是保守派,用戶分享文章的比率就越高。
  • 用戶交友情形呈現同質性,用戶的朋友較高比例為相同政治立場,但是也有跨越派別的友誼,其中自由派與保守派成為朋友的中位數比例為0.20;保守派與自由派成為朋友的中位數比例為0.18。
  • 研究分析用戶在四種情形下所看到「交叉內容」(與用戶政治立場相反的文章)的比率。研究結果顯示在「隨機」狀況下(用戶可隨機看到臉書上的所有文章),自由派所接觸的交叉內容為45%,保守派則為40%。在「朋友分享」的情況下,自由派所接觸的交叉內容為24%,保守派則為35%,保守派有較高比例會分享對立派別的文章。在「臉書的運算機制」運作後,兩派在動態牆上的交叉內容比率都下降1-2%。在「挑選」的情況下(用戶自行點擊連結),自由派所接觸的交叉內容比率為21%,保守派則為30%。
  • 臉書運算機制所呈現的動態牆內容是由許多因素所構成(例如:用戶使用臉書的頻率、過去用戶點擊動態牆的內容),經由分析,「臉書運算機制」對於自由派看到交叉內容比率的變化(8%)比保守派(5%)還要高。在「個人點擊」方面,保守派看到交叉內容比率的變化(17%)則是比自由派(6%)還要高。

結論

[編輯]

Facebook研究員表示:「在臉書平均狀況而言,個人點擊選擇比起臉書演算法限制了更多衝擊個人價值觀的文章。」

社會學家評論

[編輯]
  • 密西根大學傳播學系副教授克里斯提· 桑維(Christian Sandvig)發表了「臉書的『這不是我們的錯』」研究(The Facebook 「It's Not Our Fault」Study)[6],他提到:「不存在「個人選擇」和「演算法」可以互相制衡的情形,因為他們是同時發生的。」「該報告只有對於美國臉書的4%的用戶進行研究,而且這些人不尋常的對於政治立場做出發表,研究結果可能與普通人不同。」
  • 除了與上述相似的評論,Eli Pariser也提到自由派在「臉書運算機制」和「個人點擊」的變化與保守派的兩項變化有所不同,所以此研究的結論並不盡然。他更提出:「此研究強調「個人選擇」比「演算法」更重要,我認為有點誇大。但是事實上,如果演算法的影響與「用戶自身的朋友組成」和「個人點擊」的影響相似,這其實就是一個嚴重的問題。」[7]

法律問題

[編輯]

在2021年左右,美國的多名眾議院議員提出了《過濾氣泡透明度法案》(Filter Bubble Transparency Act),要求用戶能夠使用不被演算法篩選過後的服務。推動此法案的其中一位眾議員肯·巴克表示:「消費者應該有與網路平台互動的選擇,而不被特定數據所形成的秘密演算法所操縱。」[8][9]

參考資料

[編輯]
  1. ^ Filter Bubble是甚麼? « Seo搜尋引擎優化 « 台灣搜尋引擎優化與行銷研究院:SEO:SEM. web.archive.org. 2016-11-22 [2023-12-06]. 
  2. ^ 微博的“信息繭房”效應及其思考--傳媒--人民網. media.people.com.cn. [2023-12-06]. 
  3. ^ Pariser, Eli, Beware online "filter bubbles", 2011-05-02 [2023-12-05] 
  4. ^ Bakshy, Eytan; Messing, Solomon; Adamic, Lada A. Exposure to ideologically diverse news and opinion on Facebook. Science. 2015-06-05, 348 (6239). ISSN 0036-8075. doi:10.1126/science.aaa1160 (英語). 
  5. ^ 誰該為Facebook的「過濾氣泡」現象負責?. PanSci 泛科學. [2023-12-06] (中文(臺灣)). 
  6. ^ Sandvig, Christian. The Facebook “It’s Not Our Fault” Study. Social Media Collective. 2015-05-07 [2023-12-09] (英語). 
  7. ^ elipariser. Did Facebook’s Big Study Kill My Filter Bubble Thesis?. Backchannel. 2015-05-08 [2023-12-09] (英語). 
  8. ^ Wilson, Sara; November 10, Colorado Newsline; 2021. Rep. Buck introduces bipartisan bill aimed at increasing Big Tech transparency. Colorado Newsline. [2023-12-04] (美國英語). 
  9. ^ 美國國會推動新法案,讓使用者可退出社交平臺演算法. iThome. [2023-12-04] (中文(繁體)). 

相關條目

[編輯]