上週的文章談到了目前社會上對假新聞的定義缺乏共識,在接下來的中,將概述產業界、政府和非政府組織為數位內容提供的一些解決方案。由於每天都有新的解決方案湧現,本文僅討論了四種新的策略:信任和驗證/事實查核(trust and verification/fact-checking)、降低經濟上的誘因(demonetization)、降低優先次序(de-prioritization)、和政府監管辦法(regulatory approaches)。
策略 3:降低內容排序和封鎖帳戶
圖片出處:pixabay.com
根據相關報導指出,平台業者正打算降低被標註為「假新聞」內容的排序,並持續刪除可疑帳戶。臉書在其資訊操作(Information Operations)的報告中指出,他們一直致力於防止和刪除假帳戶,並使用新的分析技術,包括機器學習,來揭露和阻止更多帳戶濫用的情況;在 2017年4月,臉書刪除了超過3萬個有大量的貼文和跟隨者的虛假帳戶,社群媒體推特也有控制垃圾郵件和阻止網路機器人的對策,但是我們仍不知目前的成效如何,谷歌也藉由Google AdSense,在兩個月內隔離了200個假新聞的出版商。
在電腦科學領域,關於「人有人的用處」(the human use of human beings)的爭論一直不斷,因為我們仍無法在人類或演算法兩者間取得平衡的結果。去年,臉書為了限制誤導性內容,改變了新聞發送和趨勢主題服務的政策,不僅讓用戶自行標記,也加入了自動化和人工內容查核等機制。自2015年1月以來,臉書已經提出至少四個方案來抑止所謂的「錯誤資訊或假新聞」、「惡作劇或誤導性新聞」,或「低質量網頁體驗」;臉書近期又透過使用行為指標(如文章數量或與文章的互動),企圖降低具有特定參與模式內容的優先性,以確定內容是否為垃圾信息、錯誤資訊,或偽裝成新聞的假新聞。
臉書於2017年6月30日宣布,他們正在減少那些分享大量連結到假網站和假新聞的帳號。谷歌的母公司Alphabet 也在2017年4月修訂了搜尋引擎演算法,降低已知的假新聞網站的優先性。為了實現這一目標,谷歌增加了一萬多名人力來參與審查的作業,說明了人類仍有無可取代的地方。
對內容進行優先排序並刪除帳戶,平台公司必須訂定一套準則,這需要平衡許多相互衝突的意識形態社群的觀點和需求。這些平台成為鬥爭的場域,不僅內容生產者爭取關注,一般消費者也是如此。我們必須了解到,訂定一個用於管理所有數位內容的準則是不可行的;例如,推特最近封鎖了「雙性戀」等辭彙的搜索結果,遭到了傳播學者Safiya Noble和Sarah Roberts的批評,他們認為這些公司的管理準則在文化上「不敏感」,並且輕忽了它們造成的危害。這些問題會影響「內容的自動刪除」和「人為主導」的內容審核策略。
無論是人類或演算法來進行查核,都擺脫不了人類所扮演的決策角色;用戶不可能標記所有的內容,調節者也無法在用戶生成內容的當前潮流下不停地工作。此外,Roberts的研究表明,商業內容審核已經基本上由平台公司外包給獨立業者;所以,新的勞動力也是我們需要關注的,這些人能否受到良好的培訓,並得到醫療照顧和帶薪假等福利,以確保政策和標準的執行。另外,如果將調節內容的工作外包出去,我們還有另一個問題:確保內容符合平台公司設定的標準的最佳模式是什麼?減輕對調節者的傷害,並確保優質的客戶體驗?
作者:Robyn Caplan, Lauren Hanson,and Joan Donovan
摘譯:朱弘川
原出處:Dead Reckoning—Navigating Content Moderation After “Fake News”
https://datasociety.net/output/dead-reckoning