演算法時代的網路傳播 諧音繞過平台審查避免「被祖」

2024 年 12 月 12 日 | 卓越新聞電子報

donation

陳品潔|特約記者編譯報導

美國非營利組織「國際新聞工作者中心」(International Center for Journalists,ICFJ)在其網站《國際記者網》(International Journalists’ Network,IJNet)中,介紹了以諧音、符號、委婉用詞來逃避平台審查的「演算語」(algospeak)現象。不斷發展與更新的演算語,影響了記者在數位時代之下該如何精準報導。[1]

除了傳播性高的舞蹈影片以外,文章指出,超過25歲以後,用TikTok可能感到格格不入,小朋友開始說自己聽不懂的詞彙、開始覺得自己「不酷了」。每一個世代皆有當紅的流行用詞,而新興世代的網路用語不僅僅是呈現短暫趨勢,更隱含在社群平台盛行下的「自我審查」。

諧音暗喻 避開平台演算法

以Facebook為例,因留言或內容違反Facebook社群守則後,用戶將被禁言與降低觸及率,台灣用戶稱此過程是「被祖了」(取用Facebook創辦人祖克伯Mark Zuckerberg的姓氏),為了避免「被祖」,多以諧音或注音文討論敏感字詞或話題。

台灣用戶的演算語包含:以「沙」取代「殺」、「澀」取代「色」,討論重大案件以「煉銅」取代「戀童」。使用漢語羅馬拼音的中國用戶,則以字母縮寫或暗諷為主,包含:ZZ(政治)、xjp(習近平),川建國(川普)與拜振華(拜登)等。

以英文的演算語舉例:用「corn」(玉米)取代「porn」(pornography,色情作品)、用「accountant」(會計師)取代「sex worker」(性工作者)、「unalived」(喪失生命)取代「kill」(殺死),疫情期間則是用「panoramic」(全景)和「panini」(義大利三明治)取代「pandemic」(流行病)等。

「演算語」(algospeak)為「演算法」(Algorithm)和「說話」(speak)的結合,在討論爭議話題時選用替代拼音、符號與間接詞彙,以繞過TikTok和YouTube等社群媒體平台的演算法,避免內容遭到限制或移除,被視為一種存在於網路的「語言自我審查」(linguistic self-censorship)。[2][3]

限制流量、YouTube黃標影響曝光營利

以YouTube為例,當影片不符合《廣告友善內容規範》時,影片旁則會出現黃色標誌,用戶的影片營利狀態將受到限制。使用者也可以對自動化系統的判定結果申請專人審查。[4]

被認定為YouTube的「不友善」內容涵蓋:不當言語、暴力內容、成人內容、駭人內容、有害行為與不可靠內容、仇恨及貶抑他人的內容、娛樂性藥物和藥物相關內容、槍械相關內容、爭議性話題、敏感事件、助長欺騙行為、不適合兒童和家庭觀看的內容、辱罵及貶抑他人的內容與菸草相關內容。自2022年3月23日開始,任何濫用、駁斥或姑息烏克蘭戰爭將不符合資格。[5]

除了明顯的限制與標籤之外,社群平台也會以「秘密封鎖」(Shadow banning)的方式,限制用戶或用戶內容的曝光程度,卻不會被用戶直接發現,即使平台不承認此一說法。

《Vox》報導,Twitter(現更名為X)於2018年秘密封鎖了美國共和黨人的帳號,《Vice News》則在同年7月發現共和黨支持者不會出現在搜尋欄下方的自動推薦,從而限制了於平台上的流量[6][7]。Twitter則否認存在秘密封鎖,並稱自動建議與用戶和他人的互動有關,而非是針對特定用戶的限制[8]。

然而,Twitter被洩露的內部文件顯示,部分用戶會被標為「趨勢黑名單」(Trends Blacklisted)和「搜尋黑名單」(Search Blacklisted),這些用戶的公開搜尋能見度將被降低。馬斯克(Elon Musk)於2022年收購Twitter之後,與獨立記者泰比(Matt Taibbi)和韋斯(Bari Weiss)討論了平台的過濾機制,包含允許標記用戶為「Do not amplify」(不要擴散)、「黑名單」(under blacklists)。[9][10][11]

網路語難以識讀 有害內容真能被揪出?

創立《Cliterally The Best》、提名表彰消除性汙名化獎項《Brook & SH24 NHS sexual health awards》的性教育專家普拉姆(Evie Plumb)表示,對於平台的審核工具相當了解,「我有無數的影片被加入標籤或刪除」。即使內容與健康有關,仍經常引發審查,常用「seggs」一詞代替「sex」。

普拉姆的經歷無獨有偶。演算法無法理解上下文脈絡,也無法將新聞、教育內容,與真正有害的內容區分開來。

平台用戶致力「智取」演算法。最早一批著手研究內容創作者和平台演算法關係的專家、卡內基梅隆大學師生跨學科和國際研究「MINT實驗室」的負責人克魯格(Daniel Klug)指出,平台演算法學習新的替代詞,而人們又會開始使用新的代號、照片甚至手勢來取代被審核的用詞。

克魯格表示,演算法機制與外面的社會運作規則並無太大分別,非主流族群的聲音在網路還是經常受到壓抑、排擠,或被認為不那麼重要。他憂心,未來人與人的交流會像是猜謎一般,內容變得越來越來難以識讀,特別對於學習障礙的人而言,理解和參與的門檻變得更高。

演算語用法千千百百種,沒有理解的狀況下可能產生誤會。一名曾受性侵的用戶在Tiktok影片講述男子給了她「睫毛膏」的片段,讓女演員福克斯 (Julia Fox)誤以為對方在說的是化妝,故而在下方留言「我不知道為什麼,我不覺得有什麼好難過的,哈哈」。未料,「睫毛膏」暗指的是性侵犯,引發軒然大波。福克斯事後向受害者致歉。[12]

演算法只能捕風捉影 無法識別真正意圖

演算語不只是怪誕的網路現象,也能從中了解敏感資訊在網路如何傳遞。現今社群平台成為資訊傳播最重要的管道之一,而記者必須關注平台的審核機制,尤其新聞經常報導當前社會的爭議議題。

《IJNet》報導,《德國之聲》發現,關於恐怖主義和納粹德國的歷史事件容易觸發演算法標記。即使媒體並非在宣揚此類意識形態,但演算法無法辨認意圖,只會捕捉關鍵字和圖片,並進行標記。

以32國語言運作的《德國之聲》(DW)重視社群演算法,受眾發展經理馬贊諾(Erika Marzano)強調:「如果我們希望內容在TikTok生存,就必須適應這一切。」她分享,《德國之聲》發表毒品政策或極端主義的影片之後,「幾乎立刻就會被標記」。

新聞需要保持文章的清晰度,同時又要迴避演算法的自動審查。馬贊諾指出,《德國之聲》避免用替代詞或委婉用語(例如玉米取代色情),而是使用符號、數字穿插在文字之間,盡可能讓敘事易於理解。

克魯格表示,演算法只會將詞彙標記成「不好」,並限縮該內容,無論這個詞彙是不是在教育或沒有威脅的語境中出現。演算語之所以能夠迅速發展,也暴露出平台演算法審核的最大弱勢:無法理解上下文,無法判斷是否在諷刺。

如果記者不了解平台的演算法規則、沒有完全了解和更新演算語代表的「真正用詞」,在報導性教育、毒品政策或激進主義等議題可能會背離事實,或者遺漏了需要被報導的故事。

參考資料

  1. IJNet – 〈‘Unaliving’ language online: How journalists can decode ‘algospeak’ on social media
  2. Sage Journals – 〈You Can (Not) Say What You Want: Using Algospeak to Contest and Evade Algorithmic Content Moderation on TikTok
  3. IUScholarWorks Journals – 〈“They Edited Out her Nip Nops”: Linguistic Innovation as Textual Censorship Avoidance on TikTok
  4. YouTube – 〈YouTube 工作室營利圖示說明
  5. YouTube – 〈《廣告友善內容規範》
  6. Vox – 〈How hysteria over Twitter shadow-banning led to a bizarre congressional hearing
  7. VICE – 〈Twitter appears to have fixed “shadow ban” of prominent Republicans like the RNC chair and Trump Jr.’s spokesman
  8. X Blog – 〈Setting the record straight on shadow banning
  9. The Hill – 〈Former NYT columnist Bari Weiss releases ‘Twitter Files Part Two’
  10. Slate – 〈The Anti-Trans Hate Account That Bari Weiss Says Is Yet Another Right-Wing Voice Censored by Twitter
  11. Gizmodo – 〈The Twitter Files, Part Two, Explained
  12. GLAMOUR – 〈The ‘mascara’ trend is empowering people to discuss sexual assault on TikTok – but are code words enough?