生成式AI假訊息加劇新聞工作的挑戰 建立媒體「白名單」為解決之道

(照片提供:全民查假會社)
特約記者宋思彤採訪報導
「如何防治虛假訊息」的議題,從 2016 年川普當選美國總統後成為顯學成為全球關注的焦點。沒想到,七年後的今天,川普再度回鍋白宮,假訊息的問題不僅持續困擾社會,更面臨前所未有的挑戰——一方面,政治因素讓打擊假訊息的行動受到掣肘;另一方面,生成式 AI 的發展,使得「打假」的技術門檻不斷提升。
隨著生成式 AI 的快速進化,許多圖文、影像的真偽愈發難以辨別。在這個訊息流通迅速、卻又「眼見不一定為憑」的時代,公眾對真相的認知逐漸受到侵蝕。面對失序的網路時代,我們該如何打贏這場戰爭,甚至,能否反向運用 AI,重建公眾信任?
「假訊息.真 AI」年度系列論壇,邀請產官學來賓探討「AI 與假訊息的監控與防範」。(全民查假會社提供)
事實查核組織《全民查假會社》舉辦「假訊息.真 AI、AI時代的媒體識讀」年度系列論壇,並邀集產官學各界專家與會討論,與談人包括數位發展部政務次長林宜敬、勤業眾信資深執行副總簡宏偉、華視新聞資訊台台長蔡莞瑩、中研院資訊科學研究所研究員王新民、《泛科學》總監王喆宣,以及文化大學新聞系教授莊伯仲擔任主持人。
本次與會嘉賓來自不同領域,他們將從各自的視角出發:究竟在他們眼中,假訊息有什麼特色或樣態?又造成了哪些威脅?而在他們的研究與觀察之下,又有哪些抵禦之道,能夠重建公眾的「信任圈」?
為什麼假訊息越來越難查核?
假訊息的查核難度日益提高,不僅是因為仿製網頁技術的成熟、政治光譜兩極化,甚至是 AI 技術進步等因素密不可分。
「現在的假訊息跟以往不同,在 AI 的推波助瀾下,它變得更加真實難辨」,華視新聞資訊台台長蔡莞瑩分享,在 2024 年總統大選投票日當天,民眾發現《華視新聞網》發布了一則高雄砍人的新聞事件,但此事並非為真。在層層追查下才發現,竟然是境外駭客透過仿製華視網頁,散佈足以影響選舉的假訊息,讓蔡莞瑩直言,這樣的內容,更加劇了新聞工作的挑戰。
數位發展部部長林宜敬則指出,AI 的發展讓錯誤訊息(misinformation)數量大增,這與資訊技術的演進及使用者習慣密切相關。「以往的電腦軟體準確度高、但是創造力有限;現在的生成式 AI 創造力驚人,卻準確度偏低。向 AI 詢問同一個問題,可能會得到十種不同答案。」
林宜敬表示,錯誤訊息與虛假訊息是大眾必須手要釐清的概念。(全民查假會社提供)
換言之,「低準確度時代」已成為假訊息氾濫的推手。根據 2024 年世界經濟論壇的《全球風險報告》,AI 產生的錯假資訊短期內排名第一,比極端氣候變遷影響更加深遠。這顯示了錯假訊息已成為全球關注的重大風險,並對社會穩定、政治決策以及公眾信任帶來深遠影響。
「這跟政治光譜兩極化脫不了關係」,勤業眾信資深執行副總簡宏偉認為,虛假訊息(disinformation)不僅反而造成對立,甚至形成了「信者恆信、不信者恆不信」的兩極效應。舉例來說,部分人士對於疫苗的效力抱持疑惑,「疫苗無用的理論,從疫苗有害論的人眼裡是正確的;但從醫學角度來說,卻是假訊息」,他坦言,這樣的內容在技術上更難處理。
此外,社會兩極化、AI 技術發展,也讓有心人士有機可趁。簡宏偉引用美國智庫研究指出,廣泛使用 AI 對於「五毛黨」有很好的效果,因為成本低、真實性高、滲透率更高,假訊息的內容和包裝就可以更精緻準確。
簡宏偉認為,AI 的成本和擬真性進化,因此成為了假訊息傳播的工具。(全民查假會社提供)
AI是否取代了傳統推薦演算法?
社群媒體的演算法(algorithm)掀起一波內容品質的革命,更讓傳統媒體力求轉型。
蔡莞瑩提到,「演算法不僅能了解觀眾的需求,更成為媒體與觀眾溝通的重要橋樑」。華視正著手準備推出個人新聞台功能,透過演算法分析觀眾喜好,推播其感興趣的新聞,並藉此消弭傳統、網路媒體的隔閡。
不過,演算法有利也有弊。對於公眾而言,它某種程度控制了使用者的耳目與視野。雖然能夠讓用戶接觸感興趣的資訊,卻帶來許多副作用,包括隱私問題、同溫層效應、網路討論激化。在假訊息傳播中,甚至扮演了重要的推手。
蔡莞瑩指出,傳統媒體也必須跟隨 AI 趨勢創新變化。(全民查假會社提供)
王喆宣指出,演算法是倚靠各種用戶的使用習慣所堆積起來的,而傳統媒體透過如同「傳聲筒」的社群網站,能夠把消息推廣出去。但具體來說,演算法「是幫觀眾找到合適的內容」,而不是幫內容找到合適的觀眾。因此,大眾必須去了解:為何假訊息能夠受到大家青睞,甚至搭上演算法列車,才能從傳播層面遏止假訊息。
不過,林宜敬也示警,「未來最強大的不是演算法,而是 AI 本身」。
林宜敬以 TikTok 舉例,「它從你登入後就在觀察你,看到某部影片會停留多久、上滑的速度有多快,然後會不斷地丟東西給你」,用戶可能在不知情的情況下,接收到了某立場的偏頗訊息、甚至是假訊息,不僅不利於嚴肅的政治討論,更可能流於各說各話的同溫層效應。
簡宏偉也指出,「不透明的 AI 會造成社會信任的損傷」,因此歐盟、美國這兩年開始推動可信任 AI 治理(Trustworthy AI),提升公平性、透明度與問責機制,避免演算法黑箱化。
AI辨假恐遭遇挑戰,未來該怎麼解?
中研院資訊科學研究所研究員王新民,也在會中分享了以 AI 辨別影音真偽的模型。透過提取大規模的語音、影像特徵,來檢測內容是否為合成。他指出,AI 模型在標準資料集上,可以達到 90% 的準確率。
不過,新的錯假技術仍然不斷演進,AI 是否能跟上新科技的腳步?王新民提出一項擔憂,在近期的實驗中,準確度僅剩下 60%,即使是人類也難以辨識真假影片。AI 在錯假資訊上的辨別,成為了技術與對抗技術之間的追逐遊戲。
王新民表示,雖然 AI 模型能夠打假,但隨著科技演進,打假模型也需要進化。(全民查假會社提供)
林宜敬認為,應對 AI 假訊息的策略包括 AI 工具辨假、AI 內容標記,以及媒體事實查核。
第一種方式是常人最容易使用的方式,卻也因為近年 AI 發展快速,導致準確度逐漸降低。第二種方式則是要求網路平台,在 AI 生成的圖片、影像加上標籤,方便讀者辨識,但需要仰賴工廠的配合度。第三種方式,則是藉由事實查核機構,透過專業查核記者,對時下謠言或話題進行再查證。
利用 AI 工具有技術限制、加上 AI 標籤又不見得可靠,林宜敬認為,「最後還是必須用人工的方式,透過訓練有素的媒體從業人員,才能對謠言做最後的確認。」
「泛科學積極探索 AI 技術的運用,特別是在影像處理與假訊息偵測」,不過《泛科學》總監王喆宣也坦言,雖然現有工具可以透過檢測影像邊緣、臉部血流變化等細節辨識假臉,但在技術不斷更迭下,AI 辨假也會受到挑戰。
「與其依賴技術對抗假訊息,不如從媒體素養的提升著手,讓大眾有能力自行區分真假消息。」王喆宣認為,雖然不一定能從源頭阻斷,但若可以提升公眾對假訊息的免疫力,就有機會讓錯誤資訊不再繼續傳播。
王喆宣認為,必須了解演算法的邏輯和機制,才能遏止假訊息傳播。(全民查假會社提供)
此外,王新民與王喆宣皆提到了「白名單」概念。他們認為,未來受到 AI 科技的影響,錯假訊息的氾濫程度恐怕會越來越嚴重,「因此,唯一有辦法可以解決的,就是知道哪些媒體可以信任,這可能是現今最快速、由上而下的解決之道」。
除了建立白名單、提升假訊息辨別意識外,簡宏偉還點出了公部門的重要性,政府不僅要推動 AI 入法,更要與民間合作,推動相關假訊息闢謠平台,才能達到有效防治的功用。他認為,AI 假訊息對社會的影響有多大?關鍵在於社會的信任度,「維持信任對國家至關重要,這也是我們對抗 AI 假訊息的關鍵。」
在這場資訊戰中,技術與假訊息的角力仍在持續。唯有結合 AI 工具、政策法規及公眾媒體素養,才能真正有效對抗錯假資訊,重建可信賴的資訊環境。
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 媒體素養與假訊息高峰論壇:民眾察覺AI假訊息比例偏低 認同事實查核機構有助釐清假訊息
- 假訊息認知調查:95%民眾曾收過假訊息 7成受訪者認事實查核機構角色日益重要
- 民間團體:防治假訊息的活躍戰力
- AI人工智慧襲來 媒體識讀成為必備能力
- 六個國家的民眾如何看待新聞中的生成式人工智慧?
主編:蔡宏杰