美國讀者希望新聞媒體揭露AI使用情況 Trusting News 創辦人提出四項見解

2025 年 08 月 26 日 | 卓越新聞電子報

特約記者劉子瑞編譯報導

原文〈What U.S. audiences want newsrooms to disclose about their AI use: 4 insights from Trusting News〉發表於哈佛大學肖倫斯坦中心《記者資源》(The Journalist’s Resource),作者克拉克·梅瑞菲爾德(Clark Merrefield)是《記者資源》經濟與法律新聞資深編輯。他曾任《Newsweek》與《The Daily Beast》記者,並擔任三本關於大衰退(The Great Recession)書籍的研究員與編輯,也曾任美國聯邦政府的傳播策略顧問。

非營利組織 Trusting News 近期調查得出一項重要結論:讀者希望新聞記者主動揭露工作使用人工智慧。Trusting News 創辦人喬伊·梅爾(Joy Mayer)不久前在調查記者與編輯年會(Investigative Reporters and Editors Annual Conference, IRE)中引用牛津大學路透新聞學研究所(The Reuters Institute for the Study of Journalism)2024 年 5 月的研究並指出:「許多民眾大概知道記者已經在使用 AI,但對於這代表什麼、會呈現什麼樣貌仍感到相當困惑。」

梅爾表示,目前新聞編輯室最常用 AI 工具來產出新聞摘要、轉錄(transcription)及語言翻譯。

此份 Trusting News 的調查於 2024 年 7 月到 8 月進行,由 10 家合作新聞機構收集超過 6,000 份讀者回覆。合作機構包括《100 Days in Appalachia》、《American City Business Journals》、《Houston Landing》、《Iowa Public Radio》、《KXAN-TV》、《Science News》、《The Associated Press》(美聯社)、《The Texas Tribune》、《USA TODAY Network》(今日美國),以及 Voice Media Group。部分機構透過網站的資訊框或彈出視窗邀請讀者參與調查。

在受訪者中,94% 希望新聞編輯室在使用 AI 時能揭露,87% 認為 AI 揭露(AI disclosure)應包括記者使用 AI 的原因,92% 希望知道是否有人工審核 AI 產出的資訊。

Trusting News 提供以下 AI 揭露範本,新聞編輯室可依自身需求調整:

在本報導中,我們使用(AI/工具名稱/工具描述)協助我們(該工具完成或協助的工作)。使用(AI/工具名稱)時,我們有(事實查核、人工檢查等符合倫理與準確性的舉措)。使用(AI/工具名稱)讓我們可以(花更多心力在 X、更深入報導、在更多平台提供內容等產生的效益)。

在 IRE 年會上,梅爾呼籲新聞編輯室使用 AI 時應保持透明。她表示:「多數我們誠信的證據,讀者是看不見的。對於新聞室裡花時間討論的所有決策,我們會互相拍拍肩膀說『看我們多用心、多負責、多麼謹慎地做出這個決定。』然而,除非我們向外說明,否則只是當天同仁心情很好,但不會真正影響公眾觀感。」

以下是梅爾在 IRE 演講中額外的四個重點。

依讀者需求調整 AI 揭露內容

AI 揭露中包含的細節會因新聞機構而異,有些新聞機構可能只概略說明使用了 AI,而不提供技術細節,例如工具與原因。

梅爾在年會舉了《今日美國》(USA TODAY)在2025年5月的一篇報導為例:

現場交流熱絡,氣氛溫馨,有如粉絲見面會。(特約記者陳洧農攝)

梅爾指出,牛津路透新聞學研究所在2024 年 6 月 的報告說明年輕且精通AI技術的閱聽人,更可能願意接受較多的技術揭露。

梅爾在會中舉了瑞士廣播公司的例子:瑞士廣播公司的新聞主頁SWI顯示更具技術性的揭露。

現場交流熱絡,氣氛溫馨,有如粉絲見面會。(特約記者陳洧農攝)

讀者可能會自動忽視重複的相同揭露內容

雖然 AI 揭露對讀者很重要,但梅爾指出,如果揭露內容一成不變,可能無法引起共鳴。「任何揭露若總是一模一樣,就會變成噪音。」她以巴西科技新聞媒體《Nucleo》為例,該媒體在不同報導中,會提供多樣化且通常帶有技術細節的 AI 使用說明。

現場交流熱絡,氣氛溫馨,有如粉絲見面會。(特約記者陳洧農攝)

在電視或線上影片中融入 AI 揭露以建立觀眾信任

焦點團體向 Trusting News 與德州大學奧斯汀分校媒體參與中心(The Center for Media Engagement at the University of Texas at Austin)表示,電視新聞台若能提供透明資訊,便能建立觀眾信任,例如解釋一則報導的製作過程與原因。

梅爾說:「將揭露內容透明地融入故事中,比起放在邊欄、超連結或頁尾標籤更有效⋯⋯只要能融入,觀眾就會更注意並產生印象。」

她舉例說明《紐約時報》的一則影片調查,揭露以色列在要求加薩平民前往避難的地區投下炸彈,這是有效融入 AI 揭露的案例。

在影片腳本中有這段揭露內容:

哈瑪斯發動攻擊的頻率尚不清楚,但畫面證據顯示,以色列在其命令平民前往的地區,投下了 2,000 磅的炸彈。《紐約時報》製作了一項 AI 工具,分析加薩南部的衛星影像以尋找炸彈坑。該 AI 工具偵測到超過 1,600 個可能的炸彈坑。我們逐一人工審核,排除陰影、水塔或先前衝突留下的炸彈坑。我們量測剩餘的坑洞,找出直徑約 40 英尺(約 12.19 公尺)或更大的坑洞。專家指出,通常只有 2,000 磅炸彈才能造成這種規模的坑洞。

揭露方式可能隨著大眾更廣泛接受 AI 工具而改變

目前,觀眾仍想知道記者使用 AI 的情況,但也有例外。梅爾提及,新聞機構可能不必揭露記者使用 AI 當作搜尋引擎這樣的訊息,例如用 ChatGPT 取代 Google 搜尋網路上的公開資訊。隨著觀眾對記者使用 AI 的方式更廣泛理解,加上自身越發熟悉 AI 工具,類似上述的揭露需求也可能隨時間減少。梅爾說:「當大眾對某事物越熟悉,或更廣泛使用該工具時,就不再需要特別指明它。」