新研究發現:使用聊天機器人獲取新聞的使用者認為其無偏見且「堪用」

2026 年 03 月 23 日 | 卓越新聞電子報

特約記者劉子瑞編譯報導

美國與印度的高度使用者表示,儘管存在事實錯誤與過時資訊,他們仍信任聊天機器人。本文翻譯自《尼曼新聞實驗室》(Nieman Lab)原文〈People who use chatbots for news consider them unbiased and “good enough,” new study finds〉,作者安德魯.戴克(Andrew Deck)是《尼曼新聞實驗室》 AI 議題的特約撰稿人。

聊天機器人已經成為一個新興的新聞來源。根據英國牛津路透新聞學研究所(RISJ)2025年夏季的《數位新聞產業報告》,美國有 7% 的受訪者每週使用聊天機器人獲取新聞。在印度,這一比例則高達近 20%

預期 AI 聊天機器人的使用量持續成長,這些產品極有可能成為許多人搜尋與閱讀新聞的固定方式,並在此過程中顛覆傳統的搜尋流量。然而,到目前為止,對於那些已經轉向 ChatGPT 來追蹤頭條新聞的使用者,我們仍然所知甚少。

聊天機器人為輔助決策的工具 並作為傳統新聞的補充來源

由新聞、科技與創新中心(CNTI)發布的一份新報告,深入探討了這些使用者的新聞消費習慣。CNTI 訪談了來自美國與印度的 53 名參與者,這兩國是 ChatGPT 最大的兩個市場,對其他聊天機器人產品也呈現類似的早期採用(early adoption)現象。

CNTI 招募的受訪者每週至少使用一次 AI 聊天機器人,且自陳至少會在某種程度上,透過 AI 聊天機器人,密切掌握時事與當日事件。在他們之中,最受歡迎的產品是 ChatGPT、Microsoft 的 Copilot,以及 Google 的 AI 產品,包括 Gemini 與搜尋功能中的 AI 模式。

雖然目前關於聊天機器人的調查研究已有一些實用的成果,但對大多數人來說,透過聊天機器人「獲取新聞」與「尋求資訊」間的區別其實還是模糊不清的。這使得使用者自行回報聊天機器人使用情況變得格外困難。不過,在這項研究中,研究人員不僅要求參與者詳細討論他們自己的使用情況,還要求他們提供具體的案例,並檢視他們的對話紀錄。

CNTI 高級研究經理、也是該報告的其中一位合著者傑.巴切斯-利希滕斯坦(Jay Barchas-Lichtenstein)表示:「我們訪談的許多人並不一定認為他們所做的是在看『新聞』,即使輸出內容引用了數十則新聞報導。在你能相當確定這些行為是什麼,還有讀者如何描述它們之前,你無法設計出一個好的調查問題。」

研究發現,目前即使是經常使用聊天機器人的人,也沒有單純依賴它們來獲取新聞。大多數受訪者繼續接觸傳統新聞來源,同時使用聊天機器人來作為補充來源。一名美國受訪者是 ChatGPT 的忠實擁護者,但他仍繼續將 Google 新聞作為主要的資訊彙整來源,並付費訂閱了《紐約時報》(The New York Times)與家鄉的兩家地方媒體。

研究還發現,美國與印度的受訪者很少將聊天機器人當作基本的新聞摘要。印度僅有 6 名受訪者會對聊天機器人下達詢問「頭條新聞」的籠統指令,美國僅有 1 名受訪者表示他們會定期詢問聊天機器人關於「其郵遞區號的最新頭條」。

受訪者傾向利用聊天機器人尋求資訊「以輔助他們的選擇與行動」,這可能包括金融投資、購買消費產品、預訂旅遊行程或處理政府官僚程序所需的資訊。例如,美國的受訪者詢問聊天機器人該如何應對最近聯邦政府停擺,以及關稅變化會如何影響他們的職業生涯。有一人要求聊天機器人告訴他在選舉中該投給誰。另一人則在 ChatGPT、Gemini 與法律事務所網站之間切換,「以便更了解當美國移民及海關執法局(ICE)執法人員在其區域活動時,他們擁有哪些權利。」

美國的聊天機器人使用者傾向詢問資訊來確認自己預測的內容,而印度的使用者傾向直接要求聊天機器人為他們預測。例如,使用者要求聊天機器人預測比特幣價格與占星圖。一名印度受訪者要求聊天機器人根據季度財報,做出產業類股的預測性分析。儘管該受訪者承認過去曾因聊天機器人的投資建議而賠錢。

研究人員將這種聊天機器人的用途比作服務型新聞(service journalism):為讀者提供實用、可操作的資訊與建議以供決策。在這兩個國家,使用者較少用聊天機器人即時追蹤最新的突發新聞,更多是輔助功能。

受訪者將聊天機器人視為平衡且客觀的「中立」資訊來源

報告中最有趣的一項發現是受訪者對聊天機器人的信任程度。即使他們提及長期的事實錯誤,並抱怨聊天機器人無法提供最新資訊,受訪者仍很快就原諒(forgive)聊天機器人,並繼續使用它們來獲取資訊。無論收到多少錯誤答案,這些缺點都不是致命傷。這與他們對新聞媒體表現出的普遍不信任形成鮮明對比。

受訪者告訴 CNTI,他們對美國傳統新聞來源的政治偏見感到擔憂。在印度,他們則談到了新聞媒體的煽情主義(sensationalism)還有與企業利益掛鉤。在去年的 RISJ 數位新聞報告中,印度有 43% 的受訪者對新聞表示「整體信任(overall trust)」;在美國,僅有 30% 的受訪者表示認同。

相比之下,受訪者通常將聊天機器人視為一種平衡且客觀的「中立」資訊來源。受訪者鮮少討論演算法偏差,或承認聊天機器人對話經常引用新聞出版商的內容來源。事實上,許多人僅僅因為聊天對話中存在引用與來源,就將其視為「準確性的保證」。然而,研究人員很少觀察到使用者點擊進入連結,來檢查被引用的來源是否被準確呈現。一名美國受訪者表示「如果你想的話,隨時可以再查看」,但他也告訴研究人員,他從未覺得有此必要。

正如一名美國受訪者所描述的,AI 聊天機器人是一個「80/20」的提案。他們說:「它能讓我用 20% 的力氣獲得 80% 的資訊,但你知道的,對於那 80% 的資訊不能全盤相信,而且總是有 20% 是缺失的。」

巴切斯-利希滕斯坦認為,像這樣的使用者之所以展現出更正向的態度,「部分原因在於他們預期的是『堪用』,而非『完美』。」

研究指出的另一個原因是,受訪者在由自己設定框架與下指令的對話中,感受到了與聊天機器人的協作感。聊天機器人反應迅速,使用者在索取資訊時感覺自己像是夥伴。研究人員寫道:「受訪者會溫柔地責備 AI 聊天機器人,要求其修改、澄清或糾正輸出。這種互動性似乎讓犯錯的容忍程度較高,而受訪者對固定格式的文本卻沒有這樣的耐心。」

這種即時回應(responsiveness)也讓使用者感受到一種研究人員所說的「決策權」。巴切斯-利希滕斯坦告訴我:「坦白說,資訊環境令人不堪重負,我們看到大眾覺得自己必須付出巨大努力,才能判斷哪些資訊來源是可信的。會希望有人能協助做出這些判斷,但不希望別人代為決定,這就是我們所謂的決策權。」換句話說,對於這些使用者而言,聊天機器人不夠準確,但透過「掌控感」可以彌補其缺點。