新研究發現:使用聊天機器人獲取新聞的使用者認為其無偏見且「堪用」

特約記者劉子瑞編譯報導
美國與印度的高度使用者表示,儘管存在事實錯誤與過時資訊,他們仍信任聊天機器人。本文翻譯自《尼曼新聞實驗室》(Nieman Lab)原文〈People who use chatbots for news consider them unbiased and “good enough,” new study finds〉,作者安德魯.戴克(Andrew Deck)是《尼曼新聞實驗室》 AI 議題的特約撰稿人。
聊天機器人為輔助決策的工具 並作為傳統新聞的補充來源
由新聞、科技與創新中心(CNTI)發布的一份新報告,深入探討了這些使用者的新聞消費習慣。CNTI 訪談了來自美國與印度的 53 名參與者,這兩國是 ChatGPT 最大的兩個市場,對其他聊天機器人產品也呈現類似的早期採用(early adoption)現象。
CNTI 招募的受訪者每週至少使用一次 AI 聊天機器人,且自陳至少會在某種程度上,透過 AI 聊天機器人,密切掌握時事與當日事件。在他們之中,最受歡迎的產品是 ChatGPT、Microsoft 的 Copilot,以及 Google 的 AI 產品,包括 Gemini 與搜尋功能中的 AI 模式。
雖然目前關於聊天機器人的調查研究已有一些實用的成果,但對大多數人來說,透過聊天機器人「獲取新聞」與「尋求資訊」間的區別其實還是模糊不清的。這使得使用者自行回報聊天機器人使用情況變得格外困難。不過,在這項研究中,研究人員不僅要求參與者詳細討論他們自己的使用情況,還要求他們提供具體的案例,並檢視他們的對話紀錄。
CNTI 高級研究經理、也是該報告的其中一位合著者傑.巴切斯-利希滕斯坦(Jay Barchas-Lichtenstein)表示:「我們訪談的許多人並不一定認為他們所做的是在看『新聞』,即使輸出內容引用了數十則新聞報導。在你能相當確定這些行為是什麼,還有讀者如何描述它們之前,你無法設計出一個好的調查問題。」
研究發現,目前即使是經常使用聊天機器人的人,也沒有單純依賴它們來獲取新聞。大多數受訪者繼續接觸傳統新聞來源,同時使用聊天機器人來作為補充來源。一名美國受訪者是 ChatGPT 的忠實擁護者,但他仍繼續將 Google 新聞作為主要的資訊彙整來源,並付費訂閱了《紐約時報》(The New York Times)與家鄉的兩家地方媒體。
研究還發現,美國與印度的受訪者很少將聊天機器人當作基本的新聞摘要。印度僅有 6 名受訪者會對聊天機器人下達詢問「頭條新聞」的籠統指令,美國僅有 1 名受訪者表示他們會定期詢問聊天機器人關於「其郵遞區號的最新頭條」。
受訪者傾向利用聊天機器人尋求資訊「以輔助他們的選擇與行動」,這可能包括金融投資、購買消費產品、預訂旅遊行程或處理政府官僚程序所需的資訊。例如,美國的受訪者詢問聊天機器人該如何應對最近聯邦政府停擺,以及關稅變化會如何影響他們的職業生涯。有一人要求聊天機器人告訴他在選舉中該投給誰。另一人則在 ChatGPT、Gemini 與法律事務所網站之間切換,「以便更了解當美國移民及海關執法局(ICE)執法人員在其區域活動時,他們擁有哪些權利。」
美國的聊天機器人使用者傾向詢問資訊來確認自己預測的內容,而印度的使用者傾向直接要求聊天機器人為他們預測。例如,使用者要求聊天機器人預測比特幣價格與占星圖。一名印度受訪者要求聊天機器人根據季度財報,做出產業類股的預測性分析。儘管該受訪者承認過去曾因聊天機器人的投資建議而賠錢。
研究人員將這種聊天機器人的用途比作服務型新聞(service journalism):為讀者提供實用、可操作的資訊與建議以供決策。在這兩個國家,使用者較少用聊天機器人即時追蹤最新的突發新聞,更多是輔助功能。
受訪者將聊天機器人視為平衡且客觀的「中立」資訊來源
報告中最有趣的一項發現是受訪者對聊天機器人的信任程度。即使他們提及長期的事實錯誤,並抱怨聊天機器人無法提供最新資訊,受訪者仍很快就原諒(forgive)聊天機器人,並繼續使用它們來獲取資訊。無論收到多少錯誤答案,這些缺點都不是致命傷。這與他們對新聞媒體表現出的普遍不信任形成鮮明對比。
受訪者告訴 CNTI,他們對美國傳統新聞來源的政治偏見感到擔憂。在印度,他們則談到了新聞媒體的煽情主義(sensationalism)還有與企業利益掛鉤。在去年的 RISJ 數位新聞報告中,印度有 43% 的受訪者對新聞表示「整體信任(overall trust)」;在美國,僅有 30% 的受訪者表示認同。
相比之下,受訪者通常將聊天機器人視為一種平衡且客觀的「中立」資訊來源。受訪者鮮少討論演算法偏差,或承認聊天機器人對話經常引用新聞出版商的內容來源。事實上,許多人僅僅因為聊天對話中存在引用與來源,就將其視為「準確性的保證」。然而,研究人員很少觀察到使用者點擊進入連結,來檢查被引用的來源是否被準確呈現。一名美國受訪者表示「如果你想的話,隨時可以再查看」,但他也告訴研究人員,他從未覺得有此必要。
正如一名美國受訪者所描述的,AI 聊天機器人是一個「80/20」的提案。他們說:「它能讓我用 20% 的力氣獲得 80% 的資訊,但你知道的,對於那 80% 的資訊不能全盤相信,而且總是有 20% 是缺失的。」
巴切斯-利希滕斯坦認為,像這樣的使用者之所以展現出更正向的態度,「部分原因在於他們預期的是『堪用』,而非『完美』。」
研究指出的另一個原因是,受訪者在由自己設定框架與下指令的對話中,感受到了與聊天機器人的協作感。聊天機器人反應迅速,使用者在索取資訊時感覺自己像是夥伴。研究人員寫道:「受訪者會溫柔地責備 AI 聊天機器人,要求其修改、澄清或糾正輸出。這種互動性似乎讓犯錯的容忍程度較高,而受訪者對固定格式的文本卻沒有這樣的耐心。」
這種即時回應(responsiveness)也讓使用者感受到一種研究人員所說的「決策權」。巴切斯-利希滕斯坦告訴我:「坦白說,資訊環境令人不堪重負,我們看到大眾覺得自己必須付出巨大努力,才能判斷哪些資訊來源是可信的。會希望有人能協助做出這些判斷,但不希望別人代為決定,這就是我們所謂的決策權。」換句話說,對於這些使用者而言,聊天機器人不夠準確,但透過「掌控感」可以彌補其缺點。
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 《日經》用自家資料訓練AI聊天機器人 強調正確資訊與版權保護
- 新聞機構的聊天機器人再現性別歧視?為何各家媒體將自家AI服務設定為「女性」
- 2026年新聞業預測 從 SEO 到 AEO:AI與個性化浪潮來臨
- 人工智慧引發新聞媒體「零點擊」危機:流量雪崩與法律戰升級
主編:蔡宏杰
