從選題到讀者互動 新聞媒體的AI運用

2024 年 08 月 7 日 | 卓越新聞電子報

donation
陳洧農|特約記者採訪報導

媒體識讀教育基金會的線上系列講座「AI世代來臨 媒體的挑戰與機會」第二場主題是「AI╳媒體力 新聞媒體如何與AI協作」,邀請到李怡志主講。內容包含:AI在新聞產製各個階段的應用、相關風險、以及媒體如何透過訂定AI使用規範來進行媒體自律。

李怡志是政大傳播學院新聞系助理教授,也是《中央社》董事,曾任中時報系記者,以及Yahoo!奇摩內容企劃總監,有20年以上的網路內容相關經歷。

選題與資料分析

目前生成式AI在媒體產業有哪些運用?李怡志介紹,首先是選題,AI能夠協助過濾題目、判斷重要性。美國的《亞特蘭大之聲》曾用Facebook的CrowdTangle技術找出非裔美國人感興趣的題目。台灣的《Readr讀+》也曾用ChatGPT 來協助外電的分叢(Clustering,為資訊建立類別)與分類,定義出報導主題,甚至進一步對文章進行情緒分析。

資料的蒐集和分析可說是生成式AI的重要功能。《路透社》曾推出名為News Tracer的工具,每天可以對七億條推特訊息進行標註和分類,從而分析這些訊息可能產生的影響力,讓記者後續追蹤報導。《美聯社》和《華盛頓郵報》也都曾利用AI彙整川普上任100天內所有的推特發文。

至於使用AI來進行逐字稿的撰打與摘要則已經是業界常規;訪綱的整理跟調整也已經大量應用在媒體從業人員的工作中。

自動化新聞

「數據化新聞」是指不經採訪,只是轉譯既存資訊的報導。這對媒體而言並不陌生,美國新聞界從2010年開始就漸漸有這種報導,只是在ChatGPT出現前並不普遍。這類報導的特點是,需要先將報導內容轉譯成穩定且結構化的數據,例如運動賽事、公司財報等。

其實這類新聞靠人力也能做,但人力是有限的,假設有一萬家公司,記者只能報導一千家,這其中必然有人的價值判斷,而人工智慧原則上沒有好惡的影響。《美聯社》開始以自動化機制來報導公司營收季報後,使能報導的公司提升到九成。有學者研究發現,被納入自動化報導範圍的公司,比沒有被報導的公司,交易量高出11%,顯示出規模化報導的正面影響。

李怡志表示,只要資料和規則無誤,通常AI寫稿會比人類正確,因為人類難免因為疲勞或不專心等因素而失誤,尤其是數字的謄寫。

圖為AI自動生成的報導。李怡志認為,以目前的情形而言,其實人類並沒有被AI取代太多事情,因為許多應用是過往沒有人力去做的。(特約記者陳洧農擷圖)

圖為AI自動生成的報導。李怡志認為,以目前的情形而言,其實人類並沒有被AI取代太多事情,因為許多應用是過往沒有人力去做的。(特約記者陳洧農擷圖)

各種版本的改寫

AI的翻譯也已經被廣泛運用在新聞業,但是在風險較高的報導當中,媒體需要較為謹慎。舉例來說,政治人物的發言,要是在語氣的翻譯上稍有差池,或是頭銜被誤譯,都可能引發嚴重後果。

目前媒體普遍認為 AI尚不適合進行採訪工作;但如果記者已經寫好一篇文章,只要確保沒有事實資訊錯誤或著作權疑慮,就可以透過AI改寫成適用不同媒體形式或載具的內容。例如把原本給綜合性報紙的文章改寫成財經報紙的版本,或是將較艱澀的內容改寫成面向青少年的版本,也可以將網頁版的報導改成140字的推特發文。

讀者互動

在媒體數位化的今天,留言的引導和管理也是媒體工作重要的一環。「如果一則新聞,下面有非常多奇奇怪怪的留言,或者留言的方向整個歪掉,其實會影響大家對這個媒體的信任。」李怡志表示,現在許多媒體認為「與其讓別人帶風向,不如我自己帶風向」,但是這對媒體工作者來說,其實頗為「痛苦」。如今媒體可以利用留言機器人來進行留言引導,或是判斷是否要隱藏不適當的留言。

還有一種和讀者互動的應用——設計問答遊戲。但就如同任何AI產出的內容一般,一旦完全不經人工審核,就可能出問題。英國《衛報》曾經把一篇文章交給AI生成報導,結果AI自動在頁面旁邊製作了問答遊戲,不料引發讀者抗議。原來該文章是一篇兇殺案的報導,AI卻製作了「你認為被害人是怎麼死的?」這樣的問題,導致讀者心理不適。

媒體的AI使用規範

李怡志表示,許多媒體在使用生成式AI時,會製作使用規範,通常內容包含:預先評估系統、確認AI訓練使用的資料來源、以及尊重他人權利。

他說,其實不是每個媒體都有能力預先評估使用的系統,所以經常是「先使用再審核」的迭代狀況。可以預先作為評估依據的,是開發者所聲稱使用的機器學習資料。理想的狀況是,在原先的基礎上,媒體再匯入自己的資料庫來訓練。

李怡志表示,AI還可以協助判斷文章應該躲在付費牆後,或者開放讓所有讀者閱讀。(特約記者陳洧農擷圖)

李怡志表示,AI還可以協助判斷文章應該躲在付費牆後,或者開放讓所有讀者閱讀。(特約記者陳洧農擷圖)

在「尊重他人權利」這件事情上,媒體面臨的問題是雙向的:除了要避免侵犯他人權利,也要保護自身權利被侵犯。例如,《中央社》的使用規範就提到,應避免使用生成式AI產生知名人士之肖像等資訊,以免侵害其人格權。另一方面,媒體都是在ChatGPT上線之後才發現,自家的報導和資料一直在不知情的狀況下被用來進行機器學習。因此2023年起,媒體紛紛宣告,外界不得將其資料用於生成式AI之訓練。

為了有效執行使用規範,德國記者協會建議,使用AI時,媒體內部應該要有人負責主動檢核AI的應用是否失當,並擔任投訴窗口。在內部溝通和管理上,李怡志認為,建立可溯源的機制非常重要。理想上,任何跟生成式AI互動的過程都要留下紀錄,除了確保透明度之外,也是媒體在面對著作權糾紛時自我保護的方式。

美國報紙發行商Gannet的AI使用規範提到,為了有效且合乎道德地使用AI,記者應該接受相關的教育訓練,了解AI技術的最新發展。李怡志認為,理想的情況是媒體內部的AI應用負責人以及相關的教育訓練,都由總編輯擔任。

訂正錯誤

如同前述,生成式AI產出的報導也可能出錯,不論是事實資訊的錯誤或政治正確上的錯誤皆有可能。因為,AI在學習時,學的是開發者給的資料,也就是外在世界的反映,「它看到的東西並非完美的東西,所以都會有偏見;所以除了事實的錯誤之外,偏見的檢查也非常重要。」

美國的科技新聞網站Cnet和Gannet都曾使用生成式AI撰寫報導,並於刊載之後才被發現有誤。「所以我們現在都要預期,生成式人工智慧寫出來的東西就會有錯。」。既然可能出錯,就必須設法預防錯誤的產生,並建立出錯之後的訂正程序。

李怡志指出,「人在迴圈」(human in the loop)在AI的應用上是個重要的概念:AI產生的內容發布之前,必須由人類進行分類、審核,並留意可能的偏見。此外,也必須建立投訴機制,並且在訂正之後呈現在原來的內容中。美國的McCarthy Media就在倫理規範中提及,應盡快糾正由人類或人工智慧造成的錯誤,並且透明地披露與訂正。

李怡志認為,再過一段時間,就會有使用者端的AI工具,反過來位讀者收集資訊,並進行客製化的轉譯。(特約記者陳洧農擷圖)

李怡志認為,再過一段時間,就會有使用者端的AI工具,反過來位讀者收集資訊,並進行客製化的轉譯。(特約記者陳洧農擷圖)

AI撰稿可能引發的後果

如果沒有錯誤,是不是就能放心地交由AI生成內容呢?其實還是有其風險。李怡志表示,如果是數據型的報導倒還好,但是一般性文章最好還是由人類來撰寫。否則,到後來機器學習到的內容都是由機器產出的東西,久而久之產出的內容就會越來越僵化,失去多樣性。

BBC的AI使用規範特別提到,儘管科技有著強大的力量,但無法複製或取代人類的創造力,並且認可使用AI工具時,人類參與的重要性。李怡志認為,如果AI的設計或使用目的是取代人類,其實是一件危險的事。

李怡志訪問過幾家媒體,發現一個有趣的現象。一般來講,採訪可以分為兩種,一種是即時互動的訪問;另一種則是書面訪問,記者會先將題綱給受訪者,受訪者再以書面方式回覆。而現在許多媒體發現,受訪者都會把問題交給ChatGPT回答,以至於即便採訪了許多不同對象,收到的回覆卻如出一轍。

「現在很多媒體實際遇到了,而且很害怕。」他說:「你今天拿了這個問題去問十家公司或者十個機構,結果它回來的東西都很像,因為全部都ChatGPT寫的。所以我們所謂的真實跟多元就消失了,這也是一個很可怕的事情。」可以看出,在新聞業中,不論是採訪端或受訪端,AI的濫用都有可能造成不良後果。