AI人工智慧襲來 媒體識讀成為必備能力

2025 年 03 月 13 日 | 卓越新聞電子報

陳洧農|特約記者採訪報導

臺大新聞所舉辦論壇「AI時代的新聞教育與媒體識讀:解碼技術轉型與資訊信任」,其中的上半場主題為「AI怎樣影響媒體教育」,邀請到意藍資訊創辦人暨總經理,同時也是臺大資管系及工管系兼任助理教授的楊立偉、《ETtoday新聞雲》資深記者唐鎮宇、以及政大傳院助理教授李怡志共同主講,並由臺大新聞所所長謝吉隆主持。

謝吉隆表示,這次的論壇是希望探討AI發展會如何影響新聞傳播產業,因為AI正以一種無接縫的方式滲入我們的生活。他說,自己的女兒昨晚問他會不會寫靦腆的「腆」和呼籲的「籲」,他才驚覺到多年來習於電腦打字,以致於他雖然能認得那些字,卻已經寫不出來了。

他提醒道,如今人們漸漸習慣使用AI,只要輸入簡單的概念和資料,就能得到一篇完整的文章,「這樣子以後會不會影響到我們的寫作能力?甚至,我們寫程式的基本邏輯會不會因此而鬆散呢?」

有趣的是,楊立偉提到,先前ChatGPT斷線,他的臉書上許多朋友都在哀嚎,「小編都不知道該怎麼生文章出來。」呼應了謝吉隆的憂慮,可以看出AI技術對人類社會的影響值得吾人持續觀察與反思。

謝吉隆表示,AI技術的進步相當迅速,但影響有好有壞,吾人須持續關注。(特約記者陳洧農攝)

現場交流熱絡,氣氛溫馨,有如粉絲見面會。(特約記者陳洧農攝)

輿情分析的先驅

楊立偉表示,意藍資訊從2011年就開始進行網路聲量與社群輿情的分析,每日透過數十萬機器人在二十多萬個網站採集資料,平均一天收集六十至七十億字,以建立台灣輿情的縮影,成為國內輿情分析的最早探索者之一。

透過技術創新,輿情數據能夠作為長期研究的基礎,例如《天下雜誌》的Z世代價值觀研究,就使用意藍的25億筆文本資料,以及質性研究的方法建構出年輕一代的消費觀、愛情觀和投資決策。

楊立偉指出,意藍的大語言模型跟一般AI最大的差異是具備可解釋性和可驗證性,也就是能將回答的根據、出處列舉出來,讓解釋、驗證甚至稽核變得可行。現在他們也收集外電資訊,能翻譯並彙整並列不同的觀點,「所以你的世界不會只有一種看法。」

楊立偉表示,大語言模型從根本上改變了知識管理的架構。(特約記者陳洧農攝)

楊立偉表示,大語言模型從根本上改變了知識管理的架構。(特約記者陳洧農攝)

生成式AI的挑戰與機遇

近年來,數據量爆炸式增長帶來了前所未有的挑戰。楊立偉說,網路上公開數據的增長速率令人匪夷所思,後來發現,這並非因為人們在網上花費更多時間,而是生成式AI的應用,讓內容生成效率大幅提升。此一現象促使意藍開始研發地端大語言模型,以應對大規模數據的處理需求。

意藍目前採用「檢索增強生成」的方法,將傳統自然語言處理 NLP技術與大語言模型結合,使其具備更高效的理解能力。此技術不僅能快速彙整海量資訊,還能實現即時分析與建議,提升輿情分析的精準度和時效性。除了輿情監控,AI也能在重大事件爆發時提供15分鐘內的即時通報,作為輿情公關應用。

現場聆講的聽眾。(特約記者陳洧農攝)

現場聆講的聽眾。(特約記者陳洧農攝)

知識工作的新夥伴:生成式AI

除了輿情分析,生成式AI對知識工作的影響也不容忽視。一份哈佛商學院的報告指出,生成式AI可將知識工作者的效率提升12%以上,原本績效低於平均的人員,甚至有機會「彎道超車」。楊立偉幽默地引用研究結果指出,AI時代的工作者會演化成「半人馬」(Centaur)和「強化人」(Cyborg)兩種生物,前者在需要時使用AI,後者則在所有工作流程中都與AI整合協作。

他強調,生成式AI並非完美,但「已經夠用」。例如大語言模型本身的基礎是不擅長算數的,曾有網友讓大語言模型計算「strawberry」中有幾個「r」,結果每家模型都算錯。但只要修改提問方法,要AI寫一個可在網頁執行的簡短JavaScript程式,寫完後授予權限執行,便能得到正確結果。換言之,依據人類的使用方式,能讓大語言模型使用工具補足自身能力。

楊立偉說,與AI的職場協作,「活脫就像在帶新同事」。「你必須要拆解工作,一項一項教他做,就好像在帶新人一樣,你要去評量他的工作是不是符合目標水準、告訴他怎麼改進,以及領導他一起達成目標。」

楊立偉提到,隨著意藍資訊收集資料的範圍擴大,大語言模型可用做假訊息偵測的潛力也隨之提升。(特約記者陳洧農攝)

楊立偉提到,隨著意藍資訊收集資料的範圍擴大,大語言模型可用做假訊息偵測的潛力也隨之提升。(特約記者陳洧農攝)

AI如何改變新聞產製流程

唐鎮宇在演講中回顧了其於《ETtoday 新聞雲》專題中心的經歷,尤其是去年因生成式AI的崛起,他被指派進行AI任務小組的編組,開發透過AI改變新聞產製流程的做法。他表示,大語言模型讓他從沒有任何相關基礎的「程式小白」,逐步掌握初階工程師的技能,讓記者能依照自身需求打造適切的工具。

唐鎮宇的ChatGPT初體驗,是要求ChatGPT教他開發寫問卷的程式。沒有程式基礎的他在ChatGPT的步步提示下,完成自動寫問卷的程式。後來他進一步將這個經驗延伸至新聞產製,開發了能協助校稿、下標、擬訪綱的Line機器人。

談到使用AI和與人類合作的溝通成本和時間差異為何,唐鎮宇表示,現今的媒體強調複合式內容呈現,需要文字、影像等不同專業緊密配合。在與人類團隊合作時,溝通過程會涉及許多細節的討論和調整。以他的《台灣長照家庭圖鑑》報導為例,在與美編的合作過程中,需要透過多次討論來確保作品風格和細節符合報導需求,是一個漸進且需要相互理解的過程。

而在使用AI工具時,最大的挑戰在於如何準確表達需求,人類也必須夠清楚自己到底要什麼,這要求使用者具備相當程度的專業知識,包括視覺美學的理解和工具操作的熟練度。很多人可能認為AI工具使用起來很容易,但實際上要產出優質的內容,仍需要投入大量時間學習和練習。

唐鎮宇的演說風格含有許多與聽眾的互動,十分活潑。(特約記者陳洧農攝)

唐鎮宇的演說風格含有許多與聽眾的互動,十分活潑。(特約記者陳洧農攝)

生成式AI:記者的威脅還是助手?

對於外界對AI取代記者的擔憂,唐鎮宇認為,AI確實能幫助記者處理重複性的工作,但要完全取代記者仍相當困難。例如以往氣象記者可能需要在下午連續發布大雨特報,現在透過AI自動串接氣象局資料,使模板化的即時新聞工作量大幅減少。另一方面,在面對具有道德風險的議題時AI無法生成答案,反而凸顯了人類記者的專業價值。

在AI生成內容日益精緻的今天,辨別真假成為記者的新挑戰。唐鎮宇提醒,未來的新聞工作可能需要花更多時間查證,因此AI是否能幫助新聞產業「節省人力」還很難說,畢竟人類必須為報導的真實正確負完全責任。他也提到,雖然「人類為報導負責」是共識,但對於使用AI的報導該如何標示目前尚無定論。

唐鎮宇表示,AI或許讓記者有更多時間進行深度報導,但是還是需要專業人士來把關。他進一步闡述,具備豐富經驗的專業人員,能夠從準確性、專業倫理等多個層面來審視內容品質。他們對各個領域都有基礎認知,可以識別潛在問題並提出改進建議。因此,AI工具的應用需要更多專業人才的參與,來確保內容的品質和準確性。

唐鎮宇表示,有時開發不出想要的功能,可能是因為沒有清楚正確地表達需求。(特約記者陳洧農攝)

唐鎮宇表示,有時開發不出想要的功能,可能是因為沒有清楚正確地表達需求。(特約記者陳洧農攝)

記憶再現與重塑的多層次探索

李怡志表示,在這學期的課堂中,自己花了較多時間探討到底生成式人工智慧可不可以,以及如何再現記憶。他說,記憶的再現是一件複雜的事情,他借用了Pseudomnesia(假性記憶)的概念,將記憶的生成分為四個層次:社會、個人、個人到社會,以及社會到個人。

在個人的層次,已經有許多不同國家的應用,例如台灣三峽老人院曾使用AI幫助長者根據記憶生成圖像;而在「個人到社會」的層次,則有韓國透過AI技術讓80歲的女兒描述75年前在「四三事件」中遇害的父親,並加以重現的案例。李怡志指出,儘管口述者當年只有五歲,描述75年的父親形象應該很模糊,可是很有趣的,「這個阿嬤就拿著生成出來的像,作為父親的遺像,然後再到紀念碑旁邊去悼念他。」

在「社會到個人」層次,李怡志舉了知名的德國藝術家Boris Eldagsen的例子。Boris Eldagsen以黑白照片《Psuedomnesia|The Electrician》獲得2023年的索尼世界攝影獎,但他卻表示自己的作品是以AI生成,並非真正的攝影而拒絕受獎。

純社會層次的案例,則有2022年Jonas Bendiksen獲得世界新聞攝影獎的《The Book of Veles》,他也和Eldagsen一樣,在獲獎後澄清該作品為數位技術偽造;另外,美國攝影記者Michael Christopher Brown也以AI製作的《90 Miles》引發熱議,他表示,該「報導」中的影像雖然不是光學上的真實,但故事內容是真的,將其影像視為一種示意圖。這些應用展示了AI在個人與社會記憶重建中的潛力,卻也引起AI時代影像的真假辯證。

李怡志提到,日前他恰巧去高雄參觀,莫拉克風災紀念館,裡面也都是各種再現與重塑,只是並非由AI產出。

李怡志表示,除非是照片,否則「資訊視覺化」必然含有人類的想像力與創造力。(特約記者陳洧農攝)

李怡志表示,除非是照片,否則「資訊視覺化」必然含有人類的想像力與創造力。(特約記者陳洧農攝)

學生們從AI生成影像的製作中學到什麼?

李怡志分享了他引導學生以生成式AI進行影像創作的經驗。在作品的檢視回顧中,許多學生發現現在使用AI製作假新聞太容易,因而意識到媒體識讀是現代人必須具備的核心能力;也有學生強烈感受到影像紀錄者的工作正在被挑戰;還有學生認為,AI影像的真實性是一個假議題,因為這個社會向來以「光學的真實」來造假,所以光學真實本來就不必然為真,也有學生表示,既然「再現」不是只有AI能做到,那麼揭露才是重點。

李怡志表示,正由於要求學生做的不單是圖像,而是完整的故事,所以做完之後,許多同學反思自己在網路上看過的故事可能都是假的,甚至有人做完了之後,開始相信自己編造的假故事。

李怡志以學生的作品為例,一位學生將虛構的歷史影像展示給長輩,長輩竟完全相信影像是真實的。「大家都在大略初看的時候,很容易相信這些AI產生的東西,但就跟我們現在在網路上觀看的情境一樣,不會有人用百分之百的心力去看每一張圖跟每一個文字。」他引用學生心得,警示媒體識讀能力的重要性。