當「有圖不再有真相」:AI假訊息如何威脅台灣民主韌性?

特約記者陳洧農採訪報導
台灣韌性社會研究中心與臺大新聞所於4月30日舉辦「2025第四次假訊息認知調查暨高峰論壇」,下半場主題為「AI假訊息生態與全社會韌性」,邀請到行政院打詐中心副執秘賴正庸、國家資通安全研究院副院長許建榮、Taiwan AI Labs內容執行長黃兆徽,以及MyGoPen創辦人葉子揚與談,並由行政院政務委員林明昕擔任主持人。內容包括:AI詐騙樣態、政府管制難點、以及在劇烈變動的時代重構法制工具和凝聚全民共識的必要性。
詐騙訊息極度氾濫
賴正庸指出,現今在網路上接觸到AI詐騙貼文的頻率已到驚人地步。以Threads為例,大約每兩篇就有一篇是AI生成的詐騙訊息。「只要你持續在翻閱頁面,它就會不斷出現。」他打趣地說:「你接觸到AI詐騙訊息的頻率,與你『手指捲動螢幕的速度』成正比。」
對於上一場的假訊息認知調查報告結果中,民眾普遍對於AI假訊息辨識有信心的現象,賴正庸半是高興,半是憂心。他說,自己的工作就是辨識詐騙訊息,並協調各部會進行掃描與處理。但即便像他們這樣的專業人員,仍有約10%的訊息無法第一時間分辨真偽。
為了確認是否為詐騙,有時候賴正庸甚至得親自「被騙一次」,透過實測將詐騙模式和特徵記錄下來,以便掌握最新的詐騙手段。所以,假訊息的辨識難度極高,連專業人士都感到棘手。
詐欺犯罪中的AI應用
賴政庸表示,AI在詐騙中扮演的角色包括:深偽換臉技術、互動交友、虛擬身分與場景等。今年2月就有一個利用深偽技術的案例:台灣的詐騙集團開發了「AI Agent(代理人)」引擎,虛擬出日本警察形象,將這套工具賣給馬來西亞黑道,用來詐騙日本民眾,並由日本黑道收取款項。這顯示出詐騙已朝分工明確、規模龐大的跨國犯罪演進。
利用AI交友進行詐騙也非常普遍。賴正庸說,不論是在LINE、Facebook、Instagram或Threads,都常見俊男美女會主動要求加好友。通常前三輪的對話基本上都不是真人,而是AI。AI 不但會噓寒問暖,還會編造感人故事來博取同情。
賴政庸介紹了許多詐騙樣態,呼籲民眾切莫等閒視之。(特約記者陳洧農攝)
使用AI Agent來虛擬人物和場景則是近期流行的手法。賴政庸表示,現在打開Threads或臉書,看到賣荔枝、山竹或酪梨的廣告,絕大多數都是詐騙。AI會製作一段影片,讓「AI 奶奶」接受小女孩採訪,說自己種酪梨多辛苦。為了增加可信度,AI甚至會生成農場大門的照片,營造出真實存在的假象。
還有一種「苦肉計」,影片中的女性拿著身分證,自稱被家暴,所以要報復性變賣老公的PS 5或Switch 2。「光是今天早上一個小時內,我們就檢舉了17件這類案件」。
政府應優先照顧遭商品詐騙者
許建榮表示,就他的立場而言,詐騙與假訊息是一體兩面,都是透過網路技術傳播,只是詐騙是「騙錢」,假訊息則是「騙票」(選票)。
他說,詐騙的歷史悠久,且樣態繁多,小時候在鄉下他常聽聞長輩被「迷魂盜」騙,因難為情而自嘲「當時一陣暈眩」,其實是為了規避受騙的尷尬。即便到了現在,許多高知識分子或數位原生代的家長受騙後,仍難以被說服正視真相。
「坦白說你不貪財的話就沒有投資詐騙。」許建榮認為,投資詐騙的本質是利用受害者的貪財心態;而色情詐騙的受害者本身往往已涉及違法行為。他強調,政府應優先照顧的是因資訊落差或經濟弱勢而受騙的基層民眾,例如為了省錢而誤入網購陷阱的受害者。
防治假訊息的難點
談到假訊息,許建榮指出,中俄等國利用認知作戰摧毀民主國家的社會信任,製造民主效率低下的假象,使得台灣有不少人轉向推崇中國的效率而批判自身。在民主體制下,言論自由既是優點也是缺點,處理假訊息極其困難。
許建榮指出,對於假訊息,政府僅能在國防、外交等領域介入,若涉及一般假訊息,容易陷入「打壓言論自由」的爭議。他以網路上的謠言「我國以80億歐元換得蕭美琴總統前往歐盟演講」為例,政府雖向散布該消息者採取法律行動,但法院最後裁定不罰。他反問:「這是不是鼓勵台灣人一直去談假訊息?」
許建榮指出政府處裡不實訊息的種種困難。(特約記者陳洧農攝)
對於調查報告中民眾支持立法管制的現象,許建榮持保留態度:「真的要立法的時候,又是怎麼一回事?《數位中介法》有多少反對的力量?」他認為台灣民眾在面對假訊息時常有「雙標」傾向。當假訊息影響到自身時便要求修法保護,但涉及政治攻防時又因法律限制感到不便,如同法律的「自助餐」。
向平台業者問責
黃兆徽表示,雖然大多數人已意識到假訊息充斥身邊,尤其是理財投資與政治類別,但對民生經濟與國際訊息的警覺性仍偏低,值得擔憂。根據台灣事實查核中心與 MyGoPen的數據,民生、經濟、醫療類的假訊息非常多,接觸到的民眾絕不只有2到3成。
黃兆徽指出,根據路透社調查,臉書光是詐騙廣告的年收入就高達5,000億台幣。這非常不合理——平台賺走了錢,製造出來的問題卻要國家花納稅錢建置防詐平台,還要公民團體無償舉報。政府必須給予平台壓力,而社會大眾也要給政府壓力,讓政府有足夠的民意基礎去要求平台業者給出交代。
她說,臉書每天曝光的詐騙廣告高達150億則,這已經不是人們「貪不貪心」的問題,而是全民都會面臨的陷阱。現在AI工具已經能透過網路行為特徵來判斷哪些是機器人帳號,平台絕對有能力過濾不實訊息,關鍵在於他們是否願意負起責任。
AI帶來的認知風險
黃兆徽表示,現在社群平台上充斥著AI生成的廣告與影片,許多民眾甚至沒意識到自己正在看AI的產物。更嚴重的是,日本國會發現,由於民眾對AI的信任與依賴日益提升,中俄等極權國家正透過大量的內容農場製造假訊息,藉以「污染 AI」。
黃兆徽(左)提出媒體使用AI可能帶來的風險。(特約記者陳洧農攝)
當網路世界充滿假訊息,AI 學習這些資料後給出的答案,可能就是認知戰的結果。這可能導致人類的歷史、文化在AI世界中被改寫,甚至被「消失」。因此,面對AI造假的低門檻,政府因應假訊息的對策必須不斷調整。
她說,儘管調查顯示,民眾自認能辨識AI假訊息的比例從去年的60%提升至75%,但這種自信可能低估了技術的複雜性。她以自身為例,即便擁有近30年的新聞與查核經驗,並在AI研發單位工作,面對現今AI生成的短影片,除非情節極度不合邏輯或有明顯破綻,否則連她也難以分辨真偽。
更令她擔憂的是:生長在AI環境下的下一代,是否會因為習慣了這類畫面而不再重視真實性?「因為他出生了(以後),他看到的全都是AI的畫面。」
此外,黃兆徽也指出新聞業使用AI的風險。她說,NCC曾指出新聞台使用AI生成畫面,甚至打上馬賽克模擬真實場景的現象。這些檔案若存檔時缺乏明確標記,未來的記者或大眾就有可能誤將AI的模擬畫面視為歷史真相。
越發嚴峻的威脅
葉子揚表示,MyGoPen自2015年以來致力於從民眾端進行事實查核與防詐,他深感詐騙與假訊息對民眾的危害日深。
有多年防治不實訊息經驗的葉子揚對於當下的資訊環境十分憂心。(特約記者陳洧農攝)
在詐騙方面,MyGoPen觀察到許多並非出於貪心、而是因恐慌而受騙的案例。例如有人接獲假檢察官來電,謊稱其帳戶有問題,結果被騙走上千萬元。此外,詐騙集團也利用AI快速複製釣魚網站,例如近期「白沙屯媽祖」香燈腳贈禮的詐騙,便偽裝成7-ELEVEn「賣貨便」網頁引導民眾加入假LINE帳號,進而竊取金錢或透過螢幕共享功能轉走存款。
在假訊息(認知戰)方面,MyGoPen從2024年起強化了系統分析功能,民眾開始大量傳送YouTube上的不實訊息進行查核。到了2025年中,出現大量AI生成的假醫生影片,內容甚至包括宣稱「台灣好棒」等操作手段。今年3月,「假醫生」與「健康養生」類的假訊息成為回報熱點,前10名當中有8則是面向銀髮族的假影片。這些頻道從播放醫學專家影片起家,累積信任後開始轉向散布戰爭威脅等製造恐慌的內容,手法極具針對性。
教育宣導須加緊腳步
「詐騙集團厲害的地方(是),他不只騙民眾,他還要騙政府有關單位。」葉子陽指出,詐騙集團的技術日益精進,會利用短網址多次轉址規避檢測,甚至針對手機與電腦設計不同的顯示介面來迷惑稽核人員。
他說,面對擁有AI武裝的詐騙集團,除了呼籲平台快速下架違規內容,亡羊補牢之外,也必須透過宣導和實測揭露大眾對自身辨識能力的過度自信。很多民眾在測驗中對真假判斷的正確率極低,顯示宣導與教育仍有極大努力空間。
葉子揚表示,當詐騙集團鎖定特定目標並投其所好、拋出「適合的腳本」時,民眾在緊張下真的很容易上當。因此,平時具備多看、多吸收正確資訊的習慣,才是避免受騙的根本之道。
防範假訊息 AI摘要效果有限
現場有人提問,去年底Google開放AI摘要功能,考量到其權重篩選與來源標註機制,是否有助於防範假訊息?
AI帶來的種種影響引發聽眾關注。(特約記者陳洧農攝)
賴正庸表示,單就「查證詐騙」而言,目前AI的查證效果相當有限。他說,詐騙集團除了利用AI 生成訊息,在「部署模式」上也非常靈活。例如最近常見的「買水餃詐騙」,詐騙帳號可能只出現兩小時,騙到一個人就立刻關閉。AI Agent可以無限生成這類浮動帳號,導致現有的AI摘要或查證工具很難即時捕捉並有效應對。
許建榮也表示,Google的AI摘要雖方便,但容易產生「方便懶人」的副作用。如黃兆徽所說,中、俄等極權國家正透過內容農場污染資料庫,若AI採納了被污染的資訊,給出的摘要就會有問題。甚至我國的公關產業已開始研究如何透過演算法與大量資訊投放,利用AI的特性將政治人物的負面形象「洗白」,這將是未來AI摘要面臨的嚴峻挑戰。
新時代媒體素養需涵蓋「AI素養」
有人問到,社大近年推動媒體素養教育,主要是教導老師使用工具查核,再由老師教導學生。但隨著AI發展,查核已變得極其困難。在此背景下,媒體素養教育應如何更新教法?查核工作該如何走下去?
黃兆徽表示,從她20多年前讀研究所至今,「媒體」的定義不斷改變,從傳統媒體到影音報導(YouTube),現在AI儼然成為最重要的媒體界面。她說,AI讓人類的大腦「外包」,大家越來越依賴AI提供單一答案,而懶得去比對原始資料。這種對AI的過度信賴,正是假訊息最容易侵入的縫隙。
黃兆徽對人們將大腦「外包」給AI的現象提出警示。(特約記者陳洧農攝)
黃兆徽以自己的同事為例,明明只是一張A4大小的體檢報告書,依然慣性地想請AI做成摘要。因此「媒體素養」中必須包含「AI素養」,民眾需要先了解AI的運作原理並學會使用它。當人們了解造假的門檻有多低,自然會對過去所謂「有圖有真相」的觀念抱持懷疑。
葉子揚也表示,製造不實訊息很簡單,但推廣媒體素養、降低數位落差卻很難。尤其是對年長者,教育者真的需要現場帶著他們實地操作過一遍,才能理解其中的風險。
法律改革與全民共識的重要性
論壇末尾,林明昕表示,現在有些人為了追求效率,覺得集權一點也無所謂,但活過威權時代的他深知沒有民主的痛苦與可怕。因此,為了保護現有的自由民主社會、防止其被顛覆,媒體、言論自由與法律之間的理論架構需要被重新檢視。他說,如果繼續執著於舊有的「言論自由市場」、「寒蟬效應」等理論,而無視AI與平台的影響,只會讓詐騙繼續猖獗。
林明昕呼籲,如果不謹慎對待AI假訊息,或許未來「六四」會變成某種歡慶的節日。(特約記者陳洧農攝)
林明昕強調,法律必須改革,過去台灣過度偏袒言論自由理論的作法,現在應打上問號。不僅是法律條文,執法者尤其是法官也應檢討其「輕判」的慣性,否則對犯罪者無法起到恫嚇效果。
對於民眾是否真正意識到詐騙與假訊息的嚴重性,林明昕持保留態度。他說,有些人可能會覺得,買個山竹被騙,頂多就是東西沒收到或吃壞肚子,但其實詐騙集團看上的是個人資料與銀行帳戶。這些資料一旦外流,可能變成「人頭帳戶」,甚至讓被害者成為共犯。他呼籲,民眾不能只停留在「不要買到爛水果」的表層思維,必須意識到背後潛藏的個資與國安風險。
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 媒體素養與假訊息高峰論壇:民眾察覺AI假訊息比例偏低 認同事實查核機構有助釐清假訊息
- 國人對假訊息「病識感」提高 遏止假訊息傳播 政府與民間需協力合作
- 2022假訊息年度高峰論壇|假訊息像病毒 媒體識讀教育不可缺 培養群體免疫力
- 生成式AI假訊息加劇新聞工作的挑戰 建立媒體「白名單」為解決之道
主編:蔡宏杰







