當AI竊取記者的臉:深偽風暴下的新聞戰場

(文章主圖照片為示意圖,非本文中提到的新聞主播)
特約記者廖彥甄編譯報導
2024年5月,《今日印度》(India Today)新聞主播 Pooja Shali 收到一則來自友人的訊息,對方表示在社群媒體 Instagram 上看見她主持的晨間新聞節目《First Up》片段。然而,該影片顯得異常:Shali 的語氣與以往不同,說話節奏略顯不耐,內容則在推廣一款行動交易應用程式。影片中,她聲稱該應用程式經過《今日印度》新聞編輯室審核,並獲得印度首富 30 億美元投資。
事實上,Shali 從未聽聞過這款應用程式,更不曾在節目中進行任何推銷。
「那一刻我非常震驚,」Shali 回憶,她立刻辨識出影片屬於「深度偽造」(Deepfake)。雖然開頭的幾秒確實截取自真實新聞畫面,但後續內容全由人工智慧生成。「我們經常報導數位金融詐騙,提醒觀眾提高警覺,卻沒想到自己的臉與聲音竟會被用來行騙。」
🚨Fake Alert!
— Pooja Shali (@PoojaShali) May 6, 2024
A scam video *featuring me* on INSTA is DEEP-FAKE. Scary!
Obvious but for clarity- My news bulletin, edited by A.I to attract Farzi investments.
I endorse only real news 🙂 Not such criminal schemes. DON'T SHARE/PAY. BEWARE.
Pls note @dcp_ifso @sumannalwa pic.twitter.com/LHVRDMllvg
近年來,不法人士頻繁利用公眾人物影像在社群平台上推廣產品。隨著 AI 生成影片技術的普及,愈來愈多記者與主播的影像被用於包裝詐騙內容。由於新聞主播通常具有高度公信力,加上新聞片段易於取得,因此成為深偽技術操作者的理想目標。
公信力成為風險:記者的新戰場
「電視新聞是最容易取得的媒體形式之一,」新聞業婦女聯盟(CFWIJ)創辦人兼主任基蘭・納齊什(Kiran Nazish)指出,「無論是電視或手機新聞,觀看的次數遠高於閱讀。」也正因如此,電視記者的公信力與影響力,使他們更容易成為詐騙與假訊息的目標。
隨著生成式人工智慧技術與廉價現成工具的普及,不法份子如今能輕易複製記者的聲音,並生成與唇形同步的影片。他們可修改現有新聞片段中的口型,使其與偽造的音軌完美匹配。納齊什指出,2023 年「婦女新聞自由專案」記錄了全球七起針對女性記者的深度偽造事件;2024 年這一數字上升至 20 起,而截至 2025 年 9 月,該組織已確認超過 150 起案例。
在社群媒體詐騙事件中,往往需要受害記者親自辨識、記錄並揭露這些影片,為自身名譽辯護。納齊什表示:「記者當然應該保護自身安全,但收集深度偽造的相關證據往往既耗時又令人痛苦。」
自由工作者、獨立記者,及在資源有限媒體任職的記者,通常最需要外部支援;然而,即便是大型新聞機構,也不見得總能獲得足夠協助。
幸運的是,Pooja Shali 的案例有了不同結局。在她向主管通報深偽影片後,《今日印度》於數日內製作並發布了一支澄清影片,揭露該行動交易應用程式的詐騙手法,並透過社群媒體擴散澄清訊息。然而,若缺乏大型社群平台的積極介入,包括主動監控廣告內容、審查被舉報的假影片等,記者與新聞編輯室能採取的應對措施仍相當有限。
與大型社群平台的「打地鼠遊戲」
今年 3 月初,《金融時報》(Financial Times)首席經濟評論員馬丁・沃爾夫(Martin Wolf)收到一位前同事的電子郵件,對方在 Instagram 上看到一段他「親自推介投資建議」的影片。影片中,沃爾夫面對鏡頭講話,誘導觀眾加入一個 WhatsApp 頻道,聲稱可獲取「獨家股票投資資訊」。接下來幾天,更多同事與朋友傳來相似的深度偽造廣告連結,甚至出現在 Facebook 上。
沃爾夫立即聯絡《金融時報》的網路安全與社群團隊,要求 Meta 依其社群準則下架這些冒充影片。然而在多日聯繫後,影片瀏覽量仍持續上升。最終,《金融時報》直接向 Meta 全球事務總裁尼克・克萊格(Nick Clegg)通報,影片與帳號才於數小時內被移除。但短短數週後,新的假帳號與廣告再次出現。
「我們玩了一場漫長的『打地鼠遊戲』。」沃爾夫說。《金融時報》花了近六週時間催促 Meta 下架新廣告。根據 Meta 歐盟市場廣告庫數據,至少有 1,700 則使用沃爾夫肖像的詐騙廣告在 Facebook 和 Instagram 上投放,觸及歐洲用戶約 97 萬人;沃爾夫估計,若加上英美兩地,實際人數可能達數百萬。最終,他在專欄中親自揭露這段經歷。沃爾夫表示,直到專欄刊登後,Meta 才徹底刪除相關廣告。
根據技術透明度專案(Tech Transparency Project, TTP)的報告,今年共有 63 家廣告商在 Meta 平台上投放超過 15 萬則具誤導性的政治廣告,其中部分涉及政治人物的深偽影片。這些廣告總支出達 4,900 萬美元,成為 Meta 在該類別中最大的廣告收入來源之一。
作為回應的一部分,Meta 邀請沃爾夫加入其「名人誘餌廣告防制計畫」(Celebrity Bait Ad Scam Program)。該計畫原於三年前中止,去年秋天重新啟動,利用自動化系統比對上傳廣告與登錄公眾人物的肖像,若確認相符即自動審查下架。目前已有逾 50 萬名公眾人物註冊,服務暫限美國、英國與韓國。Meta 稱,今年上半年全球詐騙廣告舉報量較去年同期下降 22%。
儘管沃爾夫最終得以制止詐騙,但多數記者缺乏同等的媒體資源與人脈。英國《金融時報》數位平台主管馬修・加拉漢(Matthew Garrahan)批評:「透過官方管道投訴既耗時又幾乎無效。直到沃爾夫的專欄刊出後,Meta 才真正採取行動。」
防護真空:社群平台的灰色地帶
非營利組織 Witness 的政策專家 Gregory 指出,社群平台應將人臉識別等「相似性保護」工具,普遍提供給更廣泛的公眾人物,而非僅限於少數名人或特定地區。「在平台層面,你需要讓這種防護機制更具普及性。」他說。
他同時指出,YouTube 近來開始採取更積極的行動。今年 9 月中旬,該平台宣布將針對其全球超過 300 萬名合作夥伴啟用人臉識別稽核系統,以偵測並下架偽造影片。不過 Gregory 也補充,即使覆蓋面擴大,「YouTube 的執行力度仍相當不均。」
與此同時,婦女新聞自由聯盟也縮減了與社群平台的聯繫資源。其創辦人納齊什(Kiran Nazish)表示,這部分反映出整個產業對全球內容審核與安全基礎設施的投資持續下降。
2022 年,X 裁撤了全球信任與安全團隊的大部分成員;今年初,Meta 亦結束第三方事實查核計畫。納齊什表示,過去她們能直接將深度偽造案例傳送給平台內部聯絡人,促使影片下架,但自 2022 年起,這些管道幾乎消失殆盡,甚至早於近年深偽詐騙的爆發潮。
在此真空之下,記者幾乎失去了維護自身名譽的途徑。
Shali 表示,自從去年首次遭遇深偽詐騙後,她在鏡頭前發言時變得更加謹慎。「現在我說話時,會不自覺地想,這段畫面會不會被人利用。」八個月後,一支新的假影片再次出現,這次不僅使用了她的影像,還合成了谷歌執行長 Sundar Pichai 的畫面,用以推銷另一款交易應用程式。「這讓我感到沉重,」她說,「我不知道他們會怎麼操控我的聲音與表情。」
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 五年一次、全球規模最大的印度選舉 如何受到AI造假與審查威脅?
- 拜登聲音被造假、印度總理也被模仿⋯⋯AI生成的假訊息如何影響選舉?
- AI讓政治宣傳戰升級:史丹佛專家談AI對選舉的潛在影響力
- 俄羅斯以生成AI進行病毒式傳播 假冒新聞、政府網站
- 民間團體:防治假訊息的活躍戰力
- 總統大選期間的假訊息防治:台灣做對了什麼?
主編:蔡宏杰