俄羅斯以生成AI進行病毒式傳播 假冒新聞、政府網站

2024 年 07 月 4 日 | 卓越新聞電子報

donation
陳品潔|特約記者編譯報導

生成式人工智慧(Generative AI)科技呈現飛躍式進展,應用在商業領域與用戶體驗之外,也被濫用於散播錯誤的政治與社會議題資訊。

美國全國公共廣播電台NPR報導,親俄羅斯立場的社群平台帳號,利用深度偽造(deepfake)技術,造假美國國務院發言人米勒(Matthew Miller)與記者的關於烏俄戰爭的問答。[1]《紐約時報》報導,該影片在俄羅斯Telegram帳號間擴散,並被俄羅斯官方媒體和政府官員轉載。[2]

相關案例不只一起,「明顯」可識別為假資訊的生成AI影片,也能在網路大肆流傳以製造「恐慌與混亂」,對於民主社會是一大威脅。

散播烏克蘭造假投降片 病毒宣傳只是「冰山一角」

NPR於2022年6月即報導,駭客在烏克蘭新聞網站,發表長達一分鐘、烏克蘭總統澤倫斯基(Volodymyr Zelensky)「告訴士兵放下武器、放棄對俄羅斯的戰事」的影片,隨後被揭穿並下架。同段影片也在Facebook、YouTube和X平台(前身為Twitter)等平台出現,因違反用戶政策被刪除。[3]

與此同時,俄羅斯的社群媒體卻不斷播放這則「造假投降影片」。加州大學柏克萊分校教授、數位媒體鑑識專家法里德(Hany Farid)點出此為「病毒」式宣傳,「我懷疑這只是冰山一角」。

研究媒體操弄(manipulated media)20多年的法里德警告:「每隔幾年,技術會更加細緻,但我從未見到過去五年發生的狀況。」[4]

合成技術人人可用 媒體識讀困難度上升

過去只有少數好萊塢電影公司掌握合成技術,如今「任何人都能生成」新的AI影像,包括帶有自己聲音或動作的影片,「即使從來沒有那麼說、那麼做過」。對於煽動騷亂(civil unrest)、干擾民主國家的選舉活動而言構成威脅。

法里德表示:「如果我們進入一個任何敘事、任何錄音、任何照片、任何影片均可以是虛構的世界,那麼沒有什麼一定是真實的。」他舉例:「警察暴力的影片:假消息。侵犯人權的影片:假消息。候選人說了不得體的話:假消息。如果一切皆能被操作,倘若如此,我們該如何判斷所處的世界?如何以可信賴的方式獲取新聞來源?」

操作政治分歧議題 降低社會信任度

隨著「超級選舉年」登場,全球過半人口於2024年參與投票,包含台灣、美國印度、南非、墨西哥,以及歐洲議會。美國預計於11月舉行,與此同時,假消息層出不窮,意圖干擾選民意向、分化民主社會。

NPR 發現,親俄羅斯的社群媒體帳號,扭曲了美國校園的加薩戰爭抗議、移民議題的相關報導。假新聞網站以看似正規的名稱冒充媒體,包括《華盛頓週刊》(D.C. Weekly)、《波士頓時報》(the Boston Times)和《選舉觀察》(Election Watch)。[5]

報導指出,俄羅斯瞄準現有的政治分歧、操弄議題,利用AI技術抹黑政治人物或官員。

美國華府智庫「大西洋理事會」(Atlantic Council)數位鑑識研究實驗室的主編卡文(Andy Carvin)指出:「操弄的文字經常讓人感到『亂槍打鳥』(throwing spaghetti at a wall)。一旦讓更多人在網路上爭吵、彼此信任程度降低,就達到他們的目的了。」

美國沒有做足準備 因應選舉干擾威脅

美國國家情報總監海恩斯(Avril Haines)5月赴參議院情報委員會,在關於選舉風險的聽證會上指出:「俄羅斯仍是美國最大的外國威脅。」俄羅斯利用國家媒體、情報部門和網軍(online trolls)影響美國社會,包含「削弱對美國民主制度的信任,加劇美國的社會政治分歧,並弱化西方國家對烏克蘭的支持度」。[6]

她提醒,美國聯邦政府「從來沒有做足準備」保護選舉,以因應當前「多元且複雜」的威脅。不只俄羅斯,中國、伊朗和其他外國勢力也試圖影響美國選民。

美國參院情報委員會主席、民主黨參議員沃納(Mark Warner)表示,力求避免重蹈覆轍,2016年俄羅斯一連串的干預選舉手段,讓美國國會、政府與社交媒體公司難以招架(off-guard)。

沃納表示,從那時起,外國惡意干預的門檻降低,並有更多動機影響美國政治,以強化自身的國家利益,與此同時,美國人也越來越不信任政治。

共和黨參議員盧比歐(Marco Rubio)提出疑問,在不信任政治氣圍舉行選舉伴隨而來的問題,「誰負責讓民眾知道,哪些是假的?」無論誰負責,必須保護美國民主制度的可信度,否則可能反被指控「美國政府自己就在干預國家選舉」。

俄模仿事實查核網站 買FB廣告、假評論宣傳

俄羅斯政府2022年2月起執行散布假消息的「分身行動」(Doppelganger operation),手段包含:模仿現有新聞網站製造假新聞、購買Facebook廣告宣傳、模仿政府網站,建立反烏克蘭與親俄網站。[7]

研發ChatGPT的生成式AI公司「OpenAI」發現,Doppelganger行動利用使用ChatGPT產生英語、法語、德語、義大利語和波蘭語的文字,並發佈在X平台和 9GAG(香港社群平台);產生頭條新聞,並將新聞文章轉換為 Facebook 貼文。OpenAI於2024年5月聲明指出,已封鎖相關帳號。[8]

非營利組織「歐洲假消息實驗室」(EU DisinfoLab)介紹,被模仿的網站包含法國《世界報》、英國《衛報》、義大利《安莎社》、德國《明鏡周刊》和美國《福斯新聞》。通常假冒網站的文筆不流暢,網址會些微拼錯、或以「.ltd/ .online/ .foo」結尾。

反烏克蘭網站通常針對總統澤倫斯基,描繪烏克蘭政府盲目服從陰謀論的「國際集團」、謀殺烏克蘭公民等造謠內容。名為「War On Fakes」的網站則是仿造事實查核網站排版,藉以「反駁」在烏俄戰爭發生的事實。

此外,俄羅斯在即將抵達的巴黎奧運也進行網路政治操作。2023年11月初,藍色的「大衛之星」(猶太教的標誌。納粹德國用此來辨別猶太人。)噴漆在巴黎的多處的建築物牆面,圖像在網路上迅速傳播開來,引發恐慌與混亂。

法國負責防範境外干預的國家技術和營運服務機構「VIGINUM」,檢測到X平台 有高達1095個機器人,參與噴漆消息的初步流出,機器人同樣屬於Doppelganger行動,意圖將使用者導向俄羅斯網站。[9]

根據NPR報導,自從俄羅斯入侵烏克蘭以來,歐盟已禁止《今日俄羅斯》(RT)、《俄羅斯衛星通訊社》(Sputnik)、《俄新社》等俄國媒體在歐盟出版或傳播。

然而,根據阿姆斯特丹大學與對話研究所(Institute for Strategic Dialogue)5月共同發表的報告指出,《今日俄羅斯》仍會大量出現在歐洲網站。儘管網域被封鎖,但網站內容可能在未受制裁的第三方網站轉發。[10]

「目前為止,沒有對選舉結果產生重大影響」

根據OpenAI、Facebook母公司Meta 和微軟最新報告,俄羅斯、中國、伊朗和以色列已開始利用AI來操縱政治和公眾輿論。

微軟指出,俄羅斯代號「Storm-1679」的行動,以AI技術複製國際巨星湯姆克魯斯的聲音,在偽造的Netflix紀錄片之中誹謗國際奧委會。OpenAI表示,俄羅斯的Doppelganger行動利用ChatGPT翻譯產生Facebook貼文和評論;Bad Grammar行動使用AI在Telegram發表程式碼。

問題在於:俄羅斯這番操作下,對於影響輿情和選舉的實際效果為何?

NPR報導,許多被揭穿的煽動手段沒有吸引大量真人選民,「至少目前為止沒有」。大西洋理事會的數位鑑識專家卡文認為,俄羅斯宣傳沒有對單獨的美國競選活動起到重大影響作用。生成AI假消息就像生產廉價商品,希望某個小玩具能夠成為流行,即使眾多玩具都面臨失敗下場。

參考資料

  1. NPR – 〈This is what Russian propaganda looks like in 2024
  2. New York Times – 〈Deepfake of U.S. Official Appears After Shift on Ukraine Attacks in Russia
  3. NPR – 〈Deepfake video of Zelenskyy could be ‘tip of the iceberg’ in info war, experts warn
  4. NPR – 〈As tech evolves, deepfakes will become even harder to spot
  5. NewsGuard – 〈THE FUGITIVE FLORIDA DEPUTY SHERIFF WHO BECAME A KREMLIN DISINFORMATION IMPRESARIO
  6. NPR – 〈U.S. elections face more threats from foreign actors and artificial intelligence
  7. EU DISINFOLAB – 〈Doppelganger operation
  8. OpenAI – 〈Disrupting deceptive uses of AI by covert influence operations
  9. Ministry for Europe and Foreign Affairs(France) – 〈Russia – New russian digital interference against France (9 November 2023)
  10. The Alliance for Securing Democracy – 〈The Russian Propaganda Nesting Doll: How RT is Layered into the Digital Information Environment