拜登聲音被造假、印度總理也被模仿⋯⋯AI生成的假訊息如何影響選舉?


劉郁葶|特約記者編譯報導
在AI當道的時代,生成式人工智慧已成為政治領域中不可忽視的風險。美國總統的通話、政治人物的秘密錄音、新聞主持人的視訊,如今都可以透過人工智慧可以輕易生成與修改。這種深度造假(deepfakes)在網絡上愈演愈烈,尤其在社群媒體上。
近期,人工智慧生成泰勒絲(Taylor Swift)假的不雅照,導致X暫時封鎖了對這名歌手的所有搜尋。名人肖像被偽造只是冰山一角,若回顧近幾個月在網絡上流傳的深偽,會發現新聞主持人與政治人物都成為「熱門目標」,這些假訊息的目的包含諷刺、詐騙與散播假資訊。
例如電視新聞工作者的形像,被用來宣傳假的「投資機會」;又或者根據英國《衛報》的報導,有上百個冒充英國首相里希.蘇納克(Rishi Sunak)的深度造假影片,在Facebook上進行付費推廣。
在這個有20億人具投票資格的選舉年,人工智慧生成的假訊息是否會影響民主?又將如何影響記者報導選舉活動?四位來自西班牙、墨西哥與印度的記者和專家,共同思考這項趨勢可能產生的後果與應對之道。
如今,透過人工智慧生成圖像從未如此容易。藉由Midjourney、OpenAI的DALL-E和Microsoft的Copilot Designer等工具,使用者能在幾秒鐘就獲取圖像。
目前人工智慧平台也立下規定來限制使用者,例如DALL-E不允許使用者創造真人圖像,微軟禁止「欺騙性模仿」,Midjourney則提到「名人或公眾人物的攻擊性或煽動性圖像違反社群準則」,這些平台也禁止發布暴力和色情圖像。
那麼其他呢?西班牙團體United Unknown自稱是一群「視覺遊擊隊」,經常利用深度偽造來創作諷刺政客的圖像。
一位自稱「謝爾蓋」(Sergey) 的United Unknown成員表示,他們使用Stable Diffusion來創作,這是目前唯一開源的主流AI影像生成器,它的模型能被下載和修改,讓使用者自由繪製對象與場景。
謝爾蓋表示,使用人工智慧來生成虛假圖像,已經變得很容易,而且會越來越容易,在短短一年內,圖像的品質大幅提升。
謝爾蓋承認,某些圖像可能被誤認為真實照片,但他強調,「我們旨在批判性幽默,無意欺騙。」
針對人工智慧是否被濫用,謝爾蓋表示,人工智慧根據人們的指令生成圖像,得到的結果主要基於模型習得的知識,以及使用者的要求,「它們複製、再現甚至放大我們的價值觀與偏見」,並認為「責任始終在於作者、創作者、思想家,而不是所使用的技術」。
謝爾蓋強調:「媒體、科技和工具都在改變。我們不應該關心技術本身,而應該關心使用它的意圖。」
人工智慧產生的圖像與影片也會被用在選舉中。墨西哥大選將於六月初舉行,西班牙政治新聞網站Animal Político事實查核的編輯阿圖羅.達恩(Arturo Daen)舉例,一段據稱由墨西哥城政府官員馬蒂.巴特雷斯(Martí Batres)錄製的語音檔,表達對某位市長候選人的偏好,但巴特雷斯聲稱「這是人工智慧生成的假語音」。
墨西哥政治學家豪爾赫.布恩迪亞(Jorge Buendía)表示,人工智慧產生的假資訊,所潛在的風險在於,人工智慧能用來冒充令人信服的政治人物,並利用他們的形像或聲音,在支持者間散播謊言。
舉例來說,著名案如發生在今年1月,拜登的「假語音」事件,試圖阻止人們在新罕布夏州初選中投票。布恩迪亞表示,在傳播理論中有一條原則,即「信使(messenger)」是誰非常重要。「過往發現,人們會抗拒他們不喜歡的人所傳達的訊息,但現在,這些訊息是由他們信賴的人傳遞的」,人工智慧正在改變這項遊戲規則。
拜登並不是唯一聲音被模仿的政治人物。印度總理莫迪(Narendra Modi)的聲音,也被人工智慧用來政黨的競選工具。除此之外,選舉前,印度人民黨議員馬諾吉.蒂瓦里(Manoj Tiwari)用印地語(Hindi)、哈里揚維語(Haryanvi)與英語三種語言向觀眾演說的影片。根據半島電視台報導,說印地語影片是真實的,另外兩個影片則經人工智慧修改,以吸引說這些語言的觀眾。
人工智慧也被用於「幽默」,並流傳於社群媒體,例如模仿莫迪唱歌的影音。賈斯瓦爾說:「它已經成為一種流行病。無論走到哪裡,幾乎都能看到莫迪的聲音被模仿。」
這些深度偽造在印度與墨西哥,已成為一種風險,因為當地未受過教育的人口比例高,導致人民難以辨識這些錯誤的、虛假的資訊。
AI被當成攻擊女性的武器
賈斯瓦爾舉了另一個在政治背景下使用人工智慧的例子。在印度,一場關於摔跤的抗議活動中,有兩名抗議者在被捕時拍了自拍照。雖然在原始照片中,被捕女性看似嚴肅,但經處理的圖像,卻讓她們看起來笑容滿面。照片在社群媒體上流傳後,讓抗議者名譽掃地,「(人們說)他們對這整件事感到高興嗎?」
此外,賈斯瓦爾認為,人工智慧也可能說服印度女性迴避公開談論自己的政治觀點。「許多女性已經看到AI被用來產生她們性姿勢的照片,這在父權社會中是很令人反感的」,寶萊塢女演員也遇到這類攻擊。
不過,賈斯瓦爾表示,這類事件通常不是有組織的政治策略,深度偽造通常由年輕人製作的,他們希望藉由病毒式傳播來從中獲利。
記者如何應對這項新威脅?
至於人工智慧產生的假訊息,是否會大幅影響大選?布恩迪亞認為,「可能還太早」,預測今年墨西哥選舉不會出現太多這類型的假訊息。賈斯瓦爾對印度也做出類似評估:「我仍然認為人工智慧被用在印度選舉還很初階」,隨著時間推移才可能有更複雜的情況。
此外,人工智慧的研究人員亦表示,不需過於悲觀與擔憂,他們在評論中寫道,人工智慧可能會增加錯誤訊息的數量,但這並不一定代表人們會消耗更多的訊息。相比之下,定期的假訊息仍比人工智慧產生的假訊息更令人擔憂。
而面對假訊息,記者必須深入研究具爭議內容的背景,查看它最初出現的位置,哪些機構或政黨是假資訊的幕後黑手,以及哪些帳戶分享它。事實查核編輯達恩表示,「人工智慧讓我們更加謹慎,當判斷某種資訊是否造假時,我們會進行深入的調查」,這在選舉活動中尤為重要。
與此同時,人工智慧公司與社群媒體平台也受到審查。2月16日,在慕尼黑安全會議中,出席的22家公司包括亞馬遜、谷歌、微軟、Meta以及人工智慧開發人員,與社群平台簽署一份聯合聲明,承諾解決在今年選舉中的民主風險。
該文件列出實現這一目標的幾個「步驟」,包括幫助識別人工智慧生成的內容、檢測它的分佈,並「以符合自由表達和安全原則的方式」解決這項問題,但缺乏具體目標。
賈斯瓦爾建議,記者應該對這個議題進一步的發展進行報導,並善用身為記者的觀察能力,在AI世代辨別各種類型的假訊息。
參考資料
- Reuters Institute for the Study of Journalism – 〈How AI-generated disinformation might impact this year’s elections and how journalists should report on it〉
- The Guardian – 〈Slew of deepfake video adverts of Sunak on Facebook raises alarm over AI risk to election〉
- Africa Check – 〈Beware another Elon Musk investment scam using deepfake videos of the billionaire and news anchors〉
- The Guardian – 〈BBC disinformation reporter Marianna Spring: ‘My approach to fear is to try to make sense of it’〉
- Rest of World – 〈AI Modi singing is taking over India’s internet 〉
- BBC – 〈Wrestlers’ protest: The fake smiles of India’s detained sporting stars〉
- BBC – 〈Why are there so many deepfakes of Bollywood actresses?〉
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- OpenAI生成影片模型Sora震撼各界 資訊傳播更複雜、專家憂影響選舉
- 選舉風向往哪吹? 境外勢力操弄認知作戰 Taiwan AI Labs帶你一窺協同帳號運作手法
- AI讓政治宣傳戰升級:史丹佛專家談AI對選舉的潛在影響力
- 前BBC資深記者:選舉報導應謹慎使用民調數據 聚焦候選人政見及人格特質
- 在讀者「想要」與「需要」的選舉報導之間
- 美國總統大選的媒體考驗:若論述再無事實奠基,則民主是否健康存續?
主編:蔡宏杰