AI讓政治宣傳戰升級:史丹佛專家談AI對選舉的潛在影響力


每一次的選舉——無論哪個國家——都為假訊息進入公眾領域流竄提供了大好機會,如今隨著2024年美國總統大選的競選活動初揭序幕,蓬勃發展的人工智慧(artificial intelligence ,AI)是否可能成為政治宣傳的強大新工具?
英國《衛報》指出,AI能夠依循簡單的提示生成獨特內容,這樣的生成式人工智慧模型已經被用於政治目的,例如在競選活動散布針對其他候選人的虛假圖像和音檔,現任美國總統拜登就被以AI生成影像製作的廣吿攻擊,還有深偽(Deepfake)技術也被應用在選舉裡,製造出模仿現實新聞片段的假影片。
《衛報》高度關注AI被應用於錯假訊息,其所可能對民主政治——尤其是2024年美國總統大選——帶來的傷害,為此採訪了史丹佛網路觀測站(Stanford Internet Observatory)的科技研究經理迪瑞斯塔(Renée DiResta),針對AI的最新發展如何影響競選活動,以及社會迎頭趕上因應進行探討;史丹佛網路觀測站隸屬史丹佛大學,旨在研究資訊科技濫用。
ChatGPT興起生成文字易如反掌 大選受AI影響引公眾關注
以下為《衛報》記者羅賓斯-厄利(Nick Robins-Early)與迪瑞斯塔的Q&A問答對話。
問:社會上其實早已經對AI及其被用於製造虛假資訊的可能性有所擔憂,如今是什麼發生了變化,使得AI威脅變得更加緊迫、更為人關注?
迪瑞斯塔:幾年前,當人們意識到「深偽影片」時,就開始擔心有心人士會利用深偽技術來干擾選舉,有可能是製作關於候選人的假影片,也可能會假造發生某種天災人禍的影片,但這並沒有真正發生。深偽技術引起了公眾的關注,但它實際上被使用的地方,主要並不在政治領域,而是更貼近日常生活、卻真正可以直接對個人造成傷害的領域,例如復仇色情。
但過去6個月,AI領域的發展出現了兩項重大進展,首先是ChatGPT的興起,大眾可以用ChatGPT快速生成文字,人們也開始意識到使用像是ChatGPT這類型的AI文字生成工具有多麼容易。同時,依據文字描述指令,繪出靜態圖像的AI工具也面世,全世界範圍的使用者都可以加以利用。可以說,如今任何人都可以使用Stable Diffusion或是Midjourney來製造出世界上不存在的事物的逼真圖像。
上述這兩項AI的發展和使用情況結合在一起,再加上許多人本就很擔心2024年的總統選舉感,因此大選被AI影響的可能性確實再次引起了公眾的關注。
AI技術降低政治宣傳成本 假訊息圖文對選舉影響力更微妙
問:為什麼深偽技術沒有被用在政治目的?
迪瑞斯塔:想要用深偽技術來做政治用途,當中的難處在於,影片內容的實質內容必然會受到仔細檢視,影片中會有很多露出其是偽造的線索,也有很多方法可以確認影片是不是AI生成而非實際拍攝。最重要的是,當一個影片真正引起轟動時,也就是真的產生影響力的時候,很多人都會觀看它,並對其進行事實查核,然後加以回應。這可以被稱之為對深偽影片的「自然免疫反應」。
然而,傳遞不實訊息的文字和靜態圖片,在選舉當中反而有可能產生比深偽影片更大的實際影響,因為它們可以更微妙、更持久。選舉需要好幾個月的競選活動,在此期間選民們形成意見,這是選舉裡最具影響力的事情,而你可沒辦法用一支影片就改變整個社會的公眾思想。
問:您認為機器人訊息將如何改變政治宣傳?
迪瑞斯塔:我想先警告的是,談論技術上可能達成的事情,並不等於我在說天要塌下來了。AI技術是有可能辦到,但我認為我們應該先理解它所帶來的可能性:AI讓有能力創造政治宣傳或內容的人數大大增加,同時也降低了政治宣傳的成本,但這並不一定代表AI就會被拿去用在這種用途,所以我認為我們還是要分開來看,AI新技術可以實現的事情,並不一定就等於AI會被用來干預選舉。
至於AI的可能性,例如你會看到自動化的科技進展,也許你還記得2015年時,人們對機器人程式充滿了恐懼:那時候很多人就用機器人程式,自動去大量留言,讓特定人的觀點看起來像是、很多人都這麼認為,實際上到處闡述這類意見的可能只有6個人,和他們的5,000個機器人。
有一段時間Twitter沒有採取任何措施來阻止這種情況,但其實這種情形很容易被發現,看到許多帳號在同一時間說出完全相同的內容,那就足以辨識——因為為每個假帳號特別撰寫出獨一無二、不重複的內容,既昂貴又耗時,所以機器人留言的內容基本上都會一樣。但如今藉助AI,可以毫不費力地產生高度個人化的獨特內容,並自動大量傳播。
最後,單就內容本身而言,AI實際上只是在形式上讓資訊看起來更可信和有說服力。
眼見不一定真實 社群平台應採取措施防堵假訊息
問:這似乎與您所寫的另一個AI的面向有關,就是AI可以產生大量內容(包括誤導性或不準確的內容)的能力,會對資訊環境和社會信任產生混亂的影響。
迪瑞斯塔:大規模生成內容的能力是讓AI與眾不同的原因——人們總是能夠進行宣傳,我認為強調這一點非常重要。很多人的工作就是為特定活動創造訊息,然後弄清楚如何將這些訊息傳播到世界各地,現在我們只是改變了訊息傳播的速度、規模和成本,現在這些情況只是宣傳的演變。
當我們思考AI發展之後帶來的新內容和不同之處時,圖像也同樣被考慮進去,像是Photoshop剛出現時,大眾起初對Photoshop處理的影像感到非常不舒服,但逐漸變得越來越習慣,到現在大眾已經完全接受了Photoshop的存在,知道你眼睛看到的一切,並不一定都是表面上看起來的那樣——你在雜誌封面上看到的女人可能實際上並不長那樣。我們使用AI製造了很多不真實的東西,圖像中的任何內容實際上可能都不是它看起來的那樣,但它看起來很逼真。
問:在美國,如果聯邦政府真正要推出有意義的監管的話,似乎還很遙遠。 如果沒有監管制度的話,有哪些短期方法可以減輕AI製造資訊混亂的風險?
迪瑞斯塔:首先是教育部分,當深偽技術製造的資訊四處流竄時,有一個非常重要的教育部分——媒體報導了這些事情,人們開始感覺到我們正在進入一個影像可能不符事實的世界。
但期望每個使用社群媒體的人,都能弄清楚他們正在平台上交談的人是不是真人,這是不合理的,所以平台必須採取措施,更仔細地識別機器人假帳號。
在圖像方面,社交媒體平台以及AI公司開始聯合起來,嘗試一些方法,以便平台和其他使用者可以確定眼前的圖像是不是AI生成。
信者恆信考驗媒體素養成效
問:OpenAI等一些公司製定了相關政策,試圖要防止ChatGPT被用來產生錯假訊息或達到特定政治目的,您認為這些政策的效果如何?
迪瑞斯塔:對於任何技術,其實都可以嘗試對該項技術的專有版本設定相應的防護措施,並且可以說科技公司已經做出了基於價值觀的決定,不允許產品生成特定類型的內容。但另一方面,有些AI模型是開源的,任何人都可以存取,利用開源模型和圖像生成,做出有害的事情,但是一旦AI模型開源,能對其施加的控制就很有限。
目前在AI領域,這是一個非常大的爭點,您不一定希望制定限制或保護特定企業的法規,而同時人們也意識到開源模型的存在,問題在於,傳播這些東西、擴大這些東西影響力的平台如何思考它們的角色和相應對策。
問:媒體或大眾對AI和錯假資訊有哪些誤解嗎?
迪瑞斯塔:真正的挑戰之一,是如果人們看到的東西符合他們想要相信的東西,那他們就會相信它,有心人士可以任意造假出這類內容。而媒體素養工作是否真正解決了任何問題?或者,我們的社會更進一步極化——人們將繼續相信他們在網路上看到的東西,只要那樣東西是他們本來就想要相信的。新技術是反映出黨派之爭和社會信任在真實事件面臨的挑戰,並且因為新技術的面世,使此類資訊能夠在網路上傳播,而影響加劇。
參考資料
- The Guardian – 〈‘An evolution in propaganda’: a digital expert on AI influence in elections〉
- AXIOS – 〈First look: RNC slams Biden in AI-generated ad〉
- The Guardian – 〈What are deepfakes – and how can you spot them?〉
- The Guardian – 〈The EU is leading the way on AI laws. The US is still playing catch-up〉
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 逾8成民眾曾收到假訊息 政治謠言「信者恆信」闢謠效果差
- 國人對假訊息「病識感」提高 遏止假訊息傳播 政府與民間需協力合作
- 事實查核:媒體素養的重要基石
- 劍橋大學開發「假訊息敏感度測驗」 兩分鐘測出媒體識讀能力
- 杜克大學記者實驗室調查報告:錯假訊息持續蔓延 全球事實查核成長卻已趨平緩
- 2021 調查報導與事實查核工作坊」No. 2/曹嬿恆X李比鄰X劉彥伯|AI、機器人與事實查核:群眾協力與人工智慧
- 「2020 假新聞與事實查核工作坊」台北場 No. 4/胡元輝X洪國鈞X李又如X卓冠齊|2020年總統大選的事實查核(上)
- 「2020 假新聞與事實查核工作坊」台北場 No. 4/胡元輝X洪國鈞X李又如X卓冠齊|2020年總統大選的事實查核(下)
- AI假圖片將帶來「真相崩壞」危機? 查核組織傳授破解心法
主編:蔡宏杰