生成式人工智慧與選舉:為什麼你應該更擔心人類 而不是AI

2025 年 09 月 9 日 | 卓越新聞電子報

特約記者劉子瑞編譯報導

本文翻譯自英國牛津大學路透新聞學研究所〈Generative AI and elections: why you should worry more about humans than AI systems〉一文,由菲利克斯·西蒙博士(Dr Felix Simon)與薩沙·阿勒泰博士(Dr Sacha Altay)共同撰寫。

許多人擔心,生成式人工智慧(GenAI)將對全球選舉造成負面影響,甚至引發一場錯假訊息浩劫。最常見的擔憂是,GenAI 讓影響選民變得更加容易,並強而有力地產製與傳播錯誤與虛假資訊。儘管 GenAI 系統的功能強大,我們認為外界高估了它對選舉結果的影響,而且有充分理由相信,這些系統短期內不會顛覆民主制度。

本文摘錄改寫自哥倫比亞大學奈特第一修正案研究所(Knight First Amendment Institute)發表的論文〈先別慌:評估生成式 AI 與選舉相關的證據與論述〉(Don’t Panic (Yet): Assessing the Evidence and Discourse Around Generative AI and Elections),檢視了 GenAI 影響 2024 年選舉的相關資料,就現有證據與理論來看,外界對 GenAI 影響選舉的擔憂確實被誇大了。原因包括:大規模說服(mass persuasion)本身有其困難、媒體效果跟人與科技互動的複雜性、觸及目標受眾的難度,以及 AI 在政治活動中精準投放(microtargeting)的效果有限。以下探討該論文提及 GenAI 與選舉的三項常見論點,完整論文中還包含另外三項論點與所有參考資料,可以點選這裡閱讀,也可點擊這裡下載全文

1. 人工智慧將增加選舉期間錯誤資訊的數量

生成式人工智慧(GenAI)所帶來的資訊數量增加,尤其是錯誤資訊增加,可能會造成污染資訊環境、排擠優質資訊進而影響中間選民等後果,以下我們將介紹這項論點的三個前提,並延伸討論相關內容。

第一個前提是,GenAI 產出的錯誤資訊多於可信資訊。如果 GenAI 用於產製可信內容,它對資訊生態系的整體影響應該是正面的。然而,我們難以量化 AI 在內容創作中所扮演的角色,而 AI 產製可靠資訊的方式,可能比產製虛假內容更隱晦,因此也更難被量測。為了討論方便,我們假設 AI 被完全用來製造錯誤資訊。

第二個前提是,GenAI 產出的錯誤資訊能夠觸及受眾、吸引他們的注意力。這十分關鍵,因為錯誤資訊本身沒有影響力,要發揮影響力,資訊必須被人看到。然而,注意力是一種稀缺資源,閱聽眾能夠真正吸收的資訊量是有限的,因此,任何選舉政治資訊,都必須與娛樂等其他類型的內容競爭。選舉期間,選民早已被大量訊息與廣告淹沒,使得任何額外新增的內容——無論是否由 AI 產生——都只是滄海一粟。在低資訊量的環境或資訊空白(data voids)中,AI 產製的內容可能產生較大的影響,但即使如此,也不清楚為何 GenAI 內容會勝過真實內容或其他非 GenAI 內容。甚至可以說,AI 內容氾濫反而可能提升大眾對真實內容的價值認同與需求。

第三個前提是,AI 產生的內容在接觸受眾後,會產生某種說服力,雖然直接影響選民偏好的可能性不大,但間接、微弱的影響仍可想像。選舉不只是選票而已,還牽涉到政治辯論與媒體報導品質,換句話說,即便無法改變選票流向,AI 仍可能以資訊氾濫的方式,破壞公共論述與民主程序。

然而,我們對「資訊氾濫論」也不覺得特別有說服力。因為大多數人仍依賴少數幾個可信來源來獲取新聞與政治資訊,低可信度來源的誤導性 AI 內容即使存在,也不太可能產生多大影響。只要主流媒體與可信的新聞意見領袖不錯用 AI,那些來自不可信來源的 AI 內容為何會引發混亂呢?

當大眾不知道該信誰、也無法掌控自己接收的資訊時,資訊氾濫才值得擔憂。然而實際上,國際調查顯示,即使對主流媒體信任度偏低且內容創作者不斷增加的情況下,大眾仍經常回歸主流媒體。在西方民主國家,主流新聞機構目前大多相當克制使用 GenAI,雖然有些媒體開始使用 AI 協助產製與發送新聞,但過程大多透明且負責。

目前幾乎沒有證據顯示主流媒體利用 AI 製作誤導性內容或假新聞。事實上,許多媒體反而積極應對,明確標示 AI 生成內容,並持續維持編輯審核機制。這樣負責任的做法,與對 AI 主導政治新聞、製造大規模假訊息的恐懼,形成強烈對比。新聞機構實際上是運用 AI 工具,來提升工作效率,例如協助查證事實或為繁雜的數據報告做摘要。

另外,聲譽誘因(reputational incentives)對新聞網紅和傳統媒體都十分重要。新聞網紅的影響力不容小覷,像是法國的HugoDécrypte,已躋身為備受尊重的媒體品牌,內容品質也符合主流標準。但不論是新聞網紅還是傳統媒體,被視為可信來源都是個強烈的聲譽誘因,因為能否取得觀眾信任與擴展觸及範圍,都與此高度相關。若媒體使用 GenAI 來誤導觀眾而且被揭露,對他們而言無異於宣判死刑。聲譽誘因的概念,簡單明瞭地解釋為什麼即使撰寫與散播虛假內容十分容易,我們通常也會避免傳播謊言。

整體而言,對於 AI 讓錯誤資訊激增的恐慌,其實抓錯了重點,太過於關注「供給」,卻忽略了「需求」。閱聽眾之所以吸收與分享資訊,是因為這些內容與他們的世界觀一致,同時他們也會主動尋找符合自身觀點的資訊來源。動機性推理(motivated reasoning)、群體認同及社會衝突已證實會提高大眾對錯誤資訊的接受度,舉例來說,對疫苗持負面看法的人,更可能瀏覽質疑疫苗的網站。

最容易受到錯誤資訊影響的,並不是被動接收的人,而是主動去尋找這些資訊的人。這些錯誤資訊的消費者之所以與眾不同,不是因為有特別的供給管道,而是因為他們本身有尋找這些資訊的需求。消費與散播錯誤資訊是由需求驅動,這或許是錯誤資訊研究中最重要的一項發現。正如布達(Budak)等人的研究提及:「我們回顧了關於網路錯誤資訊的行為科學研究,發現錯誤與煽動性內容的接觸率普遍偏低,但主要集中於一小群擁有強烈動機想找出這類資訊的人身上。」

總而言之,由於生成式 AI 出現而導致錯誤資訊變多,並不代表閱聽眾會因此消費更多。要讓供給轉化為實質影響,前提是市場上必須有供需落差,例如未滿足的需求,或供給不足。網路上早已充斥大量無人聞問的低品質內容,而也沒有充分證據顯示閱聽眾比以往更需要 AI 產製的錯誤資訊。

散播錯誤資訊也是一種政治工具,尤其極右派政黨常利用這個方法來獲取政治利益。另外,有些人因為社會挫折(social frustrations)而吸收與轉發錯誤訊息,試圖破壞「無法提供自認應得的尊重」的既有秩序,同時藉此提升自身地位。此外,有些人甚至不需要完全信任錯誤資訊就會傳播,像是轉發欠缺真實性的新聞,只是因為他們覺得「如果是真的那會很有趣」。

從歷史發展的角度來看,人類一直都擅長編造虛假故事,從都市傳說到陰謀論皆是如此。選舉相關的錯誤資訊也很容易製造,只需要斷章取義地使用一張圖片、故意放慢影片畫面、或是捏造謊言,這樣看來,生成式 AI 的內容其實沒什麼用。此外,錯誤資訊的需求也很容易被滿足:只要內容能支持特定論述,並與群體的身份認同、價值觀、經驗產生共鳴,錯誤資訊就能「熱賣」。

2. AI 將提升有關選舉的錯誤資訊品質

GenAI 可以製作出極度擬真的文字、圖像、音訊與影像,相比於傳統真人撰寫的文章、相機拍攝的照片、麥克風錄製的音檔,觀眾將難以分辨兩者之間的差異,因為 AI 生成的資訊品質提升了。

有個常見的說法是,GenAI 提升了錯誤資訊的品質,進而使其更具說服力與影響力,同時也降低了製作成本,使影響選舉更為可行。

讓我們一步步來看這個說法,首先,毫無疑問,現今的 GenAI 模型已能產出高品質的錯誤資訊。第二,AI 會不會被用來製作比可信資訊更多的高品質錯誤資訊呢?對於重視聲譽的新聞機構與公益組織來說不太可能,因為他們仰賴觀眾信任與品牌聲譽,若過度依賴 AI,可能適得其反,也因此許多媒體仍十分謹慎地使用 AI。但對於錯誤資訊製造者來說,則無需承擔聲譽風險,更快速、便宜、省人力地產出高品質內容是一大優勢,反正揭穿後損失的成本也不大。而相比於有穩定財務與制度支持的專業新聞機構,惡意行為者進一步降低高品質內容的製作成本,所帶來的邊際效益比較高。據此我們推測,高品質內容的製作成本與時間降低,將為錯誤資訊製造者帶來相對更大的好處。

然而,雖然資訊品質是個重要指標,但在影響選舉方面,資訊品質所扮演的角色卻小得多。為什麼呢?首先,儘管 GenAI 確實讓錯誤內容更細緻,也能減少製作成本與時間,但我們仍無法確定品質更高的錯誤資訊是否就真的更能說服或誤導大眾。

如前所述,還有其他因素會造成影響,例如:對錯誤資訊的需求、意識形態一致性、情感訴求、個人經驗共鳴,以及資訊來源等,這些才是真正影響閱聽眾為何接受並分享錯誤資訊的關鍵。換句話說,錯誤資訊的傳播與影響力,並非單由資訊品質而定。這些因素不會因為品質提升而被取代,像是提高品質不代表對錯誤資訊的需求就會跟著上升。

其次,錯誤資訊製造者早已擁有許多提升內容品質的工具可以操弄,但他們卻經常採用低技術或幾乎零技術的簡便方法。例如影像編輯工具 Photoshop 早已能透過修圖或創造全新圖像來混淆視聽,但那些一眼就看出來的「廉價造假品」卻仍然四處可見。因為這些粗糙的虛假或誤導資訊已算「堪用」,只為了用來支持特定論述與政治目的。

換句話說:根本不需要高品質的虛假資訊。政治行動者只要扭曲或重新詮釋事實,並使其符合自身論述即可,這種手法十分廣泛,連政治菁英也可能使用。舉例來說,關於移民犯罪個案的新聞故事,常被極右派政治人物加以操作,用以支持無憑據的移民犯罪說法,最終為其「反移民」的政策論述背書。

順帶一提,內容品質也存在過與不及的議題:高畫質影片過於精緻反而顯得不真實,而真實可信的資訊,視覺上也可能不夠吸睛。

另外,錯誤資訊的來源也比內容品質更為重要,舉例來說,一段由 BBC 分享、畫質差、用舊型智慧型手機拍攝的影片,其影響力遠大於一名普通社群使用者分享的高畫質影片,因為觀眾信任 BBC 的專業驗證能力。雖然 GenAI 能提升內容品質,但它幾乎無法提升受眾對資訊來源可信度的感受與認知。

再次強調,問題不在於內容品質是否提升,而在於閱聽眾對支持特定論述的錯誤資訊有沒有需求,所以,我們不認為提升 GenAI 的內容品質必然會更有效地影響選舉。

我們期待,即使在擁有大規模高擬真內容的情況下,安全機制像是口碑、彼此問責、懲罰說謊者、獎勵誠實者等,仍將持續發揮作用。

3. AI 將大幅提升資訊的個人化程度

此論點是將精準投放(microtargeting)的概念延伸至 GenAI,透過產出高度個人化的資訊與廣告,進而提升對選民的說服力。精準投放透過分析使用者資料,辨識特定族群或個人的人口統計特徵與興趣,並依據這些資訊,推送經過設計的個人化訊息給使用者。其流行的原因,可能源自於近年政治競選中,對於精準投放效果的傳聞,例如政治顧問公司劍橋分析(Cambridge Analytica)在 2016 年英國脫歐公投與美國總統大選中的選民鎖定行動所聲稱的影響效果。

為了理解這個論點,我們需要簡要檢視 GenAI 系統如何產製個人化內容。這類系統先在龐大的普通資料庫預先訓練,接著再透過「人類回饋強化學習(reinforcement learning with human feedback, RLHF)」等方式最佳化。然而,目前的系統還無法完整反映使用者的偏好與價值觀,也無法確定系統究竟內建了多少關於使用者本身的資訊,以及這些資訊影響系統提供使用者回覆的程度,尤其是政治相關內容。

OpenAI 的 ChatGPT 與 Google 的 Gemini 是首批導入「記憶」使用者偏好功能的系統,並可能利用這些偏好來調整後續回覆內容。而這些 GenAI 大型語言模型,也能透過預先訓練學到的相關性分析,依據足量的使用者指示詞內容,推測其人口統計特徵與意識形態。例如,有實驗顯示 GPT-4 可以從 Reddit 網站的公開貼文中,推測出使用者的所在地、職業等個人資訊。這種「潛在推論」的方式可補足甚至取代基於記憶的客製化功能,使系統無需明確的個人資料也能產出符合「你這類人」的回覆。

理論上,這類 GenAI 系統可以用來產製與使用者世界觀與偏好更一致的內容,也因此更具說服力。個人化資訊通常比普遍化資訊更具說服力與關聯性,GenAI 似乎能更容易說服或誤導大眾。然而,這項主張存在若干複雜因素。

首先,技術可行並不等於實際有效。政治廣告投放的成效普遍參差不齊。過往針對精準投放與個人化政治廣告的研究顯示,倘若缺乏更廣泛的訊息一致性與實際走訪的競選活動,僅基於數據計算出來的說服策略,常常會面臨成效遞減的情況。

來自美國的實驗證據進一步顯示,一旦精準投放超出幾個少數的關鍵屬性,其說服效果就會遞減。有些人合理懷疑,這些研究未考量到低成本、大規模生成個人化內容的強大 GenAI 系統;不過,目前鮮有研究證據顯示,GenAI 系統產出的個人化內容比普遍化的訊息更具說服力。一項近期對大型語言模型說服力影響的綜合論述指出:「目前的說服效果仍然微弱,尚不清楚模型能力與部署策略是否將顯著提升成效。」

另一項科比·哈肯伯格(Kobi Hackenburg)與海倫·馬蓋茨(Helen Margetts)的研究發現(研究一研究二),「儘管 GPT-4 產生的訊息具有說服力,但整體而言,精準投放訊息與非精準投放訊息的說服影響力並無顯著統計差異」,而且「就算擴大模型規模,可能也不會顯著提升政治訊息的說服力。」

研究方法也非常關鍵:透過詢問參與者,來衡量訊息說服力的感知效果,往往會顯示出較大的效果量(effect sizes),但這與測量前後態度變化的嚴謹研究相比,結果明顯不同。同樣地,政治廣告的說服效果在自述評量時會比實際說服(actual persuasion)強,原因是一般人傾向給跟自身觀點一致的訊息較高評價。

普遍來說,不論是否經過精準投放或個人化,政治訊息的說服力都有限,且未來可能依然如此,因為在多數情況下,大規模說服本來就不容易。

第二,有效的個人化訊息可能需要最新的個人詳細資料。凱特·多米特(Kate Dommett)與其同事發現,各國政黨通常透過政府資料、走訪拜票、商業購買、民意調查及現今的線上工具,來定期蒐集選民資訊,但他們所能取得資料的深度與類型,極大程度取決於各國的法律架構、地方慣例,以及各個司法管轄區的特定資料存取規範。

政黨資源多寡也會影響選民資料取得,主要政黨通常擁有足夠資源整合政府檔案、購買的資料集與數位足跡,而小黨常常無力密集拜票或負擔選民名單的費用。然而有關個人偏好、心理特質與政治觀點等的資訊更是難以獲得,即使能取得精準政治個人化所需的基礎資料,過程仍會面臨不少障礙。

資料集也可能存在雜亂、不完整、時間效度不足、資料與欲觀察構念間連結薄弱等問題。此外,資料中未反映出的突發外部衝擊,還有未觀察到但對於精準個人化具有意義的其他特徵,也會使這些問題更加複雜。這些挑戰未來可能使得 GenAI 系統難以有效地產製個人化內容,並限制後續個人化投放的準確性。

仍有抱持懷疑態度的人認為,直接從選民與各種 AI 系統的互動中收集或推論出的資料,其品質將比較好。但我們認為,這些資料除了不太可能豁免於上述的限制,也不太可能在 AI 公司以外廣泛取得,使第三方產製個人化訊息,並精準投放給特定對象。同樣地,AI 公司也不太可能允許這類定向資料蒐集,許多國家法律也禁止類似的資料取用。

理論上 AI 個人化訊息的傳遞路徑(圖片由作者提供)

理論上 AI 個人化訊息的傳遞路徑(圖片由作者提供)

第三,要成功傳遞個人化訊息,則必須觸及特定個體。這可透過兩種方式達成(見上圖)。
第一種情況下,AI 使用蒐集到的使用者資訊並個人化後,透過使用者日常使用的數位平台傳遞。不過,即使 GenAI 系統理論上降低了製作個人化內容的成本,卻無法降低透過這些平台一對一觸及使用者的成本,畢竟,在網路上向特定對象傳遞量身訂做的訊息並非免費,某些特定的受眾觸及成本很高,不同政治行動者的投放價格也各不相同。

第二種情況下,AI 系統蒐集與使用者互動的資料後,再生成個人化內容。然而,至今沒有任何 AI 公司表示有意開放其系統,供政黨或其他具政治意圖的行動者使用。任何此類行為都無法避免遭受質疑,並受各國法律限制;此外,大多數使用者對於 AI 系統根據其偏好自動推送的政治訊息,是否會有正面反應也令人懷疑。

此外,如前所述,注意力是一種稀缺資源,任何與政治有關的資訊,不論是否正確,都必須與其他資訊競爭閱聽眾的注意力。有研究指出,受眾接觸到越多試圖說服他們的廣告,就越容易對其產生懷疑,且記得實際內容的能力也會下降。

根據政治活動人士觀察,受眾往往不會認真看待個人化的政治廣告。民眾不僅能辨識這些個人化訊息,還會對過度量身訂做或使用過於私密特徵的個人化訊息產生反感。若這些訊息來自選民原本不認同的政黨,還可能引發反效果,使其對該政黨的好感度降低。

第四,選民資料日益豐富,而且 AI 工具日益強大,並不代表政治行動者就一定會加以運用。
舉例來說,2020 年美國 Facebook 廣告的審查結果顯示,官方競選活動主要將最細緻的目標設定用於傳遞強烈負面訊息,並且未充分發揮平台的分眾潛力。儘管全球的競選活動普遍使用定向廣告(targeted advertising),但其花費大多只集中在像是性別的單一目標條件上。

雖然較富裕的國家與採取比例代表制的選舉系統,會投入較多資金在結合多重條件的精準投放上,但歐洲的個案研究卻指出,法律、預算與文化的限制仍使這類精準操作受到約束。

新科技並不盡然是政治競選決策的驅動力;相反地,人與組織動力才是決定是否、何時、為何將這些新科技納入決策的關鍵。如果用組織社會學理論來解釋這種落差,政治行動者並不是最佳的完全理性決策者,而是在有限時間與資訊、過往慣例的情況下,他們會優先選擇看起來「還不錯」的方案。例如,根據近期美國高度科技化的競選活動研究顯示,政黨幕僚做決策時,常常忽略模型建議,而是依據直覺、考量聯盟政治或候選人偏好來做決定。

同樣地,由親民主黨團體 Higher Ground Labs 所撰寫的2024 選後報告也指出,AI 並未如某些實務工作者所言,成為助選的主力。儘管理論上當時已具備個人化的技術應用條件,大多數團隊還是僅將 AI 用於撰寫電子郵件、社群貼文與活動後勤等低風險任務;少數團隊進一步探索預測建模(predictive modeling)、大數據分析、即時選民互動等進階應用,但大多是個別試驗,而非由組織推動。該報告也強調,許多工作人員根本不具備使用 GenAI 的方法知識,也缺乏組織指導,這代表根深柢固的作業慣例、技術能力落差及薄弱的組織支持力量,仍限制了政治圈採用先進技術。另一項最近的調查也發現,雖然美國政治顧問增加使用 AI,但主要仍用於日常行政工作。

簡而言之,政治行動者的信念、能力與優先順序,仍是充分實現 GenAI 個人化潛力與競選實務操作之間的瓶頸所在。

第五,也是最後一點,整體論點假設 GenAI 會被用來誤導,而非傳遞資訊。然而,未來政府機構與新聞媒體也會使用 AI 聊天機器人,提供民眾個人化且可靠的資訊,透過個人化傳遞資訊,本身並不違反民主原則。多元主義與審議式民主理論皆認為,當公民所接收的資訊與自身身分、生活利益相關時,參與才最為有效。

據此,AI 所帶來的個人化功能,也可以融入既有的民主實踐體系中,例如政黨針對不同利益團體傳遞符合其特定關注議題的訊息,並建立議題聯盟。理論上,這些工具也可擴大資訊平等,為主流媒體經常忽視的語言少數族群、首投族與鄉村選民,提供高品質且語言適切的內容。因此,民主的關注焦點不在於個人化,而是公民是否能接觸到多元觀點與高品質資訊。

結論

雖然可以理解對生成式人工智慧(GenAI)影響選舉的擔憂,但這些擔憂大多言過其實,而且未完整考量長久以來人類行為與社會運作的現實。真正的威脅不是 AI 生成內容的海嘯,而是早已存在、渴求印證自身偏見的資訊需求。

內容製作成本再怎麼低廉,對於原本就資訊氾濫的網路世界,也無助於改變誰看到什麼,或為何會看到。

錯誤資訊的影響力,並非取決於完美技術,而在於來源可信度與故事吸引力。一個品質還行但貼合政治目的的謊言,比一個完美製作但無關痛癢的假訊息,來得更有威力。另外,大規模高度個人化的策略也會面臨某些困難障礙,像是混亂的數據、有限的注意力、高昂的傳遞成本,以及一個簡單卻不爭的事實——改變他人想法極其困難。

本文無意將 GenAI 視為毫無風險,也不認為無需政策回應,更非主張 AI 開發公司可為所欲為。我們也提醒大家,基於目前有限的實證資料,不應過度低估或誇大這些風險。儘管我們認為現有的實證與理論證據顯示,GenAI 在未來不太可能產生過度誇大的影響,但在不同政治與文化情境下,仍急需更多實證研究,以更清楚掌握風險所在,並找出最佳應對方式。

追根究柢,有關 AI 與選舉的討論過度著眼於技術的供給面,卻忽略了人性的需求面。我們必須保持警覺,隨時調整法規與教育制度,但不需要把強大的新工具誤認為是無所不能的力量。本質上,民主面臨的核心挑戰都是人為問題,GenAI 或許是舞台上新登場的角色,但它並沒有改寫劇本。