美妙卻有毒:AI有了政治立場並學會說謊⋯或者只是映照網路世界?


特斯拉執行長、社群平台X(前身是Twitter)擁有者馬斯克(Elon Musk)在2023年3月成立人工智慧(AI)科技公司xAI,7月時他對外介紹公司團隊,當時美國右翼媒體人洛魯索(Alex Lorusso)向馬斯克提問;洛魯索認為如ChatGPT的AI已經開始「編輯真相」,對使用者的提問給出「奇怪的答案,例如有兩種以上的性別」,他想知道這是否為馬斯克決定推出xAI的幕後推動力。
馬斯克則回答,「我確實認為,訓練AI給出政治正確的回應,或者換句話說,訓練AI不要說出它實際上認為是正確的內容,這件事存在很大的危險。」而馬斯克在針對xAI的專案做介紹時,表示旗下研發的AI將「最大限度地真實」(maximally true)。
馬斯克多年以來,在公眾面前多番提醒過AI的危險性,除了7月與洛魯索的對談外,他在2022年12月,也在尚未改名的Twitter上回覆OpenAI創辦人阿爾特曼(Sam Altman)時表示,「訓練AI對敏感議題保持醒覺——換句話說,撒謊——的危險性是致命的。」(The danger of training AI to be woke – in other words, lie – is deadly.)
The danger of training AI to be woke – in other words, lie – is deadly
— Elon Musk (@elonmusk) December 16, 2022
右派人士對「覺醒AI」的擔憂
馬斯克與AI的關係很複雜,大約十年來,他一直對AI的威脅發出警告,近期他簽署了一封公開信,表達了對AI將毀滅人類的擔憂,儘管他同時致力於推動這項技術的發展——他是OpenAI的早期投資者和董事會成員,而創辦xAI後,他也表示其麾下的這家嶄新AI公司的目標是「了解宇宙的真實本質」。
但他對目前占主導地位的AI模型「太覺醒」的批評,應和了自今年生成式AI(generative AI)工具蓬勃發展並為大眾所應用之後,廣泛出現的右翼說法。隨著數十億美元投入軍備競賽以創造更先進的AI,生成式AI也已成為文化戰爭的最新戰場之一,並有可能影響該技術的運作和監管方式。
美國共和黨人就在國會和競選活動中,對大型AI公司提出了批評;2023年7月底在愛荷華州舉行的競選集會上,共和黨總統候選人、佛羅里達州州長德桑蒂斯(Ron DeSantis)警告說,大型AI公司使用的訓練數據當中包含政治議題,立場「很覺醒」(more woke)。
美國保守派活動人士如魯福(Christopher Rufo)等就在社群媒體上宣稱,「覺醒AI」(“woke AI”)是一個緊迫的威脅。《福斯新聞》(Fox News)和《國家評論》(The National Review)等主要保守派媒體放大了這些擔憂,《國家評論》更批評認為ChatGPT已經屈服於「覺醒的意識形態」(woke ideology)。
右翼人士猛烈抨擊美國總統拜登的一項有關AI發展公平性的行政命令,稱其為促進「覺醒AI」的獨裁行動;保守派智庫曼哈頓研究所(Manhattan Institute)的一名研究員更將該命令描述為「意識形態和社會癌症」(ideological and social cancer)。
在強烈反對生成式AI的同時,右翼人士也很抵制社群媒體平台的內容審核政策。與此類政策非常相似的是, ChatGPT等AI模型上,有許多保障措施,旨在防止該技術被用於宣揚仇恨言論、虛假資訊或政治宣傳,但右翼人士將這些內容審核政策視為大型科技公司和自由派活動人士壓制保守派的陰謀。
專家則認為,這些右翼的批評,將太多其不滿的現況歸咎到生成式AI頭上,並預設了AI可以像有感知的生物一樣持有觀點。
紐約大學教授、《不只一個小故障:面對科技中的種族、性別和能力偏見》(More than a Glitch: Confronting Race, Gender, and Ability Bias in Tech)一書的作者布魯薩德(Meredith Broussard)就表示,「生成式AI所做的一切,都是在其原始材料中進行重新混合和反芻……這不是魔法。」
專家表示,在右翼批評者的討論中,往往認為AI系統會加劇現有的不平等並傷害邊緣群體,舉例像是Stable Diffusion這樣,可以將使用者的指令畫成圖像的AI,往往會放大有關種族和性別的刻板印象;《衛報》舉出Markup的一項調查發現,評估抵押貸款申請的演算法,其拒絕有色人種申請人的比例比拒絕白人申請人高40% 至80%;哥倫比亞電視台(CBS)也曾報導過,臉部辨識技術中的種族偏見導致了錯誤逮捕,還有全美公共廣播電台(NPR)報導各州擴大了AI輔助監控的使用。
又一場文化戰爭
在右翼人士猛批AI的同時,共和黨籍的法官2023年7月裁定拜登政府官員不得就內容審核問題,與社群媒體公司進行溝通;《衛報》指出此舉形同阻擋「打擊假訊息」的努力,多年來共和黨對反假訊息的努力似乎都抱此態度,並對外聲稱主要的社群平台內容審核政策「不公平地針對保守派聲音」。
2019年以來,許多社群平台都制定了針對錯假訊息或是仇恨言論的社群守則政策,因此諸如否認2020年美國大選合法、反疫苗的假資訊,以及極右派陰謀論等等內容都被刪除,共和黨以此指稱右翼遭針對,但這類的指控缺乏實證,紐約大學在2021年的一項研究還發現,這些社群平台的演算法往往會放大右翼內容。
另外,馬斯克也對反仇恨言論組織「打擊數位仇恨中心」提起訴訟,他指責打擊數位仇恨中心的工作導致了數千萬美元的收入損失; Twitter 上的「反覺醒AI」運動正在向AI公司施壓,要求AI必須表現出「政治中立」。
在保守派表達強烈的抨擊聲浪之後,OpenAI在2023年2月份發文,似乎希望藉此安撫各個政治派別的批評者,並承諾將投入資源「減少ChatGPT 對不同輸入內容的反應方式中,明顯、微妙的偏見」 。
2023年3月,阿爾特曼(Sam Altman)在接受媒體人弗里德曼(Lex Fridman)訪談時表示,「我認為這種做法過於偏狹……不會有任何一種GPT版本是所有人都認為是公正的」。
另一方面,右翼活動人士也做出了一些初步嘗試,試圖推出自己的「反覺醒」AI,例如受到白人至上主義者和其他極右翼成員青睞的社群媒體平台Gab,其執行長托爾巴(Andrew Torba)在2023年稍早宣布,他的網站將推出自己的AI服務,因為「基督徒必須參加AI軍備競賽」,托爾巴還指責現有的AI模組具有「邪惡的世界觀」。
另一社群平台Discord上,也推出一個名為「BasedGPT」的聊天機器人,是利用Facebook外流的大型語言模組進行訓練,但其輸出往往實際上不準確或無意義,並且無法進行基本問答。
之前的這些右翼人士的AI嘗試未能獲得主流關注,但馬斯克的xAI可能改變情況。
xAI的發展方向還有待觀察,該公司在其網站上表示, 其目標是「了解宇宙的真實本質」,並從OpenAI等公司和多倫多大學等機構招募了全男性的研究人員。
除了馬斯克承諾的「最大程度真實」之外,目前還不清楚xAI將遵循什麼道德原則運作。該公司已聘請AI安全中心的AI研究員亨德克斯(Dan Hendrycks)擔任顧問,亨德克斯先前曾警告AI可能為人類帶來的長期風險,馬斯克表示他也有同樣的擔憂。
儘管馬斯克等人圍繞著AI模型學習到人類社會的偏見這件事,進行了討論,因為AI似乎被變得有感知能力,但一些研究人員認為,對於這些模型「為何不按照人們希望的方式行事」,更簡單的答案是,它們很笨拙,容易出錯,僅只是反映了當前的政治兩極化。
生成式AI用人類生成的資料庫進行訓練,並使用這些材料來產生輸出,它更像是一面鏡子,反映人類線上社群的內容與狀態。
誠如布魯薩德所說,「網路非常美妙,但也非常有毒,沒有人對網路上的東西感到滿意,所以我也不認為人們會對生成AI產生的東西感到滿意」。
參考資料
- Intelligencer – 〈How to Manufacture a Moral Panic Christopher Rufo helped incite an uproar over racism education with dramatic, dodgy reporting.〉
- Bloomberg – 〈Humans Are Biased. Generative AI Is Even Worse.〉
- the Guardian – 〈‘Very wonderful, very toxic’: how AI became the culture war’s new frontier〉
- The Markup – 〈The Secret Bias Hidden in Mortgage-Approval Algorithms〉
- CBS News – 〈Wrongful arrest exposes racial bias in facial recognition technology〉
- NPR – 〈When it comes to the dangers of AI, surveillance poses more risk than anything〉
- NYU STERN – 〈False Accusation: The Unfounded Claim that Social Media Companies Censor Conservatives〉
- the Guardian – 〈When we held up a mirror to Elon Musk’s Twitter/X he tried to sue us into silence〉
- OpenAI – 〈How should AI systems behave, and who should decide?〉
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 逾8成民眾曾收到假訊息 政治謠言「信者恆信」闢謠效果差
- 國人對假訊息「病識感」提高 遏止假訊息傳播 政府與民間需協力合作
- 事實查核:媒體素養的重要基石
- 劍橋大學開發「假訊息敏感度測驗」 兩分鐘測出媒體識讀能力
- 杜克大學記者實驗室調查報告:錯假訊息持續蔓延 全球事實查核成長卻已趨平緩
- 2021 調查報導與事實查核工作坊」No. 2/曹嬿恆X李比鄰X劉彥伯|AI、機器人與事實查核:群眾協力與人工智慧
- 「2020 假新聞與事實查核工作坊」台北場 No. 4/胡元輝X洪國鈞X李又如X卓冠齊|2020年總統大選的事實查核(上)
- 「2020 假新聞與事實查核工作坊」台北場 No. 4/胡元輝X洪國鈞X李又如X卓冠齊|2020年總統大選的事實查核(下)
- AI假圖片將帶來「真相崩壞」危機? 查核組織傳授破解心法
主編:蔡宏杰