從AI治理看新時代的數位公民素養

陳洧農|特約記者採訪報導
臺大新聞所論壇「AI時代的新聞教育與媒體識讀:解碼技術轉型與資訊信任」的下半場主題為「AI時代的媒體識讀與數位公民素養」,邀請到師大大傳所教授王維菁、師大社教系助理教授林玉鵬、台灣人工智慧學校基金會秘書長侯宜秀,以及公廣集團董事長胡元輝主講,並由臺大新聞所副教授蔡蕙如主持。內容包括:AI對人權與民主的衝擊、AI倫理與治理方向、相關法律爭議,以及公廣媒體所扮演的角色。
「優化」使人類喪失能動性
王維菁表示,AI的運用可能對人權乃至人性帶來新挑戰,例如監控資本主義(Surveillance capitalism)和意識操控的疑慮。AI作為一種「預測」的科技,會廣泛收集各種數據和資料以掌握人們的偏好和決策模式,但也難免會侵犯個人隱私。
另一方面,當生活被AI過度優化和標準化,也可能制約人們的自主與生活方式。她認為,這樣的狀況很難避免,因為隨著AI的應用越來越廣泛,並且有越來越強的預測能力,人們的依賴也隨之增加,使能動性和責任感遭受限制。以汽車為例,未來可能都是自動駕駛,行動路經都被AI決定,對人類生活來說,將減少隨機性,但也在某種程度上減少了生命不可預測的豐富性。
她說,就像小說《美麗新世界》裡描述的一樣,人類生活中的一切都被機器控制十分完善、舒適,可是卻也喪失了「人味」和人的自由自主。
王維菁提醒, AI的開發設計,有其目的性及價值觀,也很容易帶有歧視和偏見。(特約記者陳洧農攝)
用AI評價人類?
評量式AI則是另一個風險來源。王維菁指出,以AI評量人類,已經非常廣泛可見,比如金融評量、保險評量,甚至是司法評量。例如2013年美國的State v. Loomis案,當時威斯康辛州最高法院就在判決中使用了名叫Compas的風險評量系統,引發了美國憲法第五修正案相關的爭議。(編按:美國威斯康辛州法院參酌COMPAS風險指標,判處被告Eric Loomis六年刑期,Loomis上訴最高法院,要求說明COMPAS演算過程。)
她強調,這些評量制度背後所反映的價值觀和權力結構,是必須加以質疑的。例如在印度,人民因為參加政治活動而導致財務上的信用扣分。她說,縱使參與政治活動與還款能力可能有相關性,但沒有因果關係,將兩者相關聯十分不公。
在各種評量系統中,最惡名昭彰的是社會評量。中國曾於2019年曾實驗性地在許多城市使用,透過監控系統對人民的一舉一動「打分數」,其後果會影響能否購買機票,或小孩能申請的學校。這樣的評量非常專斷,一來人民無權置喙評判的標準,所以國家能以違反民主價值的理由(例如批評政府)來扣分;二來當人民質疑評量不公時,也缺乏救濟制度。
被改變的人類心理
王維菁表示,社群平台和AI在若干程度上鼓勵了人們的「數位自戀」,強化了人們自我展演的傾向。因為如果人們不這麼做,平台就會缺乏流量和數據,可是這也促使人們不斷吹噓、表演,或進行不適當的自我揭露。另一方面,當人們的自信是來自他人的「點讚」,也會助長虛榮心和患得患失的心態。
此外,由於演算法總是給人們符合其世界觀與偏好的內容,讓人們「證實」自己的信念,久而久之人們會越來越固執,產生所謂的「數位偏見」,甚至是歧視。
王維菁引以色列歷史學家Yuval Noah Harari的觀點,指出AI有操控對話以及阻礙公共對話的潛力,可能導致社會信任崩塌,動搖民主根基。她說,現在網路上就有許多機器人帳號,經常發布極端言論帶風向,使公共對話無從產生。
王維菁指出,AI阻礙公共對話的問題已經是現在進行式。(特約記者陳洧農攝)
AI倫理跟治理
關於AI使用的倫理以及治理,王維菁提出許多方向。首先是可解釋性,AI系統應該要讓人類可理解其決策過程;再來是隱私保護,歐盟的《一般資料保護規範》值得參考。還有,鑒於AI可能發展出自主性,須確保AI系統受到人類控制,與社會道德保持一致。
歐盟通過的《人工智慧法案》(AIACT),以明確禁止了一系列對人權構成威脅的AI應用,例如:脆弱族群生物特徵蒐集(導致脆弱族群的標籤化);情緒推斷系統(侵害隱私權)。其他還有社會評分系統、個人犯罪預測評估、臉部識別收集、即時遠端生物特徵識別等。
王維菁指出,AI的治理必須建立全球的治理框架,否則很難在國際的AI競賽中克服國家之間的利益衝突。最後她強調,唯有重視AI帶來的風險與挑戰,才能使AI「為人所用」。
我國媒體素養仍偏重不實資訊
林玉鵬表示,自從2016年美國大選與英國脫歐事件後,不實訊息和假新聞成為公共討論的重要議題,而人工智慧的發展加速了這些討論。隨著生成式人工智慧的興起,從校園到社會都紛紛強化對AI技術的應用與批判思考。
他提到多個關注媒體素養的組織,例如媒體觀察教育基金會、台灣事實查核中心和教育部成立的媒體素養資源網。這些組織在推動媒體素養教育上採用不同策略,包括營隊活動、查核不實資訊以及提供多元的教育資源。
另外,2023年教育部推出的「數位時代媒體素養教育白皮書」雖然也納入對AI及演算法影響的討論,但主要重點還是放在不實訊息的防治,可看出政府對該議題之重視。
讓民眾對數據「有感」
林玉鵬特別指出,演算法素養的核心在於「提升民眾的數據感知」與「演算法的透明化」。他強調,日常生活幾乎無法避免演算法的影響,例如BBC記者Ellie House就曾表達對Netflix推薦系統的疑慮,表示影音平台似乎比她本人更早知道她的性取向,反映出數據和演算法如何影響個人生活。
然而,由於演算法多為黑箱運作,強化對演算法透明化的理解至關緊要,部分歐洲國家的政府政策已開始揭露演算法應用,為臺灣提供了可借鑑的模式。「演算法應該要透明,它不應該是一個黑箱子。」
林玉鵬強調,演算法現今已無所不在,務須建立民眾的「數據感知」。(特約記者陳洧農攝)
賦予公共性,找回能動性
此外,數據素養也是未來媒體教育的重要方向。2015年學者Michael和Lupton提出「公眾理解大數據」的宣言框架,指出大數據是一個複雜的組合,應該要揭露或解釋數據的來源、生產過程以及使用目的,提升公眾對數據的批判與應用能力。林玉鵬進一步表示,應該賦予或強化演算法的公共性,例如環保團體綠盟的「透明足跡計畫」就利用公開數據進行公共監督。
林玉鵬強調,AI時代的媒體素養不僅僅是防治假訊息,更應該包括對新科技的批判性思考和行動。他呼籲重新審視人與科技之間的關係,並指出吾人不該消極被動的看待演算法,而是該探索人在演算法面前的能動性,審慎監督其潛在的商業或政治濫用風險。只有如此,媒體素養才能真正成為數位時代的核心能力。
AI時代的生存力
侯宜秀的本業是律師,現任「報導者文教基金會」的法律顧問,也是「G0V」公民科技社群的一員。她說,自2022年ChatGPT問世以來,已經可以確定人工智慧是一個通用型技術(general purpose technology),會滲透到社會與生活的各個層面。
她指出,通用型技術出現時,往往伴隨著工業革命,而工業革命雖然能帶來生產效率的提升,卻也難免造成傷亡。吾人的課題是盡可能讓減少「革命」過程中的傷亡,而數位公民素養,就是在AI時代的「生存力」。
人工智慧學校剛成立時,開設的課程要上三到四個月,每周三天以上。生成式AI出現後,不只大幅縮短了課程,也使得編寫程式不再是學習AI的必要條件。她說,生成式AI帶來最大的改變,就是讓人可以用自然語言跟機器溝通,無須透過程式語言,因此人機器協作的情境越來越常見。
侯秀宜強調,AI應用沒有辦法單純用教的,一定要實際去做才學得會。她鼓勵任何還沒用過生成式AI的人立刻開始用,因為AI的使用是這個時代無法避免的,「要變成一個主動利用工具的人,而不是被動的接收者,就從跟ChatGPT講話開始。」
參與過國科會「人工智慧基本法」訂定的侯宜秀表示,要從法律的角度來定義AI相當困難,因為AI技術進步太快。(特約記者陳洧農攝)
有沒有著作權?
隨著人機協作的情境越發常見,問題也隨之衍生。例如:產出到底是誰的?有沒有著作權?「現在比較尷尬的是,每個國家的認定不太一樣。」侯秀宜表示,以美國來說,到目前為止都認為像Midjourney這類AI圖像軟體產出的圖片,除非其主要部分不是由AI產生,否則基本上都不具有著作權。另一方面,中國北京互聯網法院曾經判決Stable Diffusion產生的圖片具有著作權。
台灣呢?目前根據智慧財產局函釋,基本上認定最終產出若無足夠的人類精神力投入,是不具有著作權的;而現今大部分的AI產出被認為屬於隨機產生,不具有足夠的精神力投入。但侯秀宜指也表示,何謂「足夠的精神力」,目前尚無客觀的標準。她認為,就如同照相機問世之初,攝影也不被認為有著作權一樣,人類社會最終最後還是會認定,AI只是工具,人跟工具協作的結果,依然有一定的著作權。
AI、不實訊息與輿論操控
關於AI會對言論市場帶來什麼影響,侯秀宜認為,首先是假帳號和假內容構成的虛假人設(Fake Persona)會越來越多,且難以辨別。她說,自己的臉書最近就被許多「機器人」加好友,而且她還沒察覺。
在大多數人缺乏辨識能力的情況下,言論操縱者無須對於假帳號的品質太過講究,只要能大量生成即可,讓輿論操控的成本和技術門檻都大幅降低。另一方面,透過大數據分析和AI技術,個人化的不實資訊會越來越多,詐騙集團的目標選定也將變得非常容易。
胡元輝也對AI技術加劇不實資訊危害的現象感到憂心。他提到,根據歐洲廣電聯盟(EBU)在去年十月的調查報告顯示,36%的歐洲人口對於識別假新聞缺乏信心,而且年輕人和習於以社群媒體閱聽新聞者都是特別脆弱的群體。
蔡蕙如表示,在當代所有的介面都被大科技公司給宰制之後,吾人必須思考公共媒介擔負AI素養教育先驅角色的可能性。(特約記者陳洧農攝)
媒體與資訊素養應納入正規教育
胡元輝表示,今年在拉斯維加斯舉行的美國廣播電視展覽會(NAB Show)以「擁抱人工智慧的未來」為主題,從工具設備的角度探索生成式AI在內容創造、連結傳輸,以及帶動商機的潛能,可以看出AI的應用已經不可避免。
但另一方面,他也引用多位知名科技與學術界人物的觀點,指出AI可能帶來重大進步,也可能帶來風險。如霍金、OpenAI執行長Sam Altman及AI教父Geoffrey Hinton都曾表示AI帶來的影響是複雜且多面的,需要抱持警覺並審慎看待。
他特別提到聯合國教科文組織提出的「媒體與資訊素養」(Media and Information Literacy,MIL)對應生成式人工智慧的新政策簡報,強調在AI時代,必須透過MIL為使用者賦權,並將MIL應納入正規及非正規教育。
胡元輝提醒道,早期大家都認為AI必定能夠對人類做出許多貢獻,但近期的討論大多具焦在其風險。(特約記者陳洧農攝)
公共媒體的責任與實踐
胡元輝表示,AI時代公共媒體在提升媒體素養方面肩負重要責任。首先,公共媒體應制定明確的準則,確保在使用AI技術時不會損害信息的可信度。例如芬蘭公共電視YLE便制定了詳細的準則,以確保AI技術在新聞報導中的應用透明且負責。
其次,公共媒體應推動實際應用,借助AI技術提供更多元且客製化的資訊服務。例如YLE利用AI技術開發的智慧新聞助理,不僅方便閱聽眾獲取個人的化資訊,還能幫助記者提升工作效率。而英國的BBC則使用AI工具「Tell Me More」來審視新聞報導中需要先備知識的部分,讓閱聽眾能夠更好地理解文章中的專業術語和背景資訊。
最後是透過內容製作或活動來推廣媒體素養。他提到,現在許多國家的公共媒體都積極參與全球性的媒體素養週,提供各種學習資源和活動,務求提升閱聽者的媒體識讀能力。
台灣公共電視也積極參與這一領域的發展,胡元輝提到,公視去年發布AI應用準則,是台灣媒體之先,並於日前推行「AI手語幸福臺灣」計畫,為聽障者提供更友善的資訊服務。他指出,媒體素養教育不僅要應對假消息挑戰,也需關注弱勢族群的需求。最後,他期許台灣公廣媒體扮演「導航與培力」的角色,讓AI科技為社會帶來更多貢獻。
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 用人工智慧重新探索舊有的新聞領域
- 六個國家的民眾如何看待新聞中的生成式人工智慧?
- 尼曼新聞實驗室2024年新聞業預測|人工智慧篇,下篇|AI人機協作成趨勢 人類優勢無可取代
- 尼曼新聞實驗室2024年新聞業預測|人工智慧篇,上篇|搜尋引擎導引流量下滑 AI促進新聞「客製化」發展
主編:蔡宏杰