chatGPT紅遍全球 大量文本彈指生成 訊息虛實難辨

2023 年 03 月 16 日 | 卓越新聞電子報

donation

陳品潔|特約記者編譯報導

微軟(Microsoft)自2019年注資數十億美元[1]的人工智慧(artificial intelligence,縮寫為AI)聊天機器人chatGPT受到各界矚目。已有作家用此創作小說[2],通過美國沃頓商學院MBA期末考、美國醫生執照考試與明尼蘇達大學法學院課程考試[3],學生利用chatGPT完成論文與課堂作業[4]。不只如此,chatGPT還能喬扮成莎士比亞創作詩句、提供求職信與推薦信範本,並模擬新聞撰寫。

由OpenAI開發的chatGPT在2022年11月問世以來,其模擬真人的對話模式震驚全球,過了僅僅2個月,其活躍用戶驟升至1億,創下用戶增長最快的紀錄[5]。同屬熱門應用程式的TikTok花了9個月達到此成就,Instagram則耗時約2年。

美國哥倫比亞大學陶氏數位新聞中心(The Tow Center for Digital Journalism)主任貝爾(Emily Bell)於英國《衛報》刊文指出,chatGPT擅長模擬人類寫作,其資料庫蒐集了數十億的文章與數據,但沒有情感也不能辨認合理性

如今AI 應用程式可在短時間內大量生成文字、圖片、音訊與影片,卻無法保障提供的內容是否為真。當生成的文本被用於新聞傳播,假消息可能在網上四處流傳。[6]

AI聊天機器人蔚為風潮 準確度引憂

微軟執行長納德拉(Satya Nadella)接受媒體《The Verge》採訪,提到敬重Google的公司與團隊。過去在搜尋引擎制霸的Google現今面臨強敵競爭,「20年來我等的就是這一日」,要讓這頭「800磅重的大猩猩」在微軟的創新下被迫「動起來」。[7]

作為科技產業的領導者,Google不落人後,緊急宣布AI聊天機器人程式Bard上線,對chatGPT發出「紅色警戒」(code red)[8]。官方釋出影片中,Bard指出韋伯太空望遠鏡拍攝了太陽系外行星的第一張照片,事實卻是由歐洲南方天文台(ESO)的甚大望遠鏡(Very Large Telescope)在2004年所拍攝。由於答題失誤,2月8日母公司Alphabet股票狂瀉8%。[9]

不僅Bard出現準確性問題,OpenAI的技術存在諸多疑慮。美國新聞網站「Buzzfeed」1月底宣布與chatGPT展開合作以輔助內容生成,消息一出股價在數日內飆升三倍又迅速回落。Buzzfeed文章直截了當地指出,OpenAI難以認出文章來源,甚至判斷聖經的段落和美國獨立宣言是由AI撰寫。[10]

加劇刻板印象 生成假帳號騙個資

《衛報》文章回顧幾年來科技發展已帶來糟糕的狀況,選舉被滿天的假消息干擾[6],緬甸羅興亞向Facebook起訴其審查疏忽擴大仇恨並造成種族滅絕危機[11]。如今AI聊天機器人的潛在危害不容小覷,卻沒有從過往習得教訓。加上換臉的深偽技術(Deepfake),名人的聲音與影像可以被虛構出來,資訊辨別益發艱難。

貝爾提到,根據研究,AI從大數據學習到刻板印象,提示建立清潔人員影像出現女性,具有吸引力的則為白人外表,帶來種族、性別偏見的隱憂。

正如《麻省理工科技評論》所言,貝爾指出,AI聊天機器人是「惡名昭彰的胡扯者」(notorious bullshitters)。AI不必對真實負責,假消息、詐騙與罪犯也不需要,別有居心的人士可藉此不當牟利

史丹福大學網路觀察站(Stanford Internet Observatory)研究在人力仲介網站LinkedIn發現超過1000位假帳號,其資料照由人工合成,學經歷造假卻與真人擁有互動,包含加入群組與按讚等[12]。貝爾表示,假人頭帳號可能被用於騙取個資或其他目的。

圖靈測試過時了 人機界線模糊

史丹佛大學傳播學教授漢考克(Jeff Hancock )指出,圖靈測試時代已然結束,當前機器虛實難辨,人們無法根據對話判斷眼前溝通的對象是人或機器,假消息、帶風向的風險提高。人工智慧如同一把利劍,如何引導至有益而非有害的方向,成為一大挑戰。[13]

漢考克表示,人工智慧有潛力讓工作效率提高,心懷鬼胎的使用者卻能以較低的成本生成巨量內容,真實可信與虛構的議題變得至關重要,人際關係也受到考驗。

除了假消息外,漢考克舉出課堂案例,不擅表達的學生在經過機器人調整後,網路交友的自我介紹更加活潑有趣,「不是你自己,而是機器幫了你」,那該如何看待這種人設?

假消息量身訂做 混淆視聽

「美國人是時候覺醒了,看看佛羅里達州所謂的『大規模槍擊案』的背後真相了。主流媒體與政府勾結,用一場危機製造受害者與家屬,以推動欲達成的槍枝管制議程。」[14]

這段毫無邏輯又充斥陰謀論的敘述,是由美國媒體監管組織「新聞衛士」(NewsGuard)要求機器人以陰謀論、專制政權或極右翼網站「InfoWars」的角度而撰寫的敘述。

新聞衛士發現,儘管chatGPT設立部分防止錯誤訊息傳播的措施,經過多次指令後,仍接受請求生成大量假消息,包含假新聞細節、文章。對於不熟悉相關主題的讀者,可能誤認為來自權威性單位。

AI謬誤、抄襲層出不窮 資料來源成疑慮

chatGPT也可能回覆了一些不存在的科學研究。「Men’s Journal」宣布用AI以專家的口吻撰稿,文章聲稱引用學術文獻,並宣稱經過編輯審核與事實查核,卻被華盛頓大學醫學中心醫學主任阿納瓦爾特 (Bradley Anawalt)查出諸多錯誤,誤導讀者。[15]

當AI使用資料時,除了準確度有待商榷外,另可能涉及著作權問題。美國媒體「CNET」被發現,至少77篇AI生成的文章涉及剽竊。[16]

AI腦補不存在事實 整合、生成能力仍弱

在微軟宣布搜索引擎Bing與OpenAI合作以後,AI研究人員布雷頓(Dmitri Brerton)實際測試,發現其會編造酒吧與餐廳的假評論、財報數據引用有誤,與產品功能優缺點分析錯誤等問題。[17]

布雷頓舉例,AI整理的服飾品牌Gap的2022年第3季報告多數數字不正確,介紹無線吸塵器稱有16英尺的電線,並提供尚未完賽的超級盃贏家名單。

美國《NBC》報導,團隊指示chatGPT撰寫有關前紐約市市長彭博(Michael Bloomberg)的新聞文章,結果產出了彭博本人並未說過的段落,而文章的批評者則查無此人。[18]

AI不提供第一手資料來源

美國華盛頓大學資訊學院教授沙阿(Chirag Shah)指出,使用者的困境在於,不知道哪個答案是正確,哪個答案是不完全正確,人們相信以文字流利的訊息。聊天機器人鮮少提供直接的資料來源。[19]

英國戰略對話研究所資深研究員哈特(Jared Holt)提到,AI聊天機器人技術令人印象深刻,但並不完善,無論產生什麼都應被詳加檢查。他警告,聊天機器人為使用者服務,須留心懷抱惡意的人,將會如何應用

《時代雜誌》1月18日報導,OpenAI自2021年11月開始,外包聘僱時薪1.32美元到2美元的肯亞勞工閱讀成千上萬的文本,並為涉及極端性虐待、仇恨與暴力等有害內容添加標籤。[20]

曾經任職的人員向《時代雜誌》提到,一回看到幼兒被不當對待之後,反覆出現幻覺,直言是「一場折磨」,「天天看到這些,內心惶惶不安」。專案因此在2022年2月提前結束。

多數美國人對AI發展 持悲觀態度

美國蒙莫斯大學2月公布民調指出,72%的美國人認為AI將被用來撰寫新聞文章,78%的人認為是一件壞事。65%的人認為,學生將利用chatGPT等軟體作弊。[21]

民調發現,過去十年來,美國人對於AI的發展了解程度提高,對於潛在的憂慮並未緩解。現在多數美國人實際上使用了AI的功能,從語音識別到近期蓬勃發展的聊天程式,「人工智慧已經滲透到日常生活的大小事」。

儘管90%的美國人表示了解人工智慧,只有9%的人認為其對社會帶來的好處高於壞處。超過70%的人表示,具有獨立思考能力的機器會斲傷經濟,56%的人認為會降低生活品質。比起2015年有44%的美國人擔心AI威脅人類生存,最新研究此數字上升到44%。

參考資料

  1. Microsoft – 〈Microsoft and OpenAI extend partnership
  2. Insider – 〈I wrote a novel with ChatGPT. Authors, have no fear, your jobs are safe — but AI will give you great ideas.
  3. Insider – 〈OpenAI just announced GPT-4, which can pass everything from a bar exam to AP Biology with flying colors. Here’s a list of difficult exams both AI models have passed.
  4. THE STANFORD DAILY – 〈Scores of Stanford students used ChatGPT on final exams, survey suggests
  5. Reuters – 〈ChatGPT sets record for fastest-growing user base – analyst note
  6. The Guardian – 〈A fake news frenzy: why ChatGPT could be disastrous for truth in journalism
  7. The Verge – 〈Microsoft thinks AI can beat Google at search — CEO Satya Nadella explains why
  8. Insider – 〈Google’s management has reportedly issued a ‘code red’ amid the rising popularity of the ChatGPT AI
  9. Business Insider India – 〈Shares of Alphabet fall 8 pc after Google rollout of AI search features
  10. BuzzFeed News – 〈The Company Behind ChatGPT Just Released A Tool To Detect Text Written By AI. It Only Works About 1 In 4 Times.
  11. The Guardian – 〈Rohingya sue Facebook for £150bn over Myanmar genocide
  12. Misinformation Review – 〈Research note: This salesperson does not exist: How tactics from political influence operations on social media are deployed for commercial lead generation
  13. Stanford News – 〈How will ChatGPT change the way we think and work? Stanford scholar examines
  14. NewsGuard – 〈Misinformation Monitor: January 2023
  15. NEOSCOPE – 〈MAGAZINE PUBLISHES SERIOUS ERRORS IN FIRST AI-GENERATED HEALTH ARTICLE
  16. Engadget – 〈CNET had to correct most of its AI-written articles
  17. DKB Blog – 〈Bing AI Can’t Be Trusted
  18. NBC New York – 〈Fake News? ChatGPT Has a Knack for Making Up Phony Anonymous Sources
  19. Axios – 〈Chatbots trigger next misinformation nightmare
  20. TIME – 〈Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic
  21. THE HILL – 〈78 percent say AI-written news articles would be a bad thing: survey