OpenAI生成影片模型Sora震撼各界 資訊傳播更複雜、專家憂影響選舉

2024 年 03 月 28 日 | 卓越新聞電子報

donation

陳品潔|特約記者編譯報導

OpenAI繼推出劃時代的ChatGPT後,2024年2月中旬首次展示「輸入文字轉成影片」的人工智慧模型「Sora」,演示影片的高畫質與運鏡呈現打破虛實藩籬,引發各界討論。目前該功能尚未對大眾開放。

美國新聞教育與研究機構「波因特學院」(Poynter Institute)同樣關注Sora的革命性發布影片,整理出具有代表性的美國媒體頭條反應 [1]:

(一)美國哥倫比亞廣播公司:OpenAI新推出文字生成影片應用程式「Sora」 使人工智慧專家感到「恐怖」(CBS News: “OpenAI’s new text-to-video tool, Sora, has one artificial intelligence expert ‘terrified’.”)

(二)美國廣播公司:專家稱OpenAI影片生成器 Sora 增加政治宣傳和偏見風險(ABC News: “OpenAI video-generator Sora risks fueling propaganda and bias, experts say.”)

(三)《紐約時報》:OpenAI 推出瞬間生成影片博人眼球(The New York Times: “OpenAI Unveils Sora, an A.I. That Generates Eye-Popping Videos”)

製造假影片快又便宜 專家憂影響選舉

《紐約時報》報導,文字到影像人工智慧模型「Sora」之名,源自於日語的「天空」(そら,sora),以無盡蒼穹寓意喚起無限的創造潛能。報導指出,網路假資訊的製造將變得快速而廉價,增加區分網路內容真相的困難度。[2]

華盛頓大學研究人工智慧的教授奧倫.埃齊奧尼(Oren Etzioni)表達對生成式影片的擔憂,提到可能「影響一場勢均力敵的選舉」。埃齊奧尼也是非營利組織「True Media」創辦人,致力識別政治選舉中的網路假消息。

《紐約時報》報導,OpenAI表示,之所以仍未向大眾開放Sora的功能,是因於還在了解Sora伴隨的風險。目前這門技術只與少數學者與研究人員共享,並進行「紅隊演練」(Red Team),即尋找可能被濫用的地方。

OpenAI釋出影片,Sora根據「美麗、下著雪的東京繁華喧囂。鏡頭穿越了熙熙攘攘的街道,跟著行人享受綺麗的白雪皚皚,於街邊的攤位買些東西。絢麗的櫻花花瓣,與滿天雪花隨風飄揚」而生成的影片。

OpenAI研究人員蒂姆.布魯克斯(Tim Brooks)解釋了釋出影片的動機,「如此一來,人們可以預覽這門技術的輪廓,我們從中得到反饋」。

OpenAI表示,已經在系統生成的影片添加了特殊標記,以表明是由人工智慧產出,然而,該公司承認這些標記可以被刪除。除此之外,這些「標記」不太容易被使用者所發現。

影片生成素材來源 不完全公開引質疑

《麻省理工科技評論》(MIT Technology Review)指出Sora是以OpenAI「輸入文字轉成圖片」的模型DALL-E 3技術為基礎開發而成。 [3]

生成式人工智慧的難題不僅是技術,訓練的資料庫來源授權與否數度引發爭議與違法可能。《紐約時報》於2023年年底才向OpenAI提起著作權侵權訴訟,稱該公司在未授權的狀態下使用《紐約時報》的文章。 [4]

《紐約時報》報導,OpenAI不願意揭露Sora系統學習過程,包含使用多少影片或出自何處,僅稱採用公開與獲得版權許可的影片。報導提到,OpenAI因使用受版權保護的內容已面臨多起訴訟,然而,可能出於「希望保持領先優勢」的顧慮,鮮少將訓練數據來源透明化。

科技公司用戶平台資料,是否會被AI公司使用或存取,也成為焦點。《彭博》報導,美國網路論壇Reddit在IPO(首次公開發行)以前,簽署網站內容供AI使用的授權協議。 [5]

Sora問世只花一年半 AI指數成長迎來雙面刃

研究視訊技術濫用問題的人權組織「Witness」執行董事山姆.格雷戈里(Sam Gregory)對於Sora的示範影片表示:「以技術層面而視,是一項重大、飛躍性的進展。」他也提到這門技術是一把雙面刃,為更多人提供以影片敘事的能力的同時,可能被濫用。

格雷戈里舉例,人們可以透過生成AI,誤導衝突地區(戰爭或基於政治不穩定嚴重影響生活的區域)與抗議活動流出的資訊。如果產生的影片近似於手機拍攝的抖動不穩定鏡頭,將會更加虛實難辨。

《麻省理工科技評論》指出,Sora本次展示的影片「顯然是經過精心挑選的」,然而,即使AI生成影片技術還未臻成熟,Sora從零到有僅耗時短短18個月,發展進程銳不可當。格雷戈里預測:「未來將進入新的世界,有完全合成的內容、人類完成的與兩者混合的內容。」 [3]

AI生成影片 細看有瑕疵

波因特學院新聞產品聯盟創始成員托尼.埃爾金斯(Tony Elkins)指出,一年前剛測試的AI影片工具Pika與甫推出的Sora相比,存在巨大的鴻溝,擬真程度呈現跳躍性進展,但仔細觀看,仍有漏洞之處。

埃爾金斯以女性與貓咪躺在床上的影片舉例,「乍看之下很像真的,但當她翻身時,沒有出現該有的手臂,貓則憑空揮動前臂。這並不顯眼,必須留意才能察覺這是生成影片」。本次Sora為展示影片而非正式上線,埃爾金斯關注第二個版本的影片會如何呈現?

波因特學院MediaWise計畫總監亞歷克斯.馬哈德萬(Alex Mahadevan)表示,看到另一則影片是奶奶準備麵食,但她的手突然變成湯匙。他提到,許多AI生成影片存在滑稽與荒謬之處,凸顯技術的弱點。

馬哈德萬直言,當生成式影片AI面向大眾、可以自由運用時,不見得如同預期地那麼好,「我不完全相信這種炒作」。他指出,OpenAI展示最精彩的生成結果,並只向小眾經過挑選的人分享使用權限。

後真相時代來臨 真人被當成AI

馬哈德萬表示,從媒體識讀與假消息問題層面而視,將來要驗證戰爭地區內容的流程更加不易,需要增加額外的驗證步驟。

埃爾金斯提出同樣擔憂,現今處於「後真相」(post-truth)的世界。過去假消息是在敘事中編造假段落,製造假圖片相對複雜,須具備使用Photoshop等軟體的能力,有一定門檻,假影片更耗費花大量時間與金錢。如今只要輸入文字即可獲得。

現代人「分心」的生活習慣,使花在思辨的時間與精力大幅減少。埃爾金斯表示:「我們通常一邊看著小螢幕,一邊做其他三件事,能真正觀察接收的資訊是否為真?有多少人接收類似訓練?要如何得知自己看的是什麼?」

如同狼來了的故事,過多的假消息,讓真正的內容受到百般質疑。波因特執行編輯讓·拉福爾梅(Ren LaForme)表示此現象為「騙子紅利」(liar’s dividend),出現真實可靠的影片,沒有任何理由懷疑,依舊不斷猜測是否為真。

馬哈德萬表示:「現在網路已經誕生大量迷因(meme)的錯誤消息,以好玩、娛樂大眾的方式呈現。」以Rick Astley經典老歌〈Never Gonna Give You Up〉為例,這段真實存在的MV被標記為「留著酷炫髮型的年輕人,穿著風衣唱著歌」不熟悉的人會誤以為,「這就是AI生成的」。

此也是「騙子紅利」模糊虛實界線的運作方式,虛構的內容被誤認為真實的,真實的內容被誤認為虛構的,真實的內容出自於特定原因被否認為真實的。

參考資料

  1. Poynter – 〈How Sora, OpenAI’s new text-to-video tool, could harm journalism and society
  2. New York Times – 〈OpenAI Unveils A.I. That Instantly Generates Eye-Popping Videos
  3. MIT Technology Review – 〈 OpenAI teases an amazing new generative video model called Sora
  4. New York Times – 〈The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work
  5. Bloomber – 〈Reddit Signs AI Content Licensing Deal Ahead of IPO