OpenAI生成影片模型Sora震撼各界 資訊傳播更複雜、專家憂影響選舉


陳品潔|特約記者編譯報導
OpenAI繼推出劃時代的ChatGPT後,2024年2月中旬首次展示「輸入文字轉成影片」的人工智慧模型「Sora」,演示影片的高畫質與運鏡呈現打破虛實藩籬,引發各界討論。目前該功能尚未對大眾開放。
美國新聞教育與研究機構「波因特學院」(Poynter Institute)同樣關注Sora的革命性發布影片,整理出具有代表性的美國媒體頭條反應 [1]:
(一)美國哥倫比亞廣播公司:OpenAI新推出文字生成影片應用程式「Sora」 使人工智慧專家感到「恐怖」(CBS News: “OpenAI’s new text-to-video tool, Sora, has one artificial intelligence expert ‘terrified’.”)
(二)美國廣播公司:專家稱OpenAI影片生成器 Sora 增加政治宣傳和偏見風險(ABC News: “OpenAI video-generator Sora risks fueling propaganda and bias, experts say.”)
(三)《紐約時報》:OpenAI 推出瞬間生成影片博人眼球(The New York Times: “OpenAI Unveils Sora, an A.I. That Generates Eye-Popping Videos”)
《紐約時報》報導,文字到影像人工智慧模型「Sora」之名,源自於日語的「天空」(そら,sora),以無盡蒼穹寓意喚起無限的創造潛能。報導指出,網路假資訊的製造將變得快速而廉價,增加區分網路內容真相的困難度。[2]
華盛頓大學研究人工智慧的教授奧倫.埃齊奧尼(Oren Etzioni)表達對生成式影片的擔憂,提到可能「影響一場勢均力敵的選舉」。埃齊奧尼也是非營利組織「True Media」創辦人,致力識別政治選舉中的網路假消息。
《紐約時報》報導,OpenAI表示,之所以仍未向大眾開放Sora的功能,是因於還在了解Sora伴隨的風險。目前這門技術只與少數學者與研究人員共享,並進行「紅隊演練」(Red Team),即尋找可能被濫用的地方。
OpenAI釋出影片,Sora根據「美麗、下著雪的東京繁華喧囂。鏡頭穿越了熙熙攘攘的街道,跟著行人享受綺麗的白雪皚皚,於街邊的攤位買些東西。絢麗的櫻花花瓣,與滿天雪花隨風飄揚」而生成的影片。
12. Prompt: Beautiful, snowy Tokyo city is bustling. The camera moves through the bustling city street, following several people enjoying the beautiful snowy weather and shopping at nearby stalls. Gorgeous sakura petals are flying through the wind along with snowflakes. pic.twitter.com/joW56n3f0L
— Shruti Mishra (@heyshrutimishra) February 16, 2024
OpenAI研究人員蒂姆.布魯克斯(Tim Brooks)解釋了釋出影片的動機,「如此一來,人們可以預覽這門技術的輪廓,我們從中得到反饋」。
OpenAI表示,已經在系統生成的影片添加了特殊標記,以表明是由人工智慧產出,然而,該公司承認這些標記可以被刪除。除此之外,這些「標記」不太容易被使用者所發現。
影片生成素材來源 不完全公開引質疑
《麻省理工科技評論》(MIT Technology Review)指出Sora是以OpenAI「輸入文字轉成圖片」的模型DALL-E 3技術為基礎開發而成。 [3]
生成式人工智慧的難題不僅是技術,訓練的資料庫來源授權與否數度引發爭議與違法可能。《紐約時報》於2023年年底才向OpenAI提起著作權侵權訴訟,稱該公司在未授權的狀態下使用《紐約時報》的文章。 [4]
《紐約時報》報導,OpenAI不願意揭露Sora系統學習過程,包含使用多少影片或出自何處,僅稱採用公開與獲得版權許可的影片。報導提到,OpenAI因使用受版權保護的內容已面臨多起訴訟,然而,可能出於「希望保持領先優勢」的顧慮,鮮少將訓練數據來源透明化。
科技公司用戶平台資料,是否會被AI公司使用或存取,也成為焦點。《彭博》報導,美國網路論壇Reddit在IPO(首次公開發行)以前,簽署網站內容供AI使用的授權協議。 [5]
Sora問世只花一年半 AI指數成長迎來雙面刃
研究視訊技術濫用問題的人權組織「Witness」執行董事山姆.格雷戈里(Sam Gregory)對於Sora的示範影片表示:「以技術層面而視,是一項重大、飛躍性的進展。」他也提到這門技術是一把雙面刃,為更多人提供以影片敘事的能力的同時,可能被濫用。
格雷戈里舉例,人們可以透過生成AI,誤導衝突地區(戰爭或基於政治不穩定嚴重影響生活的區域)與抗議活動流出的資訊。如果產生的影片近似於手機拍攝的抖動不穩定鏡頭,將會更加虛實難辨。
《麻省理工科技評論》指出,Sora本次展示的影片「顯然是經過精心挑選的」,然而,即使AI生成影片技術還未臻成熟,Sora從零到有僅耗時短短18個月,發展進程銳不可當。格雷戈里預測:「未來將進入新的世界,有完全合成的內容、人類完成的與兩者混合的內容。」 [3]
AI生成影片 細看有瑕疵
波因特學院新聞產品聯盟創始成員托尼.埃爾金斯(Tony Elkins)指出,一年前剛測試的AI影片工具Pika與甫推出的Sora相比,存在巨大的鴻溝,擬真程度呈現跳躍性進展,但仔細觀看,仍有漏洞之處。
埃爾金斯以女性與貓咪躺在床上的影片舉例,「乍看之下很像真的,但當她翻身時,沒有出現該有的手臂,貓則憑空揮動前臂。這並不顯眼,必須留意才能察覺這是生成影片」。本次Sora為展示影片而非正式上線,埃爾金斯關注第二個版本的影片會如何呈現?
波因特學院MediaWise計畫總監亞歷克斯.馬哈德萬(Alex Mahadevan)表示,看到另一則影片是奶奶準備麵食,但她的手突然變成湯匙。他提到,許多AI生成影片存在滑稽與荒謬之處,凸顯技術的弱點。
馬哈德萬直言,當生成式影片AI面向大眾、可以自由運用時,不見得如同預期地那麼好,「我不完全相信這種炒作」。他指出,OpenAI展示最精彩的生成結果,並只向小眾經過挑選的人分享使用權限。
後真相時代來臨 真人被當成AI
馬哈德萬表示,從媒體識讀與假消息問題層面而視,將來要驗證戰爭地區內容的流程更加不易,需要增加額外的驗證步驟。
埃爾金斯提出同樣擔憂,現今處於「後真相」(post-truth)的世界。過去假消息是在敘事中編造假段落,製造假圖片相對複雜,須具備使用Photoshop等軟體的能力,有一定門檻,假影片更耗費花大量時間與金錢。如今只要輸入文字即可獲得。
現代人「分心」的生活習慣,使花在思辨的時間與精力大幅減少。埃爾金斯表示:「我們通常一邊看著小螢幕,一邊做其他三件事,能真正觀察接收的資訊是否為真?有多少人接收類似訓練?要如何得知自己看的是什麼?」
如同狼來了的故事,過多的假消息,讓真正的內容受到百般質疑。波因特執行編輯讓·拉福爾梅(Ren LaForme)表示此現象為「騙子紅利」(liar’s dividend),出現真實可靠的影片,沒有任何理由懷疑,依舊不斷猜測是否為真。
馬哈德萬表示:「現在網路已經誕生大量迷因(meme)的錯誤消息,以好玩、娛樂大眾的方式呈現。」以Rick Astley經典老歌〈Never Gonna Give You Up〉為例,這段真實存在的MV被標記為「留著酷炫髮型的年輕人,穿著風衣唱著歌」不熟悉的人會誤以為,「這就是AI生成的」。
此也是「騙子紅利」模糊虛實界線的運作方式,虛構的內容被誤認為真實的,真實的內容被誤認為虛構的,真實的內容出自於特定原因被否認為真實的。
參考資料
- Poynter – 〈How Sora, OpenAI’s new text-to-video tool, could harm journalism and society〉
- New York Times – 〈OpenAI Unveils A.I. That Instantly Generates Eye-Popping Videos〉
- MIT Technology Review – 〈 OpenAI teases an amazing new generative video model called Sora〉
- New York Times – 〈The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work〉
- Bloomber – 〈Reddit Signs AI Content Licensing Deal Ahead of IPO〉
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 尼曼新聞實驗室2024年新聞業預測|人工智慧篇,上篇|搜尋引擎導引流量下滑 AI促進新聞「客製化」發展
- 尼曼新聞實驗室2024年新聞業預測|人工智慧篇,下篇|AI人機協作成趨勢 人類優勢無可取代
- 美聯社公布人工智慧報導準則 記者仍是不可取代
- 人工智慧大躍進,但AI會取代新聞工作者嗎?
- 記者可以應用AI寫新聞嗎? 路透社、Newsquest分享執行經驗
主編:蔡宏杰