低成本、高效率「中國模型」DeepSeek橫空出世 隱私、審查爭議成焦點

廖彥甄|特約記者編譯報導
2025年1月27日,人工智慧領域發生了兩件引人注目的重大事件。首先,輝達(Nvidia)作為生產並供應對生成式人工智慧培訓極為重要的晶片公司,其市值單日暴跌5890億美元(約佔總價值的17%),創下歷史上所有公司單日市值損失最高的記錄。其次,中國新創公司 DeepSeek(深度求索) 開發的人工智慧助手在 App Store 榜單上躍居前列,超越了 ChatGPT,展現了強勁的市場競爭力。
DeepSeek宣稱,它訓練了一個與OpenAI的ChatGPT相當的人工智慧模型,僅使用不到600萬美元(約新台幣1.97億)。其模型使用少量Nvidia晶片進行訓練,這些晶片同時也是OpenAI等其他生成式AI開發者所使用的高性能且昂貴的專用晶片。相比之下,OpenAI的主要合作伙伴微軟計劃今年在人工智慧基礎設施上投資金額約為800億美元(約新台幣2.62兆元)。
此外,DeepSeek表示,其模型在業界公認的基準測試中表現優異,達到甚至超越了同行的水準,這使其相較於西方競爭對手而言,更具效率且成本大幅降低。
然而,當使用者測試DeepSeek的聊天機器人時,關於審查、資料保護和版權的擔憂逐漸浮現。此外,該公司的模型已開源,允許使用者自由下載、使用和修改,進一步引發對其內容管控與安全性的討論。
中國技術迎頭趕上 業界反應、美國政策可能走向
美國記者、資料專家凱倫·郝(Karen Hao)受訪指出,DeepSeek的特別之處在於,其人工智慧模型在某些基準測試中已達到,甚至在部分情境下超越了OpenAI和Anthropic等美國公司的表現,且成本極低。
這一成果挑戰了近年來人工智慧業界的普遍共識,即推動AI發展需要鉅額資金投入。傳統上,這些資金主要用於購置大量運算晶片與建置大型資料中心,以訓練更強大的AI模型。然而,DeepSeek的成功顯示,突破AI技術並不必然需要如此龐大的資源投入。 DeepSeek的突破凸顯了這些觀點的價值,也為AI產業敲響了警鐘,是時候重新思考發展路徑,並採納更多元的技術策略,而非一味依賴大規模資金與硬體投入。
至於產業界可能會有的反應,郝分析,DeepSeek的模型幾乎無法被禁止,因為它已完全開源並上傳至網路,一旦發布,就無法強制限制其傳播。然而,這一事件確實將AI產業推向一個關鍵的岔路口:人們或者從中汲取教訓,改變現有策略;抑或是選擇固守傳統方法,加倍投入資源,以證明自己的路線是正確的。
在美國政府內部,尤其是川普上任後的政策走向,郝認為,川普政府可能會更傾向於後者。美國的AI企業擁有龐大的既得利益,他們可能會遊說政府,強調當前模式的必要性,以確保資金和政策支持。川普政府在這類議題上更容易受到說服,特別是當它涉及美國企業的全球競爭力時。
此外,郝預期,DeepSeek的成功將極大鼓舞全球的人工智慧研究人員與開發者,促使他們在大公司之外尋找更多可能性。過去四年來,AI領域對資源密集型開發的高度關注,使得無法獲得龐大資源的研究人員感到挫敗,甚至選擇退出。她解釋,這些研究人員長期以來對自身在AI發展中的角色感到迷惘,因為他們也被灌輸了一種觀念,即投入規模必須達到數億甚至數十億美元,才有機會推動技術進步。然而,如今他們開始意識到,仍有其他更具成本效益的開發路徑。從長遠來看,這將促使更多替代方法出現,逐步削弱當前資源密集型模式的主導地位。
資安隱私、中國公司成疑慮 專家這麼看
目前人工智慧發展所帶來的負面環境影響並非不可避免,然而,其方法仍然存在其他問題。郝指出,有關資料隱私、來源、版權侵權等問題,仍然是全球人工智慧產業所面臨的重大挑戰。
從理想主義的角度來看,當前的AI發展模式使企業得以任意獲取大量資料,卻無需承擔相應責任,而這在很大程度上與美國政府未能監管資料隱私有關。美國遲遲未採取行動的一個主要原因,在於擔憂中國不會跟進監管,從而取得競爭優勢。然而,DeepSeek的出現或許證明了這種假設已不再成立,即便在受限環境下,一家中國公司依然能夠取得突破,甚至表現更為出色。
對於Deepseek隱私安全疑慮,郝認為,使用開源軟體並在本地端電腦下載執行是一個解決方案。且相較於使用ChatGPT、Claude或Gemini,這樣的資料隱私替代方案更為安全,因為這些資料直接傳輸到公司伺服器,而在本地端所運行開源版本意味著資料永遠不會離開個人設備。
但另一方面,聯合國人工智慧高級諮詢機構成員溫迪·霍爾(Dame Wendy Hall)表示,關於Deepseek一個無法回避的事實是,若為一家中國科技公司,涉及資訊處理,那就必須遵守中國政府的規定。尤其許多使用者利用DeepSeek及ChatGPT等人工智慧工具來協助處理個人或工作文件,如會議紀錄。然而,任何上傳的內容都可能被公司擁有者存取,並用於人工智慧的訓練或其他目的。
牛津大學人工智慧教授麥可·沃德里奇(Michael Wooldridge)亦認為,輸入到聊天機器人的資料可以與中國共享並非不合理。他表示,談論利物浦足球俱樂部的表現或談論羅馬帝國的歷史是可以的,但並不建議在該平台上輸入任何敏感的個人資料,「因為你不知道資料去了哪裡」他強調。
DeepSeek總部位於杭州,並在其隱私政策中明確指出,從使用者處收集的個人資訊會儲存在「位於中國的安全伺服器」上。該公司表示,將使用這些資料「遵守我們的法律義務,或在必要時執行公共利益的任務,或保護我們使用者及其他人的切身利益」。而根據中國國家情報法,所有企業、組織和公民都有義務「支援、協助和配合國家情報工作」。
除此之外,一些測試DeepSeek的使用者也發現,該平台無法回答涉及敏感話題的問題,例如天安門廣場事件,以及當被問及臺灣的地位時,DeepSeek重複了中國共產黨的立場,認為臺灣是中國「不可剝奪」的一部分。
英國科學、創新和技術部大臣彼得·凱爾(Peter Kyle)表示,人們現在需要對此做出自己的選擇,「因為我們還沒有時間完全理解它,這是一個中國模式,其中有審查制度」。
生成式AI的新聞應用
而新聞記者該如何使用生成式AI,郝分析,這存在一定風險。由於生成式AI工具並非搜索引擎,也無法確保提供準確真實的消息。對此,她提供了一個思考框架,幫助記者判斷何時在工作中使用人工智慧,這個框架包括兩個軸心:第一,思考這份任務是否需要高基準度?第二,這是內部研究,或是作為面向讀者的最終產品?
若任務需要高度準確且面向受眾,例如文章撰寫或影片製作,郝建議,記者不應在這類型的任務中使用生成式AI,由於生成式AI並不是一個高度準確的工具。她進一步舉例,蘋果(Apple)曾經嘗試使用生成式AI摘要新聞頭條內容,後來因反覆犯錯而暫停了此項功能。郝表示,這次需要高度準確的一個完美例子,因為它直接面向用戶,這就是可能產生嚴重失敗的一環。
參考資料
- Reuters Institute for the Study of Journalism – 〈What DeepSeek may mean for the future of journalism and generative AI〉
- The Guardian – 〈Who is behind DeepSeek and how did it achieve its AI ‘Sputnik moment’?〉
- The Guardian – 〈Experts urge caution over use of Chinese AI DeepSeek〉
《卓越新聞電子報》為讀者報導新聞媒體最前線,我們追蹤所有重大新聞演講活動現場、探索新聞媒體浮動的疆界!
- 用人工智慧重新探索舊有的新聞領域
- 六個國家的民眾如何看待新聞中的生成式人工智慧?
- 人工智慧大躍進,但AI會取代新聞工作者嗎?
- 尼曼新聞實驗室2024年新聞業預測|人工智慧篇,上篇|搜尋引擎導引流量下滑 AI促進新聞「客製化」發展
- 尼曼新聞實驗室2024年新聞業預測|人工智慧篇,下篇|AI人機協作成趨勢 人類優勢無可取代
- OpenAI生成影片模型Sora震撼各界 資訊傳播更複雜、專家憂影響選舉
- AI科技公司與新聞媒體內容授權交易的利害權衡稱
主編:蔡宏杰