編按:AI影片生成技術爆發,卻也凸顯從創作革新到信任危機,只在一線之間。本文以Sola旋遭關閉的案例切入,解析生成式AI如何改變內容產業;同時,揭露其在監管、版權與商業模式上的潛在風險,協助你全面理解AI發展的關鍵挑戰。
OpenAI在2025年底,推出爆紅的AI影片生成工具Sora。Sola讓使用者輸入簡單的文字,就能生成類似電影質感的影片,真實度不輸於專業製作團隊。短短幾天內,Sora 的使用者便突破百萬,累積數百萬次下載,吸引創作者與品牌爭相嘗試AI影片的可能性。
這樣的能力,也迅速引起社群平台的關注。Meta與X等科技公司加速投入生成式媒體研發,因為能大量生成高度擬真的內容,可能改變內容生產與分發的權力結構。
然而,僅僅五個月後,OpenAI宣布關閉該產品,且將在4月26日關閉所有使用者帳戶。回頭來看,Sora並不因技術能力不足而受挫。真正的問題在於,產品推出時,其信任機制、監管策略與商業模型仍未完全成形。
OpenAI Sora提供一個重要案例,說明當技術能力發展速度超過產品架構和治理機制時,企業可能面臨的挑戰。
本文提出一個框架,協助產品領導者在思考是否投入生成式AI產品時,能更全面評估風險與機會。
原則1:當AI能模擬真實情境,產品責任也隨之增加
Sora提供一種全新的創作方式,讓消費者能快速、憑空生成自己感興趣的內容。表面上看,這似乎為創作者帶來前所未有的自由與工具,降低影像創作的門檻。
然而,當技術開始具備「模擬真實世界」的能力時,也同時放大人性的黑暗面,並使科技發展更容易與既有法律框架產生衝突。說到這裡,並不是要勸退想創出模擬情境的公司,而是提出公司和產品領導者應注意的面向:
1.肖像權與人格權
當AI能生成高度擬真的人物影像與聲音時,任何人的外貌與身分,都可能被模擬,並四處流傳。
即使原始素材來自公開影像,也可能產生新的法律問題:
.是否需要當事人同意,才能生成其影像?
.若生成內容對個人聲譽造成影響,平台需要承擔多少責任?
.產品是否需要建立明確的授權與申訴機制?
過去,深偽影像需要高度專業能力,或是被視為邊緣行為;如今,門檻大幅降低,且由OpenAI等大廠主流化。
2.內容真假,讓大眾難以判別
Sora能生成逼真的事件影像,使得製作虛構內容的成本顯著下降。例如,有俄羅斯網友創造出看似真實的戰爭畫面,製作烏克蘭軍人被擊敗哭泣的影片。希望藉機讓社會大眾認為俄羅斯即將獲勝。
對產品團隊而言,這代表需要在創作自由與濫用風險之間取得平衡:
.哪些內容需要被限制?
.哪些情境需要額外驗證?
.產品如何降低誤用的可能性?
3.著作權與IP使用界線
生成式AI也重新引發市場對智慧財產權的討論。
模型訓練所使用的資料來源,以及生成結果是否可能模仿既有作品風格,都是創作者與媒體公司關注的議題。
Sora的推出,也促使更多內容產業思考:
.哪些內容可用於模型訓練?
.創作者是否應擁有選擇退出的權利?
.生成內容若高度接近既有作品,責任歸屬為何?
這也是為何部分大型媒體公司選擇透過授權合作,嘗試在創新與權利保護之間找到平衡。
Sora的案例提醒我們:當AI的能力跨越「提升效率」,進入「模擬真實」,產品設計所面對的挑戰和風險,也會隨之改變。
原則2:信任機制,將成為產品體驗一部分
生成式媒體的影響,不只限於單一產品。它已改變了社會對於整體資訊的信任度。
研究者Renee DiResta將此現象稱為「liar's dividend」:當深偽技術普及後,即使是真實的影片,也可能被質疑為偽造。
當平台充斥難以判斷來源和真實性的內容時,使用者往往會降低參與程度,並用個人判斷力來決定內容的真偽。
過去,許多人會刻意隱藏在工作中使用AI,擔心被認為缺乏專業能力。如今,在專業情境或日常生活中,揭露AI的使用,反而成為一種信任訊號。
例如:「我用AI協助完成初稿,所以如果內容有感覺不對的,我會再進一步查證。」隨著生成式AI的演進,使用者也開始找尋在使用AI的同時,不失內容可信度的方法。這也意味著,信任機制應成為產品設計的一部分,而非事後補強。
包括Hany Farid在內的研究者,以及C2PA等產業組織,逐漸形成幾項產品能促進使用者信任的方式:
生成式 AI 產品,使用以下工具增加圖片及影片的驗證方式:
1.為每一份生成內容建立可驗證的來源資訊(Content Credentials)
透過加密簽章,記錄內容由AI生成的事實、模型版本與生成方式,讓平台與使用者能夠追溯來源。
2.使用難以移除的隱形浮水印
例如,Google的SynthID,可在壓縮或裁切後仍保留標記。僅依賴可見浮水印,往往很快被移除。
3.同時設計prompt與output的風險控管機制
不僅需要限制輸入,也需要檢視生成結果是否涉及冒用身分、誤導性情境或版權風險。Sora的案例顯示,僅依賴出事後才下架或人工審查,往往無法應對生成式AI的規模和速度。
內容平台應將來源透明化:
1.讀取並顯示內容來源資訊
如同食品標示營養成分,平台可以顯示內容是否由 AI 生成,而不需要帶有價值判斷。
2.提供使用者選擇是否觀看AI生成內容
讓使用者擁有控制權,而非被動接收。
3.設計讓使用者能輕易理解的介面,而非僅以按讚和提高停留時間為目的
當平台只優化互動率,往往會加劇低品質內容的擴散。
原則3:生成式AI的成本結構,應同時考量近期和未來的商業模式
OpenAI執行長奧特曼(Sam Altman)曾多次表示,AI基礎建設成本將隨時間下降。隨著模型效率提升與算力供給增加,生成內容的邊際成本預期會持續降低。
從長期技術發展來看,這樣的趨勢相當合理。
但Sora案例提醒產品團隊:產品設計不能只依賴未來的成本下降,也必須面對當下的成本和商業模式。
根據分析師估算,生成一支10秒影片約需40分鐘GPU計算資源,成本約1.3美元。若以數百萬使用者每日生成內容計算,Sora的支出可能每日高達1500 萬美元。
在YouTube或TikTok等平台中,內容製作成本主要由創作者自行負擔。但在Sora,每一次生成內容,都會產生新的基礎設施成本,而且由平台承擔。
也就是說,使用者製作愈多影片,成本愈高。
這使得生成式AI的經濟模式,更接近雲端運算服務,而非傳統媒體平台。
目前,多數LLM(大型語言模式)與生成式AI服務的價格,仍受到市場競爭影響。為了加速採用,部分供應商以低於長期成本的價格提供服務,吸引開發者與企業建立產品。
這種補貼策略有助於推動創新,但也可能影響產品設計決策。
若產品的使用模式建立在補貼價格之上,一旦價格調整,原本可行的商業模式可能迅速失去利潤空間。
Sora正是一個極端例子:
消費者最初認為AI影片能大幅降低製作成本,例如不再需要演員、場景或拍攝團隊。
但從平台角度來看,創作成本並沒有消失,而是轉移到了平台GPU計算資源上。
產品團隊需要思考:若模型和運算成本提高2~3倍,產品的利潤是否仍能維持或成長。另外,定價能否反映出給予使用者的價值,而不是單單用生成次數來計算。畢竟,使用者不見得會因為產品成本,而願意接受更高的價位。
Sora提醒我們:生成式AI的挑戰,不只是技術突破,而是如何建立能長期成立的經濟模式。當前的補貼環境,可能加速產品推出,但也可能掩蓋真實成本。
對產品領導者而言,重要的不只是成本是否會下降,而是在成本尚未下降之前,產品的商業模式是否仍然站得住腳。
產品設計需要同時面對三大挑戰
生成式AI讓內容創作的可能性大幅提升,但它同時也縮短了技術能力與社會影響之間的距離。
當產品能模擬真實世界時,產品設計便需要同時面對信任、法律與商業模式的挑戰。
那些能將信任機制、制度責任與經濟模型,視為產品核心設計元素的團隊,將更有機會在市場成熟時,建立長期競爭力。
本文章反映作者意見,不代表《遠見》立場
(作者為美國矽谷的產品行銷專家,專注於AI對資安和金融科技領域的影響及成長)