立即報名 立即報名 在AI普及的過程中,口語溝通將變為AI無法完全取代的能力>>

OpenAI Sora上線半年就下線!揭密生成式AI三大產品設計原則

許晨怡
user

許晨怡

2026-04-17

瀏覽數

開放僅僅五個月,OpenAI Sora宣布關閉。Sora的問題在於信任機制、監管策略與商業模型未完全成形。取自OpenAI
開放僅僅五個月,OpenAI Sora宣布關閉。Sora的問題在於信任機制、監管策略與商業模型未完全成形。取自OpenAI

喜歡這篇文章嗎 ?

登入 後立即收藏 !
00:00
00:00

編按:AI影片生成技術爆發,卻也凸顯從創作革新到信任危機,只在一線之間。本文以Sola旋遭關閉的案例切入,解析生成式AI如何改變內容產業;同時,揭露其在監管、版權與商業模式上的潛在風險,協助你全面理解AI發展的關鍵挑戰。

OpenAI在2025年底,推出爆紅的AI影片生成工具Sora。Sola讓使用者輸入簡單的文字,就能生成類似電影質感的影片,真實度不輸於專業製作團隊。短短幾天內,Sora 的使用者便突破百萬,累積數百萬次下載,吸引創作者與品牌爭相嘗試AI影片的可能性。

這樣的能力,也迅速引起社群平台的關注。Meta與X等科技公司加速投入生成式媒體研發,因為能大量生成高度擬真的內容,可能改變內容生產與分發的權力結構。

然而,僅僅五個月後,OpenAI宣布關閉該產品,且將在4月26日關閉所有使用者帳戶。回頭來看,Sora並不因技術能力不足而受挫。真正的問題在於,產品推出時,其信任機制、監管策略與商業模型仍未完全成形。

OpenAI Sora提供一個重要案例,說明當技術能力發展速度超過產品架構和治理機制時,企業可能面臨的挑戰。

本文提出一個框架,協助產品領導者在思考是否投入生成式AI產品時,能更全面評估風險與機會。

原則1:當AI能模擬真實情境,產品責任也隨之增加

Sora提供一種全新的創作方式,讓消費者能快速、憑空生成自己感興趣的內容。表面上看,這似乎為創作者帶來前所未有的自由與工具,降低影像創作的門檻。

然而,當技術開始具備「模擬真實世界」的能力時,也同時放大人性的黑暗面,並使科技發展更容易與既有法律框架產生衝突。說到這裡,並不是要勸退想創出模擬情境的公司,而是提出公司和產品領導者應注意的面向:

1.肖像權與人格權

當AI能生成高度擬真的人物影像與聲音時,任何人的外貌與身分,都可能被模擬,並四處流傳。

即使原始素材來自公開影像,也可能產生新的法律問題:

.是否需要當事人同意,才能生成其影像?

.若生成內容對個人聲譽造成影響,平台需要承擔多少責任?

.產品是否需要建立明確的授權與申訴機制?

過去,深偽影像需要高度專業能力,或是被視為邊緣行為;如今,門檻大幅降低,且由OpenAI等大廠主流化。

2.內容真假,讓大眾難以判別

Sora能生成逼真的事件影像,使得製作虛構內容的成本顯著下降。例如,有俄羅斯網友創造出看似真實的戰爭畫面,製作烏克蘭軍人被擊敗哭泣的影片。希望藉機讓社會大眾認為俄羅斯即將獲勝。

對產品團隊而言,這代表需要在創作自由與濫用風險之間取得平衡:

.哪些內容需要被限制?

.哪些情境需要額外驗證?

.產品如何降低誤用的可能性?

3.著作權與IP使用界線

生成式AI也重新引發市場對智慧財產權的討論。

模型訓練所使用的資料來源,以及生成結果是否可能模仿既有作品風格,都是創作者與媒體公司關注的議題。

Sora的推出,也促使更多內容產業思考:

.哪些內容可用於模型訓練?

.創作者是否應擁有選擇退出的權利?

.生成內容若高度接近既有作品,責任歸屬為何?

這也是為何部分大型媒體公司選擇透過授權合作,嘗試在創新與權利保護之間找到平衡。

Sora的案例提醒我們:當AI的能力跨越「提升效率」,進入「模擬真實」,產品設計所面對的挑戰和風險,也會隨之改變。

原則2:信任機制,將成為產品體驗一部分

生成式媒體的影響,不只限於單一產品。它已改變了社會對於整體資訊的信任度。

研究者Renee DiResta將此現象稱為「liar's dividend」:當深偽技術普及後,即使是真實的影片,也可能被質疑為偽造。

當平台充斥難以判斷來源和真實性的內容時,使用者往往會降低參與程度,並用個人判斷力來決定內容的真偽。

過去,許多人會刻意隱藏在工作中使用AI,擔心被認為缺乏專業能力。如今,在專業情境或日常生活中,揭露AI的使用,反而成為一種信任訊號。

例如:「我用AI協助完成初稿,所以如果內容有感覺不對的,我會再進一步查證。」隨著生成式AI的演進,使用者也開始找尋在使用AI的同時,不失內容可信度的方法。這也意味著,信任機制應成為產品設計的一部分,而非事後補強。

掌握趨勢脈動,用英語前進世界!遠見x LiveABC雜誌連訂優惠(英語入門~專業新聞英語版本任你搭),半年期只要1,890元(7折)

包括Hany Farid在內的研究者,以及C2PA等產業組織,逐漸形成幾項產品能促進使用者信任的方式:

生成式 AI 產品,使用以下工具增加圖片及影片的驗證方式:

1.為每一份生成內容建立可驗證的來源資訊(Content Credentials)

透過加密簽章,記錄內容由AI生成的事實、模型版本與生成方式,讓平台與使用者能夠追溯來源。

2.使用難以移除的隱形浮水印

例如,Google的SynthID,可在壓縮或裁切後仍保留標記。僅依賴可見浮水印,往往很快被移除。

3.同時設計prompt與output的風險控管機制

不僅需要限制輸入,也需要檢視生成結果是否涉及冒用身分、誤導性情境或版權風險。Sora的案例顯示,僅依賴出事後才下架或人工審查,往往無法應對生成式AI的規模和速度。

內容平台應將來源透明化:

1.讀取並顯示內容來源資訊

如同食品標示營養成分,平台可以顯示內容是否由 AI 生成,而不需要帶有價值判斷。

2.提供使用者選擇是否觀看AI生成內容

讓使用者擁有控制權,而非被動接收。

3.設計讓使用者能輕易理解的介面,而非僅以按讚和提高停留時間為目的

當平台只優化互動率,往往會加劇低品質內容的擴散。

原則3:生成式AI的成本結構,應同時考量近期和未來的商業模式

OpenAI執行長奧特曼(Sam Altman)曾多次表示,AI基礎建設成本將隨時間下降。隨著模型效率提升與算力供給增加,生成內容的邊際成本預期會持續降低。

從長期技術發展來看,這樣的趨勢相當合理。

但Sora案例提醒產品團隊:產品設計不能只依賴未來的成本下降,也必須面對當下的成本和商業模式。

根據分析師估算,生成一支10秒影片約需40分鐘GPU計算資源,成本約1.3美元。若以數百萬使用者每日生成內容計算,Sora的支出可能每日高達1500 萬美元。

在YouTube或TikTok等平台中,內容製作成本主要由創作者自行負擔。但在Sora,每一次生成內容,都會產生新的基礎設施成本,而且由平台承擔。

也就是說,使用者製作愈多影片,成本愈高。

這使得生成式AI的經濟模式,更接近雲端運算服務,而非傳統媒體平台。

目前,多數LLM(大型語言模式)與生成式AI服務的價格,仍受到市場競爭影響。為了加速採用,部分供應商以低於長期成本的價格提供服務,吸引開發者與企業建立產品。

這種補貼策略有助於推動創新,但也可能影響產品設計決策。

若產品的使用模式建立在補貼價格之上,一旦價格調整,原本可行的商業模式可能迅速失去利潤空間。

Sora正是一個極端例子:

消費者最初認為AI影片能大幅降低製作成本,例如不再需要演員、場景或拍攝團隊。

但從平台角度來看,創作成本並沒有消失,而是轉移到了平台GPU計算資源上。

產品團隊需要思考:若模型和運算成本提高2~3倍,產品的利潤是否仍能維持或成長。另外,定價能否反映出給予使用者的價值,而不是單單用生成次數來計算。畢竟,使用者不見得會因為產品成本,而願意接受更高的價位。

Sora提醒我們:生成式AI的挑戰,不只是技術突破,而是如何建立能長期成立的經濟模式。當前的補貼環境,可能加速產品推出,但也可能掩蓋真實成本。

對產品領導者而言,重要的不只是成本是否會下降,而是在成本尚未下降之前,產品的商業模式是否仍然站得住腳。

產品設計需要同時面對三大挑戰

生成式AI讓內容創作的可能性大幅提升,但它同時也縮短了技術能力與社會影響之間的距離。

當產品能模擬真實世界時,產品設計便需要同時面對信任、法律與商業模式的挑戰。

那些能將信任機制、制度責任與經濟模型,視為產品核心設計元素的團隊,將更有機會在市場成熟時,建立長期競爭力。

本文章反映作者意見,不代表《遠見》立場

(作者為美國矽谷的產品行銷專家,專注於AI對資安和金融科技領域的影響及成長)

AI治理有方 新北市打造智慧城市資安新典範
數位專題

AI治理有方 新北市打造智慧城市資安新典範

洞察趨勢的新北市政府,以超前部署、積極布局的策略,致力打造宜居、創新的智慧城市,聚焦「基礎建設」、「關鍵技術」、「智慧應用」三大面向,新北市已同步展現具體成果,體現地方政府的前瞻思維與執行力。

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務