編按:AI聊天機器人Grok近日捲入生成不當影像風暴,引發各國關注。從馬斯克回應態度到監管真空,事件不只關乎單一產品,而是揭露AI商業化下,倫理、防護與責任界線全面失衡的現實挑戰。
新年伊始,馬斯克旗下的AI聊天機器人Grok,捲入一場前所未見的風暴。這個工具在短短幾天內,產出大量女性的裸露或半裸影像,既有真人也有虛構。更令人震驚的是,其中竟包含兒童的不當影像。面對輿論壓力,Grok本身發文道歉,承認安全機制出現漏洞,並強調兒童性虐待內容屬於非法。但它的創造者xAI公司卻保持沉默,馬斯克更是一邊轉發自己穿比基尼的惡搞照片,一邊大談Grok能重現好萊塢老電影和製作貓咪影片的能力。這種態度不僅傷害了受害者,更暴露出科技產業對AI倫理的漠視。
生成式AI走向灰色商業化
Grok事件絕非個案,而是AI技術快速商業化的必然結果。當各大科技公司爭相推出生成式AI產品時,他們發現成人內容市場是最容易變現的領域。xAI推出「辣味」模式,OpenAI宣布,將在ChatGPT提供情色內容給成年用戶,整個產業彷彿找到獲利的捷徑。市場研究顯示,AI驅動的成人內容產業,2025年產值達25億美元,預計到2028年,將以每年27%的速度成長。這個數字背後隱藏的,是一個不願面對的真相,當利潤成為唯一考量,道德規範就變成可有可無的裝飾品。
AI生成的成人內容,帶來的危害遠超過傳統色情產業,過去製作不當影像至少需要真人參與,現在只要一張清晰的照片,25分鐘內,就能做出以假亂真的深偽影片。這項技術被濫用在「去衣」應用程式上,讓任何人都能成為受害者。有監測機構發現,這類網站每月吸引近2000萬次瀏覽,一年創造超過3600萬美元的收益。更可怕的是,許多使用者下載開源AI模型到自己電腦,繞過所有安全防護機制,製作出愈來愈逼真、愈來愈極端的非法內容。
醜聞成流量,監管缺席
馬斯克在這場風暴中的反應,極具代表性。他把Grok的爭議,重新包裝成軟體受歡迎度的證明,誇耀下載量和搜尋熱度,卻刻意忽略這些數字代表的,其實是醜聞關注度。當英國政府威脅封禁Grok時,他聲稱這是打壓言論自由。當有人指出未成年人遭到「去衣」對待時,他說任何人用Grok製作非法內容都要承擔法律責任,巧妙地把審核責任推給執法機關。這種策略讓他可以享受流量帶來的好處,同時迴避平台應負的監管義務。
從商業角度看,馬斯克的策略確實奏效。Grok面臨的實質懲罰微乎其微,英國監管機構雖然展開調查,但美國的科技巨頭蘋果和Google都沒有表態這些內容是否違反應用程式商店規範。美國的國會議員和監管機關也大多保持沉默,儘管xAI與軍方有兩億美元的合約。相較之下,歐洲的反應強烈許多,法國將相關影像提交檢察官,英國正在加速立法禁止「去衣」應用程式。這種東西方態度的差異,反映出不同社會對科技監管的容忍底線。
立法追不上演算法
真正令人憂心的是,AI生成技術已經被用來製作兒童性虐待影像。監測機構發現,在2025年前十個月,這類非法內容數量就超過2024年全年的兩倍,而且愈來愈逼真。有人辯稱這些影像沒有真實兒童受害,所以不該禁止。但這種論點忽視了一個事實,將這類內容正常化,只會降低社會對兒童保護的警覺,最終讓真實的孩子暴露在更大風險中。這不是言論自由的問題,而是基本人權的底線。
各國政府正試圖應對這場危機。歐盟要求真實感的合成內容必須標示,美國第一夫人推動法案禁止未經同意發布他人的情色影像,丹麥打算賦予民眾自己肖像的著作權,英國計畫讓開發者和兒童保護組織測試AI模型,確保無法被用於模擬兒童性虐待。這些努力方向正確,但AI技術進步的速度遠超立法速度,單靠法律規範恐怕緩不濟急。
改變必須來自產業自律和社會共識。當馬斯克這樣的科技領袖,把爭議當成行銷話題,把監管當成絆腳石,我們看到的是一個價值觀嚴重扭曲的商業邏輯。在這個邏輯裡,限制愈少、內容愈聳動,利潤就愈高。但科技不該是法外之地,創新也不能以犧牲弱勢者為代價。我們需要的,不只是更嚴格的法規,更需要重新思考科技與人性的關係。當機器可以輕易製造任何影像時,我們更應該珍惜真實的人際連結,那才是任何技術都無法取代的價值。
本文章反映作者意見,不代表《遠見》立場
(作者為台北商大前校長、叡揚資訊數位轉型大使)