編按:立法院三讀通過《人工智慧基本法》,宣告台灣的AI發展,正式納入國家法制治理。從高風險AI規範、生成式內容標示,到資料治理與問責機制,企業導入AI不再只是技術選擇,而是牽動營運與法遵的關鍵決策。
立法院已於2025年12月23日三讀通過《人工智慧基本法》,正式確立台灣AI發展的法制基礎。針對這一里程碑時刻,東海大學法律學院人工智慧法制研究中心(以下簡稱本中心)作為台灣第一所AI法制研究中心,擬提出以下分析以彰顯此重大時刻:
四大立法核心
《人工智慧基本法》的立法核心,可總結為以下四大重點:
1.平衡「發展」與「規範」
立法宗旨在於確保AI技術在推動經濟增長的同時,能守住民主、人權與社會安全的底線。
2.七大基本原則與四項目標
法案確立「永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視、問責」等七項核心價值,要求AI從研發到應用都須遵守相同基本價值;目標則聚焦於促進創新、環境平衡、人權保障及國際對接。
3.風險管理分類
參考歐盟AI法案(EU AI Act),採取「以風險為基礎」的管理模式,針對高風險應用進行更嚴格的限制或禁止。
4.鼓勵研發與沙盒創新
政府將建立指引、推動資料共享,並透過監理沙盒機制,提供獎補助及租稅、金融優惠,讓企業在風險受控的前提下進行大膽創新。
四大關鍵法規
對企業而言,有以下四個關鍵法規:
1.高風險 AI 的界定與規範
.法律明確定義「高風險人工智慧」,並要求其在開發與應用過程中,需進行風險評估與管理。
.影響:醫療、金融、關鍵基礎設施,以及涉及民眾權益的軟體開發商,必須即刻檢視自身產品是否落入高風險範疇,並建立合規機制。
2.透明度與標示義務(Labeling)
.生成式AI(GenAI)產出的內容(圖片、影像、聲音、文字),必須有明顯的「警語」或「揭露標示」,告知使用者這是由 AI 生成的。
.影響:所有使用AI生成行銷素材、客服回應或內容創作的企業,需調整UI/UX及作業流程,以符合法規,否則將面臨罰則或法律責任。
3.以人為本與問責機制
.數位發展部(MODA)為主管機關,將設立AI推動辦公室,並與各目的事業主管機關共同監管。
.勞動權益與數位平權:強調AI發展需尊重人權、隱私及民主價值。政府將監管AI是否造成職場歧視或過度監控,並針對因AI失業的勞工提供輔導。企業在導入AI取代人力時,需建立「以人為本」的轉型補償計畫。
4.智財權與數據治理
.法規觸及AI訓練資料的合法性,以及產出的智慧財產權歸屬問題。
.數據主權與智財權:法案強調維護國家文化價值與智慧財產權。
.企業在使用數據訓練模型時,需更嚴格審視來源合規性(如著作權與個資法),並關注政府推動的「台灣主權AI訓練語料庫」。
台灣AI產業進入法遵合規期
這部法律的通過,宣告台灣AI產業從「自由發展期」進入「法遵合規期」。對於中小企業、新創、科技公司而言,這是一個巨大的轉折點。
同時,目的也在建立一個「可信任的AI生態系」。這將有助於台灣企業在國際供應鏈中展現法遵競爭力,避免因不符國際標準而遭到剔除。
此法案通過,釋放了幾個對產業界極具衝擊力的訊號:
.從自律走向法律:AI發展不再僅是道德勸說或產業自律,已正式進入國家法律規範層次。
.風險分級制度確立:法規明確將AI產品與服務進行風險分級。
.高風險強制義務:經認定為「高風險」的AI產品(可能涉及醫療、關鍵基礎設施、重大人事決策等),將面臨嚴格的規範,其中,新聞特別強調「須標示警語」這一項具體義務。
.合規壓力迫在眉睫:對於正在開發、導入或使用AI技術的企業而言,這意味著「合規成本」與「法律風險」瞬間具象化,企業需將開發及應用AI涉及法律風險納入R&D成本。
總結而言,《人工智慧基本法》此部法令,將成為台灣AI治理的根基。
未來兩年的「法規檢視期」,將是企業與政府的共同挑戰,也是台灣建構安全應用環境的關鍵。台灣亟需整合現有的科技研究資源,建構一個具備國際視野的倫理樞紐,並提供深度的學術支援,讓技術發展與社會責任並行不悖。
(作者張凱鑫為東海大學法律學院助理教授、人工智慧法制研究中心主任;黃國寶為台灣人工智慧協會常務理事、TUV NORD 台灣分公司永續長)