人工智慧(AI)的發展日新月異,如何平衡創新與監管成為各國政府的重要課題。歐盟 AI 法案(EU AI Act)除規範 AI 系統的風險管理和市場監督,也特別設立「人工智慧監管沙盒」(AI Regulatory Sandboxes),之目的在為 AI 創新提供一個安全的測試環境。這如何運作?台灣產業及主管機關可參考之處何在?
歐盟 AI 法案強調以風險為基礎的監管方法,針對不同風險等級的 AI 系統制訂相應的義務和要求。然而,過於嚴格的監管可能會阻礙創新。為兼顧監管和創新,人工智慧監管沙盒提供一個受控的環境,在法律不確定的情況下,讓開發者的產品在推進市場前可以在真實世界條件下進行開發、訓練、測試和驗證其 AI 系統,以降低潛在風險。
人工智慧監管沙盒
歐盟 AI 法案中關於人工智慧監管沙盒的主要規定如下:
● 設立義務: 歐盟各成員國必須建立至少一個 AI 監管沙盒,並確保其在法案生效後 24 個月內(即2026年8月前)開始運作。成員國之間可以共同建立沙盒,共享資源和專業知識,也達成設立義務。
● 目標:AI 監管沙盒之目的在於實現以下目標
─ 在將 AI 系統投放市場前,建立對其是否符合 AI 法案要求的信心。
─ 促進負責任的 AI 創新。
─ 收集有關 AI 法案影響和實施的證據。
─ 促進 AI 生態系統內相關參與者之間的合作。
─ 促進 AI 系統進入歐盟市場,特別是由中小型企業 (SME)(包括新創企業)提供的系統,可獲取優先使用權,減輕中小企業獨立進行測試的負擔。
● 類型 : 除了歐盟各成員國必須建立㇐個 AI 監管沙盒以外,沙盒也可以由多個成員國的主管機關共同建立,歐盟的資料保護主管機關也可以建立 AI 監管沙盒。
● 參與資格:沙盒的參與資格和遴選標準由各成員國自行制訂,但必須符合歐盟 AI 法案的原則和目標,諸如:
─ AI 監管沙盒對任何符合資格和選擇標準的 AI 系統潛在提供者開放,這些標準應透明且公平。
─ 國家主管機關應在收到申請後三個月內通知申請人(AI 開發者)其決定。
─ 潛在提供者(AI 開發者)也可以與用戶和其他相關第三方合作提交申請。
─ 沙盒鼓勵中小型企業 (SME)(包括新創企業)的參與,並提供優先使用權
● 測試計畫:
─ 參與的 AI 提供者和主管機關應商定一份明確的沙盒計畫,說明目標、條件、時間表、方法、監控安排、指標和評估標準。
─ 國家主管機關可以授權在沙盒框架內對真實世界的條件進行測試,並與參與者商定測試的條款和條件,特別是適當的保障措施,以保護基本權利、健康和安全。
● 監控和評估:主管機關將監控沙盒內 AI 系統的測試過程,評估其風險和效益,並提供必要的指導和支持。
● 監管沙盒中的資料處理:
─ 如果創新的 AI 系統涉及個人資料的處理,國家主管機關應確保國家資料保護機構和其他相關機構參與沙盒的監督。
─ 在某些情況下,合法收集用於其他目的的個人資料可以在沙盒中進行處理,但僅用於開發、訓練和測試特定的 AI 系統。
● 退出機制: 完成測試的 AI 系統可以退出沙盒,並根據測試結果調整系統設計或部署策略。
● 資訊平台: 歐盟委員會將建立一個單一資訊平台,提供關於 AI 監管沙盒的資訊,方便 AI 開發者和企業了解各國沙盒的運作方式和參與條件。
案例分析
除先前討論過的人員招募、醫療和自動駕駛案例,以下案例也能說明人工智慧監管沙盒的應用:
● 智慧城市中的 AI 交通管理系統: AI 開發者可以在沙盒中測試 AI 系統如何優化交通流量、減少壅塞和改善空氣品質,並評估其對道路安全和隱私權的影響。
● 金融科技中的 AI 欺詐偵測系統:AI 開發者可以在沙盒中測試 AI 系統如何偵測金融交易中的異常行為,並評估其準確性和效率,同時確保其不侵犯用戶的隱私權。
● 電子商務中的 AI 個人化推薦系統:AI 開發者可以在沙盒中測試 AI 系統如何根據用戶的行為和偏好推薦商品或服務,並評估其對用戶體驗和市場競爭的影響,同時確保其不涉及不公平的歧視或操縱。
小結
人工智慧監管沙盒是歐盟 AI 法案中的一項重要創新管理,目的在平衡創新與監管、機會與風險,促進 AI 技術的負責任、可信賴的發展。透過監管沙盒提供安全的測試和驗證環境,AI 監管沙盒可以幫助 AI 開發者(特別考慮到新創企業)和企業降低 AI 系統的潛在風險,提升系統的可靠性和可信度,為 AI 技術的廣泛應用奠定堅實的基礎。
行動呼籲
● AI 開發者和企業應積極探索和應用 AI 監管沙盒的潛力,利用沙盒提供的資源和環境進行系統測試和驗證。
● 歐盟以外的各國主管機關可參考歐盟 AI 法案作法,積極推廣 AI 監管沙盒,提供清晰的指引和支持,幫助開發者和企業順利參與沙盒測試。
● 研究機構和學術界應積極參與 AI 監管沙盒的設計和評估,提供專業知識和技術支持,促進以人為本的可信賴 AI。