Facebook Pixel
訂閱
快速註冊 已是會員,立即登入

為您推薦

會員權益

如何規範AI「透明度」?歐盟AI法案給答案

張凱鑫
user

張凱鑫

黃國寶(KP Huang)
user

黃國寶(KP Huang)

2025-03-31

瀏覽數 550+

歐盟人工智慧法案中,「透明度」是核心要素之一。Photo by Christian Lue on Unsplash
歐盟人工智慧法案中,「透明度」是核心要素之一。Photo by Christian Lue on Unsplash

喜歡這篇文章嗎 ?

登入 後立即收藏 !
00:00
00:00

歐盟人工智慧法案中,「透明度」是核心要素之一,也是規範高風險AI系統的重要著眼點。但究竟「透明度」指的是什麼?依據不同風險等級,使用者可預期獲得什麼樣的保障?

人工智慧(AI)技術的快速發展對社會帶來廣泛的影響,同時也伴隨著對其潛在風險的擔憂。透明度 作為確保 AI 系統安全、可信賴和符合倫理標準的關鍵要素,受到越來越多的關注。歐盟人工智慧法(AI Act)是全球首部全面性的人工智慧法律框架,旨在規範 AI 系統,確保其安全、透明且符合基本人權。其中,透明度要求是該法案的核心要素之一,特別是針對高風險 AI 系統,法案提出嚴格的規範。本文深入探討歐盟 AI 法案中關於透明度的要求框架,分析其主要內容和實施細節,並探討其對相關產業的影響。

透明度為何重要?

隨著AI技術在各個領域的廣泛應用,其不透明性和複雜性帶來的問題日益突出。使用者往往難以理解 AI 系統的決策過程和運作機制,這不僅降低對 AI 系統的信任度,也使得問責變得更加困難。

因此,提高 AI 系統的透明度,讓使用者能夠理解和評估 AI 系統的行為,成為當前 AI 治理的重要議題。

歐盟 AI 法案充分意識到透明度的重要性,將其作為一項基本原則納入法案之中。該法案旨在通過強制性的透明度要求,促使 AI 系統的開發者和部署者更加負責任地使用 AI 技術,從而保護使用者的權益,並促進 AI 產業的健康發展。

分層檢視透明度義務

一、一般透明度義務:揭露互動實況

歐盟人工智慧法第50條,包含對各種 AI 系統的提供者與部署者都適用的「對使用者揭露與 AI 互動實況的透明度義務」,也被稱為「揭露互動實況之透明度義務」。

例如,無論風險等級為何,一個AI聊天介面的提供者與部署者,都應讓使用者知曉自己正在與AI系統對談。

一個AI聊天介面的提供者與部署者,都應讓使用者知曉自己正在與AI系統對談。Unsplash by Zac Wolff

一個AI聊天介面的提供者與部署者,都應讓使用者知曉自己正在與AI系統對談。Unsplash by Zac Wolff

二、高風險 AI 系統的透明度義務

為解決某些人工智慧系統的不透明性和複雜性問題,並協助部署者履行在本規則下的義務,在高風險人工智慧系統投入市場或投入服務之前,應要求具備透明度。

• 使用說明:高風險人工智慧系統應附帶適當數位格式或其他形式的使用說明,該說明應提供簡明、完整、正確且清晰的資訊,且應與部署者相關,易於近用且可理解。

• 紀錄保存與技術文件:此則高風險人工智慧系統的發展過程及其整個生命週期的表現資訊。這對於實現這些系統的可追溯性、驗證其是否遵循本規則的要求,以及監控其運作和上市後監控至關重要。

• 自動紀錄日誌的功能:高風險人工智慧系統應具備技術能力,允許在系統生命周期內自動記錄事件(日誌)。

• 基本權利影響評估:部屬者的基本權利影響評估,有助於識別歧視與偏見。

三、特定 AI 系統的透明度義務

此以生成式AI系統、情感辨識系統和生物特徵分類系統為例深入解析:

• 生成結果的機器可讀性與可檢測性義務:人工智慧系統的提供者(包括生成合成音訊、影像、影片或文字內容的通用人工智慧系統),應確保人工智慧系統的輸出內容以機器可讀格式進行標記,並可被偵測為人工生成或操控的內容。

• 情感辨識系統和生物特徵分類系統的透明度:部署情感辨識系統或生物特徵分類系統的部署者,應告知受該系統影響的自然人系統的運作情況,諸如:系統的功能與主要用途(例如識別特定人員)、所處理的生物特徵資料類型(例如面部影像、指紋、虹膜掃描、聲音樣本)、資料的收集方式與來源 (例如透過監視攝影機、麥克風)、資料的處理流程與分析方法(例如使用哪些演算法、特徵提取方法)、系統的預期輸出或決策(例如識別特定人物、判斷情緒狀態)、系統的準確度與限制(例如可能存在的誤差)、資料的儲存與保留期限、誰可以存取這些資料、相關的權利與救濟途徑、聯絡資訊(例如部署者的聯絡方式)等。並應依據《歐盟規則》(EU)2016/679、《歐盟規則》(EU)2018/1725 和《指令》(EU)2016/680 的規定處理個人資料(如適用)。

• 深偽與生成文本 AI 系統的透明度:使用人工智慧系統來生成或操控影像、音頻或視頻內容的部署者,若這些內容顯著類似於現有的人物、物體、地點或其他實體,則應以說明該內容是人工生成或操控的方式揭露。

四、通用 AI 模型的透明度義務

通用人工智慧模型的提供者在人工智慧價值鏈中扮演著特定的角色和責任,因為他們所提供的模型可能構成一系列下游系統的基礎,這些系統通常由下游提供者提供。

• 模型概述:通用人工智慧模型的提供者應編制並提供一份技術文件,其中包含模型訓練和架構的詳細描述,以及其能力、限制和潛在風險的資訊。

知識與美味同行,遠見請客西堤

五、歧視與偏差問題的透明度

• 高風險 AI 系統的資料治理:高風險人工智慧系統若使用涉及以資料訓練人工智慧模型的技術,應以基於符合品質標準的訓練、驗證及測試資料集來進行開發,該資料集應隨時符合品質標準。

• 歧視與偏差問題的文件紀錄與揭露:AI 系統在就業、勞工管理、聘用及職位升遷中應被歸類為高風險,因為這些系統可能會強化歷史性歧視模式,例如對女性、某些年齡層、身心障礙者、某些種族或性取向人士的歧視。

應用案例

一、高風險 AI 系統的應用:醫療診斷

假設一家醫療機構使用 AI 系統輔助診斷疾病,根據歐盟 AI 法案,該系統屬於高風險 AI 系統。為符合透明度要求,該醫療機構需要:

• 提供詳細的使用說明:說明系統的診斷原理、適用範圍、局限性以及可能的風險。

• 記錄系統的執行日誌:記錄每次診斷的數據、決策過程和結果,以便追蹤和分析。

• 進行基本權利影響評估:評估系統可能對患者的健康權、隱私權等基本權利產生的影響。

醫療診斷為高風險 AI 系統的應用。(僅為情境示意)取自freepik

醫療診斷為高風險 AI 系統的應用。(僅為情境示意)取自freepik

二、通用 AI 模型的應用:聊天機器人

假設一家公司開發一款基於通用 AI 模型的聊天機器人,用於提供客戶服務。為符合透明度要求,該公司需要:

• 提供模型概述:說明模型的訓練數據、架構、能力、局限性和潛在風險。

• 告知使用者正在與 AI 互動:在使用者與聊天機器人互動時,明確告知對方正在與 AI 系統交流。

• 標記AI生成的內容:對於由聊天機器人生成的文字、語音等內容,明確標記為AI生成,以避免誤導使用者。

小結

歐盟人工智慧法通過建立全面的法律框架,對AI系統的透明度提出明確的要求。這些要求涵蓋一般透明度義務、高風險AI系統的特殊要求、特定AI系統的透明度義務,以及通用AI模型的透明度義務。 透過這些措施,歐盟人工智慧法旨在確保 AI 系統的開發和使用符合倫理標準,保護使用者的權益,並促進 AI 產業的健康發展。

行動呼籲

• 持續關注並深入了解歐盟人工智慧法(AI Act)關於透明度的最新發展。

• 積極參與相關的討論與研究,共同推動 AI 技術的負責任發展,考量技術對社會更廣泛之影響。

• 在 AI 系統的開發和應用中,始終將透明度作為核心原則之一,並在 AI 生命週期中整合透明度原則,從初始設計階段到開發、部署和持續監控都要考慮透明度。

• 借鑒歐盟人工智慧法等國際經驗,完善我國的人工智慧治理體系,與國際標準接軌,例如 NIST 和 ISO 標準,尤其在透明度、風險管理和技術文件標準化方面,以增強與全球框架的兼容性。

• 台灣產業應深入了解歐盟 AI 法案對資料治理和品質的要求,審查現有的資料治理和管理制度,並進行必要的調整。

延伸閱讀

AI教父黃仁勳的創業領導成功之道
數位專題

AI教父黃仁勳的創業領導成功之道

AI晶片巨頭輝達(NVIDIA)執行長黃仁勳勢不可擋!1993年創立輝達以來,公司市值近來創下歷史新高,黃仁勳身價更是破千億美元榮登全球前15大富豪。隨著Computex 2024登場,他帶來的A

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務