萬一,哪一天AI開始監控你我……

張瑞雄
user

張瑞雄

2024-07-29

瀏覽數

為解決AI衍生的問題,必須制定一個全面、透明的法律來監管,以免AI遭到有心人士濫用。Photo by Andrea De Santis on Unsplash
為解決AI衍生的問題,必須制定一個全面、透明的法律來監管,以免AI遭到有心人士濫用。Photo by Andrea De Santis on Unsplash
00:00
00:00

近年來,人工智慧(AI)和相關技術的出現,改變了包括執法在內的許多領域。其中最具爭議的,是預測性警務和生物辨識監控,尤其是臉部辨識。這些技術可望提高安全性和效率,但也引發了道德和法律問題。一些民間團體聯盟正在倡導全面禁止這些技術,強調它們對邊緣化社區不成比例的影響,以及可能加劇現有的社會不平等。

由開放權利組織、老大哥觀察和警察監控網路等組織組成的聯盟認為,應徹底禁止AI驅動的預測性警務和生物識別監控,因為這些技術不成比例地針對種族、工人階級和移民社區,侵犯了他們的基本權利,包括無罪推定原則。

預測性警務使用AI演算法來分析數據,並預測犯罪可能發生的地點,或是可能實施犯罪的人,雖然這看似有效,但它往往依賴有偏見的歷史數據,導致邊緣化地區被過度目標化的惡性循環,鞏固了現有的歧視,並損害了公眾對執法的信任。

生物辨識監控,特別是臉部識別,對隱私和公民自由構成重大風險。這些系統本質上是有缺陷的,容易錯誤地識別個人,尤其是來自少數群體的人。這不僅導致錯誤逮捕,而且對言論自由和抗議產生寒蟬效應。

確保AI進步,也不該犧牲人類基本價值

目前缺乏強而有力的監管,來管理這些技術的使用,必須先有完善的立法,來確保警務中使用的任何AI系統透明度、問責制和公眾監督。此類立法應要求對AI決策進行明確的人類監督,為受影響的個人提供人工審查的解釋,並提供補救途徑。

警方還有令人不安的「保留文化」,即對應該刪除生物識別數據,也會持續保留。這包括數百萬張從未被指控犯罪的個人圖像,這種作法不僅違法,也損害了公眾的信任和隱私。

臉部辨識也威脅到公共場所的隱私和匿名概念,它在公共場所、抗議活動,甚至是學校,部署了一個持續監控的環境,個人不斷受到監視和追蹤。這可能會阻止人們行使言論自由和集會自由的權利,從而削弱民主參與。

為了解決這些問題,必須制定一個全面、透明的監管法律,來管理AI在警務中的使用。關鍵內容應包括透明度和問責制、人類審查、公眾參與、避免偏見和歧視、資料保護和高道德標準等。

2026遠見線上書展5折起,最優惠訂兩年送一年,只要$3,680(原價8,820),現在訂享全年最低優惠!

禁止預測性警務和臉部辨識技術的呼籲,凸顯了重新評估AI在執法中如何使用的迫切需求。雖然這些技術提供潛在的好處,但也對公民自由、隱私和社會正義構成重大風險。執法單位應深入了解AI的問題,大眾對AI的能力和準確性也不應過度幻想,才能確保AI技術的進步,不會以犧牲人類基本價值作為代價。

本文章反映作者意見,不代表《遠見》立場

(作者為台北商大前校長、叡揚資訊數位轉型大使)

AI治理有方 新北市打造智慧城市資安新典範
數位專題

AI治理有方 新北市打造智慧城市資安新典範

洞察趨勢的新北市政府,以超前部署、積極布局的策略,致力打造宜居、創新的智慧城市,聚焦「基礎建設」、「關鍵技術」、「智慧應用」三大面向,新北市已同步展現具體成果,體現地方政府的前瞻思維與執行力。

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務