地球一小時 地球一小時 3/28 Earth Hour 給地球前進的動力

AI代理的治理考題:企業如何防範失控風險?

黃國寶(KP Huang)
user

黃國寶(KP Huang)

張凱鑫
user

張凱鑫

2026-03-16

瀏覽數

若缺乏完善監督機制,AI代理可能成為駭客入侵的入口。僅為情境配圖,Unsplash by Kevin Ku
若缺乏完善監督機制,AI代理可能成為駭客入侵的入口。僅為情境配圖,Unsplash by Kevin Ku

喜歡這篇文章嗎 ?

登入 後立即收藏 !
00:00
00:00

隨著AI代理能連接系統、執行指令並自動運作,企業風險也從內容錯誤升級為資安與權限治理問題。若缺乏完善監督機制,AI代理可能成為駭客入侵的入口。企業董事會與高階主管必須建立治理框架與防護措施,確保AI運作在可控範圍內。

近期,一款名為OpenClaw的開源人工智慧代理(AI Agent)在短短一週內爆紅,讓企業見識到「自動化」的驚人效率。它不再只是像ChatGPT那樣回答問題,而是能直接連接通訊軟體、讀寫檔案,甚至代表使用者執行指令。

但也正因為它能「動手做事」,風險也隨之飆升。中國工業和信息化部(MIIT)與其國家漏洞資料庫(NVDB)已發出強烈警告,指出如果設定不當,OpenClaw可能會暴露於駭客攻擊,面臨「被誘導濫用、設定缺陷、惡意接管」等危機。這不是單純的資安新聞,而是一個強烈的治理訊號:當 AI 開始具備執行力,企業董事會的監督框架也必須全面升級。

從「聊天聊錯」到「系統被駭」:為何企業高層必須介入?

過去,企業對生成式AI的擔憂多半停留在「內容寫錯、版權爭議或個資外洩」。但 AI 代理的危險之處在於:

.企業會給予它系統的API金鑰(API Key,應用程式介面金鑰)、信箱、行事曆和檔案的存取權限。

.它能呼叫第三方的Skills(技能∕擴充外掛),這等於是把外部未知的程式碼直接拉進公司內部網路。

.它會長時間自動運行,且行為高度依賴系統給予的上下文提示。

近期,知名雲端資安公司Wiz就揭露了與OpenClaw相關的Moltbook平台,因為後台設定漏洞,導致大量系統憑證與電子郵件曝光,這可能讓AI代理遭到冒用。這證明了風險不在於AI模型本身,而在於它連接的「周邊生態」。軟體版本更新只能修補已知漏洞,只要企業允許AI在高權限環境下自由運作,風險就永遠存在。

董事會必問七大靈魂拷問,讓監督有憑有據

企業不能只聽工程團隊口頭保證「很安全」,而是要確保我們沒有在缺乏護欄的情況下,把一個「能執行指令的數位員工」放進核心系統。建議董事會與風險委員會定期盤點以下問題:

1.誰發的通行證?誰批准AI代理擁有這些權限?是否落實「最小權限原則」?

2.有隔離區嗎?AI 代理可以直接下達系統核心指令嗎?如果有,是否被限制在沙盒(Sandbox,安全的隔離測試環境)中?

3.外掛誰審核?第三方的Skills審核標準是什麼?(應將其視為有風險的程式碼,而非單純的小工具)。

4.有「黑戶」嗎?公司內部是否有員工私下使用的未授權AI代理(Shadow IT / Shadow Agent,影子設備)?如何揪出來?

5.金鑰怎麼管?系統憑證如何管理?是否有使用短效期的權杖(Token)、定期更換金鑰,或使用安全的保險箱(Vault)機制?

6.凡走過必留下痕跡?AI的所有行為(如連外網路、讀寫檔案)是否有日誌紀錄(Log)可供事後追查?

7.出事怎麼辦?如果AI失控,有沒有一鍵停用、撤銷權限並通報的緊急止血SOP?

給企業的「三道防線」:讓AI代理安全又好用

1.第一道防線:部署與邊界(別把大門敞開)

2026遠見線上書展最後倒數!訂閱兩年送一年5折優惠,再贈《九十自述》、《職場人的生成式AI工作法》、《自在感的練習》......好書六選二,立即逛>>

避免將管理介面暴露在公開網路上;遠端連線必須使用虛擬私人網路(VPN)、單一登入(SSO)或多因素驗證(MFA)。並將AI限制在隔離的虛擬機器(VM)或容器中,嚴格限制其連外範圍。

2.第二道防線:權限與憑證(明訂它能做什麼)

AI的帳號必須與真人帳號分開。執行敏感操作時,必須導入「人類在迴路」(Human-in-the-loop)機制,也就是關鍵決策需經過真人二次確認。

3.第三道防線:外掛供應鏈治理(風險最大的盲區)

對第三方的Skills必須採用「軟體供應鏈」等級的嚴格把關,包含建立白名單、審查程式碼、版本鎖定,以及上線後的行為監控。

高階主管也看得懂的三大風險指標

不要用感覺管理風險,請改用數字儀表板追蹤:

A.暴露程度(Exposure):每月掃描揪出多少未授權的AI代理?公開網路上有多少曝險的控制端點?

B.權限控管(Privilege):擁有「寫入∕執行」高權限的AI占比多少?憑證定期更換的達成率?

C.供應鏈安全(Supply Chain):第三方外掛的審核通過率?上線後觸發異常行為警報(如異常外連、大量讀取檔案)的次數?

面對AI新員工,先求「可控」再求「擴張」

OpenClaw的爆紅是一個強烈的警鐘:AI代理不再只是雲端上的軟體,而是能在你家後院「動手動腳」的系統角色。

企業高層不該因為害怕風險而下令「全面禁用」,而是要確保在給予它系統鑰匙之前,所有的護欄、證據鏈與責任分工都已經到位。真正成熟的企業,是能在駕馭新工具的同時,依然保持系統的可控性、可稽核性與可復原性。能越早把資安護欄制度化,就越能把「AI的速度」變成市場競爭力。

台灣擁有強大的硬體製造、系統整合能力與堅實的資安合規基礎。在這一波AI代理化的浪潮中,我們必須掌握以下優勢,將「資訊安全」升級為「AI 行為安全」

1.從「防禦外部駭客」擴展到「管理內部AI」:過去的資安重點是防範外人,現在則要防範內部被賦予過大權限的數位員工。台灣企業應善用既有的系統化思惟(如推動ISO 27001資訊安全或ISO 42001 AI管理系統時的盤點邏輯),將AI代理的行為軌跡與權限控管,無縫接軌到現有的日常稽核體系中。

2.將「預設安全」(Secure-by-default)化為接單亮點:當台灣廠商為國際客戶開發AI邊緣運算設備或企業內部整合方案時,若能將「隔離運算環境」「決策紀錄留存」等機制直接內建於系統架構中,這將成為超越競爭對手、贏得國際採購信任的巨大優勢。

3.嚴控AI供應鏈的「身家調查」:台灣企業在開發過程中常依賴開源軟體與第三方套件。面對AI代理,務必將第三方技能(Skills)視為具備高度風險的「可執行程式碼」來審查,避免惡意程式透過 AI 的手潛入企業核心,造成營運停擺。

(作者黃國寶為TÜV NORD永續長;張凱鑫為東海大學法律學院助理教授兼人工智慧法制研究中心主任)

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務