金融業甚早就採用AI增進流程和效率,現在出現大型LLM語言模型,更聰明能理解人類語言並產生回覆,但別以為不碰客戶的錢就沒事,資安專家呼籲,若不小心這以下四大風險進而評估,小心營運被迫中斷。
隨著生成式AI問世,愈來愈多大型金融機構開始嘗試更深化的部署、精煉,其中LLM大型自然語言模型便是一例。美國紐約新創Kasisto去年推出的「KAI Answers」,就號稱專為銀行業打造,兼顧安全、準確與體驗,客戶包括摩根大通(JPMorgan)、澳洲西太平洋銀行集團(Westpac)、渣打銀行、萊利銀行(Nedbank)等金融機構等。
而國際清算銀行(BIS)近期與西班牙央行、德國央行和歐洲央行合作啟動蓋亞計畫,實驗運用LLM,協助銀行及監理機構從大量的企業報告中自動彙整氣候相關指標。以上只是部分目前有公開的計畫,但可確定的是,愈來愈多銀行業者試圖在開發流程中導入更進階的AI模型,不僅提升效率,也實踐在第一線的客戶服務流程應用中。
在國內外皆提供資安檢測服務的OneDegree Global,在實務經驗中,彙整出銀行業可能面對的四大潛在風險,其更呼籲即便僅是運用在企業內部,並沒有導入在第一線服務客戶,甚至未碰觸到金錢交易,都有可能遭受資安損害。
《遠見》專訪OneDegree資安長周彥儒,他指出,在服務歐美等純網銀客戶時,已經有遇到實際導入LLM的案例,發現客戶在導入新型的軟體服務時,尚未針對可能潛在的資安威脅作調整,由於人工智慧AI趨勢成形,未來必定也會遇到相關的風險與監管合規環境的演進,實有必要在導入前中後,適切地去作相對應的評估。
他表示,現在原本就已在使用AI的金融業,在 OpenAI ChatGPT 引發熱潮後,已經延伸出更多使用場景,以前金融業導入的AI客服,大多是採用自行數據資料庫建立模型,並設定有條件式的提問,還要自行培養人才,「有自己的訓練和辨識」,但在開放式的雲端語言模型出現後,雖然更有效率地辨別文本和語境,降低成本,但要大規模採用的挑戰則在於新型資安威脅的挑戰。
注意LLM四大風險
舉例來說,金融機構在導入LLM時常會遇到以下四大風險:
一、隱私風險:整合LLM的客戶財務諮詢工具,可能會在跟客戶的互動過程中洩露機密敏感的個資, 從而導致嚴重的大量個資外洩,進而喪失客戶信任。
二、營運中斷風險:針對整合LLM的網路銀行系統執行 LLM阻斷式 (DoS) 攻擊,可能影響銀行服務的可用性,使客戶無法存取網路銀行服務。
三、財務影響:舉例來說,當攻擊者在整合LLM的風險評估工具中,透過提示詞注入(Prompt Injection)操縱信用評分,有可能會導致銀行接受較高風險的貸款。
又或者,周彥儒舉例,保險業導入LLM可大幅減少人工分類單據的謬誤,但也有可能會遇到客戶在掃描單據時,故意加上誤導文字,或者是一段偏命令式的惡意提示單詞,操弄審核結果。
四、系統完整性:針對整合LLM的反洗錢(AML)系統,透過提示詞注入(Prompt Injection)操縱判斷之準確性,從而使銀行因系統失能,無法有效阻絕非法資金流動,從而遭受監管機關裁罰。
周彥儒表示,全球對人工智慧監管環境日益嚴格,例如近期頒布的《歐盟人工智慧法案》、2023 年底推出的 ISO 42001 標準及各國監管機構的指引,都凸顯出在導入LLM前評估相關資安完備度的重要性。
「千萬不要覺得沒有導入到第一線客戶服務,就沒有資安疑慮!」周彥儒強調,若銀行透過串接API,將AI變成企業內服務的元件,雖然尚無洩漏客戶隱私風險,但同樣有資安疑慮。他舉例,包括:內部data的資料等級無法完善分級,或員工拿到權限以外的機密文件,甚至是AI在做內部判斷時,是否會彙整錯誤資訊給第一線人員,又或是耗費算力擱置服務(空轉),用語言執行攻擊等,導致相關服務無法提供,均建議進行相關評估。