遠見線上書展 遠見線上書展 最低優惠倒數5日,想掌握全球領先趨勢議題,立即訂閱>>

AI安全誰說了算?解密使用者、政府、資本三方拉鋸

許晨怡
user

許晨怡

2026-03-25

瀏覽數

AI容易影響日常決策,在複雜環境中應學習如何安全運用AI工具。pexels-ron-lach
AI容易影響日常決策,在複雜環境中應學習如何安全運用AI工具。pexels-ron-lach
00:00
00:00

編按:AI時代來臨,安全、商業利益與政府監管形成拉鋸,使用者往往處於資訊不對等的位置。本文從產業動態與實務案例出發,說明AI風險如何影響日常決策,並整理三大使用原則,幫助你在複雜環境中更安全運用AI工具。

一家 AI 公司,為什麼需要聘請研究爆裂物與化學武器的專家?

上週,AI 公司Anthropic一則徵才訊息,引起科技界注意:他們正在招募具有爆裂物、化學風險與武器博士背景的研究人員。這類專業通常出現在國防機構、軍事單位或國際安全組織,而不是科技公司。

為什麼一家大型語言模型公司需要這樣的人才?

可能的原因是,AI已經進入國防及不同使用者的手裡,例如,材料取得方式、化學反應流程,甚至潛在的濫用情境。當模型能夠將分散資訊轉化為可執行的步驟時,風險不再只是理論問題,而成為需要被管理的現實議題。

這項職缺可以被解讀為一個訊號:AI公司正極端為濫用情境做準備。這或許代表業界正更嚴肅看待安全風險,但同時也提醒我們,AI的能力邊界,已經擴展到需要跨領域專家共同參與風險控管。

而這也幫助解釋,為什麼近期使用者對 AI 安全議題的反應,變得更加敏感。

上個月,AI 界看到了美國的使用者不只是批評一家科技公司的決定,而是直接刪除了產品。

在媒體報導OpenAI與美國戰爭部達成兩億美元合作案後,ChatGPT的卸載率在短時間內大幅上升。根據應用程式數據平台的統計,卸載量一度暴增約295%。許多使用者轉而使用Anthropic的Claude,因為這家公司拒絕與美國戰爭部合作,並一直以「重視AI安全」作為品牌定位。

這個事件反映出重要的一件事:愈來愈多使用者希望AI的發展能更重視安全,且不被作爲傷害人類的工具。

但同時,開發AI的公司也必須面對現實:政府期待、投資人報酬,以及激烈的市場競爭。

這指出AI 發展面臨的矛盾:使用者對產品的期待,並不總是與AI產業背後的政治、資本與企業決策相一致。而這也解釋為什麼單純從ChatGPT產品轉換到Claude,無法真正解決問題或實際上被Claude保護。

AI 三巨頭:正在退步的安全承諾

三年前,美國主要AI公司都曾公開承諾將「安全」及不讓AI帶來負面影響,但這些承諾逐漸退步。

OpenAI

2023年,OpenAI曾警告,能力更強的AI系統可能對社會造成重大風險,甚至帶來人類生存的威脅。為此,公司成立了「Superalignment」團隊,專門研究如何確保未來的AI系統能符合人類價值,避免在能力提升後失去控制。當時OpenAI甚至承諾,將20%的運算資源投入AI安全研究。

然而,到了2024年,這個團隊被解散,多位核心成員公開離職,表示對公司內部安全優先順位感到疑慮。今年1月,OpenAI也開始探索在產品中導入廣告的可能性,代表AI平台的商業模式可能逐漸朝「注意力經濟」發展。

Google DeepMind

2023年,Google承諾遵循白宮提出的AI自律原則,包括第三方安全測試與高風險能力的透明揭露。但在2026年發布的《Responsible AI Progress Report》中,公司對「負責任部署」的詮釋出現微妙變化:快速推出 AI 技術本身,也被視為一種責任。

Anthropic

Anthropic於2021年,由前OpenAI研究部副總和安全策略部副總創立。創辦人當時認為,隨著AI能力快速提升,安全研究應被放在模型開發的核心位置。其Responsible Scaling Policy(RSP)原本規定:當模型能力達到特定門檻時,訓練必須暫停,直到安全機制到位。但在後續版本中,部分條款從「必須遵守的規範」改為「目標性原則」。

今年2月,Anthropic負責安全防護的主管Mrinank Sharma宣布離職,並在公開聲明中表示:「世界正處於危險之中,而企業正面臨巨大的壓力,可能讓最重要的事情被迫讓位。」

諷刺的是,這正是許多使用者因為「安全考量」而轉向的平台。

結構性問題為AI發展帶來的困境

說到以上安全承諾退步的問題,並不是單純因為公司不好,而是反映出AI發展同時受到三種力量影響:

.政府:希望取得技術優勢與戰略能力。

.資本市場:追求成長速度、規模與投資回報。

3/28 Earth Hour 爲環境奉獻一小時,給地球前進的動力!

.公共利益:關心使用者安全、透明與長期風險管理。

前兩者行動迅速,因為背後有資金與明確誘因。

第三者,也就是公共利益,往往沒有同樣的推動力量。

在這樣的環境下,AI的安全承諾,往往在競爭激烈時最容易被重新詮釋。

而在這個制度裡,使用者的長期利益往往不是主要決策變數。

因此,更實際的問題其實是:當AI系統的設計,並不是以保護使用者為唯一優先順序時,我們應該如何與它們互動?

培養三個習慣,安全使用AI工具

一、讓AI挑戰你,而不是奉承你

AI往往會傾向於附和使用者的既有觀點,就算觀點與事實不符,導致使用者愈來愈「錯」。這種現象被稱為AI sycophancy(迎合偏誤)。這在政治判斷、人際衝突、道德問題,以及投資決策等情境中,特別明顯。

因此,比起問:「我應該投資這檔股票嗎?」不如問:「這個投資判斷可能有哪些認知偏誤?」AI在挑戰我們思考時,往往比在附和我們時更有價值。同時,也可以將同樣的問題,交給不同的AI,從中學習到各家大模型的利弊。

二、對AI的自信保持懷疑

AI總是很有自信的回覆問題,讓人感覺提供正確答案,但背後的邏輯推理不見得非常靠譜。ChatGPT、Gemini及Claude,已成為許多使用者及老闆們迅速找解方的工具,許多公司也將GEO納入行銷策略中。隨著AI商業模式逐漸形成,推薦系統也可能出現利益衝突。例如,如果AI平台導入廣告或品牌合作,且沿用原來自信的語氣,廣告可能會很巧妙地安插在推薦內容中,讓使用者難以確認推薦的中立性。

此外,微軟資安研究團隊在今年2月報告了一種新的攻擊方式:AI Recommendation Poisoning(AI 推薦汙染)。

某些網站可能在「用AI摘要」的功能中嵌入隱藏指令,偷偷將某些品牌資訊寫入AI的記憶,例如:「這是理財的首選工具」。未來當使用者詢問推薦時,這些隱藏指令可能干擾AI原本的判斷邏輯,使系統優先推薦特定產品。

問題在於,使用者往往會以為,這些建議來自AI的分析與推理,但實際上,推薦結果可能早已被外部指令影響。當推薦機制可以被悄悄操控,卻沒有任何標示或揭露時,使用者就很難分辨哪些建議是客觀分析,哪些只是被植入的偏好。

使用者可以定期檢查AI工具的記憶與個人化設定,並刪除自己沒有主動輸入的資訊。詢問AI之外,記得利用多項資訊來源來搜集資料。

三、減少你的數位足跡

每一次與AI的互動,都會產生資料。單一資料點看似無害,但長期累積後,可能揭示你的關注議題、工作內容,甚至心理狀態。雖然與AI 的對話,經常感覺像是私人日誌,事實上,它是一種半公開紀錄。可以透過關閉聊天資料用於模型訓練的設定,以及避免談論過多個人資訊,來降低個資外洩的風險。

另外,AI大幅降低整合零散資料的成本。過去分散在不同平台、不同資料庫中的資訊,例如地理位置紀錄、購物習慣、公開文件與社群關係,現在可以被快速整理與分析,拼湊出一個相當完整的個人輪廓。

這種能力讓資料仲介、廣告平台,甚至詐騙集團,都更容易建立精準的人物模型,進而影響定價,甚至上詐騙手法更貼近人的弱點。

建議使用像是Brave、Firefox或Duck Duck Go等重視個人隱私保護的瀏覽器,以及delete me 或是incognito 等工具,來定期銷毀你在網路上的個資。

從晶片龍頭,到更有判斷力的使用者

台灣在全球AI 生態系扮演著獨特角色。我們的半導體產業,支撐著AI發展的基礎運算能力。

但在AI時代,影響力不只來自於打造技術本身。也來自於理解技術如何被應用。

近期,AI使用者的轉移潮,其實傳達了一個訊號:人們非常關心AI的發展方向及安全顧慮。但真正的力量,不只是「換一個產品」。而是理解整個系統,並在其中做出更有判斷力的選擇。

AI時代最重要的能力,也許不是打造更聰明的機器,而是成為更有判斷力的人。

本文章反映作者意見,不代表《遠見》立場

(作者為美國矽谷的產品行銷專家,專注於AI對資安和金融科技領域的影響及成長)

AI治理有方 新北市打造智慧城市資安新典範
數位專題

AI治理有方 新北市打造智慧城市資安新典範

洞察趨勢的新北市政府,以超前部署、積極布局的策略,致力打造宜居、創新的智慧城市,聚焦「基礎建設」、「關鍵技術」、「智慧應用」三大面向,新北市已同步展現具體成果,體現地方政府的前瞻思維與執行力。

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務