Facebook Pixel
訂閱
快速註冊 已是會員,立即登入

為您推薦

會員權益

AI「外星智慧」兩大威脅!哈拉瑞:恐重蹈工業革命的覆轍

專題演講〉AI「外星智慧」,帶給人類哪些威脅?

吳季柔
user

吳季柔

2024-11-06

瀏覽數 13,000+

哈拉瑞呼籲記取工業革命的慘痛教訓,歷史學家及哲學家必須提醒大眾AI的危險和威脅。蘇義傑攝
哈拉瑞呼籲記取工業革命的慘痛教訓,歷史學家及哲學家必須提醒大眾AI的危險和威脅。蘇義傑攝
00:00
00:00

2024遠見高峰會今(6日)開幕,著有「人類大歷史」等暢銷書、耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari),為在場賓客帶來精采演講。他解析如何以史為鑑,面對資訊史中最新一次的AI革新,以及應對擁有巨大潛力的「外星智慧」所帶來的威脅。

著有「人類三部曲」 ,堪稱當代全球最有影響力的歷史學家、耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari),在新書《連結:從石器時代到AI紀元》出版之際,為2024遠見高峰會賓客深度剖析,AI對於人類社會的潛在威脅。 

他將AI革命放入漫長的「資訊史」洪流之中,以獨特的史觀,指出人類每次面對技術革新,從文字、印刷術、電報到大眾媒體,社會都出現翻天覆地的改變,這次的AI革命也不例外。

進一步分析,AI的主要危險可分為兩種。

社會如何適應AI?資訊革命「過渡期」尤其重要

「首先,我們可能會重蹈覆轍,讓歷史上曾隨著資訊科技或技術發展,而出現的問題再度上演。」他以工業革命為例,強調「過渡期」才是最危險的時刻。

當時,人們不明瞭如何建立工業社會,認定工業社會的前提仰賴著建立一個「帝國」,因此展開了一系列實驗,卻衍生了眾多災難性的實驗結果,例如法西斯主義、共產主義的極權體制。

如果為了學習、適應AI,人類必須經歷同樣的試錯過程,「我們又將如何建立一個以AI為基礎的社會呢?」哈拉瑞向在座賓客拋出疑問,若未謹慎應對當前AI革命的「過渡期」,是否將導致眾多毀滅性的實驗結果,無人可以預料。 

AI如「外星智慧」,史上第一項可自行決定的工具

至於第二個AI將帶來的危險,哈拉瑞分析,是AI與過往的工具有一個根本上的不同,它自身便是行為者(agent),「是歷史上第一項能夠自主做出決策的技術。」

遠見陪你智慧行,閱讀有禮送好箱

因此,哈拉瑞直言,他更偏好將AI縮寫詮釋為「外星智慧」(Alien Intelligence),形容AI做為非有機的行為者,可以產出想法、自主學習,但處理資訊、判斷決策的過程,卻和有機人腦的邏輯截然不同。

當過往可以全然由人類操控的技術,已發展至可自由做出決斷,哈拉瑞提醒,即便AI本身無害,仍有可能因為指令偏誤,導致意料之外的破壞性結果,例如脫離控制、危害、奴役甚至消滅人類。

「這不是預言,也並非無法避免。」他補充,隨著AI時代帶來數十億的AI行為者正被引入社會,人類需要時間適應、學習與AI互動之外,當務之急,便是制訂更完善的國際監管規範,避免AI技術失控。

面對AI革新背後潛藏的巨大潛力,各大企業家皆野心勃勃地全速發展。哈拉瑞以歷史為證,呼籲大眾記取工業革命的慘痛教訓,「強調AI的危險和威脅,便成為像我這樣的歷史學家和哲學家的責任。」

延伸閱讀

AI教父黃仁勳的創業領導成功之道
數位專題

AI教父黃仁勳的創業領導成功之道

AI晶片巨頭輝達(NVIDIA)執行長黃仁勳勢不可擋!1993年創立輝達以來,公司市值近來創下歷史新高,黃仁勳身價更是破千億美元榮登全球前15大富豪。隨著Computex 2024登場,他帶來的A

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務