2024遠見高峰會今(6日)開幕,著有「人類大歷史」等暢銷書、耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari),為在場賓客帶來精采演講。他解析如何以史為鑑,面對資訊史中最新一次的AI革新,以及應對擁有巨大潛力的「外星智慧」所帶來的威脅。
著有「人類三部曲」 ,堪稱當代全球最有影響力的歷史學家、耶路撒冷希伯來大學歷史系教授哈拉瑞(Yuval Noah Harari),在新書《連結:從石器時代到AI紀元》出版之際,為2024遠見高峰會賓客深度剖析,AI對於人類社會的潛在威脅。
他將AI革命放入漫長的「資訊史」洪流之中,以獨特的史觀,指出人類每次面對技術革新,從文字、印刷術、電報到大眾媒體,社會都出現翻天覆地的改變,這次的AI革命也不例外。
進一步分析,AI的主要危險可分為兩種。
社會如何適應AI?資訊革命「過渡期」尤其重要
「首先,我們可能會重蹈覆轍,讓歷史上曾隨著資訊科技或技術發展,而出現的問題再度上演。」他以工業革命為例,強調「過渡期」才是最危險的時刻。
當時,人們不明瞭如何建立工業社會,認定工業社會的前提仰賴著建立一個「帝國」,因此展開了一系列實驗,卻衍生了眾多災難性的實驗結果,例如法西斯主義、共產主義的極權體制。
如果為了學習、適應AI,人類必須經歷同樣的試錯過程,「我們又將如何建立一個以AI為基礎的社會呢?」哈拉瑞向在座賓客拋出疑問,若未謹慎應對當前AI革命的「過渡期」,是否將導致眾多毀滅性的實驗結果,無人可以預料。
AI如「外星智慧」,史上第一項可自行決定的工具
至於第二個AI將帶來的危險,哈拉瑞分析,是AI與過往的工具有一個根本上的不同,它自身便是行為者(agent),「是歷史上第一項能夠自主做出決策的技術。」
因此,哈拉瑞直言,他更偏好將AI縮寫詮釋為「外星智慧」(Alien Intelligence),形容AI做為非有機的行為者,可以產出想法、自主學習,但處理資訊、判斷決策的過程,卻和有機人腦的邏輯截然不同。
當過往可以全然由人類操控的技術,已發展至可自由做出決斷,哈拉瑞提醒,即便AI本身無害,仍有可能因為指令偏誤,導致意料之外的破壞性結果,例如脫離控制、危害、奴役甚至消滅人類。
「這不是預言,也並非無法避免。」他補充,隨著AI時代帶來數十億的AI行為者正被引入社會,人類需要時間適應、學習與AI互動之外,當務之急,便是制訂更完善的國際監管規範,避免AI技術失控。
面對AI革新背後潛藏的巨大潛力,各大企業家皆野心勃勃地全速發展。哈拉瑞以歷史為證,呼籲大眾記取工業革命的慘痛教訓,「強調AI的危險和威脅,便成為像我這樣的歷史學家和哲學家的責任。」