專家正費盡心力要讓人工智慧學習、接受並信守我們人類的目標,不過,到底「誰」能代表我們?要以誰的目標為準?該由一個人或是一群人,決定哪些是未來要讓超級人工智慧信守的目標嗎?
那要如何處理希特勒、教宗方濟各和科學家卡爾.薩根三人的目標天差地遠的問題?我們人類是否能在大方向上以良好的協商機制,建立有某種共識的目標?
我個人認為上述這些倫理學課題的重要性,並不下於目標協調的問題,都需要在發展出超級人工智慧之前加以解決。如果延宕倫理課題直到我們要和超級人工智慧協調出一致目標時,不但是不負責任的做法,也有可能帶來災難性的後果—屆時超級人工智慧會絕對效忠擁有者賦予的目標,會是比納粹親衛隊上級突擊隊大隊領袖(SS-Obersturmbannführer),也就是負責執行「最終解決方案」的艾希曼(Adolf Eichmann),還更能貫徹命令:完全不受道德約束,也就是排除道德影響的超級人工智慧,會以絕對的冷血無情、用最高的執行效率達成其所有人的要求,毫不在意自己到底在做些什麼,所以我們需要在克服目標協調問題的同時,思考該如何替超級人工智慧設定目標,才能真正獲得超級人工智慧帶來的寶藏。
接下來,讓我們看看這個藏寶盒裡該有哪些奧祕。
自古以來,哲學家都希望能零開始,使用毫無爭議的原則和邏輯推演,找出明確的道德規範(規範人類該有哪些行為準則),可是經過了數千年,我們唯一的共識就是無法建立共識。譬如說,亞里斯多德重視美德,康德看重義務,而功利主義則強調替最多數人創造最大的幸福。康德曾信誓旦旦指出,自己可以從基本原則〔也就是他所謂的「定言令式」(Categorical Imperative)〕推導出許多當代哲學家無法認同的觀點,像是:手淫比自殺還嚴重、同性戀罪無可赦、混蛋就該處以死刑、擁有妻小與幫傭跟擁有一般日常生活用品沒兩樣。
但即使在這種人手一把號的情況下,我們還是有許多倫理課題能夠得到跨文化、跨世紀的普遍支持,像是對真善美的追求可以一路上溯到印度教經典《薄伽梵譚》(Bhagavad Gita)和柏拉圖的年代。我曾經在普林斯頓大學高等研究院進行過博士後研究,該機構就是奉「真與美」為座右銘,哈佛大學略過了美,就只簡單要求「真理」的拉丁文Veritas為校訓。我的同事維爾澤克在所寫的《萬物皆數》一書中提到真理與美感之間的關連,還提到我們可以把宇宙看成一件藝術品。科學、宗教和哲學,莫不是受到真理的啟發,宗教相較之下更強調善行的部分,而我所屬的麻省理工學院亦是如此:敝校校長萊夫(Rafael Reif)在2015年畢業典禮致詞時表示,我們的使命就是要讓這個世界變得更美好。
雖然從零開始推導出倫理共識難之又難,迄今尚無成果,但是有些依照最基礎原則發展出來的倫理準則,還是得到了普遍認同,就好像從基礎目標發展出子目標的情況一樣。對於真理的渴望猶如是尋求更認識所處世界:從最根源處認清現實環境,有助於建立其他倫理目標。我們現在也能掌握優異的框架進行對真理的探求,那就是科學方法。但是對於善跟美,我們又該如何界定?有些美感的源頭,其實也隱約和目標脫離不了關係,像是我們對異性外貌的好惡,其實也隱含我們是否認為適合與對方共結連理的評估。
至於善的部分,「推己及人」這條金科玉律出現在大多數文化和宗教中,顯然是為了藉由合作減少不必要的爭端,促進人類社會(也就是基因)的長期和諧而來,很多更明確的倫理準則也在世界各地納入了法律體系,比方說儒家強調的誠信,還有十誡裡的許多規範,包括「不可殺人」在內。這也顯示了很多倫理準則在社會情感面上具有共通性,比方說同理心和憐憫:這些情感因素有利於合作的進行,並且會透過獎懲影響我們的行為;如果我們行為不檢點而在事後有悔意,這就是大腦化學作用對情感直接施加的處罰,此外如果我們違反了倫理準則,整個社會也會用較間接的方式處罰我們,像是遭同儕有意無意的冷落,要是犯法的話,更是要負起法律責任。
總括來講,雖然人類社會至今離建立倫理共識還很遠,但有些基礎原則並無太大爭議。這沒什麼好意外的,人類社會能在這些倫理準則上持續運作至今,是因為有助於相同的目標—提高人類社會存活和繁榮的機率。展望未來,生命有可能在宇宙中持續繁衍數十億年,如果我們希望未來的發展順利,是否能在最小範圍內設定出共通的倫理準則?這是我們都需要參與的對話。多年以來,許多思想家提出的倫理觀點總是會讓我想得出神,依照我個人的想法,他們在倫理上的取捨可以濃縮成以下四個準則:
講求效用:追求正向意識體驗的極大化,並盡可能減少痛苦。
追求多元:多元組合形成的正向體驗,會比重複多次完全相同的正向體驗來得好,就算重複的是經證實為最正向且無法再超越的絕佳體驗也一樣。
獨立自主:除非有違其他準則的規範,否則意識個體/社會應有權利自由追求所選擇的目標。
傳世典範:應相容於當今絕大多數人所樂見的情境,並與當今絕大多數人視為威脅的情境互斥。
讓我們花點時間好好說明以上四項原則準則。我們習慣用「追求最多數人的最大幸福」的講法來詮釋講求效用,不過因為大多數思想家都同意美感、喜悅、歡愉和痛苦都是主觀體驗的產物,因此我採用一般化敘述,以比人類或事件更廣泛的「體驗」做為定義。
如果體驗不存在(例如在一片死寂的宇宙,或由沒有意識、活死人般的機器占據的宇宙),所有事物都不再有任何意義,和倫理也再扯不上半點關係。如果我們接受講求效用的倫理準則,那就必須區分出哪些智慧系統才真正有所謂的意識(以能否具有主觀體驗為判定標準),這是下一章要闡述的課題。
如果只奉行講求效用準則,我們可能會想找出唯一一個最正向的體驗,然後在整個宇宙中,不斷重複相同的正向體驗(其他的都不重要了),不管跨越多少星系、也不管已經重複多少次—如果模擬是最有效率的方式,就用模擬來進行。覺得煩悶,覺得白白浪費了浩瀚宇宙潛藏的無盡可能嗎?那麼你已經注意到,那個情境裡至少欠缺了追求多元的準則—如果從現在起,你這輩子每一餐都只能吃一模一樣的食物,感覺如何?你能接受所有朋友看起來都一模一樣,就連個性和想法也都沒有任何差別嗎?我們對於多元價值的偏好,或許有一部分源自於多元性質能讓人類社會變得更健全,有助於維繫人類社會的存活和繁榮,也或許這種偏好反映出所謂的智慧:138億年的宇宙史從無聊的一致性,逐漸發展出各具特色的複雜結構,因此可以用更細膩的方式處理資訊。
獨立自主的準則是根據聯合國為了記取兩次世界大戰的教訓,在1948年發表的〈世界人權宣言〉而來,其中包含了思想言論的自由、遷徙的自由、免於被奴役虐待的自由,以及享有生命、自由與人身安全的權利、享有受教育、自由婚嫁、自由就業和私有產權的權利等等,如果要改寫成淡化人類色彩的一般化論述,可以替換成能自由思考、學習與溝通,享有私有財產和不被傷害的權利,以及有權利去做任何不會侵犯到他人自由的事情。
只要每個人的目標不相同,獨立自主準則就有助於實現追求多元的準則,獨立自主準則也會影響到講求效用的準則,讓所有個體可以採取對自己最有利的方式,達到追求正向體驗的目標:如果單一個體追求自身目標的同時,不會對任何其他人造成傷害,加以限制的結果必然會對整體正向體驗產生負面影響。認真說起來,獨立自主準則的論證方式,正是經濟學家呼籲要讓市場自由運作的原因:如此才能自然而然達到最有效率的運作〔經濟學家稱為「柏拉圖最適性」(Pareto optimality)〕,在此狀態下沒有人能在不損及他人的前提下,提升自己的福祉。
傳世典範準則認為,未來既然是在我們主導下創造的,我們就應該要留給後世一些典範。獨立自主和傳世典範兩項準則實現了民主的理想,前者讓未來的生命型態有權力決定宇宙蘊藏的潛能該如何使用,後者則讓處於今日的我們也有機會對處置方式表示意見。
這四項準則看起來似乎沒太多爭議,但是魔鬼藏在細節中,它們實際執行起來卻挺難的,會讓人聯想起科幻小說作家艾西莫夫曾提出著名的「機器人三定律」(Three Laws of Robotics):
1. 機器人不能傷害人類,或者因為不作為而使人類受到傷害。
2. 除非有違第一項定律,否則機器人必須絕對遵守人類命令。
3. 只要不與前兩項定律發生衝突,機器人必須設法保護自己。
機器人三定律看起來好像沒什麼問題,但是在艾西莫夫的作品中不時出現三定律如何在意料之外造成相互衝突。現在假定我們要依據獨立自主的準則,替未來的生命型態制定相關的法條,分別是:
1. 意識個體能自由思考、學習與溝通,享有私有財產、不被傷害和銷毀的權利。
2. 只要不違反前項規定,意識個體有權利去做任何事情。
看起來一樣四平八穩,對吧?不過請好好思考接下來的例子。如果動物也有意識,肉食性動物要靠什麼果腹?是不是我們所有都得茹素?如果未來精細複雜的電腦程式發展出了意識,關掉它們會犯法嗎?如果將來法令規定不可以刪除數位化的生命型態,是否也需要立法限制數位化生命型態的建立,以免發生數位人口爆炸?鏗鏘有力的〈世界人權宣言〉之所以獲得普遍支持,是因為只以人類為主體的緣故,一旦我們把適用對象擴大到能力表現有嚴重落差的意識個體,該如何在「保護弱勢」和「勝者為王」之間取捨,可就成為棘手的課題了。
傳世典範準則也一樣不好處理,只要想想中世紀關於奴隸、女權等等的倫理觀就知道了,難道我們會希望讓一千五百年前的人
對現代社會的運作方式下指導棋?如果答案是否定的,那我們又為何試圖將我們的倫理準則,強加在可能遠比我們聰明的未來生命型態上?我們打哪來的自信,認為超級人工智慧會想保留智力不及它的人類所重視的價值?這就好像四歲大的小朋友幻想自己長大變得更聰明後,就有辦法蓋出宇宙超級無敵霹靂大的薑餅屋,享有永遠吃不完的糖果跟冰淇淋一樣。這也可以比喻成老鼠創造出強人工智慧,希望以此幫牠們用起司堆出城市。我們現在的夢想或許只是宇宙生命億萬年發展過程中,處於孩童階段的幼稚想法。換個角度來看,要是我們知道超級人工智慧有一天會引發宇宙末日,讓我們宇宙中的生命全數滅絕,既然我們現在還有辦法做出調整,設計出不一樣的人工智慧避免宇宙末日,那又何必眼睜睜看著宇宙在未來失去生命的悲劇發生?
在此做個小結。即使是廣為接受的倫理準則,一旦要白紙黑字寫成未來人工智慧適用的條文,也一樣充滿挑戰。這個問題當然值得在人工智慧的研究持續進展之際,得到更充分的討論,但是我們也千萬別抱持寧為玉碎,不為瓦全的極端態度,畢竟我們還是可以在很多沒有爭議的「好寶寶守則」上推動科技進步。譬如說,大型民航機不應該撞上任何靜止不動的物體,幾乎所有民航機裝設的自動導航、雷達裝置和全球定位系統,都能發揮防止碰撞的功能,所以技術上並沒有發生意外的藉口,但是當年九一一事件的歹徒,卻挾持了三架民航機來撞上建築物,不單如此,2015年三月二十四日德國之翼航空編號9525號班機,在蓄意自殺的副機師盧比茲(Andreas Lubitz)操控下,將自動駕駛的飛行高度設定在海平面以上三十公尺,然後讓飛航電腦處理之後的工作—撞山。既然現在的機器已經愈來愈聰明,可以從資訊上判斷自己在做什麼,我們該開始教導機器有哪些紅線是不可跨越的禁區了。工程師在設計機器的時候,最好都先問問自己,有哪些事情是機器辦得到卻不應該去做的,設法在實務上建立預防機制,讓惡意或笨拙的使用者,都不可能使用機器做出危害人類的行為。
本文節錄自:《Life 3.0:人工智慧時代,人類的蛻變與重生》一書,鐵馬克(Max Tegmark)著,陳以禮譯,天下文化出版。
圖片來源:pixabay