當GPT-4o收穫全球關注,他卻默默走人!這位據傳在OpenAI去年政變事件中,扮演要角的首席科學家薩斯凱博,於新發表隔天正式宣布離職。他曾是奧特曼一起攜手草創OpenAI的大將,為何去年雙方關係大變導致宮鬥?近期也有業界人士要求薩斯凱博「公開說明白」,與組織脫鉤真相。據推測,可能和如何讓人工智慧不會發展失控有關。
在2023年震驚AI界的OpenAI政變事件中,扮演關鍵角色的首席科學家薩斯凱博(Ilya Sutskever),於14日結束外界揣測,正式宣布離開一同草創的OpenAI。
據知,當時通知執行長奧特曼(Sam Altman)開會、並在會議上告知對方被解雇的人,皆是薩斯凱博。而後他又改變心意,轉而支持奧特曼回歸。薩斯凱博此後離開董事會,基本上消失在公司活動中。近半年間,不少人探詢薩斯凱博的動向,皆未獲得明確答案。
在X貼文中,薩斯凱博表示自己接下來將從事對他個人別具意義的計畫,細節尚待公布。他也表示,他相信OpenAI能打造出安全又有益的AGI。
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
X貼文中,薩斯凱博表示自己接下來將從事對他個人別具意義的計畫。
這段時間以來,「伊利亞看見了什麼」(What did Ilya see?)已成迷因。據董事會所言,如果驅逐奧特曼的原因是不夠坦承,也許薩斯凱博得知了什麼大眾所不知曉的事,讓他決意支持奧特曼的離開。
直到現在,在薩斯凱博的離職貼文下,自稱AI中間派的用戶蘇里克(Adam Sulik)仍回覆道:為了人類的未來,你應該忽略任何保密協議,公開分享自己看見了什麼。
也許外界仍難以得知薩斯凱博近期的心路歷程,但透過回顧這名AI科學家的過往、以及他的期望與恐懼,或許能窺見他未來可能邁向的方向。
他是OpenAI大將,曾師承「深度學習之父」
現年約38歲的薩斯凱博生於時屬蘇聯的下諾夫哥羅德,5歲時隨家人移民以色列,在耶路撒冷成長。除了英文,他的俄文與希伯來文依然流利。16歲左右,他與家人再度移民至加拿大。
薩斯凱博記得自己在約5歲時看見第一台電腦,便為之著迷。他還對於自我感知感到驚異,並在青少年時期思考了許多關於存在與意識的本質。「我強烈地感受到學習是一件神秘的事。」他描述,「人類顯然可以學習,電腦顯然不能。」
在加拿大,薩斯凱博進入多倫多大學,開始跟隨「深度學習之父」辛頓(Geoffrey Hinton)進行研究。在辛頓協助推進、開展的深度學習領域中,「學習」正是核心概念。

回顧1950~1980年代,許多人工智慧研究圍繞在「符號」上。這種符號人工智慧也被稱為「有效的老式人工智慧」(GOFAI)。目標是透過各種人類可讀的符號建立一個龐大的知識庫,再使用邏輯、數學規則進行推理,打造出可以像人類一樣思考的通用智慧系統。
但辛頓認為,這種進路似乎太過僵化、太過著重推理技巧。他觀察現實世界的許多動物不需要以符號(如語言)的形式理解概念,也可以展現出智慧。牠們是透過從經驗中學習來做到。或許學習、而非知識,才是產生智慧的動能。
深度學習便是一種模仿人腦神經網路的學習技巧,以大量資料訓練模型辨識模式的能力。這種「學習」近似於人類從經驗中學習的歷程。即便未受主流重視,辛頓堅定地訓練可生成短文本的小型神經網路模型。薩斯凱博回憶,「那是生成式AI的開端。那真的很酷,只是表現還不太好。」
推出ChatGPT之前,他就已經啟動「深度學習革命」
在以OpenAI首席科學家的身分、推出改變世界軌跡的ChatGPT前,薩斯凱博已是AI界知名的研究員。他最具變革性的貢獻,是與辛頓及同學里澤夫斯基(Alex Krizhevsky)共同打造的AlexNet。這可說是啟動「深度學習革命」的關鍵時刻。
AlexNet是一個深度學習結構,更準確地說是使用了GPU訓練出的卷積神經網路(CNN)。它在2012年由李飛飛主辦的ImageNet大規模視覺辨識競賽(ILSVR)中,以前所未有的準確度奪得冠軍。這一役向世界展現了深度學習的能耐,也證明了神經網路善於辨識模式,需要的只是足夠大量的資料與充裕的算力。
AlexNet的成功將薩斯凱博引入Google門內,擔任Google Brain的研究科學家。在Google期間,薩斯凱博參與發展機器學習開源平台TensorFlow,並將深度學習應用到資料序列上,提升了Google翻譯的品質。神經網路的潛能被陸續挖掘出來。
不久後,薩斯凱博被OpenAI看上,於2015年成為草創團隊一員。支持創建OpenAI的馬斯克(Elon Musk)曾描述自己在招募關鍵科學家上發揮了重要影響力,並稱「伊利亞的加入是OpenAI成功的關鍵。」
投身OpenAI,和奧特曼共同追逐AGI之夢
在幾乎沒有人認真看待AGI的時候,OpenAI就把打造AGI視為公司的主要目標。AGI是「通用人工智慧」的簡稱。這不是一個有著明確定義的詞彙,薩斯凱博將之視為一個科技發展的參考點。也就是人類做得到的事,AI也可以做到的時刻。
在2023年10月的一場TED演說中,薩斯凱博直言,「以一句話描述,人工智慧就是在大型電腦中的數位大腦。」如果接受神經網路與人類大腦遵行著類似原則運行的前提,那麼一個足夠大的神經網路,也應能夠做出類似人腦可做之事。
影/薩斯凱博在一場TED演說中直言,「以一句話描述,人工智慧就是在大型電腦中的數位大腦。」
若能在機器裡重現人腦學習的過程,打造出具有智慧的電腦,這似乎可以解答薩斯凱博自幼年便抱有的疑問:智慧是如何運作的?可說在AGI還沒被稱做AGI之前,薩斯凱博便在追求著AGI。
薩斯凱博相信AGI終將到來。據《華爾街日報》(WSJ)報導,他曾在員工會議上表示,「如果你不是在醒來與入睡時都想著AGI(feel the AGI),你就不應該待在這間公司。」據報在OpenAI 2022年的一場派對上,薩斯凱博帶領員工高呼「Feel the AGI!」的口號。
當AGI彼此合作達成任務,人類的角色會是什麼?
隨著人工智慧研究進步,愈來愈接近夢想的薩斯凱博似乎也愈來愈憂慮於AGI帶來的影響。他認為AGI將為人類社會的每個面向帶來規模深遠的變革,且不一定全是正面的。早自2023上半年,打造下一代的GPT已經不是薩斯凱博的工作重心。找出不讓人工智慧失控的方法成為他的優先事務。
2023年6月時,薩斯凱博曾對《大西洋月刊》(the Atlantic)記者描述他想像的未來AI並非是如人一樣聰明的智慧體,而是一個可從事科學、工程、研發與製造的自動化組織。
那或許會有點像是在現實世界中組隊戰鬥的進階版OpenAI Five。早在2017年,OpenAI研發出的這套程式已在多人線上遊戲Dota 2中一對一擊敗職業玩家。2019年,它運作5套演算法彼此合作,成為第一個擊敗人類冠軍電競隊伍的AI。

若AI可以在遊戲世界中暢通地溝通、聯合行動,是否有朝一日,許多人工智慧也能在現實世界中協同執行任務?薩斯凱博認為,那可能會打造出遠比Google或Apple都更強大的巨型自動化企業。那樣的自動化組織將如何與人類共存?
令薩斯凱博憂心的一個可能性是,未來AGI與人類的互動關係,可能會走向人類現在對待動物的方式。人類並非刻意想要傷害其他動物,但在建造城市、道路與基礎建設時,依然掠奪了大量資源,破壞其他動物生存的棲地。
GPT-4o尚未現身,他已在思索如何控制「超級智慧」
2023年7月,OpenAI宣布由薩斯凱博共同領導的「Superalignment」計畫。OpenAI預期,比人類更聰明的超級智慧(superintelligence)可能在十年內來臨。研究如何控管AGI可能已經不足,需要發展一套確保超級智慧安全運作(「對齊」)的程序。這個新團隊將獲得公司2成算力支持,目標在4年內解決這項難題。
目前難以評斷這樣的計畫究竟是高瞻遠矚,抑或是杞人憂天。許多人認定AGI還相當遙遠,有些人相信永遠也無法實現。但薩斯凱博對此相當認真,認為AGI即將到來的可能性大到值得被嚴肅看待。
他口中未來超智慧的形貌、人類與機器融合的未來聽來奇異而遙遠,有如科幻小說中的情節。但只在一年多前,AGI也僅是少數人專研的概念。如今,有些看法認為GPT-4已可被視為初期的、不完整的AGI。全球許多研究室都在爭相開發出這樣的人工智慧。
「這樣的改變是因為ChatGPT。」薩斯凱博說,「ChatGPT開展了機器學習研究者的夢想。」
緊接在薩斯凱博發布離職貼文後,曾與他共同領導Superalignment團隊的雷克(Jan Leike)也簡短宣布離職消息。4月時,兩名OpenAI研究員疑因洩密遭解雇。其中一人阿申布倫納(Leopold Aschenbrenner)是Superalignment團隊成員,在驅逐奧特曼事件中支持過薩斯凱博。
這顯示,無論Superalignment團隊原本以什麼樣的進路處理對齊問題,未來都將有更明顯的改變,整個團隊可說是命運多舛。
至於他走後,OpenAI首席科學家一職,則將由2017年加入OpenAI的帕喬基(Jakub Pachocki)接任。他先前任研究主任,曾領導過GPT-4、OpenAI Five等開發計畫,以及強化學習、深度學習優化的基礎研究。
但無論如何,這個關鍵組織的人事變動,都將引導全球AI發展方向,目前只能持續關注。至於有一天超級智慧誕生後,該如何規範與把關?確實已是全球該面對的急迫議題。