alexa
置頂

自動駕駛汽車如何因應道德問題

文 / 一流人    
2018-02-13
瀏覽數 6,950+
自動駕駛汽車如何因應道德問題
分享 Line分享分享 複製連結

對於道德問題的因應

為了自動駕駛汽車的實用化,除了必須與現行法規制度進行整合外,有關倫理道德方面的課題也得進行檢討。而其中最具代表性的問題便是「電車難題」(Trolley problem)。

所謂的「電車難題」,是一項「是否允許為了救某人而犧牲他人?」的倫理學思考實驗。具體而言,這問題是在詢問:當你看見一部失控的電車直衝而來,若讓電車繼續向前衝,在其軌道前方的五名作業員就會被輾死;但若在軌道的分歧點切換了它的行駛方向,同樣會有一名作業員被輾死。那麼,究竟該怎麼做才是正確的?

這難題若套用到自動駕駛汽車上,我們可試想一下下述的例子:若突然有人闖到自動駕駛汽車前面時,究竟是該抱著可能會讓駕駛員受傷的覺悟,轉開方向盤閃避行人?還是該以駕駛員的安全為優先,直接輾過行人?

有關這類問題,並不會有可以讓所有人都接受的正確答案。對於根據某種演算法或程式來採取行動的自動駕駛汽車而言,則有必要制定能夠因應各種狀況的規則。再者,有關事故發生時的責任歸屬,也得進行討論。針對第一階段和第二階段的自動駕駛汽車,駕駛員必須承擔事故責任的部分,這毫無議論餘地。不過,針對第三階段和第四階段的自動駕駛汽車,責任歸屬究竟是在汽車製造者還是駕駛員,這則是需要討論釐清的問題。

AI今後勢必會對我們的生活及經濟等造成極大的影響,藉由檢討有關這股影響力的預測及因應對策,將可使世界更加活化。英國於二○○五年成立了由牛津大學哲學系當中數位專攻AI或氣候變遷等人類存亡風險的哲學家及倫理學家所組成的人類未來研究所(Future of Humanity Institute,縮寫為FHI)。到了二○一二年,劍橋大學人文科學研究所也設立了從哲學和倫理學角度來研究包含AI在內之先進科技風險的生存危機研究中心(Centre for the Study of Existential Risk,縮寫為CSER)。

而美國,於二○一四年創設了生命未來研究所(Future of Life Institute,縮寫為FLI)。FLI是以麻省理工學院及哈佛大學的所在地波士頓為活動據點,支援有關人類如何控制AI等新技術的研究。而一再呼籲AI危險性的伊隆.馬斯克(Elon Reeve Musk)捐贈十二億日圓給該研究所一事,也成了眾所矚目的焦點。

以AI發祥地自豪的史丹佛大學,也於二○一四年設立了人工智慧百年研究專案(One Hundred Year Study on Artificial Intelligence,縮寫為AI100)。AI100 主要是以提供跨領域研究人工智慧對於社會或經濟直至百年後之長期影響的相關材料為目標。其研究成員之中也有法律專家,而探討的主題也相當多元,如AI對法規制度、道德倫理及經濟政治所帶來的影響,或是人類與機器的共存方式等。

至於日本,則於二○一四年,在人工智慧學會中設置了倫理委員會,並在二○一六年所召開的全國大會上發表了倫理規範(code of ethics)。這份倫理規範是由「對人類的貢獻」、「誠實的舉止」、「公正性」、「不斷的自我鑽研」、「查證與警示」、「社會的啟蒙」、「法規制度的遵守」、「對他人的尊重」、「對他人隱私的尊重」,以及「說明責任」等十個項目所構成,主要是用來作為人工智慧技術研究開發的指南。

如上述這些行動,並非僅止於學術界,也逐漸開始拓展至產業界。二○一六年九月,臉書、谷歌、谷歌旗下的DeepMind、微軟、亞馬遜,以及IBM 等六間公司,成立了以AI普及為目標的非營利組織「造福人群和社會的人工智慧夥伴關係」(Partnership on Artificial Intelligence to Benefit People and Society,簡稱Partnership on AI)。該組織以宣傳AI對人類的貢獻及其安全性,以及共享AI的典範實務(best practice)為目的。

在日本,除了人工智慧學會外,在政府主導下,也開始進行有關AI普及的課題檢討。但若從檢討成員的多元性或論點摘出的部分來看,則是歐美搶先於前。

今後,有關AI或機器人普及之課題的明確化,以及解決方案的探討,同時也為了減輕AI相關產品或服務在進出口時可能產生的風險,筆者認為日本應當積極促成與海外研究機構的合作。

自動駕駛汽車如何因應道德問題

本文節錄自:《AI人工智慧的現在‧未來進行式》一書,古明地正俊、長谷佳明著,林仁惠譯,遠流出版。

圖片來源:pixabay

分享 Line分享分享 複製連結
閱讀科技國際財經
您也可能喜歡這些文章
您也可能喜歡這些文章