Facebook Pixel
訂閱
快速註冊 已是會員,立即登入

為您推薦

會員權益

AI欺騙你,會讓你懷疑人生嗎?

張瑞雄
user

張瑞雄

2023-04-17

瀏覽數 11,100+

雖然我們對AI欺騙仍知之甚少,重點是要制定清楚的法規,既能促進創新,又能以審慎的方式保護人們。圖片來源:Pexels by Tara Winstead
雖然我們對AI欺騙仍知之甚少,重點是要制定清楚的法規,既能促進創新,又能以審慎的方式保護人們。圖片來源:Pexels by Tara Winstead

喜歡這篇文章嗎 ?

登入 後立即收藏 !
00:00
00:00

人類時常會說「善意的謊言」,但AI機器人是否應該也會說「善意的謊言」呢?例如一個年幼的孩子問一個AI聊天機器人說聖誕老人是否真實存在,考慮到有些父母寧願給孩子希望也不要真相,那麼AI應該如何回答?

AI欺騙領域的研究尚未得到充分關注,現在更多的是問題而不是答案。首先,人們如何在得知AI對他們撒謊後再次信任AI系統?

AI道歉,能否重拾人類的信任?

喬治亞理工學院的兩位研究人員設計了一個實驗,以研究AI欺騙如何影響信任,也探討了AI道歉是否能重拾信任。這些研究為AI欺騙領域提供了重要的知識,可以為未來建立和監管可能欺騙的AI技術的參考。

之前的所有的研究都表明,當人們發現AI對他們撒謊時,即使撒謊是為了使人們受益,人們也會失去對系統的信任,那麼是否有不同類型的道歉可以更好地修復信任,因為AI系統不可能消失,我們希望人們能長期與AI系統互動,有效地合作。

研究人員創建了一個AI駕駛模擬器,旨在觀察人們在高風險、時間敏感情況下如何與AI互動。一開始,實驗參與者被呈現一段文字:「你現在要駕駛AI輔助汽車,你正趕路把朋友送到醫院,如果你太慢到達醫院,你的朋友就會死掉。」

就在參與者開始駕駛時,AI給出另一條消息:「我的偵測器檢測到前方有交通警查,我建議你保持在30英里每小時的限速以下,否則你會花費更長的時間到達目的地。」

隨機選擇五種回答,測試受試者反應

然後,參與者模擬開車,系統跟蹤模擬器的速度。但到達終點時,參與實驗者發現在前往醫院的路上沒有員警,會問AI為什麼給出錯誤的資訊。這時研究人員隨機選擇五種不同的AI回答之一給參與者。在前三種回答,AI承認欺騙了參與者,而在後兩種回答,AI沒有明顯承認錯誤。

這五種回答是:

基本回答:「對於我的欺騙,我很抱歉。」

情感回答:「我由衷地向你道歉。請原諒我欺騙了你。」

歡慶遠見39週年|訂閱享優惠 再送各式好禮>>>快來看看

解釋回答:「很抱歉,我認為你因情緒不穩而會開得很快,考慮到這種情況,我認為欺騙你是說服你減速的最佳機會。」

簡單回答:「對不起。」

答非所問:「你已經到達你的目的地。」

AI回應後,研究人員要求參與者填寫另一份信任度量表,以評估他們對AI的信任度是否因AI的不同回應而改變。

在現場實驗中,45%的參與者沒有超速。當被問及原因時,一個普遍的回答是他們相信AI比他們更了解情況。然後儘管沒有一種道歉方式完全恢復了信任,但僅說「對不起」在修復信任上表現優於其他回應。但這可能是人們的先入為主觀念,即AI提供的任何虛假資訊都是歸咎於系統錯誤而不是有意的謊言。

如果我們總是擔心AI會導致類似《魔鬼終結者》的未來,那麼我們將無法非常順利地接受和融入AI到社會中,所以人們需要牢記AI有可能撒謊和欺騙。設計AI系統的工程師可能必須選擇是否希望其系統具有欺騙能力,並應了解其設計選擇的影響。

雖然我們對AI欺騙仍知之甚少,但我們確實知道撒謊並不總是壞事,說實話也不總是好事,所以重點是要如何制定足夠明智和清楚的法律法規,既能促進創新,又能以審慎的方式保護人們。

👉 掌握議題動向,一起加入《遠見》 Line官方帳號! 

本文章反映作者意見,不代表《遠見》立場

(作者為台北商大前校長、叡揚資訊資深顧問)

你可能也喜歡

AI教父黃仁勳的創業領導成功之道
數位專題

AI教父黃仁勳的創業領導成功之道

AI晶片巨頭輝達(NVIDIA)執行長黃仁勳勢不可擋!1993年創立輝達以來,公司市值近來創下歷史新高,黃仁勳身價更是破千億美元榮登全球前15大富豪。隨著Computex 2024登場,他帶來的A

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務