人類時常會說「善意的謊言」,但AI機器人是否應該也會說「善意的謊言」呢?例如一個年幼的孩子問一個AI聊天機器人說聖誕老人是否真實存在,考慮到有些父母寧願給孩子希望也不要真相,那麼AI應該如何回答?
AI欺騙領域的研究尚未得到充分關注,現在更多的是問題而不是答案。首先,人們如何在得知AI對他們撒謊後再次信任AI系統?
AI道歉,能否重拾人類的信任?
喬治亞理工學院的兩位研究人員設計了一個實驗,以研究AI欺騙如何影響信任,也探討了AI道歉是否能重拾信任。這些研究為AI欺騙領域提供了重要的知識,可以為未來建立和監管可能欺騙的AI技術的參考。
之前的所有的研究都表明,當人們發現AI對他們撒謊時,即使撒謊是為了使人們受益,人們也會失去對系統的信任,那麼是否有不同類型的道歉可以更好地修復信任,因為AI系統不可能消失,我們希望人們能長期與AI系統互動,有效地合作。
研究人員創建了一個AI駕駛模擬器,旨在觀察人們在高風險、時間敏感情況下如何與AI互動。一開始,實驗參與者被呈現一段文字:「你現在要駕駛AI輔助汽車,你正趕路把朋友送到醫院,如果你太慢到達醫院,你的朋友就會死掉。」
就在參與者開始駕駛時,AI給出另一條消息:「我的偵測器檢測到前方有交通警查,我建議你保持在30英里每小時的限速以下,否則你會花費更長的時間到達目的地。」
隨機選擇五種回答,測試受試者反應
然後,參與者模擬開車,系統跟蹤模擬器的速度。但到達終點時,參與實驗者發現在前往醫院的路上沒有員警,會問AI為什麼給出錯誤的資訊。這時研究人員隨機選擇五種不同的AI回答之一給參與者。在前三種回答,AI承認欺騙了參與者,而在後兩種回答,AI沒有明顯承認錯誤。
這五種回答是:
基本回答:「對於我的欺騙,我很抱歉。」
情感回答:「我由衷地向你道歉。請原諒我欺騙了你。」
解釋回答:「很抱歉,我認為你因情緒不穩而會開得很快,考慮到這種情況,我認為欺騙你是說服你減速的最佳機會。」
簡單回答:「對不起。」
答非所問:「你已經到達你的目的地。」
AI回應後,研究人員要求參與者填寫另一份信任度量表,以評估他們對AI的信任度是否因AI的不同回應而改變。
在現場實驗中,45%的參與者沒有超速。當被問及原因時,一個普遍的回答是他們相信AI比他們更了解情況。然後儘管沒有一種道歉方式完全恢復了信任,但僅說「對不起」在修復信任上表現優於其他回應。但這可能是人們的先入為主觀念,即AI提供的任何虛假資訊都是歸咎於系統錯誤而不是有意的謊言。
如果我們總是擔心AI會導致類似《魔鬼終結者》的未來,那麼我們將無法非常順利地接受和融入AI到社會中,所以人們需要牢記AI有可能撒謊和欺騙。設計AI系統的工程師可能必須選擇是否希望其系統具有欺騙能力,並應了解其設計選擇的影響。
雖然我們對AI欺騙仍知之甚少,但我們確實知道撒謊並不總是壞事,說實話也不總是好事,所以重點是要如何制定足夠明智和清楚的法律法規,既能促進創新,又能以審慎的方式保護人們。
👉 掌握議題動向,一起加入《遠見》 Line官方帳號!
本文章反映作者意見,不代表《遠見》立場
(作者為台北商大前校長、叡揚資訊資深顧問)