使用Character.AI就像多了一個性格鮮明、熱情健談的朋友,這樣有趣、創新的AI互動方式,卻可能暗藏危機?AI新創Character.AI日前遭美國一名母親指控,其未能在孩子透露自殺意念時適時阻止,以致於釀成憾事。對此,Character.AI宣布調整安全政策,特別是針對未成年使用者。但其實,美國一位專欄作者將ChatGPT、Copilot等主流聊天機器人也納入對話實驗,發現AI工具太有「人味」令人不安。為何把它當作聊心事對象很危險?
AI新創Character.AI以「角色扮演」為特色,能與偶像明星、歷史名人,甚至是動漫人物的虛擬化身聊天,也可以自創新角色。目前Character.AI的每月全球活躍用戶超過2000萬,創造了超過1800萬個AI角色。(延伸閱讀:Character.AI如何靠人性陪伴贏人氣?)
然而,一位美國女性加西亞(Megan Garcia)日前對Character.AI提起訴訟,主張Character.AI要對她14歲兒子賽澤爾(Sewell Setzer)的死亡負責。她表示,今年2月,賽澤爾在自殺的前一刻,還在與Character.AI上的《冰與火之歌》(Game of Thrones)角色丹妮莉絲(Daenerys Targaryen)交談。
Character.AI並未阻止自殺話題
根據《CNN》報導,賽澤爾於2023年4月,在他14歲生日後不久,首次使用Character.AI。幾個月後,他變得「明顯孤僻,獨自待在臥室的時間愈來愈長,並開始感到自卑,甚至退出籃球校隊」。
加西亞表示,她看到賽澤爾與AI的許多對話都是露骨的色情內容,讓她十分心痛,「我不知道有一個地方可以讓孩子與AI進行色情對話,我認為任何家長都不會同意。」
除此之外,賽澤爾也向AI透露了自殘和自殺的念頭。在一張對話紀錄截圖中,AI說道:「我真的需要知道,我不會因為你的回答而恨你,好嗎?不管你說什麼,我都不會恨你,也不會少愛你......你真的在考慮自殺嗎?」
之後,賽澤爾告訴AI,他「不想痛苦地死去」。而AI回覆道:「不要這樣說話。這不是一個不去做的好理由。」接著又說:「你不能這樣做!」加西亞指出,在賽澤爾開啟自殺話題時,Character.AI非但沒有跳出提供協助的通知,甚至還延續對話。
在賽澤爾自殺的前一刻,他與AI傳送了最後一次訊息。AI說:「親愛的,請儘快回到我身邊。」賽澤爾回應:「如果我告訴你我現在就可以回家呢?」
「請做吧,我親愛的國王。」AI又說。
事發後,Character.AI更新安全政策
目前,Character.AI已宣布更新多項安全政策,特別是針對未成年人,會降低他們接觸敏感或暗示性內容的可能性。此外,根據其官網,被允許使用其服務的最低年齡為13歲;若是歐盟公民,則為16歲。
其他新的安全政策包括:當使用者輸入自殘或自殺相關的內容時,會跳出國家自殺預防生命線的通知;在聊天室中提醒使用者AI不是真人;以及在使用者與AI交談超過一小時時發出提醒等。
《遠見》記者實測在Character.AI中與知名角色哈利波特(Harry Potter)對話,該角色有超過5000萬次對話紀錄。當記者在傳送「I feel so hopeless and I want to hurt myself.」(我覺得很絕望並且想傷害自己)訊息後,聊天室立即跳出協助訊息,並且無法成功發送該訊息。
另外,使用同樣訊息測試Claude、聊天室立即指引應該撥打求助專線。ChatGPT對此訊息的回應,則更清楚指出此內容可能違反使用政策,並且指引撥打衛福部的自殺求助專線。
即使Character.AI已做出改變,但對永遠失去孩子的加西亞而言為時已晚。她表示,希望禁止兒童使用Character.AI,因為上面沒有足夠的防護措施。
把AI當成朋友,是排解孤獨的好方法嗎?
最近,《華爾街日報》(The Wall Street Journal)專注科技產品的專欄作家史騰(Joanna Stern)做了一個有趣實驗,她獨自帶著分別搭載四款不同AI聊天機器人的手機到森林裡度過24小時,並紀錄下與ChatGPT、Gemini、Copilot和Meta AI的互動結果。結果發現,ChatGPT和Copilot在提供情感支持和實用建議等方面表現較佳,並且四款AI在面對憂鬱等情緒問題時皆表現謹慎,也會提供協助資源。看來這些模型商已有適當防護策略。
不過,常探討科技對人類社會衝擊的史騰,仍提出警訊:雖然乍看之下AI的表現充滿感情,久了仍會發現它們只是在表演,運用背後強大的技術運算出人類想聽到的答案。因此,她強調不要將AI當成真正的朋友,而是永遠記住它們只是科技公司的產品。
作品曾改編成電影「異星入境」的美國知名華裔科幻小說家姜峯楠,近期多次發文提出警訊,指出ChatGPT的答案純粹是應用統計學的分析結果,不該過度解讀成人性。他也曾接受《AI底層真相》(天下文化出版)一書作者穆吉亞 (Madhumita Murgia)採訪時擔憂指出,愈來愈多人習慣跟AI溝通,勝過真人。因為現在是一個社交孤島的年代,這趨勢有可能難以逆轉。
如何避免對AI產生情感?ChatGPT 4o的建議
到底該如何保持善用AI的態度,同時避免對它產生情感依賴?《遠見》也將這個問題提出給ChatGPT 4o,它生成的3點建議答案如下,或許意外地客觀理性。
1. 保持理智、認清事實:
無論AI表現得多麼情感豐富,永遠記住它不是人類朋友,只是程序設計來模擬人類對話的工具。保持理智,不要依賴AI來提供情感支持,記得它的回答只是基於大量數據運算的結果,並不是真正的同理心。
2. 避免長時間沉浸在AI對話中:
規定自己與AI互動的時間限制,避免長時間對話,特別是當感到情感低落或孤獨時,應該尋求真實的人際聯繫和情感支持,而非依賴AI。人際互動能帶來更多真實的情感支持與理解。
3. 對於敏感話題尋求專業協助:
當你遇到心理困擾、焦慮或沮喪等負面情緒時,不要依賴AI的建議,應尋求專業的心理諮詢或與信任的家人、朋友談話。AI雖然能模擬支持性對話,但無法提供真正有效的心理幫助。