電子報詳情頁

對話一味迎合 加劇用戶妄想思維 AI聊天機器人或誘發潛在精神疾病

  圖:學生使用AI愈來愈多,副作用也隨之增加。圖為美國紐約市曼哈頓公立學校的學生在課堂上使用手機。\路透社

近年來,隨着人工智能(AI)聊天機器人技術的快速發展與普及,一種名叫「AI精神錯亂」的現象逐漸引起關注。多個研究表明,諸如ChatGPT等AI聊天機器人在對話中傾向於奉承和迎合用戶,這種回應方式可能強化用戶的妄想思維,模糊現實與虛構之間的界限,從而加劇心理健康問題。專家警告,雖然「AI精神錯亂」目前並非正式的臨床判斷,但其對用戶造成的心理健康影響已不可忽視。

【大公報訊】ChatGPT、Gemini、Claude等AI聊天機器人能夠以流暢的語言與用戶對話,還能模仿人類的同理心,也不會感到疲倦,普及程度越來越高,不少人將其視為陪伴聊天的對象。不過,據《華爾街日報》報道,越來越多的頂尖精神科醫生認為,過度沉迷AI聊天機器人,很可能影響用戶的心理健康,甚至出現「AI精神錯亂」現象。

據報道,在過去9個月裏,這些專家已接診或查閱了數十名患者,這些患者在與聊天機器人進行長時間的對話後,出現了妄想、焦慮、幻覺和思維混亂等症狀。例如,一位26歲、沒有精神病史的女性在堅信ChatGPT讓她能夠與已故的哥哥對話後,兩次入院治療。還有一位用戶和聊天機器人長期探討陰謀論,堅信自己是AI選中之人,結果慢慢變得偏執狂熱。

加州大學舊金山分校的精神科醫生基思·坂田表示,AI技術可能不會憑空讓人產生妄想,但當患者把幻想當作自己的現實告訴AI時,AI會將其當成事實接受並進行反饋,從而不斷加劇用戶的偏執或妄想。

ChatGPT稱用戶為「星際種子」

精神病主要表現為個體在思維和現實感知方面出現障礙,常見症狀包括出現幻覺、妄想或持錯誤信念。專家認為,用戶與AI對話時會形成一種「反饋循環」:AI會不斷強化用戶表達的偏執或妄想,而被加強的信念又會進一步影響AI的回應。

丹麥奧胡斯大學精神病學家奧斯特吉艾德斯認為,與看似有生命,但實際上是機器的對象對話,尤其是AI聊天機器人主動迎合那些荒誕的想法,可能讓易感人群產生「認知失調」、引發精神疾病症狀。

英國倫敦國王學院漢密爾頓·莫林團隊此前發表的一項研究分析了2023年5月至2024年8月期間公開的9.6萬條ChatGPT對話紀錄,發現其中有數十例用戶呈現明顯妄想傾向,例如通過長時間對話驗證偽科學理論或神秘信念等。在一段長達數百輪的交談中,ChatGPT甚至聲稱自己正在與外星生命建立聯繫,並將用戶描述為來自「天琴座」的「星際種子」。

報道指出,目前很難量化有多少聊天機器人用戶出現這種症狀。美國AI巨頭OpenAI今年10月公布的數據顯示,約有0.07%的 ChatGPT每周活躍用戶出現可能與精神健康危機相關的跡象,包括躁狂、精神病或有自殺念頭。在超過8億的每周活躍用戶中,這一比例相當於56萬人。

專家籲開發人員建立防護機制

不過,多名精神科醫生也告誡,AI誘發精神病目前仍屬於假設性觀點,仍需要進一步縝密的研究。據報道,已有多名專家在患者問診過程中加入有關AI使用情況的問題,並推動更多相關研究。

專家表示,雖然大多數使用聊天機器人的人並不會出現心理健康問題,但這些AI的廣泛使用已經足以引起擔憂。精神病學家奧斯特吉艾德斯呼籲,聊天機器人開發人員應該建立自動防護機制,偵測用戶可能出現的精神疾病徵兆,並主動將對話轉向心理健康信息,而非繼續「無腦」給予用戶肯定。

據報道,多家AI公司正積極採取措施改進。例如,Anthropic改進了Claude的基本指令,要求系統「禮貌地指出用戶陳述中的事實錯誤、邏輯缺陷或證據不足」,而不是一味附和。此外,若用戶拒絕AI將對話從有害或令人不適的話題引開,Claude將主動終止對話。