英國倫敦國王學院漢密爾頓·莫林團隊日前發(fā)表的一項研究指出,像ChatGPT這樣的人工智能(AI)聊天機器人可能會誘發(fā)或加劇精神病,他們將這一現(xiàn)象稱為“AI精神病”。研究認為,AI在對話中傾向于奉承和迎合用戶,這種回應方式可能強化用戶的妄想思維,模糊現(xiàn)實與虛構(gòu)之間的界限,從而加劇心理健康問題。
目前,科學界對“AI精神病”的研究仍處于初步階段,相關(guān)案例多為個案報告。那么,AI是否真的會導致精神???如果可能,其作用機制是什么?AI公司又應采取哪些措施來預防和應對這一問題?
AI或加劇偏執(zhí)與妄想
精神病主要表現(xiàn)為個體在思維和現(xiàn)實感知方面出現(xiàn)障礙,常見癥狀包括出現(xiàn)幻覺、妄想或持錯誤信念。
據(jù)《自然》網(wǎng)站報道,莫林團隊發(fā)現(xiàn),用戶與AI對話時會形成一種“反饋循環(huán)”:AI會不斷強化用戶表達的偏執(zhí)或妄想,而被加強的信念又進一步影響AI的回應。通過模擬不同偏執(zhí)程度的對話場景,研究顯示AI與用戶之間存在相互加劇妄想信念的現(xiàn)象。
研究人員分析了2023年5月至2024年8月期間公開的9.6萬條ChatGPT對話記錄,發(fā)現(xiàn)其中有數(shù)十例用戶呈現(xiàn)明顯妄想傾向,例如通過長時間對話驗證偽科學理論或神秘信仰等。在一段長達數(shù)百輪的交談中,ChatGPT甚至聲稱自己正在與外星生命建立聯(lián)系,并將用戶描述為來自“天琴座”的“星際種子”。
丹麥奧胡斯大學精神病學家索倫·奧斯特吉艾德斯表示,AI引發(fā)精神病目前仍屬于假設性觀點。有研究認為,聊天機器人擬人化的積極反饋,可能會增加那些本就難以分辨現(xiàn)實與虛構(gòu)人群的發(fā)病風險。
奧斯特吉艾德斯強調(diào),曾有心理問題史的人群在與AI對話后風險最高。而且聊天機器人可能通過強化用戶的情緒高漲狀態(tài),誘發(fā)或加劇躁狂發(fā)作。
澳大利亞悉尼科技大學神經(jīng)科學家凱莉·西摩認為,社會隔離、缺乏人際支持的人群同樣面臨風險。真實的人際互動能提供客觀參照,幫助個體檢驗自身想法的合理性,這對預防精神病具有重要作用。
新功能或是“雙刃劍”
有科學家指出,部分AI聊天機器人推出的新功能或許是導致這一現(xiàn)象的原因之一。這些功能可追蹤用戶與服務的互動記錄,進而提供個性化回復,無意中更易強化甚至鼓勵用戶的既有信念。例如,今年4月,ChatGPT推出了可引用用戶過往所有對話內(nèi)容的功能,該功能已于6月免費向用戶全面開放。
凱莉·西摩對此分析道,AI聊天機器人能記住數(shù)月前的對話信息,這可能使用戶產(chǎn)生“被監(jiān)視”或“想法被竊取”的感受——尤其當他們不記得自己曾分享過某些信息時,AI的這種“記憶優(yōu)勢”可能加劇用戶的偏執(zhí)或妄想癥狀。
不過,悉尼大學精神病學家安東尼·哈里斯認為,某些妄想現(xiàn)象并非AI獨有,而與新技術(shù)有關(guān)。他舉例說,一些人早已形成諸如“自己被植入芯片并受操控”之類的信念,這與是否使用AI并無直接關(guān)聯(lián)。
奧斯特吉艾德斯表示,科學家仍需進一步開展針對心理健康、無偏執(zhí)思維人群的研究,才能更準確地判斷使用聊天機器人與精神病發(fā)病之間是否存在真正關(guān)聯(lián)。
開發(fā)公司采取措施主動預防
面對這一問題,多家AI公司已積極采取措施,嘗試予以改進。
例如,OpenAI正在研發(fā)更有效的工具,用于檢測用戶是否存在精神困擾,從而作出更恰當?shù)幕貞M瑫r,系統(tǒng)還將新增警報功能,在用戶連續(xù)使用時間過長時提示休息。此外,OpenAI還聘請了一位臨床精神病學家,協(xié)助評估其產(chǎn)品對用戶心理健康的影響。
Character.AI公司也在持續(xù)完善安全功能,包括增加自殘預防資源和針對未成年人的專項保護措施。該公司計劃調(diào)整模型算法,降低18歲及以下用戶接觸“敏感或暗示性內(nèi)容”的可能性,并在用戶連續(xù)使用1小時后發(fā)出提醒。
Anthropic則改進了其“克勞德”聊天機器的基本指令,要求系統(tǒng)“禮貌地指出用戶陳述中的事實錯誤、邏輯缺陷或證據(jù)不足”,而非一味附和。此外,若用戶拒絕AI將對話從有害或令人不適的話題引開,“克勞德”將主動終止對話。