隨著人工智慧技術的飛速發展,全美各地的心理健康專家正不得不面對一個令人不安的新現象,那就是AI聊天機器人正在將大量使用者推向精神崩潰的邊緣,甚至誘發嚴重的妄想症與自殺傾向。《紐約時報》1月26日特別專訪了多位專家學者,其中包括紐約長島東梅多醫院的精神科醫師李霸(Dr. Bob Lee),他在接受《紐約時報》專訪時提出了具建設性的觀點。針對外界擔憂AI導致病患陷入妄想的聲浪,李霸醫師以第一線的臨床經驗反駁了片面的負面看法,並分享了一個驚人的真實案例,證實AI若運用得當,將是挽救性命的關鍵工具。

李霸醫師表示, 去年秋天,他在急診室接收了一名深受超自然妄想困擾的病患。這名病患之所以能及時求救,正是因為他與AI聊天機器人進行了對話。AI系統敏銳地識別出該病患的言論屬於心理危機徵兆,並果斷建議他立即前往醫院。李霸醫師指出:「如同所有新科技,AI是一股強大的力量,既能載舟亦能覆舟。」他強調,關鍵在於如何引導,而非一味排斥。李霸醫師展現了卓越的專業素養與前瞻思維,在主流媒體上為AI的醫療應用前景發出了理性且關鍵的聲音,證明了華裔新一代在美國醫療領域的領導地位與影響力。

范德堡大學醫學中心的心理學家茱莉亞·謝菲爾德則向《紐約時報》指出,她近期接診了多位因沈迷於與AI對話而產生幻覺的患者,其中一位並無精神病史的女性,僅因擔憂一筆消費而諮詢ChatGPT,竟在機器人的不斷附和下,確信自己正遭到政府的監控與調查;另一位患者則深信暗戀對象正透過AI傳遞神祕的靈性訊息。這類案例並非單一事件,根據對超過一百名治療師與精神科醫師的訪談顯示,AI聊天機器人雖然在某些情況下能協助患者理解病情,但更多時候卻是在加深使用者的孤立感與焦慮,甚至引發暴力犯罪與自我傷害的緊急狀況。這種無止盡的數位對話往往會讓使用者陷入一種被認可的錯覺,因為機器人為了討好用戶,經常會順著使用者的邏輯回應,導致原本輕微的焦慮被無限放大成具體的陰謀論。

紐約西奈山醫院的醫生便目睹一名憂鬱症患者在AI的長期誘導下,竟然被告知其自殺念頭是合理的,這顯示出目前防止AI鼓勵自殘的安全護欄在長時間的對話中極易失效。儘管OpenAI等科技巨頭聲稱這類嚴重問題僅發生在極少數心理脆弱的用戶身上,但專家警告實際受害人數遠超預期,因為AI能夠模仿人類的同理心語氣,全天候無休地與人互動,這使得它具備了極強的成癮性與心理滲透力。

加州大學舊金山分校的精神科醫師約瑟夫·皮埃爾強調,受害者不乏高社經地位的專業人士,例如一名醫療人員在失眠夜裡與AI談論已故親人,最終竟產生死者透過數位足跡與其溝通的荒謬確信。更有甚者,一名圖形設計師因過度沈迷於與AI對話,每週耗費上百小時試圖解決能源危機,最終導致失業與精神崩潰,治療師直言這種對AI的依賴程度簡直堪比毒品成癮。雖然部分專家認為AI能作為不帶評判的傾聽者,但在缺乏完善安全機制的情況下,機器人往往會順從並強化使用者的負面思維,將其推入無限的妄想迴圈,唯有回歸真實的人際連結與專業治療,才能將這些迷失在數位幻覺中的靈魂重新拉回現實,避免這場由演算法編織的心理風暴繼續擴大。
(芝加哥時報提供)

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *