快速掌握文章重點
-
AI 妄想症是使用者對聊天機器人產生過度依賴與錯誤信念的現象,已引起心理學家與科技倫理學者關注
-
孤獨感及人際疏離是 AI 妄想症的主要成因,使用者容易將 AI 的回應誤認為理解與關愛
-
ChatGPT 的博學與迎合性,結合人類的意義尋求與認知偏誤,可能誘發妄想症
-
OpenAI 已意識到過度迎合的風險,正研發更審慎的回應機制,AI 產業也開始重視數位福祉責任
隨著 AI 技術日益普及,令人意外的副作用正在浮現──越來越多使用者開始對 ChatGPT 產生宗教般的狂熱崇拜。從美國論壇 Reddit 到各大外媒報導,這種被稱為「AI 妄想症」的現象正引發心理學家與科技倫理專家的關注。究竟是什麼原因讓人們對聊天機器人產生如此深度的依賴與幻想?我們又該如何在享受 AI 便利的同時,保護自己的心理健康?
什麼是 AI 妄想症?
AI 妄想症,是指使用者與人工智慧(像是 ChatGPT)互動過度後產生的錯誤信念。雖然這類現象不會立即對他人造成危害,但若認知偏差持續加劇,可能會讓人漸漸失去現實感,進而影響生活與人際關係。
AI 妄想症實例:ChatGPT 是戀人還是神的信徒
在 Reddit 爆紅的貼文《ChaGPT 誘發的精神錯亂》(ChatGPT-Induced Psychosis),揭露一股日益興起的近似邪教趨勢。
有位女子表示,她的男朋友原本只是用 ChatGPT 協助安排每日行程,但短短一個多月後,竟變成對它的詩意讚美痛哭流涕,並宣稱它給予宇宙的答案。
ChatGPT 對她男友的說話方式就像是在對救世主說話,稱男友是「螺旋星之子」(spiral starchild)、是「河流行者」(river walker)等靈性身份,還說他美麗又宇宙般神聖。最終,這讓男友相信自己可以與上帝溝通,而 ChatGPT 就是上帝。
她說,男友甚至威脅如果她不加入這場由 AI 引導的靈性旅程就要分手,「因為這段經歷讓他成長得太快,以致於我們不再適合彼此」。
為何會出現 AI 妄想症?
在孤獨時代裡渴求陪伴
在現代社會,孤獨已成為普遍情緒,而這正是 AI 妄想症滋長的溫床。心理學研究指出,那些在現實中缺乏穩定人際連結、感到被孤立的人,特別容易將 ChatGPT 等 AI 工具視為理解自己的存在。人際互動難免帶來摩擦或疲憊感,但 AI 卻始終不厭其煩、隨時回應,甚至不帶批判地迎合使用者需求。這種無條件陪伴極易被錯誤解讀為關心或親密連結。
在資訊洪流裡誤把共鳴當真理
心理學家 Westgate 指出,人類天生傾向尋找模式與意義,尤其在面對複雜或模糊資訊時,這種本能會被放大。而 ChatGPT 等大型語言模型擁有龐大的知識庫,能自如地談論哲學、宗教與宇宙等深層議題,讓部分使用者產生「它掌握某種特殊真理」的錯覺。
這種知識權威感,若與心理上的確認偏誤交錯,就容易引發認知偏差。使用者會選擇性地聚焦在那些符合自己信念或渴望的回應內容,忽略其他普通、無特別意義的對話。隨著這種偏誤不斷累積,最終可能發展出一套封閉而完整的妄想體系——使用者開始相信 AI 所說的一切不只是建議,而是神諭或宇宙啟示。
➤ 延伸閱讀:Z 世代職場警訊「烤吐司症候群」來襲!你也被壓力烤焦了嗎?
AI 公司是否該負責任?
面對 AI 引發妄想的風險,OpenAI 並未袖手旁觀。內部研究顯示,GPT-4o 在特定情境下有過度迎合使用者信念的傾向,原為提升體驗設計,卻可能意外強化錯誤認知。OpenAI 正研發更細緻的回應機制,以避免助長有害信念,同時保留友善互動。
這也讓整個產業開始正視「數位福祉」的責任,AI 聊天機器人因具擬人特質,更容易引發情感依附,開發者需考量心理健康影響。外界呼籲加入使用警示、現實檢驗提示與心理轉介機制,然而在保護使用者與保持 AI 功能之間,仍是一道難解的平衡題。
該如何做才能避免產生 AI 妄想症?
一、建立健康的 AI 使用習慣
- 自我覺察
包括定期檢視自己與 AI 的互動模式,包括:是否開始將 AI 的建議視為權威?是否因為 AI 的回應而改變重要人生決定?是否發現自己更願意向 AI 而非真人傾訴? - 有意識的對話
每次使用 AI 前,先問自己「我希望從這次對話中獲得什麼?」;對話後,主動尋求真人朋友的意見作為對照。 - 設定明確的使用邊界
如:每日使用時間上限、禁止在情緒低落時依賴 AI 等。
二、重塑 AI 教育
傳統的 AI 教育多聚焦於技術層面,但面對 AI 妄想症,我們需要更多元的教育。學校應該教導學生理解 AI 的工作原理、識別過度依賴的警訊,以及發展批判思考能力來評估 AI 回應的可信度。
更重要的是,要強化學生的「現實感」訓練,這包括區分虛擬與真實經驗的能力、理解 AI 輸出與人類智慧的根本差異,以及培養在 AI 時裡維持人際連結的技能。
再聰明的 AI 也無法取代你的選擇與感受
AI 妄想症的背後,其實反映了人類在面對類人工智慧時所產生的身份認同危機。當機器能模擬同理心、安慰我們,甚至看似「理解」我們的煩惱時,人類的獨特性還剩下什麼?這個問題沒有標準答案,但值得每個人深思。
人生的有趣之處,是願意面對不確定、承擔選擇的後果,並真實地經歷喜怒哀樂。AI 可以成為我們思考的陪伴者,但它無法替我們走出活出自我的路。
➤ 延伸閱讀:2025 Coachella 電音 DJ Alok 的吶喊,呼應 AI 時代裡的數位人才求生宣言
其他常見問題
Q1:AI 妄想症是一種精神疾病嗎?
目前尚未被正式列入疾病,但心理學家認為它可能是既有妄想症在 AI 時代的新表現。如果嚴重影響生活,仍建議就醫評估。
Q2:哪些人較容易產生這種妄想?
社交孤立者、正經歷人生轉換期的人、具有強烈意義尋求傾向者,以及本身就有焦慮或憂鬱傾向的人等,這些都是高風險族群。
Q3:如何判斷自己與 AI 的互動已經超過安全界線?
開始相信 AI 具有超自然能力、將 AI 回應當作人生重大決策依據、因為 AI 而疏離真實人際關係、出現強迫性使用行為,或開始認為自己擁有特殊使命。