OpenAI 披露:每周有超過一百萬人與 ChatGPT 傾訴自殺傾向

10 月 28 日消息,OpenAI 于當地時間周一發布了最新數據,揭示了大量 ChatGPT 用戶在與人工智能聊天機器人交流時正面臨心理健康問題。該公司表示,在任意一周內,約有 0.15% 的活躍用戶會進行“包含明確自殺計劃或意圖跡象”的對話。鑒于 ChatGPT 每周活躍用戶超過 8 億人,這意味著每周有超過 100 萬人向其傾訴自殺傾向。

OpenAI 還指出,有相似比例的用戶對 ChatGPT 表現出“高度的情感依戀”,而每周有數十萬用戶在與 AI 的對話中表現出精神病或躁狂癥的跡象。
盡管 OpenAI 稱此類對話在整體使用中“極為罕見”,因而難以精確統計,但公司估計,這些問題每周仍影響著數十萬用戶。
此次信息披露是 OpenAI 宣布其在提升模型應對心理健康問題能力方面取得進展的一部分。該公司表示,最新版 ChatGPT 的研發過程中咨詢了逾 170 名心理健康專家。這些臨床專業人士觀察后認為,當前版本的 ChatGPT“回應方式比早期版本更恰當、更一致”。
近幾個月來,多起報道揭示了 AI 聊天機器人可能對存在心理困擾的用戶造成負面影響。此前研究發現,某些 AI 聊天機器人通過阿諛奉承式回應不斷強化用戶的危險信念,可能導致部分用戶陷入妄想性思維的惡性循環。
IT之家注意到,如何妥善處理 ChatGPT 中的心理健康問題,正迅速成為 OpenAI 面臨的重大挑戰。目前,該公司正被一名 16 歲男孩的父母提起訴訟,該少年在自殺前數周曾向 ChatGPT 透露其自殺念頭。此外,加利福尼亞州和特拉華州的總檢察長也已警告 OpenAI,必須加強對使用其產品的青少年用戶的保護 —— 這兩州的態度甚至可能影響公司正在進行的重組計劃。
本月早些時候,OpenAI 首席執行官薩姆?奧爾特曼(Sam Altman)在社交平臺 X 上發文聲稱,公司已“成功緩解了 ChatGPT 中存在的嚴重心理健康問題”,但未提供具體細節。此次公布的數據似乎為這一說法提供了佐證,但也引發了公眾對問題普遍性的更廣泛關注。值得注意的是,奧爾特曼同時表示,OpenAI 將放寬部分限制,甚至允許成年用戶與 AI 進行涉及情色內容的對話。
在周一的公告中,OpenAI 宣稱,最新升級版 GPT-5 模型在面對心理健康相關提問時,產生“理想回應”的比例比前一版本高出約 65%。在一項專門評估 AI 對自殺話題回應表現的測試中,新 GPT-5 模型符合公司期望行為準則的比例達到 91%,而此前版本僅為 77%。
OpenAI 還強調,新版 GPT-5 在長時間對話中更能持續遵守公司的安全防護機制。此前,該公司已承認其安全措施在長對話場景下的有效性有所下降。
除技術改進外,OpenAI 表示將新增專項評估指標,用以衡量用戶面臨的最嚴重心理健康風險。未來,AI 模型的基礎安全測試將納入“情感依賴”和“非自殺性心理危機”等關鍵評估基準。
與此同時,OpenAI 近期也加強了針對未成年用戶家長的管控工具。公司正在開發一套年齡預測系統,可自動識別使用 ChatGPT 的兒童,并自動施加更嚴格的安全保護措施。
然而,圍繞 ChatGPT 的心理健康挑戰是否會持續存在,目前仍不明朗。盡管 GPT-5 在安全性方面較以往模型有所進步,但仍有部分 ChatGPT 的回應被 OpenAI 自身認定為“不理想”。此外,OpenAI 仍在向數百萬付費訂閱用戶提供舊版且安全性較低的 AI 模型,包括 GPT-4o,這進一步加劇了潛在風險。































