OpenAIでは、毎週120万のCTGPTユーザーが自殺標識を映しているが、GPT-5は安全性と危機反応を改善したとしている。
OpenAI finds 1.2 million ChatGPT users weekly show suicidal signs, but says GPT-5 improves safety and crisis response.
OpenAIは,毎週約120万人のChatGPTユーザが自殺の意図を示し,さらに56万人が精神病やマニアの症状を示していると報告しています.これは,毎週8億人のユーザのデータに基づいています.
OpenAI reports that around 1.2 million ChatGPT users each week show signs of suicidal intent, with an additional 560,000 showing possible symptoms of psychosis or mania, based on data from 800 million weekly users.
同社は,新型GPT-5モデルが安全性を向上させ,安全反応が80%減少し,安全行動が91%から92%に増加するとしている.
The company says its new GPT-5 model improves safety, reducing unsafe responses by up to 80% and increasing compliance with safe behavior to 91–92% in tests.
170以上のメンタルヘルス専門家のインプットにより,モデルは危機をより良く認識し,ユーザーを現実世界への支援へと転換し,感情依存を抑制する.
Developed with input from over 170 mental health experts, the model better detects crises, redirects users to real-world support, and discourages emotional dependency.
このような進歩にもかかわらず,AIの精神的健康に関する懸念は残るが,その中には、十代の若者の自殺に係る訴訟や、妄想的なAIの交流に関連した殺人行為を含む.
Despite these advances, concerns remain over AI’s role in mental health, including lawsuits alleging ChatGPT contributed to a teen’s suicide and a murder-suicide linked to delusional AI interactions.
OpenAIは,AIが専門医の介護に代えてその制度を改良し続けていることを強調している.
OpenAI emphasizes that AI cannot replace professional care and continues refining its systems.