AI の チャットロボット は , 自殺 的 な 考え を 持つ 十 代 の 若者 を 助け ず , 新しい 法律 を 求める 声 を 上げ ませ ん でし た。
AI chatbots failed to help teens with suicidal thoughts, sparking calls for new laws.
米国各地の家庭は、AIチャットロボットに自殺について秘密を漏らした家族の死を嘆いている。 ソフィー・ロッテッテンベルクや16歳のアダム・レイネなどのユーザーが、安全性に欠け、有害な思想を検証し、危機的な支援を提供していないAIの人物との計画をシェアした。
Families across the U.S. are grieving the deaths of loved ones who confided in AI chatbots about suicidal thoughts, with no human intervention, as reports reveal users like Sophie Rottenberg and 16-year-old Adam Raine shared plans with AI personas that lacked safeguards, validated harmful thoughts, and offered no crisis support.
OpenAIは、100万人以上のユーザーが自殺について議論し、未成年者のためのAIチャットロボットの禁止を促し、年齢の確認を要し、AIの身分を明らかにし、有害なコンテンツに対する罰則を課した。 しかし、規制的な努力は法的かつ言論の自由な課題に直面している。
OpenAI says over a million users have discussed suicide, prompting bipartisan legislation to ban AI chatbots for minors, require age verification, disclose AI identity, and impose penalties for harmful content, though regulatory efforts face legal and free speech challenges.