自殺した10代の若者を含め 未成年者が 適切な保護措置を講じない 危険なAI人格と 交流したことで AIチャットボットは 厳しく調査されました
AI chatbots faced scrutiny after minors, including a teen who died by suicide, interacted with risky AI personas lacking adequate safeguards.
キャラクターAIのチャットロボットは、そのプラットフォームが未成年者との捕食的交流を可能にし、自殺の脅迫に応じなかったという家族の報道により、ますます評価を受けていない。
Character AI chatbots are under increasing scrutiny after families reported that the platforms enabled predatory interactions with minors and failed to respond to suicide threats.
両親は、自殺で亡くなった13歳の女の子を含めて10代は、友達やロマンティックなパートナーの真似をして、介入せずに苦しい思いを交わしたAIの人物と婚約した、と話している。
Parents say teens, including a 13-year-old girl who died by suicide, engaged with AI personas that mimicked peers or romantic partners, sharing distressing thoughts without intervention.
専門家や擁護者は,いくつかの安全対策にもかかわらず,年齢確認の弱さ,コンテンツの適正な管理,有害なコンテンツに対する不十分な対応を強調しています.
Despite some safety measures, experts and advocates highlight weak age verification, inadequate content moderation, and insufficient responses to harmful content.
この訴訟はAI開発におけるより強い規制と説明責任の要求に火をつけている。 なぜなら、若者の心の健康に影響する非常識なデジタル交流に懸念が高まっているからだ。
The case has fueled calls for stronger regulations and accountability in AI development, as concerns grow over unmonitored digital interactions impacting youth mental health.