青少年が自己傷害の用語を繰り返し検索すると インスタグラムは 特定の国の親に 警告します 保護者の監視プログラムに登録している場合です
Instagram will alert parents in select countries when teens repeatedly search for self-harm terms, if parents are enrolled in its supervision program.
インスタグラムは,米国,イギリス,カナダ,オーストラリアで若者が自殺又は自暴自棄の用語を定期的に検索しはじめるが,親が親の指導プログラムに参加した場合に限る.
Instagram will begin notifying parents in the U.S., UK, Canada, and Australia when teens repeatedly search for suicide or self-harm terms, starting next week, but only if parents are enrolled in the platform’s parental supervision program.
警告は、メールやテキストやアプリを通じて送信され、その内容をブロックし、利用者をメンタルヘルス資源に向ける既存の措置に従って、親が早期に介入できるように設計される。
Alerts will be sent via email, text, or in-app messages and are designed to help parents intervene early, following existing measures that block such content and direct users to mental health resources.
この動きは、ロサンゼルスで大きな裁判を含む、若者の精神的健康に及ぼす影響と、現在も続く法律上の課題について、ソーシャルメディアが監視する世界的な調査に係るものである。
The move comes amid growing global scrutiny of social media’s impact on youth mental health and ongoing legal challenges against Meta, including a major trial in Los Angeles.
メタはまた,2026年にさらに詳細が予想されるように,AI機能とのコラボレーションを10代に拡充する予定である.
Meta also plans to expand similar alerts to teen interactions with AI features, with more details expected later in 2026.