青少年が自己傷害の用語を繰り返し検索すると インスタグラムは 特定の国の親に 警告します 保護者の監視プログラムに登録している場合です
Instagram will alert parents in select countries when teens repeatedly search for self-harm terms, if parents are enrolled in its supervision program.
来週からインスタグラムは、米国、イギリス、カナダ、オーストラリアの親に通知する。 十代の子どもたちが自殺又は自暴自棄の用語を何度も検索しているが、その内容がプラットフォームの親の監督プログラムに登録されているときのみ。
Starting next week, Instagram will notify parents in the United States, United Kingdom, Canada, and Australia when their teens repeatedly search for suicide or self-harm terms, but only if they are enrolled in the platform's parental supervision program.
警告文は,早期に関係する親の支援を目的として,その内容をブロックし,利用者をメンタルヘルスに導くという既存の措置を踏まえて,メール,テキスト,またはアプリを経由して送信される.
Alerts will be sent via email, text, or in-app messages, with the goal of assisting parents in intervening early, in line with existing measures that block such content and direct users to mental health resources.
この動きは,ソーシャルメディアが若者の精神健康に及ぼす影響に対する世界的な調査が拡大している中,ロサンゼルスでの大規模な裁判を含む,メタに対する継続的な法的挑戦が起こっています.
The move comes amid growing global scrutiny of social media's impact on youth mental health, as well as ongoing legal challenges against Meta, including a major trial in Los Angeles.
メタはまた,2026年に期待されるより多くの情報とAI機能とのコラボレーションに,同様の注意を10代のティーンエージェンシーに適用する予定である.
Meta also intends to apply similar alerts to teen interactions with AI features, with more information expected later in 2026.