十 代 の 若者 の ほぼ 19 % は , 13 歳 から 15 歳 まで の 若者 で , インスタグラム に 載せ られ た 望ま れ ない 性的 内容 を 見 て い まし た。
Nearly 19% of U.S. teens aged 13–15 saw unwanted sexual content on Instagram, a 2025 Meta survey cited in a federal lawsuit reveals.
2025年の裁判所の書類によると,米国で13歳から15歳のInstagramユーザーの約19%が,そのプラットフォームで望ましくない裸や性的画像を見たと報告しています.これは連邦訴訟で引用されたMetaの調査によると,
A 2025 court filing reveals that nearly 19% of Instagram users aged 13 to 15 in the U.S. reported seeing unwanted nudity or sexual images on the platform, according to a Meta survey cited in a federal lawsuit.
また,自己報告の体験に基づくデータでは,十代の若者の8割が自傷行為又は自傷行為の脅迫を目撃した.
The data, based on self-reported experiences, also found that 8% of teens saw self-harm or threats of self-harm.
InstagramのCEOは,このような調査の限界を認めており,最も顕著な内容は,私的メッセージを通じて共有され,プライバシー保護による検出を合併している.
Instagram’s CEO acknowledged the limitations of such surveys and noted most explicit content is shared via private messages, complicating detection due to privacy protections.
メタは医療や教育目的を除いて AIによって生成された素材を含む 裸や明示的なコンテンツを削除すると述べています
Meta says it removes nudity and explicit content, including AI-generated material, except for medical and educational uses.
この調査結果は,若者の精神的健康とプラットフォームの安全性におけるメタの役割に関する法的な,そして公的な調査を推進している.
The findings fuel ongoing legal and public scrutiny over Meta’s role in youth mental health and platform safety.