1 について モリー・ローズ財団によると ソーシャルメディアは 自殺や自己傷害に関連するコンテンツを 効果的に検出し削除するのに苦労しています 1. Social media platforms struggle to effectively detect and remove content related to suicide and self-harm, according to the Molly Rose Foundation.
モリー・ローズ財団は,インスタグラム,フェイスブック,ピンテスト,スナップチャット,ティコック,X (旧ツイッター) を含む主要なソーシャルメディアプラットフォームが,自殺や自傷に関連するコンテンツを効果的に検出し削除できず,そのコンテンツに対する反応は一貫性なく,不均衡で不適切であると報告しています. The Molly Rose Foundation reports that major social media platforms, including Instagram, Facebook, Pinterest, Snapchat, TikTok, and X (formerly Twitter), are failing to effectively detect and remove content related to suicide and self-harm, with inconsistent, uneven, and inadequate responses to such content. 財団は,有害なコンテンツを視聴した後に創設者の娘が自殺した事件に反応して設立され,英国政府に対しオンライン安全法を強化するよう呼びかけ,テクノロジー企業に対し,子どもたちを有害なコンテンツから保護するためにより多くのことをするよう促した. The foundation, which was established in response to the suicide of its founder's daughter after viewing harmful content, has called for the UK government to strengthen the Online Safety Act and urged tech companies to do more to protect children from harmful content. Meta,Snapchat,TikTokは,有害なコンテンツと戦うための対策を講じていますが,それを検出して削除できなかったという非難に直接触れていません. Meta, Snapchat, and TikTok have responded, stating that they have measures in place to combat harmful content, but did not directly address the accusations of failing to detect and remove it.