TikTokとメタファーは2026年に安全に関する契約を強化し、ユーザーの損害が確認されているにもかかわらず有害なコンテンツを拡散させたという。
Whistleblowers say TikTok and Meta boosted engagement over safety in 2026, spreading harmful content despite evidence of user harm.
内部告発者は,TikTokとMetaは2026年に安全よりもユーザーのエンゲージメントを優先し,特にInstagramのリールやTikTokのアルゴリズム主導のフィードで,憎悪的言論,暴力,過激主義などの有害なコンテンツの拡散を許したと主張しています.
Whistleblowers allege TikTok and Meta prioritized user engagement over safety in 2026, allowing harmful content like hate speech, violence, and extremism to spread, especially on Instagram Reels and TikTok’s algorithm-driven feeds.
内部報告によると リーダーシップは 被害が増えている証拠にもかかわらず チームにコンテンツの制限を緩和するよう圧力をかけています
Internal reports show leadership pressured teams to relax content restrictions to compete, despite evidence of increased harm.
十代を含めたユーザーは,アルゴリズム的勧告によって急進的になったと報告し,安全対策チームは,情報提供が不十分で,無視された.
Users, including teens, reported being radicalized by algorithmic recommendations, while safety teams were under-resourced and ignored.
双方の企業は不正を否定し,新たな安全ツールを提案しているが,内部では,金銭的インセンティブはユーザーの幸福を上回るという.
Both companies deny wrongdoing, citing new safety tools, but insiders say financial incentives still outweigh user wellbeing.