TikTokのアルゴリズムは、安全に関する設定やイギリスの新設の規定にかかわらず、児童アカウントに明示的な内容を推奨している。
TikTok’s algorithm still promotes explicit content to child accounts despite safety settings and new UK regulations.
グローバル・ウィットネスの報告によると,TikTokのアルゴリズムは,安全設定にもかかわらず,英国の児童オンライン安全法が施行された後でも,児童のアカウントに性的に明白なコンテンツを提案し続けています.
A Global Witness report reveals TikTok’s algorithm continues to suggest sexually explicit content to child accounts despite safety settings, even after the UK’s Children’s Online Safety Act took effect.
研究者たちは、性的な検索用語や動画が,性行為と露出の促進を図るため,13歳のアカウントを偽るよう勧められた.
Researchers found overtly sexual search terms and videos promoting penetrative sex and exposure were recommended to fake 13-year-old accounts.
Tik Tokは,内容の違反を除去し,提案を改善したと主張しているが,テストは継続している.
TikTok claims it removed violating content and improved suggestions, but testing shows the issue persists.
この 研究 結果 は , 広い 範囲 に 及ぶ 規制 や 政府 の 問題 の 中 に あっ て , プラットホーム の アルゴリズム や 安全 対策 に つい て , ますます 詳しく 調査 さ れる よう に なっ て い ます。
The findings add to growing scrutiny of the platform’s algorithms and safety measures, amid broader regulatory and governmental concerns.