英国は,AIが生み出した虐待物質の増加に伴う児童安全に関する早期AI検査を委託する.
UK to mandate early AI testing for child safety, amid rising AI-generated abuse material.
英国は,児童保護団体に対し,開発初期のAIシステムで児童虐待物質の発生を防止するための検査を行わせる法律を導入することを計画している。
The UK plans to introduce a law allowing designated child protection groups to test AI systems early in development to prevent creation of child sexual abuse material, addressing a gap where harmful content is currently only removed after being shared.
この動きは,犯罪課及び犯罪課法案の一部であり,データ漏洩防止のための専門家の監督により,AIに安全を導入することを目的としている.
The move, part of the Crime and Policing Bill, aims to embed safety into AI from the start, with oversight by experts to prevent data leaks.
AIによって生み出された児童の性的虐待の報告は 2025年には2倍以上に増加し 426件に達し オンラインの違法コンテンツの56%を占め 少女が不釣り合いに標的となっている.
Reports of AI-generated child sexual abuse material more than doubled in 2025, reaching 426 cases, making up 56% of all illegal online content, with girls disproportionately targeted.
政府職員及び児童安全推進団体は,手続を歓迎するが,すべての開発者に対し,実効保護の確保を図るため,必要な試験を行うことを強く求めている.
Government officials and child safety advocates welcome the step but urge making testing mandatory for all developers to ensure effective protection.