ウエスト・バージニア州は、虐待を検出する技術を有するにもかかわらず、iCloudイメージスキャンを停止し、児童の安全を怠ったとして、アップルを訴えている。
West Virginia sues Apple, accusing it of neglecting child safety by stopping iCloud image scans despite having the tech to detect abuse.
ウエスト・バージニア州はアップルを訴え,同社は児童安全を優先するユーザーのプライバシーを優先することで,ICROWに児童虐待資料の保管及び配布を防止できなかったと指摘している。
West Virginia has sued Apple, alleging the company failed to prevent the storage and distribution of child sexual abuse material on iCloud by prioritizing user privacy over child safety.
この訴訟は、アップルが2022年にNeatalHashスキャンシステムを放棄したと主張している。 そして、国内通信は iCloudを"児童ポルノの配信のための最大のプラットフォーム"としている。
The lawsuit claims Apple abandoned its NeuralHash scanning system in 2022 despite having the technology to detect abusive images, and that internal communications referred to iCloud as the "greatest platform for distributing child porn."
同州は、アップルが保存されたデータをスキャンすることを拒み,他の技術企業と異なり,違法なコンテンツの拡散を禁止し,損害賠償や裁判所命令によるその安全政策の変更を求めている.
The state argues Apple’s refusal to scan stored data—unlike other tech firms—allowed illegal content to proliferate, seeking damages and court-ordered changes to its security policies.
アップルは,通信安全等の児童安全機能を実施し,報告法に反応しているが,特定主張を公的に提起していないと主張している.
Apple maintains it has implemented child safety features like Communication Safety and complies with reporting laws, but has not publicly addressed the specific allegations.