アップルは児童虐待の生存者から訴えを受け,iCloudの虐待映像を掲載し,無視したと主張している。 Apple faces lawsuit from child abuse survivors over claims it hosted and ignored abuse images on iCloud.
アップルは数千人の児童虐待被災者から集団訴訟を提起し,iCRULD上での虐待画像や動画の削除を意図的に計画していたと非難し,同社を起訴した。 Apple faces a class-action lawsuit from thousands of child sexual abuse survivors, accusing the company of knowingly hosting and failing to remove abuse images and videos on iCloud. 原告はアップルがそのようなコンテンツを検出する技術を持っていたと主張しているが,2021年度の"CSAM検出"プログラムを中止した. The plaintiffs claim Apple had the technology to detect such content but discontinued its 2021 "CSAM Detection" program. 訴訟は児童の安全を確保するための措置を講ずるとともに,アップルの不調が被害者に損害を与えたと推測する. The lawsuit seeks measures to ensure child safety, alleging Apple's inaction has harmed victims.