オーストラリアの研究者が作成したツールである シルバーは AIの悪用を防ぐために画像を毒化し 現在AFPでテストしています
Australian researchers created Silverer, a tool that poisons images to block AI abuse, now testing with AFP.
オーストラリアの研究者は、AIが生み出した児童虐待材料や深層詐欺と闘うために、個人像を保護するためにデータ中毒を利用して、シルバーという試作品を開発した。
Australian researchers have developed a prototype tool called Silverer to fight AI-generated child abuse material and deepfake scams by using data poisoning to protect personal images.
AFPとマナッシュ大学のAILECS研究室で制作されたこのツールは、インターネット上で共有される前に写真を巧妙に変更し、AIモデルを混同する見えないパターンを埋め込んだ。
Created by the AFP and Monash University’s AiLECS Lab, the tool subtly alters photos before they’re shared online, embedding invisible patterns that confuse AI models.
犯罪 者 が AI を 訓練 する ため に これら の 画像 を 用い よう と する と , 結果 は ぼやけ たり , ゆがめ られ たり し ます。
When criminals try to use these images to train AI, the results are blurry or distorted.
現在,AFPの実験中,このツールは悪質なAIの利用に係る障壁を創出し,最終的にはデジタルの身分を保護するため,一般に利用される可能性がある.
Currently in testing with the AFP, the tool aims to create barriers to malicious AI use and may eventually be available to the public to help protect digital identities.