AI画像生成データベースから 2,000の児童虐待画像リンクを削除しました LAION removes 2,000 child abuse imagery links from AI image-generator database.
LAIONのAI研究者は,児童性虐待の画像を含む2000以上のリンクをデータベースから削除しました.これは,Stable DiffusionやMidjourneyのような人気のあるAI画像生成器を訓練するために使用されています. AI researchers at LAION have removed over 2,000 links containing suspected child sexual abuse imagery from their database, which has been used to train popular AI image-generators like Stable Diffusion and Midjourney. データベースには子供を描いたフォトリアリスティックなディープフェイク制作に寄与するリンクが含まれていたという以前の発見に反応して,LAIONは監視グループと虐待防止団体と協力してデータベースをクリーンアップし,将来のAI研究のために改訂版をリリースしました. In response to previous findings that the database contained links contributing to the production of photorealistic deepfakes depicting children, LAION worked with watchdog groups and anti-abuse organizations to clean up the database and release a revised version for future AI research. しかし 次のステップは 汚れたモデルを 退会させることです まだ子供虐待の画像を 作り出すことができるのです However, the next step is to withdraw tainted models still able to produce child abuse imagery.