LAION removes 2,000 child abuse imagery links from AI image-generator database. LAION elimina 2.000 enlaces de imágenes de abuso infantil de la base de datos de generadores de imágenes de IA.
AI researchers at LAION have removed over 2,000 links containing suspected child sexual abuse imagery from their database, which has been used to train popular AI image-generators like Stable Diffusion and Midjourney. Los investigadores de AI en LAION han eliminado más de 2.000 enlaces que contenían imágenes de presunto abuso sexual infantil de su base de datos, que se ha utilizado para capacitar a los populares creadores de imágenes de IA como Stable Diffusion y Midjourney. In response to previous findings that the database contained links contributing to the production of photorealistic deepfakes depicting children, LAION worked with watchdog groups and anti-abuse organizations to clean up the database and release a revised version for future AI research. En respuesta a los hallazgos anteriores de que la base de datos contenía enlaces que contribuían a la producción de deepfakes fotorrealistas que representaban a niños, LAION trabajó con grupos de vigilancia y organizaciones antiabuso para limpiar la base de datos y publicar una versión revisada para futuras investigaciones de IA. However, the next step is to withdraw tainted models still able to produce child abuse imagery. Sin embargo, el siguiente paso es retirar los modelos contaminados que aún pueden producir imágenes de abuso infantil.