El estudio mostró generadores de imágenes de IA entrenados con fotografías espontáneas de niños.

Por medio de MATT O’BRIEN y HALLELUYA HADERO, Associated Press

Ocultas dentro de los cimientos de los populares generadores de imágenes de inteligencia artificial hay miles de imágenes de abuso sexual infantil, según un nuevo informe que insta a las empresas a tomar medidas para abordar el daño que está mal en la tecnología que construyeron.

Las mismas imágenes facilitan a los sistemas de inteligencia artificial la creación de imágenes realistas y vívidas de bebés falsos, así como la transformación de fotografías en las redes sociales de adolescentes reales completamente vestidos a simple vista, lo que alarma enormemente a las escuelas y a las autoridades de todo el mundo.

Hasta hace poco, los investigadores anti-abuso pensaban que la única forma en que algunas herramientas de inteligencia artificial no probadas producían imágenes abusivas en niños era esencialmente combinando lo que aprendían de ambos grupos separados de imágenes en línea: pornografía de adultos e imágenes indecentes de niños.

Pero el Observatorio de Internet de Stanford encontró más de 3.200 imágenes de presuntos abusos sexuales infantiles en la gigantesca base de datos de IA LAION, un índice de imágenes y subtítulos en línea utilizados para capacitar a los principales creadores de imágenes de IA como Stable Diffusion. El grupo de vigilancia con sede en la Universidad de Stanford trabaja con el Centro Canadiense para la Protección Infantil y otras organizaciones benéficas contra el abuso para identificar material ilegal e informar los enlaces de las fotografías originales a las autoridades. Dijo que aproximadamente 1.000 de las imágenes que encontró fueron validadas externamente.

La respuesta fue inmediata. En vísperas de la publicación el miércoles del informe del Observatorio de Internet de Stanford, LAION dijo a The Associated Press que había eliminado temporalmente sus datos.

LAION, que significa Red Abierta de Inteligencia Artificial a Gran Escala sin fines de lucro, dijo en un comunicado que «tiene una política de tolerancia cero para el contenido ilegal y con mucho cuidado, hemos eliminado los datos de LAION para garantizar que estén seguros antes de volver a publicarlos». a ellos.»

Si bien las imágenes solo representan una fracción del índice de LAION de aproximadamente 5.8 mil millones de imágenes, el equipo de Stanford dice que es probable que influyan en la capacidad de las herramientas de inteligencia artificial para generar resultados dañinos y refuercen el primer abuso de víctimas reales que aparecen muchas veces.

Este no es un problema fácil de solucionar y se remonta a muchos proyectos de IA generativa que fueron «efectivamente lanzados rápidamente al mercado» y se hicieron ampliamente accesibles debido al campo de la competencia, como la tecnología central de David Thiel del Observatorio de Internet de Stanford, quien escribió el informe. .

«Tomar un análisis completo de Internet y construir ese conjunto de datos para entrenar modelos es algo que debería limitarse a una operación de investigación, si corresponde, y no algo que deba ser de código abierto. No hay un tratamiento más estricto», dijo Thiel en una entrevista. .

Un usuario destacado de LAION que ayudó a dar forma al desarrollo del conjunto de datos es la startup Stability AI, con sede en Londres, fabricante de modelos de texto a imagen de Stable Diffusion. Las versiones más nuevas de Stable Diffusion hacen que sea más difícil crear contenido malicioso, pero una versión anterior presentada el año pasado, que Stability AI dice que no ha lanzado, todavía está integrada en otras aplicaciones y dispositivos y sigue siendo «el modelo más popular para crear contenido vívido». imágenes», según el informe de Stanford.

Puede interesarte

Foto misteriosa de enero. 14, 2024

Si sabe dónde se tomó esta foto, contáctenos a bmail@sunjournal.com o llame al 689-2896 y …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *