country flag

En breve: CSAM de IA generativa

Introducción al problema y posición del NCMEC

¿Qué es?

Las herramientas de inteligencia artificial generativa (IAG) pueden crear nuevo contenido o modificar el contenido existente –incluido texto, instantáneas y vídeos– con base en instrucciones o comandos de un usuario. Con el aumento de la disponibilidad de las herramientas de IAG en 2023, su uso para crear material de abuso sexual infantil (CSAM) total o parcialmente artificial también aumentó.

Posición del NCMEC:

El CSAM generado con IA –ya sea total o parcialmente artificial– es perjudicial y debería estar regido por las mismas prohibiciones que la producción, posesión y distribución de CSAM natural.

¿Por qué importa?

En muchas jurisdicciones, el CSAM creado con herramientas de IAG (conocido como «CSAM IAG») ya es ilegal, incluso si las leyes existentes no consideraban originalmente la posibilidad del desarrollo de la IAG. Dichas leyes pueden incluir referencias a «representación que sexualiza a menores» (como en Noruega) o «fotografías o pseudofotografías indecentes de un menor» (como en Gran Bretaña) como base de la prohibición del CSAM IAG. En otros países, las leyes existentes pueden ser menos claras o no mencionar por completo el CSAM IAG.

Las herramientas de IAG pueden usarse para crear representaciones de explotación sexual visualmente realistas de menores reales al combinar el rostro de un menor real con una representación real o artificial de contenido sexualmente explícito; alterar una imagen inocente de un menor para representar contenido sexualmente explícito o crear un representación de desnudez con IAG (como distintas aplicaciones de «desnudez» diseñadas a tal fin) de un menor real. Algunos delincuentes usan CSAM IAG como usan otro tipo de CSAM, para gratificación sexual. Los delincuentes con motivación financiera han usado CSAM IAG para extorsionar a víctimas infantiles por ganancias monetarias al demandar un pago para impedir la distribución en línea de imágenes de IAG que les representan. Los delincuentes también pueden usar CSAM IAG como parte del proceso de manipulación o «grooming» para normalizar las conductas de explotación y aumentar la vulnerabilidad del menor hacia el abuso.

Además de estos tipos de abuso, el CSAM IAG también es perjudicial de las siguientes maneras:

  • El CSAM IAG parcialmente artificial se basa en elementos de imágenes o vídeos de menores reales. Estas imágenes originales podrían no haber sido de explotación sexual pero la manipulación de imágenes inocentes para crear CSAM IAG explota sexualmente a los menores involucrados.
  • El CSAM IAG totalmente artificial (no basado en la imagen de un menor real) pudo haber sido creado con una herramienta entrenada con contenido real, o no artificial, de explotación sexual infantil.* El CSAM IAG visualmente realista agobia los recursos de los organismos de seguridad, que deberían concentrar sus esfuerzos en identificar, ubicar y proteger a los menores reales representados en el CSAM.
  • Ya sea total o parcialmente artificial, el CSAM IAG normaliza el abuso sexual y la explotación infantil, tiene un límite de uso bajo dada su gran accesibilidad y sencillez de uso y promueve los motivos de explotación de los delincuentes.

«Un informe de diciembre de 2023 de Stanford Internet Observatory reveló que algunos modelos de IAG «se entrenaron directamente con CSAM presente en un conjunto de datos público de miles de millones de imágenes...» El informe hizo un llamado a los esfuerzos para eliminar el CSAM de dichos conjuntos de datos de entrenamiento y/o dejar de basarse en ellos.

¿Qué contexto es relevante?

Desde que la tecnología se convirtió en dominante en 2023, han proliferado numerosas herramientas de IAG. Las empresas tecnológicas de todos los tamaños han lanzado herramientas de IAG como productos autónomos y como funciones adicionales dentro de sus servicios existentes, que han modificado drásticamente la manera en la que las personas interactúan con la tecnología. Mientras que las herramientas de IAG han proliferado, las reglamentaciones y legislación específicas para abordar estas herramientas está muy atrasada; esto facilita el abuso de herramientas de IAG por parte de los delincuentes que buscan explotar menores sexualmente.

Incluso en las jurisdicciones donde el CSAM IAG es claramente ilegal, las investigaciones se enfrentan a distintas dificultades, incluido cómo distinguir de manera fiable el CSAM IAG totalmente artificial (que no representa a ningún menor en peligro) del CSAM IAG parcialmente artificial y del CSAM no creado con IAG. En distintas jurisdicciones se han presentado cargos por delitos de CSAM IAG, incluidos EE. UU., Australia y Corea del Sur.

¿Qué revelan los datos?

En 2023, CyperTipline de NCMEC recibió aproximadamente 4700 denuncias relacionadas con CSAM o contenido de explotación sexual relacionado con IAG. Redes sociales de primer nivel y plataformas de almacenamiento en línea presentaron más del 70 % de estas denuncias. Esto indica que la mayoría de las empresas tecnológicas de IAG no denuncian a CyberTipline. Las denuncias relacionadas con CSAM IAG aumentaron a aproximadamente 450 al mes durante el primer trimestre de 2024.

En octubre de 2023, Internet Watch Foundation publicó un informe acerca de su descubrimiento de más de 20 000 imágenes IAG en un foro de la web profunda determinado. El análisis determinó que aproximadamente 3000 de dichas imágenes constituían delitos según las leyes británicas vigentes en ese momento contra la producción, distribución y posesión de una «fotografía o pseudofotografía indecente de un menor» o la posesión de «una imagen prohibida de un menor». De ellas, la mayoría eran imágenes visualmente realistas que representaban menores de entre 7 y 13 años y más del 99 % representaba niñas. En julio de 2024, una actualización de dicho informe reveló más de 3500 archivos de CSAM IAG nuevos en el mismo foro, con el aumento de abuso más grave y la aparición de vídeos de CSAM IAG. IWF también observó aumentos en CSAM IAG en la «web común» y CSAM IAG que representa víctimas conocidas o identificadas de CSAM y «menores famosos».

¿Qué dicen los sobrevivientes?

Los sobrevivientes han declarado que los argumentos legales que diferencian el CSAM «real» del «falso» están fundamentalmente viciados. Los debates sobre el CSAM IAG deben considerar el perjuicio al crear CSAM, independientemente del rol de la IAG. Algunos sobrevivientes están especialmente preocupados que el uso de CSAM IAG por parte de los delincuentes fomentará su interés sexual por el abuso de menores reales y aumentará la amenaza que dichos delincuentes representan en sus comunidades. El uso de CSAM IAG para manipular o «preparar» a menores, superar sus inhibiciones hacia la conducta sexual y hacerlos más vulnerables a los delincuentes también es una preocupación.

Opening Quote

Es importante comprender que la creación y existencia de CSAM de IA generativa explota a las víctimas reales de abuso sexual infantil y las imágenes de abuso sexual infantil. …[Q]ue la tecnología continúe innovando nuevas maneras de explotar a las víctimas infantiles y a los sobrevivientes mediante IA es horroroso y debería penalizarse a escala internacional inmediatamente.

- Sobreviviente

¿Que impulsa los puntos de vista de oposición?

La oposición general a las restricciones legislativas o reglamentarias de las herramientas de IAG se basa en preocupaciones de sofocar la innovación, limitar la libertad de expresión, desafíos relacionados con la complejidad de la tecnología y crear barreras para la entrada de empresas más pequeñas con recursos limitados. Se ha argumentado que una exigencia mayor de las leyes existentes que ya abordan las conductas perjudiciales –acoso y difamación, por ejemplo– para lo que la IAG podría usarse es preferible a la sanción de nuevas obligaciones legales. Notablemente, el CSAM IAG no se aborda claramente en muchas jurisdicciones, en especial donde el marco legal requiere probar que el menor representado es real.

Quienes se oponen a las prohibiciones del CSAM IAG argumentan que dichas medidas probablemente serían demasiado amplias e influirían en las imágenes legales y/o que los menores representados en CSAM IAG no son «reales» y, por lo tanto, estas imágenes no producen perjuicios. Otros han sugerido –contrario a la opinión de expertos en el tema– que el CSAM IAG y las representaciones sexuales artificiales de menores pueden funcionar con fines terapéuticos, proporcionar a los delincuentes gratificación sexual sin cometer delitos contra menores «reales».