Una nueva ola de pornografía infantil creada por IA amenaza con abrumar a las autoridades que ya están reprimidas por tecnología y leyes anticuadas, según un nuevo informe publicado el lunes por el Observatorio de Internet de la Universidad de Stanford.
Durante el año pasado, las nuevas tecnologías de inteligencia artificial han facilitado a los delincuentes la creación de imágenes explícitas de niños. Ahora, los investigadores de Stanford advierten que el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro que actúa como agencia coordinadora central y recibe la mayor parte de su financiación del gobierno federal, carece de los recursos para combatir la creciente amenaza.
CyberTipline de la organización, creada en 1998, es la cámara de compensación federal para todos los informes en línea de pornografía infantil, o CSAM, y es utilizada por las fuerzas del orden para investigar delitos. Pero muchas de las sugerencias recibidas son incompletas o están llenas de imprecisiones. Incluso su reducido personal luchaba por mantener el ritmo del volumen.
“Es casi seguro que en los próximos años, CyberTipline se verá inundado de contenido de IA de apariencia muy realista, lo que hará aún más difícil para las fuerzas del orden identificar a niños reales que necesitan ser salvados”, dijo Shelby Grossman, uno de los autores del informe. .
El Centro Nacional para Niños Desaparecidos y Explotados está a la vanguardia de una nueva batalla contra las imágenes de explotación sexual creadas por IA, un área de delincuencia emergente que aún está siendo definida por los legisladores y las fuerzas del orden. En medio de la epidemia de desnudos falsos generados por IA que circulan en las escuelas, algunos legisladores ya están tomando medidas para garantizar que dicho contenido se considere ilegal.
Las imágenes de pornografía infantil generadas por IA son ilegales si contienen niños reales o si se utilizan imágenes de niños reales para entrenar los datos, dicen los investigadores. Pero los hechos sintéticamente que no contienen imágenes reales podrían protegerse como libertad de expresión, según uno de los autores del informe.
La indignación pública por la proliferación de imágenes en línea de abuso sexual infantil estalló en una audiencia reciente con los directores ejecutivos de Meta, Snap, TikTok, Discord y Kids Online.
El Centro para Niños Desaparecidos y Explotados, que recibe consejos de personas y empresas como Facebook y Google, ha apoyado legislación para aumentar su financiación y darle acceso a más tecnología. Los investigadores de Stanford dijeron que la organización proporcionó acceso a las entrevistas de los empleados y sus sistemas para que el informe mostrara las vulnerabilidades del sistema que necesitaban actualización.
“A lo largo de los años, la complejidad de la denuncia y la gravedad de los delitos contra niños siguen evolucionando”, afirmó la organización en un comunicado. “Por lo tanto, aprovechar las soluciones tecnológicas emergentes a lo largo del proceso CyberTipline conduce a proteger a más niños y responsabilizar a los delincuentes”.
Los investigadores de Stanford descubrieron que la organización necesitaba cambiar la forma en que funcionaba su línea de denuncia para garantizar que las fuerzas del orden pudieran determinar qué informes involucraban contenido generado por IA, así como garantizar que las empresas que informaban sobre material potencialmente ilícito en sus plataformas completaran los formularios en su totalidad.
Menos de la mitad de todos los informes presentados a CyberTipline fueron “procesables” en 2022 porque las empresas que denunciaron el abuso no proporcionaron suficiente información o porque la imagen de un informe se difundió rápidamente en línea y se informó demasiadas veces. La fila de sugerencias tiene una opción para verificar si el contenido de la sugerencia es un meme potencial, pero muchos no la usan.
En un solo día a principios de este año, un millón de informes de pornografía infantil inundaron la cámara de compensación federal. Durante semanas, los investigadores han estado trabajando para responder a este aumento inusual. Muchos de los informes resultaron estar relacionados con una imagen de un meme que la gente compartía en distintas plataformas para expresar indignación, no intenciones maliciosas. Pero aun así consumió importantes recursos de investigación.
Esta tendencia empeorará a medida que se acelere el contenido generado por IA, dijo Alex Stamos, uno de los autores del informe de Stanford.
“Un millón de imágenes idénticas es bastante difícil, un millón de imágenes separadas creadas por IA las rompería”, dijo Stamos.
El Centro para Niños Desaparecidos y Explotados y sus contratistas no pueden utilizar proveedores de computación en la nube y deben almacenar imágenes localmente en computadoras. Según los investigadores, ese requisito dificulta la construcción y el funcionamiento del hardware especializado utilizado para crear y entrenar modelos de IA para sus investigaciones.
Por lo general, su organización no cuenta con la tecnología para utilizar ampliamente software de reconocimiento facial para identificar a víctimas y delincuentes. Gran parte del procesamiento de informes sigue siendo manual.