Para muchos niños que visitaron Disney World en Orlando, Florida, fue el viaje de su vida, pero para el hombre que los grabó con una GoPro, fue algo más nefasto: una oportunidad para crear imágenes de explotación infantil.
El hombre, Justin Culmo, que fue arrestado a mediados de 2023, admitió haber creado miles de imágenes ilegales de niños tomadas en el parque de diversiones y al menos en una escuela secundaria, utilizando una versión del modelo de IA Stable Diffusion, según agentes federales que presentaron el caso a un grupo de funcionarios encargados de hacer cumplir la ley en Australia a principios de este mes. Forbes obtuvo detalles de la presentación de una fuente cercana a la investigación.
Culmo fue acusado de una variedad de delitos de explotación infantil en Florida, incluidas acusaciones de que abusó de sus dos hijas, grabó a menores en secreto y distribuyó imágenes de abuso sexual infantil (CSAM, en inglés) en la web oscura.
Culmo no fue acusado de producción de CSAM con inteligencia artificial, que es un delito según la ley estadounidense. En el momento de esta publicación, sus abogados no respondieron a las solicitudes de comentarios. Se declaró inocente el año pasado. Se fijó un juicio con jurado para octubre.
“Este caso pone claramente de relieve la explotación despiadada que la IA puede permitir cuando es utilizada por alguien con la intención de hacer daño”, declaró Jim Cole, exinvestigador de explotación infantil del Departamento de Seguridad Nacional (DHS, en inglés).
“Esto no es solo una grave violación de la privacidad, es un ataque dirigido a la seguridad de los niños en nuestras comunidades”, agregó el exagente que rastreó las actividades en línea del acusado durante sus 25 años como explotador infantil.
La supuesta actividad criminal es quizás el ejemplo más macabro hasta ahora de manipulación de imágenes por inteligencia artificial, que puede haber victimizado a muchos visitantes de Disney World.
Sim embargo, Disney aseguró que las autoridades no se habían puesto en contacto con la empresa sobre las supuestas actividades en su parque. La Fiscalía Federal para el Distrito Medio de Florida se negó a hacer más comentarios sobre el caso. El DHS, que dirigió la investigación sobre Culmo, no respondió a las solicitudes de comentarios.
Cole dijo a Forbes que las agencias policiales mundiales persiguen a Culmo desde 2012, y explicó que era “uno de los 20 objetivos de alta prioridad” entre los detectives de explotación infantil a nivel mundial durante más de una década.
Utilizando el reconocimiento facial, los detectives pudieron identificar a una de las víctimas y rastrear imágenes manipuladas de ella hasta dar con Culmo. Mientras lo arrestaban, encontraron más imágenes de abuso infantil en sus dispositivos; Culmo admitió haberlas creado, incluidos las de sus hijas, afirma la denuncia.
Más casos donde se involucra la inteligencia artificial
El caso forma parte de un número creciente de casos en los que se utiliza la inteligencia artificial para transformar fotografías de niños reales en imágenes realistas de abuso. En agosto, el Departamento de Justicia reveló cargos contra el soldado del ejército Seth Herrera, acusándolo de utilizar herramientas de inteligencia artificial generativa para producir imágenes sexualizadas de niños.
A principios de este año, Forbes informó que Steven Anderegg, residente de Wisconsin, había sido acusado de utilizar Stable Diffusion para producir CSAM a partir de imágenes de niños solicitadas a través de Instagram. En julio, la organización sin fines de lucro con sede en el Reino Unido Internet Watch Foundation (IWF) declaró que había detectado más de 3,500 imágenes CSAM de inteligencia artificial en línea este año.
Stable Diffusion 1.5, la herramienta favorita de los pedófilos
Cole añadió que Stable Diffusion 1.5 es la herramienta de inteligencia generativa más utilizada por los pedófilos, en gran parte porque puede ejecutarse en sus propias computadoras sin almacenar imágenes ilegales en Stability AI u otros servidores de proveedores de inteligencia artificial donde podrían ser detectadas.
“No existen salvaguardias integradas. Es por eso que los delincuentes lo usan casi exclusivamente”, dijo Cole, ahora socio fundador de Onemi-Global Solutions, una consultoría que ayuda a empresas de tecnología y organizaciones sin fines de lucro con la protección infantil.
En 2023, investigadores de Stanford descubrieron que una versión inicial de Stable Diffusion fue entrenada, en parte, con imágenes ilícitas de menores. Stability AI comentó a Forbes a principios de este año que no era responsable de Stable Diffusion 1.5, lanzado originalmente por el desarrollador de herramientas de inteligencia artificial Runway, y que había invertido en funciones para evitar el uso indebido en modelos más recientes desde que adquirió el control de ellos. Runway no respondió a las solicitudes de comentarios al momento de la publicación.
Con Stable Diffusion 1.5 disponible, hay poco qué hacer para evitar su uso indebido. El jefe de tecnología del Observatorio de Internet de Stanford, David Thiel, expresó que sus desarrolladores originales deberían haber examinado mejor sus datos de entrenamiento en busca de imágenes explícitas.
“No hay nada que Estabilidad pueda hacer al respecto, aparte de no repetir los mismos errores”, afirmó.
En cuanto a cómo procederá el gobierno para procesar a los creadores de CSAM de inteligencia artificial, un investigador federal actual de explotación infantil, que no estaba autorizado a hablar oficialmente, sugirió que en los casos en que se hubiera utilizado para sexualizar imágenes de niños reales, los cargos probablemente serían equivalentes a aquellos en casos estándar de CSAM.
Las imágenes ilegales generadas íntegramente por inteligencia artificial podrían ser objeto de cargos según la ley de obscenidad estadounidense.
“Básicamente, en esos casos, se trata como si fueran dibujos muy realistas”, anotó el investigador.
La pornografía infantil animada es procesable durante mucho tiempo en Estados Unidos y los comentarios recientes del Departamento de Justicia sobre la acusación de Herrera indican que planea adoptar una línea dura con todo el material ilícito creado por inteligencia artificial.
“Los delincuentes que estén considerando el uso de IA para perpetuar sus crímenes deberían detenerse y pensarlo dos veces, porque el Departamento de Justicia está procesando conductas criminales habilitadas por IA con todo el rigor de la ley y buscará sentencias más altas cuando sea necesario”, concluyó la fiscal general adjunta Lisa Mónaco.
Siguenos en Redes