Los expertos pidieron a los legisladores que eliminen las lagunas de la ley actual sobre material de abuso sexual infantil
Un organismo de control de Internet está haciendo sonar la alarma sobre la creciente tendencia de delincuentes sexuales que colaboran en línea para utilizar inteligencia artificial de código abierto para generar material de abuso sexual infantil.
"Hay una comunidad técnica dentro del espacio de los delincuentes, particularmente los foros de la web oscura, donde están discutiendo esta tecnología", dijo Dan Sexton, director de tecnología de la Internet Watch Foundation (IWF), a The Guardian en un informe la semana pasada. "Están compartiendo imágenes, están compartiendo modelos [de IA]. Están compartiendo guías y consejos."
La organización de Sexton ha descubierto que los delincuentes recurren cada vez más a modelos de inteligencia artificial de código abierto para crear material ilegal de abuso sexual infantil (CSAM) y distribuirlo en línea. A diferencia de los modelos cerrados de IA como Dall-E de OpenAI o Imagen de Google, los usuarios pueden descargar y ajustar la tecnología de IA de código abierto, según el informe. Sexton dijo que la capacidad de usar dicha tecnología se ha extendido entre los delincuentes, que recurren a la web oscura para crear y distribuir imágenes realistas.
Un organismo de control de Internet está haciendo sonar la alarma sobre la creciente tendencia de delincuentes sexuales que colaboran en línea para utilizar inteligencia artificial de código abierto para generar material de abuso sexual infantil. (Fox News / Archivo)
"El contenido que hemos visto, creemos que en realidad se está generando utilizando software de código abierto, que se ha descargado y ejecutado localmente en las computadoras de las personas y luego se ha modificado. Y ese es un problema mucho más difícil de solucionar", dijo Sexton. "Se ha enseñado qué es el material de abuso sexual infantil y se ha enseñado cómo crearlo."
Sexton dijo que las discusiones en línea que tienen lugar en la web oscura incluyen imágenes de niños famosos e imágenes de niños disponibles públicamente. En algunos casos, las imágenes de víctimas de abuso infantil se utilizan para crear contenido completamente nuevo.
"Todas estas ideas son preocupaciones, y hemos visto discusiones sobre ellas", dijo Sexton.
Sexton dijo que las discusiones en línea que tienen lugar en la web oscura incluyen imágenes de niños famosos e imágenes de niños disponibles públicamente. En algunos casos, las imágenes de víctimas de abuso infantil se utilizan para crear contenido completamente nuevo.
Christopher Alexander, director de análisis de Pioneer Development Group, dijo a Fox News Digital que uno de los nuevos peligros de esta tecnología es que podría usarse para presentar a más personas a CSAM. Por otro lado, la IA podría usarse para ayudar a escanear la web en busca de personas desaparecidas, incluso utilizando "progresiones de edad y otros factores que podrían ayudar a localizar a los niños víctimas de la trata"."
"Entonces, la IA generativa es un problema, la IA y el aprendizaje automático son una herramienta para combatirlo, incluso simplemente haciendo detección", dijo Alexander.
"Los peligros extremos creados por esta tecnología tendrán implicaciones masivas en el bienestar de Internet. Donde estas compañías fracasan, el Congreso debe actuar agresivamente y actuar para proteger tanto a los niños como a Internet en general."
Mientras tanto, Jonathan D. Askonas, profesor asistente de política y miembro del Centro para el Estudio de la Estadidad en la Universidad Católica de América, dijo a Fox News Digital que "los legisladores deben actuar ahora para reforzar las leyes contra la producción, distribución y posesión de CSAM basado en Inteligencia artificial, y para cerrar las lagunas de la era anterior."
IWF, que busca CSAM en la web y ayuda a coordinar su eliminación, podría verse abrumado por consejos para eliminar dicho contenido de la web en la era de la IA, dijo Sexton, y señaló que la proliferación de dicho material ya estaba muy extendida en la web.
"El abuso sexual infantil en línea ya es, como creemos, una epidemia de salud pública", dijo Sexton, según The Guardian. "Por lo tanto, esto no va a mejorar el problema. Solo lo empeorará potencialmente."
Ziven Havens, director de políticas del Proyecto Bull Moose, dijo a Fox News Digital que dependerá del Congreso actuar para proteger tanto a los niños como a Internet.
Ziven Havens, director de políticas del Proyecto Bull Moose, dijo a Fox News Digital que dependerá del Congreso actuar para proteger tanto a los niños como a Internet. (Foto de Fox News / Joshua Comins / Archivo)
"Al utilizar imágenes ya disponibles de víctimas reales de abuso, el CSAM de IA varía muy poco del CSAM no creado por IA. Es igualmente moralmente corrupto y repugnante. Los peligros extremos creados por esta tecnología tendrán implicaciones masivas en el bienestar de Internet", dijo Havens. "Donde estas compañías fracasan, el Congreso debe actuar agresivamente y actuar para proteger tanto a los niños como a Internet en general."