El contenido generado por inteligencia artificial dificulta la lucha contra el abuso sexual infantil en línea

El contenido generado por inteligencia artificial dificulta la lucha contra el abuso sexual infantil en línea

Inteligencia artificial emerge como herramienta para generar abuso sexual infantil, complicando su detección. (Imagen Ilustrativa Infobae)

 

El aumento de los materiales de abuso sexual infantil generados por inteligencia artificial (IA) representa un nuevo y desafiante frente en la lucha contra esta epidemia digital. Investigadores de la Universidad de Stanford, en un informe publicado el lunes 22 de abril de 2024, alertan sobre la creciente amenaza que suponen estas tecnologías emergentes para las autoridades, ya limitadas por tecnologías anticuadas y leyes obsoletas.

Por infobae.com





La eficacia del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), encargado de coordinar la lucha contra este tipo de contenidos, se ve seriamente comprometida por la falta de recursos necesarios para combatir esta nueva forma de delito, según citó The New York Times.

El informe destaca que, en el último año, los avances en tecnologías de IA han simplificado considerablemente la creación de imágenes explícitas de menores, elevando exponencialmente el volumen de material de abuso sexual infantil (CSAM) en circulación.

Shelby Grossman, uno de los autores del estudio, advierte que, “sin duda, en los próximos años, la CyberTipline se verá inundada de contenido de IA que parece muy realista, dificultando aún más para las fuerzas del orden identificar a los verdaderos niños que necesitan ser rescatados”.

La CyberTipline, establecida en 1998, opera como el principal repositorio federal para todos los informes sobre CSAM en línea, utilizada por las fuerzas de seguridad en la investigación de estos crímenes. Sin embargo, enfrenta serios desafíos, ya que muchos de los consejos recibidos están incompletos o plagados de inexactitudes.

El tamaño reducido de su plantilla ha luchado por mantenerse al día con el volumen de reportes, que fue menos de la mitad de “accionables” en el 2022, debido a la falta de información suficiente por parte de las empresas denunciantes o porque la imagen en una denuncia se había difundido rápidamente en línea y se reportaba demasiadas veces.

Según datos del informe, en un solo día a principios de este año, la CyberTipline recibió un récord de un millón de informes de CSAM, saturando temporalmente la capacidad de respuesta de los investigadores. Este pico inusual resultó estar relacionado mayormente con la difusión de una imagen dentro de un meme, compartido en plataformas para expresar indignación, no con intención maliciosa.

Los desafíos tecnológicos añaden otra capa de complejidad al esfuerzo del NCMEC. Según Alex Stamos, otro de los autores del informe, el NCMEC y sus contratistas están limitados por regulaciones que les impiden usar proveedores de computación en la nube, requiriendo en cambio que las imágenes se almacenen localmente en computadoras.

Esta restricción dificulta la construcción y utilización de hardware especializado necesario para crear y entrenar modelos de IA para sus investigaciones. “Un millón de imágenes idénticas ya es bastante difícil, un millón de imágenes separadas creadas por IA los rompería”, afirmó Stamos.

Ante la creciente indignación pública sobre la proliferación de imágenes de abuso sexual de niños en línea, recientemente se intensificó el escrutinio sobre la responsabilidad de grandes plataformas tecnológicas en la protección de los menores. Durante una audiencia con los directores ejecutivos de MetaSnapTikTokDiscord y X, los legisladores criticaron severamente a estas empresas por no hacer lo suficiente para proteger a los niños en línea.

Para leer la nota completa pulse Aquí