IA complica la lucha contra abusos infantiles online

Fuentes: How Do You Find an Illegal Image Without Looking at It?

La lucha contra la explotación infantil online se enfrenta a un desafío creciente: la enorme cantidad de material de abuso sexual infantil (CSAM) generado, tanto real como sintético mediante inteligencia artificial. En 2025, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) recibió 21,3 millones de informes, que representan 61,8 millones de archivos. Este volumen supera la capacidad de revisión humana, especialmente considerando el aumento de informes relacionados con IA (1,5 millones). Para abordar este problema, se utiliza una técnica llamada 'perceptual hashing', que genera una 'huella digital' numérica de las imágenes sin necesidad de visualizarlas, protegiendo así la privacidad de los usuarios. Esta huella se compara con una base de datos de CSAM conocido. Para el material nuevo o generado por IA, se emplean modelos de aprendizaje automático que identifican patrones visuales. La clave reside en la combinación de estas técnicas: el 'hashing' para el material conocido y los clasificadores para el desconocido, todo ello buscando un equilibrio entre la detección de abusos y la protección de la privacidad.