Un creciente problema de abuso sexual infantil está afectando a escuelas de todo el mundo: la creación y difusión de deepfakes con imágenes o videos falsos de desnudos de menores. Adolescentes, principalmente varones, están utilizando aplicaciones y herramientas de inteligencia artificial accesibles para generar estas imágenes a partir de fotos descargadas de redes sociales, impactando a más de 600 estudiantes en al menos 90 escuelas a nivel global desde 2023. La práctica, considerada abuso sexual infantil, se ha extendido a 28 países, incluyendo casos con decenas de víctimas y situaciones que han llevado a la expulsión de estudiantes. Las consecuencias para las víctimas son devastadoras, generando humillación, miedo y angustia. Aunque la tecnología para crear deepfakes existe desde 2017, la facilidad de uso y la proliferación de aplicaciones de “nudificación” han exacerbado el problema, a menudo sin una respuesta adecuada por parte de escuelas y autoridades. Para mitigar el riesgo, algunas escuelas están limitando la publicación de fotos de estudiantes y ofreciendo alternativas para los anuarios. La magnitud real del problema es probablemente mucho mayor, con estimaciones de 1.2 millones de niños afectados a nivel mundial.
