El CERN, el laboratorio europeo de física de partículas, está utilizando modelos de inteligencia artificial (IA) extremadamente pequeños, grabados directamente en chips de silicio, para filtrar en tiempo real los enormes volúmenes de datos generados por el Gran Colisionador de Hadrones (LHC). El LHC produce aproximadamente 40.000 exabytes de datos al año, una cantidad que supera la capacidad de almacenamiento y procesamiento convencional. Para abordar este desafío, el CERN ha optado por modelos de IA optimizados y compactos implementados en circuitos integrados específicos (ASIC) y arreglos de puertas programables (FPGA), lo que permite una toma de decisiones ultrarrápida, en microsegundos o incluso nanosegundos. Estos modelos, desarrollados con herramientas como HLS4ML, priorizan la eficiencia y la baja latencia sobre el tamaño, utilizando incluso recursos del chip para tablas de consulta precalculadas. El sistema actual, que descarta el 99,98% de los eventos de colisión, está preparado para una futura actualización, el HL-LHC, que aumentará la producción de datos en un factor de diez. Este enfoque innovador de 'IA pequeña' podría tener implicaciones más allá de la física de partículas, influyendo en el diseño de sistemas de computación de alto rendimiento en áreas como la robótica autónoma y el procesamiento de imágenes médicas.
