Investigadores de Percepta han demostrado la capacidad de ejecutar programas directamente dentro de modelos de lenguaje grandes (LLMs), como los transformers, logrando una velocidad de inferencia exponencialmente más rápida. El avance, anunciado el 11 de marzo de 2026, abre nuevas posibilidades para la integración de funcionalidades computacionales complejas dentro de estos modelos de IA. Tradicionalmente, los LLMs se han centrado en tareas de procesamiento de lenguaje natural, pero esta investigación sugiere que pueden ser adaptados para ejecutar código y realizar cálculos, ampliando significativamente su utilidad. El equipo de Percepta, liderado por Christos Tzamos, ha explorado cómo integrar la ejecución de programas dentro de la arquitectura de los transformers, lo que podría permitir aplicaciones como la simulación en tiempo real, el análisis de datos complejos y la automatización de tareas que requieren lógica computacional. Aunque los detalles técnicos específicos aún no han sido completamente divulgados, el logro representa un paso significativo hacia la convergencia de la IA generativa y la computación tradicional, con implicaciones potenciales para una amplia gama de industrias.
