Zyphra ha lanzado un nuevo modelo de lenguaje, ZAYA1-8B, que está destacando en pruebas de matemáticas y programación con un tamaño significativamente menor que otros modelos de vanguardia. ZAYA1-8B iguala el rendimiento de DeepSeek-R1 en matemáticas y compite con Claude Sonnet 4.5 en razonamiento, acercándose a Gemini 2.5 Pro en codificación, todo ello utilizando menos de mil millones de parámetros activos. Un aspecto crucial es que el modelo fue entrenado íntegramente en hardware AMD Instinct MI300X, rompiendo con la dependencia habitual de NVIDIA en el desarrollo de IA. Zyphra ha implementado una técnica innovadora llamada Markovian RSA, que permite al modelo mejorar su rendimiento a medida que se le proporciona más potencia de cálculo, superando incluso a modelos con muchos más parámetros. Si bien ZAYA1-8B sobresale en tareas de razonamiento y codificación, presenta limitaciones en áreas como la ejecución de agentes y el seguimiento de instrucciones complejas. El modelo está disponible en Zyphra Cloud y sus pesos están disponibles en Hugging Face bajo una licencia Apache 2.0, aunque requiere una versión modificada de vLLM para su despliegue local.
