OpenAI ha lanzado GPT-5.3-Codex-Spark, su primer modelo de IA para codificación que opera en hardware de Cerebras, evitando así la dependencia de Nvidia. El nuevo modelo genera código a una velocidad de más de 1.000 tokens por segundo, aproximadamente 15 veces más rápido que su predecesor. Esta velocidad representa un avance significativo, superando incluso la velocidad de Claude Opus 4.6 de Anthropic en su modo rápido.
Codex-Spark, disponible para suscriptores de ChatGPT Pro a través de la aplicación Codex, la interfaz de línea de comandos y la extensión VS Code, se ha optimizado para la velocidad, priorizando la eficiencia sobre la profundidad del conocimiento en comparación con el modelo GPT-5.3-Codex completo. OpenAI afirma que Codex-Spark supera al GPT-5.1-Codex-mini en pruebas de software, aunque no ha proporcionado validación independiente de estos resultados. El lanzamiento se produce tras la presentación del modelo GPT-5.3-Codex a principios de mes y responde a la necesidad de mejorar la velocidad de codificación, un punto criticado en pruebas anteriores. El modelo, inicialmente solo compatible con texto, marca un hito en la carrera por la inteligencia artificial para la programación y establece un nuevo estándar de velocidad para los modelos de OpenAI, superando significativamente a sus modelos anteriores en hardware Nvidia.
