OpenAI ha anunciado un programa de recompensas por errores (Bug Bounty) centrado en la seguridad biológica para su próximo modelo de lenguaje, GPT-5.5. El programa, que se abrirá a aplicaciones el 23 de abril de 2026, invita a investigadores con experiencia en red teaming de IA, seguridad y bioseguridad a identificar una “jailbreak” universal capaz de eludir un desafío de seguridad biológica de cinco preguntas. El objetivo es fortalecer las salvaguardias del modelo GPT-5.5, que se ejecutará en el entorno Codex Desktop.
La recompensa principal es de 25.000 dólares para el primer investigador que logre superar con éxito todas las preguntas sin activar los mecanismos de moderación. Se otorgarán premios menores por avances parciales. El programa se extenderá hasta el 27 de julio de 2026, con un proceso de selección basado en aplicaciones y una posterior incorporación a una plataforma específica. Los participantes deberán firmar un acuerdo de confidencialidad (NDA) y poseer una cuenta de ChatGPT existente. Esta iniciativa subraya el compromiso de OpenAI con el desarrollo seguro y responsable de la inteligencia artificial, especialmente en áreas con potencial impacto biológico.
