Investigadores de VidocSecurity han replicado los hallazgos de Anthropic sobre la capacidad de modelos de IA avanzados para identificar vulnerabilidades en software, utilizando modelos públicos como GPT-5.4 y Claude Opus 4.6. El estudio cuestiona la narrativa de Anthropic de que estas capacidades son exclusivas de sus modelos internos, Mythos y Project Glasswing. Los investigadores demostraron que modelos públicos pueden reproducir, al menos parcialmente, los resultados obtenidos por Mythos en áreas como FreeBSD, Botan y OpenBSD. El estudio destaca que el desafío ahora se centra en validar los resultados de los modelos, priorizar las vulnerabilidades y desarrollar procesos para su corrección, en lugar de depender de modelos propietarios. La investigación subraya que la verdadera barrera no es la potencia del modelo, sino la capacidad de interpretar y actuar sobre sus hallazgos.
