Anthropic oculta su modelo más avanzado por temor a un uso peligroso

Fuentes: Why AI companies want you to be afraid of themT1state_media

La empresa de inteligencia artificial Anthropic anunció que su nuevo modelo Claude Mythos es tan avanzado en la detección de vulnerabilidades de ciberseguridad que representa un riesgo catastrófico para la sociedad si cae en manos equivocadas, por lo que no será liberado públicamente de inmediato. Esta estrategia de generar alarmas sobre sus propios productos sigue un patrón recurrente en la industria tecnológica, según análisis de la BBC.

Expertos critican que estas advertencias apocalípticas cumplen múltiples propósitos: distraen de daños ya causados como la destrucción ambiental y la explotación laboral, elevan el valor de las acciones y fomentan la narrativa de que solo las propias empresas de IA pueden manejar estos riesgos, lo que desincentiva la regulación gubernamental.

Como precedente, OpenAI declaró en 2019 que su modelo GPT-2 era demasiado peligroso para liberarse, pero meses después lo lanzó al público. El propio Sam Altman, director de OpenAI, criticó las tácticas de Anthropic mientras ha utilizado estrategias similares. Investigadores como Emily M. Bender y Heidy Khlaaf del AI Now Institute cuestionan la credibilidad de estas afirmaciones, señalando la ausencia de métricas estándar como las tasas de falsos positivos en los anuncios de Anthropic, lo que genera dudas sobre la verdadera capacidad real del sistema Mythos.