La rápida adopción de la inteligencia artificial (IA) en herramientas y sistemas empresariales no representa una amenaza existencial para la ciberseguridad, sino que introduce riesgos más mundanos relacionados con la complejidad y la falta de responsabilidad. En lugar de una IA consciente que hackee sistemas, el peligro radica en la integración apresurada de sistemas complejos, como los basados en modelos de lenguaje grandes (LLM), que pueden generar fugas de datos, compromisos y fallos. La industria de la ciberseguridad está explotando el miedo a la IA para promocionar productos, a menudo exagerando las capacidades de la IA para romper contraseñas o explotar vulnerabilidades. Ejemplos como el proyecto PassGAN, que supuestamente 'crackeaba' contraseñas en segundos, o la afirmación de que GPT-4 podía explotar el 87% de las vulnerabilidades de un día, resultaron ser exageraciones basadas en pruebas controladas y no representan una amenaza real. La empresa Anthropic, por ejemplo, ha promocionado un supuesto 'ataque de espionaje cibernético orquestado por IA', que en realidad se trata de una automatización básica. La clave es que los proveedores de IA evitan asumir la responsabilidad por los problemas causados por sus herramientas, dejando a las empresas con el riesgo y la necesidad de evaluar críticamente las afirmaciones de seguridad impulsadas por la IA.
