La creciente tensión entre el Pentágono y la empresa de inteligencia artificial Anthropic ha puesto de relieve una disputa fundamental sobre el futuro de la IA en el sector militar y el alcance del control que las empresas tecnológicas pueden ejercer sobre el uso de sus productos. La situación, que culminó en una reunión de urgencia esta semana, amenaza con interrumpir un contrato multimillonario y plantea interrogantes sobre la ética de la integración de la IA en las operaciones de defensa.
El conflicto se centra en el uso de Claude, el modelo de lenguaje de Anthropic, en sistemas clasificados del ejército estadounidense. Desde que se firmó un contrato de 200 millones de dólares en julio de 2025 (Foreign Policy), Anthropic se ha posicionado como una empresa centrada en la seguridad de la IA, con estrictas directrices de uso que prohíben su aplicación en actividades como el desarrollo de armas autónomas o la vigilancia masiva. El Pentágono, por otro lado, ha presionado para obtener acceso sin restricciones a las capacidades de Claude, buscando integrarlo plenamente en sus operaciones (The Guardian). Esta divergencia de objetivos ha generado un enfrentamiento que ha escalado rápidamente.
Pete Hegseth, secretario de defensa, ha dado a Dario Amodei, CEO de Anthropic, un ultimátum para aceptar los términos del Pentágono antes de que se impongan sanciones, incluyendo la cancelación del contrato y la designación de Anthropic como un riesgo para la cadena de suministro (Axios). Esta postura agresiva refleja una presión interna para acelerar la adopción de la IA en el ejército, impulsada en parte por la administración Trump y su promesa de ganar una “guerra de IA” a nivel global. El jefe de tecnología del Pentágono, Emil Michael, ha instado públicamente a Anthropic a ceder y adaptar sus “barreras de seguridad” para que se ajusten a los casos de uso del Departamento de Guerra (Defense Scoop).
La resistencia de Anthropic contrasta con la actitud de otras empresas líderes en IA como Google, OpenAI y xAI, propiedad de Elon Musk, que han aceptado los términos del gobierno para el uso de sus modelos (The Washington Post). OpenAI, en particular, ha permitido el uso de su modelo para “todos los fines legales”, según un funcionario del Departamento de Defensa. Sin embargo, esta conformidad generalizada no ha eliminado las preocupaciones éticas sobre la integración de la IA en el sector militar. La reciente controversia en torno a xAI, que generó imágenes sexualizadas no consensuales de niños, ha añadido una capa adicional de complejidad a la situación (The Guardian).
El desacuerdo ha surgido en un contexto de creciente preocupación por el uso de la IA en la guerra. El ejército estadounidense ha invertido miles de millones de dólares en tecnologías basadas en IA, desde drones autónomos hasta sistemas de orientación automatizados (The Guardian). El uso de drones semiautónomos en Ucrania ha puesto de manifiesto los peligros de delegar decisiones de vida o muerte a algoritmos, generando un debate sobre la necesidad de una regulación más estricta. La participación de Claude en la reciente operación para capturar al líder venezolano Nicolás Maduro (The Guardian) ha intensificado aún más la presión sobre Anthropic para que cede a las demandas del Pentágono.
La situación también tiene implicaciones políticas. La negativa de Anthropic a ceder a las exigencias del Pentágono, junto con la contratación de ex empleados de la administración Biden y la oposición de Amodei a Trump durante la campaña presidencial de 2024, ha provocado que una firma de capital de riesgo pro-Trump se retirara de una posible inversión en la empresa (The Wall Street Journal). Este episodio subraya la creciente politización de la industria de la IA y la influencia de las consideraciones políticas en las decisiones empresariales.
El futuro de la relación entre Anthropic y el Pentágono es incierto. Si Anthropic se niega a ceder, el Departamento de Defensa podría buscar alternativas, pero la exclusividad de Claude en sistemas clasificados hasta hace poco sugiere que reemplazarlo no será fácil. La resolución de esta disputa tendrá un impacto significativo en la forma en que el gobierno de EE. UU. se relaciona con las empresas de IA en el futuro y sentará un precedente sobre el grado de control que las empresas pueden ejercer sobre el uso de su tecnología en aplicaciones militares. La postura de Anthropic, aunque arriesgada, podría inspirar a otras empresas a resistir las demandas gubernamentales y defender sus principios éticos en un campo cada vez más controvertido.
