Anthropic rechaza la presión del Pentágono para eliminar salvaguardias en el uso de su modelo de IA, Claude, en un movimiento que podría tener implicaciones significativas para el desarrollo y despliegue de la inteligencia artificial en el sector de la defensa nacional. La empresa, pionera en la implementación de IA en el gobierno de EE. UU., se niega a ceder en dos puntos clave: la prohibición del uso de Claude para la vigilancia masiva doméstica y la exclusión de su tecnología en sistemas de armas totalmente autónomos.
La controversia surgió tras meses de negociaciones entre Anthropic y el Departamento de Guerra, liderado por el Secretario de Guerra Pete Hegseth. Inicialmente, Anthropic ha sido un colaborador activo del Departamento de Guerra, siendo la primera empresa de IA de vanguardia en desplegar sus modelos en redes clasificadas del gobierno, laboratorios nacionales y proporcionando modelos personalizados para seguridad nacional (Anthropic). Claude se ha integrado ampliamente en diversas aplicaciones críticas, incluyendo análisis de inteligencia, modelado y simulación, planificación operativa y operaciones cibernéticas (Anthropic).
Sin embargo, la postura de Anthropic se ha endurecido recientemente. La empresa argumenta que el uso de IA para vigilancia masiva doméstica plantea serios riesgos para las libertades fundamentales y que los sistemas de IA actuales carecen de la fiabilidad necesaria para operar en sistemas de armas totalmente autónomos (Amodei). Anthropic ha ofrecido colaborar en la investigación y desarrollo para mejorar la fiabilidad de estos sistemas, pero el Departamento de Guerra no ha aceptado esta oferta. La empresa subraya que, aunque los sistemas de armas parcialmente autónomos son valiosos, la ausencia de supervisión humana adecuada en sistemas totalmente autónomos podría tener consecuencias impredecibles (Amodei).
La respuesta del Departamento de Guerra ha sido contundente. Hegseth ha anunciado la intención de designar a Anthropic como un “riesgo de la cadena de suministro”, una etiqueta reservada para adversarios de EE. UU. y nunca antes aplicada a una empresa estadounidense (Anthropic). Esta designación, junto con la amenaza de invocar la Ley de Producción de Defensa para forzar la eliminación de las salvaguardias, representa una presión significativa sobre Anthropic. La empresa considera estas amenazas contradictorias, ya que implican que su tecnología es esencial para la seguridad nacional, al mismo tiempo que la señalan como un riesgo (Anthropic).
Anthropic ha manifestado su disposición a facilitar una transición fluida a otro proveedor si el Departamento de Guerra decide prescindir de sus servicios, asegurando que no se interrumpan las operaciones militares en curso. La empresa reitera su compromiso con la seguridad nacional de EE. UU. y espera que el Departamento de Guerra reconsidere su posición, permitiendo que Anthropic continúe sirviendo con sus salvaguardias en vigor (Anthropic).
La decisión de Anthropic plantea preguntas importantes sobre el equilibrio entre la innovación en IA, la seguridad nacional y la protección de los derechos civiles. Mientras que el Departamento de Guerra busca maximizar el potencial de la IA para la defensa, Anthropic insiste en la necesidad de salvaguardias para evitar abusos y garantizar la fiabilidad de la tecnología. Este conflicto podría sentar un precedente para futuras relaciones entre el gobierno y las empresas de IA, y podría influir en la forma en que se desarrolla y se despliega la IA en el futuro. La situación también destaca la necesidad de una regulación clara y actualizada para abordar los desafíos éticos y legales planteados por la IA, especialmente en el contexto de la seguridad nacional. La falta de una regulación adecuada podría llevar a decisiones apresuradas y potencialmente perjudiciales, como la que ahora enfrenta Anthropic y el Departamento de Guerra. El debate en curso sobre el papel de la IA en la defensa nacional está lejos de resolverse, y la postura de Anthropic ha añadido una nueva capa de complejidad a la discusión.
