Anthropic ha recibido una notificación del Departamento de Guerra de EE. UU. designándola como un riesgo en la cadena de suministro para la seguridad nacional estadounidense. La empresa, liderada por su CEO Dario Amodei, considera esta designación legalmente injustificada y planea impugnarla en los tribunales. La medida, según Anthropic, tiene un alcance limitado y afecta principalmente a clientes que utilizan Claude, el modelo de lenguaje de Anthropic, en contratos directos con el Departamento de Guerra.
La controversia surge tras una serie de eventos recientes, incluyendo un anuncio del expresidente Trump sobre la eliminación de Anthropic de los sistemas federales y un acuerdo entre el Pentágono y OpenAI, generando confusión en el sector. Anthropic ha expresado su compromiso de apoyar a los militares y expertos en seguridad nacional, ofreciendo sus modelos a un costo nominal durante la transición. La empresa enfatiza que su preocupación se centra en el uso de la IA para armas autónomas y vigilancia masiva, no en la toma de decisiones operativas. Amodei se disculpó por una publicación interna filtrada que reflejaba la confusión y el estrés del momento, asegurando que no representa su opinión actual y que la empresa prioriza la continuidad del apoyo a las fuerzas armadas.
