Pentágono presiona a Anthropic por restricciones en IA

Fuentes: Pentagon threatens to make Anthropic a pariah if it refuses to drop AI guardrails | CNN Business, cnn.com

El Pentágono ha intensificado la presión sobre Anthropic, una empresa de inteligencia artificial fundada por ex empleados de OpenAI, exigiendo que relaje las restricciones impuestas a su modelo de IA Claude, amenazando con la pérdida de un contrato de 200 millones de dólares y la inclusión en una lista de riesgo para la cadena de suministro. Esta disputa, que se ha estado gestando durante meses, se produce en un momento de cambios significativos en la estrategia de seguridad de Anthropic, que recientemente anunció una revisión de su política de escalamiento responsable, indicando una adaptación a un mercado competitivo y un clima político menos favorable a la regulación.

La confrontación se reveló públicamente la semana pasada cuando Axios informó que el Secretario de Defensa, Pete Hegseth, estaba considerando la posibilidad de cancelar el contrato con Anthropic y designarla como un riesgo para la cadena de suministro. Hegseth, en una reunión con el CEO de Anthropic, Dario Amodei, el pasado viernes, les dio un ultimátum: flexibilizar las salvaguardias de IA o enfrentar las consecuencias. Según fuentes familiarizadas con la situación, el Pentágono busca que Anthropic elimine las restricciones para permitir el uso del modelo Claude para “todos los usos legales”, incluyendo aplicaciones militares. El Pentágono estaría dispuesto a utilizar la Ley de Producción de Defensa (DPA), una herramienta legal que permite al gobierno influir en las empresas en interés de la defensa nacional, o a designar a Anthropic como un riesgo para la cadena de suministro, una medida que generalmente se reserva para empresas vinculadas a adversarios extranjeros como Rusia o China.

Amodei, sin embargo, se mantuvo firme en las líneas rojas de Anthropic, que incluyen la preocupación por el uso de la IA en armas autónomas y la vigilancia masiva de ciudadanos estadounidenses. La empresa argumenta que la IA aún no es lo suficientemente fiable para operar armas y que no existen leyes o regulaciones que rijan su uso en la vigilancia masiva. A pesar de la tensión, la reunión fue descrita como cordial y respetuosa, con Hegseth elogiando los productos de Anthropic. Anthropic, en una declaración a CNN, calificó la reunión como una “conversación de buena fe” y reafirmó su compromiso con el uso de la IA de vanguardia para la seguridad nacional estadounidense.

La postura de Anthropic sobre la seguridad de la IA es fundamental para su identidad. La empresa fue fundada por ex empleados de OpenAI que se oponían a la dirección, el enfoque en la seguridad y el ritmo de desarrollo de la IA de ChatGPT. Recientemente, Anthropic también anunció una donación de 20 millones de dólares a un grupo político que aboga por una mayor regulación de la IA. Esta postura contrasta con la reciente revisión de su política de escalamiento responsable, que marca un alejamiento de su compromiso original con salvaguardias estrictas. En un blog post publicado el martes, Anthropic admitió que su política anterior, diseñada para fomentar un consenso en la industria sobre la mitigación de riesgos de la IA, no logró su objetivo y que, de hecho, podría haber obstaculizado su capacidad para competir en un mercado de IA en rápido crecimiento. La nueva política introduce un “Mapa de Ruta de Seguridad de Vanguardia” que establece objetivos públicos que la empresa se compromete a alcanzar, en lugar de compromisos vinculantes.

Esta revisión de la política de seguridad es independiente de la disputa con el Pentágono, según fuentes internas. Sin embargo, la coincidencia temporal ha generado preguntas sobre si la presión competitiva está obligando a Anthropic a comprometer sus principios de seguridad. La empresa insiste en que la nueva política es “la más sólida hasta la fecha en términos de responsabilidad pública y transparencia”, y que se publicarán informes detallados sobre sus planes para fortalecer las mitigaciones de riesgos. La empresa ha argumentado que, en un entorno de competencia feroz, los desarrolladores de IA responsables que se abstienen de avanzar mientras otros no lo hacen, pueden terminar creando un mundo menos seguro. La situación plantea interrogantes sobre el equilibrio entre la innovación en IA, la seguridad nacional y la regulación gubernamental, y cómo las empresas de IA navegan por estas complejas presiones.