Un ataque con misiles de fuerzas estadounidense-israelíes a una escuela primaria en el sur de Irán el 3 de marzo de 2026, que resultó en la muerte de casi 200 niñas y maestras, ha desatado una controversia sobre el uso de inteligencia artificial en la guerra. Según un artículo del Washington Post, la herramienta de IA de Anthropic, Claude, ha sido fundamental en la identificación y priorización de objetivos en Irán, facilitando operaciones militares a gran escala. El artículo no vincula directamente el uso de Claude con el ataque a la escuela, ni menciona la financiación de Anthropic por parte de Amazon, cuyo fundador, Jeff Bezos, también es propietario del Washington Post. La situación plantea serias preguntas sobre la ética del uso de la IA en la guerra, la influencia de los oligarcas tecnológicos en la política y los medios de comunicación, y la falta de transparencia en la toma de decisiones militares. A pesar de la propaganda que promociona la IA como una herramienta de crecimiento económico, los bancos confirman que la inversión en IA no ha generado ganancias significativas, mientras que sus efectos negativos se concentran en los más vulnerables. El autor critica la falta de reglas de compromiso y la creciente dependencia de una tecnología inherentemente defectuosa, advirtiendo sobre las consecuencias para la sociedad.
IA en guerra: ataque a escuela irán en el centro del debate
Fuentes:
AI and the illegal war
