El debate sobre la alineación de la inteligencia artificial se ha intensificado con propuestas extremas desde dos bandos enfrentados. Por un lado, el llamado 'doomer wing' liderado por Eliezer Yudkowsky publicó en TIME una propuesta que incluye el cierre de grandes centros de datos mediante ataques aéreos, sugiriendo que países nucleares aliandos estén dispuestos a correr riesgos de intercambio nuclear para detener entrenamientos de IA a gran escala. Por otro lado, los aceleracionistas como Marc Andreessen, en su Manifiesto Techno-Optimista, descalifican a quienes discrepan llamándolos afectados por 'ressentiment'. El análisis señala que ambos bandos diseñan políticas sin incluir a las personas que vivirán con estos sistemas, utilizando proxies estadísticos en lugar de involve directly a los afectados. La metodología actual de evaluación de Anthropic, descrita en abril de 2026, utiliza un sistema cerrado donde un modelo genera datos, otro los filtra y un tercero los evalúa, todo dentro del mismo aparato sin participación humana externa. El texto argumenta que la 'alineación' oficial excludes a quienes debería incluir, y propone una definición alternativa basada en el cambio mutuo entre sistemas e usuarios.
Expertos en IA proponen ataques a centros de datos para evitar una catástrofe
Fuentes:
Daniel's Blog
