Anthropic relaja medidas de seguridad en IA

Fuentes: Anthropic Drops Flagship Safety Pledge

Anthropic, una empresa líder en inteligencia artificial que se había posicionado como la más centrada en la seguridad, ha eliminado una pieza central de su política de seguridad. Anteriormente, Anthropic se comprometió a no entrenar sistemas de IA a menos que pudiera garantizar medidas de seguridad adecuadas, una promesa clave de su Responsible Scaling Policy (RSP). La empresa ahora argumenta que esta restricción obstaculiza su progreso en un mercado competitivo y no es efectiva para impulsar la seguridad en la industria.

La nueva política de Anthropic se centra en la transparencia sobre los riesgos de la IA, la superación de los esfuerzos de seguridad de la competencia y la posibilidad de retrasar el desarrollo de la IA si la empresa lidera la carrera y los riesgos son significativos. Este cambio se produce en un momento de rápido crecimiento para Anthropic, que recientemente recaudó 30 mil millones de dólares y experimenta un crecimiento anualizado de ingresos de 10 veces. Jared Kaplan, director científico de Anthropic, afirma que la decisión es una respuesta pragmática a la realidad política y científica actual, y no una capitulación ante la presión del mercado. Expertos como Chris Painter de METR, aunque entienden el cambio, expresan preocupación de que marque una señal negativa sobre la capacidad de la sociedad para gestionar los riesgos potenciales de la IA, especialmente con la ciencia de la evaluación de la IA aún en desarrollo.