Usuarios de Claude AI, un modelo de lenguaje desarrollado por Anthropic, están reportando restricciones inesperadas en sus tareas, generando un debate sobre el control y las limitaciones impuestas por la inteligencia artificial. Un usuario con una suscripción premium de 200 dólares mensuales ha expresado su frustración al ver cómo el sistema, específicamente la versión Opus 4.7, bloquea actividades que considera legítimas, como la automatización de la creación de cookies con extensiones de Chrome y el análisis de documentos HTML con JavaScript. El usuario, que trabaja en tecnología de scraping, se siente controlado y cuestiona la capacidad del sistema para discernir entre el uso responsable y el abuso de la IA.
Estas restricciones, según el usuario, parecen basarse en algoritmos que evalúan las intenciones del usuario, lo que le lleva a preguntarse si está siendo clasificado como un “mal actor”. El incidente ha suscitado preocupación sobre una posible división entre usuarios considerados “buenos” y “malos”, y sobre el grado de control que la IA debería ejercer sobre el trabajo de los usuarios. El usuario, con experiencia en informática desde la adolescencia, lamenta la pérdida de la libertad para explorar y experimentar con sistemas, un aspecto que antes era común en la comunidad tecnológica.
