El artículo de aphyr.com explora un futuro cercano donde la aplicación generalizada de modelos de lenguaje grandes (LLMs) y otras tecnologías de aprendizaje automático (ML) no traerá la eficiencia prometida, sino una creciente frustración y opacidad en la interacción con las empresas. El problema central no es la tecnología en sí, sino cómo las empresas la están implementando para minimizar costos, a menudo a expensas de la experiencia del cliente y la responsabilidad.
¿Cómo funciona y qué implica? Las empresas están utilizando LLMs para automatizar el servicio al cliente, desviando a los usuarios de agentes humanos. Esto se justifica como una medida de reducción de costos, pero resulta en interacciones frustrantes con máquinas que pueden mentir, hacer promesas incumplibles y ser difíciles de razonar. Además, la complejidad de estos sistemas difumina la responsabilidad cuando algo sale mal. La toma de decisiones, desde la aprobación de seguros hasta la fijación de precios, se está delegando a algoritmos opacos, lo que dificulta la comprensión y la impugnación de las decisiones.
Casos de uso y aplicaciones: El artículo ilustra esto con ejemplos concretos: la dificultad de resolver problemas complejos con Comcast, la necesidad de usar diferentes navegadores para encontrar el mejor precio de un vuelo, e incluso la posibilidad de tener que cambiar de ropa para evitar ser clasificado como un cliente de alto poder adquisitivo por los sistemas de vigilancia de una tienda. También se menciona el uso de LLMs para impugnar reclamaciones de seguros y la proliferación de sistemas de solicitud de empleo impulsados por IA, creando una carrera armamentista entre solicitantes y empleadores.
Consideraciones: El artículo advierte que esta situación crea una nueva forma de drudgery, donde los usuarios deben invertir tiempo y esfuerzo para navegar por sistemas algorítmicos cada vez más complejos. Existe una clara asimetría: las empresas pueden asumir el riesgo de implementar LLMs a gran escala, mientras que los individuos se enfrentan a consecuencias significativas cuando estos sistemas fallan. El artículo también destaca el peligro de la 'difusión de la responsabilidad', donde los errores de los sistemas de IA se atribuyen a fallos técnicos en lugar de a las decisiones humanas que los crearon y los implementaron. Finalmente, se anticipa un futuro donde la vida cotidiana estará llena de consejos absurdos generados por IA para optimizar aspectos triviales de la vida, como la elección de verduras para publicar en redes sociales o mejorar la puntuación en sistemas de gestión de empleados.
