Descubren 'LLMorphism': el sesgo que hace que nos veamos como chatbots

Fuentes: LLMorphism: When humans come to see themselves as language models
Descubren 'LLMorphism': el sesgo que hace que nos veamos como chatbots
Imagen generada con IA

LLMorphism es un sesgo cognitivo identificado por el investigador Valerio Capraro en mayo de 2026, que describe la tendencia psicológica de creer que la cognición humana funciona de manera similar a un modelo de lenguaje grande (LLM). Este concepto surge como respuesta a la proliferación de asistentes conversacionales basados en IA, que han demostrado capacidades extraordinarias para generar lenguaje natural. La preocupación central es que, al observar que las máquinas pueden «hablar» de manera casi idéntica a los humanos, las personas podrían inferir una relación lógica errónea: si las máquinas piensan como nosotros, entonces nosotros debemos pensar como máquinas. Esta inferencia está sesgada porque la similitud en la salida lingüística no implica similitud en la arquitectura cognitiva interna. El autor distingue LLMorphism de otros fenómenos relacionados como el antropomorfismo (atribuir características humanas a máquinas) y el mecanomorfismo (ver a los humanos como máquinas). LLMorphism se propaga a través de dos mecanismos principales: la transferencia analógica, donde las características de los LLMs se proyectan sobre los humanos, y la disponibilidad metafórica, donde el vocabulario técnico de los LLMs se convierte en la forma cultural de describir el pensamiento humano. Las implicaciones son profundas: en educación, podría llevar a diseñar métodos de enseñanza basados en cómo «procesan» texto los LLMs; en responsabilidad legal, podría cuestionar la imputabilidad humana si se cree que los humanos operan como «tokenizers» deterministas; en creatividad, podría subestimar la originalidad humana frente a la generación estadística de modelos. El artículo concluye que el debate público está incompleto: nos preocupamos por atribuir excesiva mente a las máquinas, pero estamos comenzando a atribuir muy poca mente a los humanos.