El término 'loro estocástico' (stochastic parrot) fue introducido por Emily Bender y colegas en su influential artículo de 2021 para describir lo que realmente hacen los modelos de lenguaje grandes (LLMs) cuando generan texto. La idea central es que estos sistemas no comprenden el significado del lenguaje que producen: simplemente recombinan estadísticamente secuencias de formas lingüísticas observadas en sus datos de entrenamiento, sin tener intención comunicativa, un modelo del mundo, o conocimiento del estado mental del lector. A pesar de su nombre, Bender nunca ha dicho que 'IA' sea un loro estocástico, ya que rechazo el término 'IA' como forma de describir tecnologías. El paper de 2020 trataba sobre los riesgos y daños asociados con la búsqueda de modelos cada vez más grandes, mucho antes de que ChatGPT普及ara. El objetivo del término era hacer visible qué hacen estos sistemas: imitar formas lingüísticas humanas sin comprensión alguna. Bender enfatiza que los LLM son solo un componente de sistemas más complejos, y que las críticas no van dirigidas a los modelos mismos, sino a las acciones de las personas: el robo de datos, las prácticas laborales explotadoras, el descuido ambiental y la falta de rendición de cuentas. Usar 'solo' implica una'échelle de funcionalidad que no corresponde a su análisis. Más que un insulto, es una descripción técnica que busca contrarrestar el marketing que presenta estos sistemas como 'IA' o incluso 'AGI', ayudando al público a entender qué son realmente: máquinas de extrusión de texto sintético.
Loro estocástico: el término que revolucionó la crítica a los modelos de lenguaje
