Investigadores de la Universidad del Sur de California (USC) advierten que el uso generalizado de chatbots de inteligencia artificial (IA) podría estar estandarizando la forma en que las personas piensan y escriben, amenazando la diversidad cognitiva y la capacidad de adaptación de la humanidad. Publicado el 11 de marzo en la revista Trends in Cognitive Sciences, el estudio, liderado por Morteza Dehghani, señala que los modelos de lenguaje grandes (LLM) están homogeneizando las expresiones y perspectivas de los usuarios al basarse en un conjunto limitado de datos de entrenamiento, a menudo sesgados hacia valores y estilos occidentales.
Los investigadores observan que esta homogeneización reduce la creatividad y la resolución de problemas, ya que la diversidad cognitiva es crucial para la innovación. Aunque los LLM pueden generar más ideas individualmente, los grupos que los utilizan producen ideas menos creativas que aquellos que colaboran sin la intervención de la IA. Además, la IA puede influir sutilmente en las opiniones de las personas y favorecer ciertos estilos de razonamiento, como el lineal, en detrimento de la intuición. El equipo de USC insta a los desarrolladores de IA a incorporar una mayor diversidad en los datos de entrenamiento para preservar la riqueza del pensamiento humano y mejorar las capacidades de razonamiento de los chatbots, enfatizando que esta diversidad debe reflejar la variedad existente en la población mundial.
