El artículo "The machines are fine. I'm worried about us." plantea una preocupación fundamental sobre el impacto de la inteligencia artificial (IA) en la formación académica, específicamente en la investigación científica. La historia de Alice y Bob ilustra este problema. Ambos son estudiantes de doctorado en astrofísica asignados a proyectos similares. Alice aborda su proyecto de manera tradicional, enfrentando desafíos, aprendiendo de los errores y construyendo una comprensión profunda del campo. Bob, por otro lado, utiliza un agente de IA para resumir artículos, explicar métodos, depurar código e incluso redactar su trabajo. Externamente, ambos estudiantes parecen haber tenido el mismo éxito: publicaron un artículo cada uno.
El problema radica en que el sistema de evaluación académica se centra en resultados cuantificables (publicaciones, citas, etc.), ignorando el proceso de aprendizaje subyacente. La institución no se preocupa por si el estudiante se convierte en un pensador independiente o simplemente en un usuario experto de herramientas de IA, ya que su principal objetivo es generar publicaciones para asegurar financiación. La IA permite a los estudiantes producir resultados rápidamente, pero sin el desarrollo de habilidades críticas y la comprensión profunda que son esenciales para convertirse en científicos competentes. Si se elimina el agente de IA, Bob esencialmente no ha avanzado en su formación. Alice, en cambio, ha construido una base de conocimiento sólida y adaptable.
El artículo critica la lógica institucional que prioriza la producción de resultados sobre el desarrollo del estudiante. David Hogg argumenta que en la investigación astrofísica, el objetivo principal no debe ser el resultado específico, sino el beneficio que el estudiante obtiene del proceso de investigación. La verdadera valía de la investigación no reside en el descubrimiento de un valor específico de una constante física, sino en el desarrollo de métodos, el entrenamiento de mentes y la formación de personas capaces de resolver problemas complejos. El uso de la IA como un atajo para obtener resultados puede socavar este proceso fundamental, creando científicos que dependen de herramientas externas y carecen de la capacidad de pensar de forma independiente.
Finalmente, el artículo advierte que la adopción generalizada de la IA en la investigación académica podría llevar a una pérdida de la capacidad de pensamiento crítico y resolución de problemas, incluso si los resultados superficiales parecen mejorar. El riesgo no es que las máquinas sean malas, sino que su uso indiscriminado pueda deshumanizar el proceso de aprendizaje y crear una generación de científicos que son competentes en el uso de herramientas, pero carecen de la verdadera comprensión y la capacidad de innovación.
