Un investigador ha desarrollado "GuppyLM", un modelo de lenguaje pequeño (aproximadamente 9 millones de parámetros) que imita la personalidad de un pez llamado Guppy. El proyecto, disponible en GitHub, busca demostrar que el entrenamiento de modelos de lenguaje no requiere conocimientos avanzados ni recursos computacionales masivos. Se puede ejecutar en un solo notebook de Google Colab en aproximadamente 5 minutos. GuppyLM, a diferencia de los modelos más grandes, no pretende comprender conceptos abstractos humanos, sino que se centra en experiencias simples como comida, luz y el entorno acuático, comunicándose en frases cortas y en minúsculas. El modelo fue entrenado con 60.000 conversaciones sintéticas sobre 60 temas y está diseñado para ser accesible, permitiendo a los usuarios interactuar con él directamente a través de una interfaz de chat. La iniciativa tiene como objetivo desmitificar el proceso de entrenamiento de modelos de lenguaje, haciéndolo más comprensible y reproducible para una audiencia más amplia, mostrando cómo cada componente funciona desde el texto sin procesar hasta la salida generada.
