HN: Investigación de LLM pierde interés

Fuentes: LLM research on Hacker News is drying up – Dylan Castillo

Un análisis reciente realizado por Dylan Castillo revela una disminución en la presencia de investigaciones sobre modelos de lenguaje grandes (LLM) en Hacker News (HN), una plataforma popular entre programadores y entusiastas de la tecnología. Utilizando a Claude, un asistente de IA, Castillo rastreó la proporción de artículos de arXiv que aparecen en HN a lo largo del tiempo, confirmando una tendencia a la baja en los últimos meses. Este descenso contrasta con un pico anterior en 2019, impulsado por la popularidad del aprendizaje profundo. En 2019, el 41% de los artículos más votados se centraban en deep learning, mientras que entre 2023 y 2026, este porcentaje subió al 59% para los LLMs y la IA. Castillo también identificó investigaciones de 2019 que han resistido el paso del tiempo, como MuZero y EfficientNet, y especuló sobre qué trabajos recientes podrían tener un impacto duradero, incluyendo DeepSeek-R1 y Generative Agents. La disminución en la visibilidad de la investigación de LLM en Hacker News podría indicar una saturación del tema o un cambio en los intereses de la comunidad.