Ghost Pepper: Dictado privado para Mac

Un nuevo software para macOS llamado 'Ghost Pepper' ha sido lanzado, ofreciendo una aplicación de conversión de voz a texto completamente local y centrada en la privacidad. Desarrollado por Matthartman y disponible en GitHub, la aplicación permite a los usuarios dictar y transcribir texto manteniend

LLMs generan mejor código con técnica de 'auto-enseñanza'

El artículo "Embarrassingly Simple Self-Distillation Improves Code Generation" presenta una técnica sorprendentemente sencilla para mejorar la capacidad de los grandes modelos de lenguaje (LLMs) para generar código. En esencia, la técnica, llamada Self-Distillation Simple (SSD), permite que un LLM s

TQ4_1S: LLMs más pequeños para dispositivos Apple

Un desarrollador ha presentado una nueva técnica de compresión de modelos de lenguaje grandes (LLM) llamada TQ4_1S, diseñada específicamente para dispositivos Apple con chips Metal. Esta técnica reduce el tamaño de los modelos en un 27-38%, dependiendo del modelo, sin necesidad de reentrenamiento ni

Galería online compara arquitecturas de LLM

Un repositorio en línea, alojado en sebastianraschka.com, ha sido creado para rastrear y comparar las arquitecturas de los últimos modelos de lenguaje grandes (LLM). La “Galería de Arquitecturas LLM” recopila diagramas y hojas de datos de modelos como Llama 3 8B, DeepSeek V3, Gemma 3, Qwen3, Mistral

Modelos de lenguaje: nueva técnica mejora el razonamiento

Este artículo explora una técnica innovadora para mejorar el razonamiento de los modelos de lenguaje, inspirada en el éxito de algoritmos de búsqueda en árbol como AlphaZero en juegos de mesa. La idea central es aplicar la 'Tree Search Distillation' (Destilación de Búsqueda en Árbol) a modelos de le

Qwen: Renuncia clave investigador de modelo de Alibaba

Un importante movimiento ha sacudido al equipo de desarrollo de Qwen, una familia de modelos de lenguaje de código abierto de Alibaba. El 4 de marzo de 2026, Junyang Lin, el investigador principal y figura clave detrás de la liberación de los modelos Qwen desde 2024, anunció su inesperada renuncia a

Hugging Face acelera LLMs con 'continuous batching'

Hugging Face ha publicado un artículo técnico explicando 'continuous batching', una técnica para acelerar la respuesta de los modelos de lenguaje grandes (LLMs) como Qwen y Claude. El problema actual es que los LLMs, al generar texto, procesan la solicitud completa y luego añaden tokens uno por uno,