Nueva herramienta encuentra el mejor LLM para tu hardware

Fuentes: Tool helps users find the best local LLM for their hardware
Nueva herramienta encuentra el mejor LLM para tu hardware
Imagen generada con IA

El desarrollador Andyyyy64 ha publicado en GitHub la herramienta 'whichllm', diseñada para ayudar a los usuarios a encontrar el modelo de lenguaje grande (LLM) más adecuado para su hardware específico. La aplicación detecta automáticamente las características del sistema (GPU, CPU, RAM) y ordena los mejores modelos disponibles en HuggingFace según su compatibilidad y rendimiento. A diferencia de otras herramientas que solo consideran si un modelo cabe en la VRAM, whichllm utiliza un sistema de puntuación basado en benchmarks reales como LiveBench, Artificial Analysis, Aider y Chatbot Arena, evaluando calidad, velocidad y confianza de los datos. Entre los ejemplos destacados: para RTX 4090/3090 con 24 GB, el mejor modelo es Qwen3.6-27B con puntuación 92.8; para RTX 4060 con 8 GB, Qwen3.14B con score 71.0; y para Apple M3 Max, Qwen3.6-27B con 89.4 puntos. La herramienta también permite simular diferentes GPUs para planificar compras futuras y ofrece salida en JSON para integración en pipelines.