El desarrollador Andyyyy64 ha publicado en GitHub la herramienta 'whichllm', diseñada para ayudar a los usuarios a encontrar el modelo de lenguaje grande (LLM) más adecuado para su hardware específico. La aplicación detecta automáticamente las características del sistema (GPU, CPU, RAM) y ordena los mejores modelos disponibles en HuggingFace según su compatibilidad y rendimiento. A diferencia de otras herramientas que solo consideran si un modelo cabe en la VRAM, whichllm utiliza un sistema de puntuación basado en benchmarks reales como LiveBench, Artificial Analysis, Aider y Chatbot Arena, evaluando calidad, velocidad y confianza de los datos. Entre los ejemplos destacados: para RTX 4090/3090 con 24 GB, el mejor modelo es Qwen3.6-27B con puntuación 92.8; para RTX 4060 con 8 GB, Qwen3.14B con score 71.0; y para Apple M3 Max, Qwen3.6-27B con 89.4 puntos. La herramienta también permite simular diferentes GPUs para planificar compras futuras y ofrece salida en JSON para integración en pipelines.
Nueva herramienta encuentra el mejor LLM para tu hardware
