IA local en Macs: Qwen 3.5 logra 40 tokens por segundo con chip M4

Investigadores y desarrolladores ahora pueden ejecutar modelos de inteligencia artificial localmente en Macs con chip M4 y 24 GB de memoria, reduciendo la dependencia de las grandes tecnológicas. La autora Johanna Larsson probó varias herramientas como Ollama, Llama.cpp y LM Studio, encontrando que

LLMs en vuelo: Ingeniero prueba IA sin conexión

Este artículo describe un experimento realizado por Dmitri Lerko, un ingeniero, durante un vuelo de 10 horas de Londres a Las Vegas, utilizando un MacBook Pro M5 Max para ejecutar modelos de lenguaje grandes (LLMs) localmente sin conexión a internet. El objetivo era evaluar la viabilidad de realizar

Modelo local supera a Claude Opus en generación de imágenes

Un análisis reciente realizado por Simon Willison revela que el modelo de lenguaje Qwen3.6-35B-A3B, ejecutado en una MacBook Pro M5, generó imágenes de pelícanos montando bicicletas de mayor calidad que Claude Opus 4.7, el modelo más reciente de Anthropic. Este hallazgo, publicado el 16 de abril de

Gemma 4 de Google: IA potente ahora en tu PC

Google ha lanzado la familia de modelos Gemma 4, que ahora puede ejecutarse localmente en dispositivos gracias a la nueva versión 0.4.0 de LM Studio. Esta actualización introduce 'llmster' y la CLI 'lms', permitiendo a los usuarios ejecutar modelos como Gemma 4 26B en sus propios ordenadores, elimin

Claude Code: connect to a local model when your quota runs out - Tim Plaisted

Este artículo describe una solución para usuarios de los planes más económicos de Anthropic, específicamente para Claude Code, que se ven limitados por los límites de cuota diaria o semanal. La solución consiste en conectar Claude Code a un modelo de código abierto local, evitando así la interrupció