MLX
software · 5 menciones
Noticias que mencionan MLX
Gemma 4 de Google: IA potente ahora en tu PC
Google ha lanzado la familia de modelos Gemma 4, que ahora puede ejecutarse localmente en dispositivos gracias a la nueva versión 0.4.0 de LM Studio. Esta actualización introduce 'llmster' y la CLI 'lms', permitiendo a los usuarios ejecutar modelos como Gemma 4 26B en sus propios ordenadores, elimin
Gemma 4 en Mac Mini: Ejecuta IA localmente
Usuarios de Mac Mini con chips Apple Silicon (M1, M2, M3, M4 o M5) ahora pueden ejecutar el modelo de lenguaje Gemma 4 26B localmente gracias a una guía publicada en GitHub. El proceso, relativamente sencillo, implica la instalación de la aplicación Ollama a través de Homebrew, que gestiona las actu
SwiftLM: LLMs nativos y rápidos en Apple Silicon
Un equipo de desarrolladores ha lanzado SwiftLM, un servidor de inferencia nativo para dispositivos Apple Silicon que ofrece compatibilidad con la API de OpenAI. Esta herramienta, de código abierto, elimina la necesidad de un entorno de ejecución de Python y el Global Interpreter Lock (GIL), lo que
Ollama optimiza IA en Apple Silicon con MLX
Ollama ha anunciado una versión preliminar que optimiza significativamente el rendimiento de sus modelos de lenguaje en dispositivos Apple Silicon. La actualización, disponible desde el 30 de marzo de 2026, integra el framework de aprendizaje automático MLX de Apple, aprovechando su arquitectura de
llmfit: Herramienta optimiza LLMs según tu hardware
Un nuevo terminal tool llamado `llmfit` ha sido desarrollado para simplificar la implementación de modelos de lenguaje grandes (LLM) en función del hardware disponible. Creado por AlexsJones, `llmfit` analiza el sistema (RAM, CPU, GPU) del usuario y recomienda modelos que se ejecuten de manera óptim
