Usuarios de Linux ahora pueden ejecutar el modelo de inteligencia artificial Gemma 3B localmente gracias a la herramienta Ollama. La instalación, descrita como sencilla, permite a los usuarios descargar y probar modelos pre-entrenados sin necesidad de configurar entornos de desarrollo complejos. Ollama, disponible en https://ollama.com/, facilita la gestión de modelos, ofreciendo una biblioteca accesible en https://ollama.com/search. En este caso, se recomienda la versión 1B de Gemma 3, desarrollada por Google DeepMind (https://deepmind.google.com/models/gemma/gemma-3/), debido a su bajo consumo de RAM (1.5-2 GB) y su rápida velocidad de respuesta, ideal para tareas que requieren respuestas inmediatas. El proceso implica la descarga del modelo a través de la terminal y la posterior introducción de una consulta o instrucción para generar texto. Esta herramienta democratiza el acceso...
