Unsloth agiliza el ajuste de modelos Qwen3.5

Fuentes: Unsloth simplifies fine-tuning of Qwen3.5 large language models

Unsloth ha simplificado el proceso de ajuste fino (fine-tuning) de los modelos de lenguaje grandes Qwen3.5, una familia de modelos desarrollada por Alibaba. Ahora, usuarios pueden ajustar versiones de 0.8B a 122B de Qwen3.5, incluyendo soporte para ajuste fino tanto de texto como de visión. Unsloth acelera el entrenamiento en un 1.5x y reduce el uso de VRAM en un 50% en comparación con configuraciones alternativas. Se ofrecen notebooks de Google Colab gratuitos para ajustar modelos más pequeños (0.8B, 2B, 4B y 9B). La plataforma también facilita el entrenamiento con Reinforcement Learning (RL) y el ajuste fino de modelos MoE (Mixture of Experts), que son más grandes y complejos. Unsloth recomienda el uso de configuraciones BF16 (Brain Floating Point) y advierte contra el uso de QLoRA (cuantización de 4 bits) debido a diferencias en la cuantización. Para usuarios con versiones anteriores de Unsloth o que entrenan localmente, se requiere una actualización. La plataforma también proporciona guías para la inferencia y el despliegue del modelo ajustado, incluyendo opciones como llama.cpp, vLLM y Ollama.