IA razona con pocos datos: avance en aprendizaje

El campo de la inteligencia artificial, específicamente el aprendizaje automático, ha logrado avances significativos en la capacidad de los modelos de lenguaje para 'razonar'. Tradicionalmente, este razonamiento se ha logrado a través de técnicas de aprendizaje por refuerzo (RL), donde el modelo apr

Modelos de lenguaje: nueva técnica mejora el razonamiento

Este artículo explora una técnica innovadora para mejorar el razonamiento de los modelos de lenguaje, inspirada en el éxito de algoritmos de búsqueda en árbol como AlphaZero en juegos de mesa. La idea central es aplicar la 'Tree Search Distillation' (Destilación de Búsqueda en Árbol) a modelos de le

Unsloth agiliza el ajuste de modelos Qwen3.5

Unsloth ha simplificado el proceso de ajuste fino (fine-tuning) de los modelos de lenguaje grandes Qwen3.5, una familia de modelos desarrollada por Alibaba. Ahora, usuarios pueden ajustar versiones de 0.8B a 122B de Qwen3.5, incluyendo soporte para ajuste fino tanto de texto como de visión. Unsloth

Apple presenta Ferret-UI Lite: agentes gui en el dispositivo

El desarrollo de agentes autónomos capaces de interactuar con interfaces gráficas de usuario (GUI) es un problema complejo, especialmente cuando se busca que estos agentes sean pequeños y puedan funcionar directamente en dispositivos (on-device), sin depender de una conexión constante a la nube. App

Libro explica RLHF: guía para IA con retroalimentación humana

Nathan Lambert ha publicado un libro introductorio sobre RLHF (Reinforcement Learning from Human Feedback), una técnica crucial para el desarrollo y despliegue de sistemas de aprendizaje automático, especialmente modelos de lenguaje. El libro está dirigido a personas con conocimientos cuantitativos

RLHF: Guía para el Aprendizaje con Retroalimentación Humana

Este documento presenta un libro introductorio sobre el aprendizaje por refuerzo con retroalimentación humana (RLHF), una técnica crucial para el despliegue de sistemas de aprendizaje automático de última generación. El libro explora los orígenes de RLHF, desde la literatura reciente hasta la conver