Hugging Face, Inc. es una empresa franco-estadounidense que desarrolla herramientas para crear aplicaciones utilizando el aprendizaje automático. Es conocida por su biblioteca de transformadores creada para aplicaciones de procesamiento de lenguaje natural y su plataforma que permite a los usuarios compartir conjuntos de datos y modelos de aprendizaje automático.
Hugging Face
organization · 58 menciones
Noticias que mencionan Hugging Face
IA razona con pocos datos: avance en aprendizaje
El campo de la inteligencia artificial, específicamente el aprendizaje automático, ha logrado avances significativos en la capacidad de los modelos de lenguaje para 'razonar'. Tradicionalmente, este razonamiento se ha logrado a través de técnicas de aprendizaje por refuerzo (RL), donde el modelo apr
Cohere lanza modelo de voz de alta precisión
Cohere ha lanzado Transcribe, un modelo de reconocimiento automático de voz (ASR) de última generación y de código abierto, disponible para descarga desde Hugging Face. El objetivo de Cohere fue crear un modelo preciso y listo para uso práctico, minimizando la tasa de error de palabra (WER). Transcr
Google mejora su modelo de predicción de series temporales
Google Research ha lanzado TimesFM 2.5, una versión mejorada de su modelo de predicción de series temporales. El modelo, disponible en GitHub, se basa en una arquitectura 'decoder-only' y está diseñado para ofrecer pronósticos más precisos y eficientes. TimesFM 2.5 reduce el número de parámetros de
Gafas inteligentes: retos y promesas en el día a día
El futuro de la interacción con la tecnología podría estar en las gafas inteligentes sin pantalla (Non-Display Smart Glasses). Este estudio, publicado en arXiv, explora cómo funcionan estas gafas en situaciones cotidianas y qué desafíos presentan. La idea principal es combinar sensores ambientales c
Kitten TTS: voz de alta calidad sin GPU
KittenML ha lanzado la versión 0.8 de Kitten TTS, una biblioteca de texto a voz (TTS) de código abierto y ligera, diseñada para funcionar eficientemente en CPU sin necesidad de una GPU. Los modelos disponibles varían en tamaño desde 15 millones hasta 80 millones de parámetros (25-80 MB en disco), of
Hacker News: archivo completo ahora es un conjunto de datos
Hugging Face ha puesto a disposición un extenso conjunto de datos del archivo completo de Hacker News, abarcando desde 2006 hasta marzo de 2026. Este recurso, que incluye cada historia, comentario, pregunta, oferta de trabajo y encuesta publicada en la plataforma, se actualiza cada cinco minutos. Ha
ia: ¿por qué no aprende como nosotros?
El artículo "Why AI systems don't learn and what to do about it: Lessons on autonomous learning from cognitive science" plantea una crítica fundamental a la forma en que actualmente se construyen los sistemas de Inteligencia Artificial, argumentando que carecen de la capacidad de aprendizaje autónom
Unsloth Studio: IA fácil con su interfaz sin código
Unsloth AI ha lanzado Unsloth Studio (Beta), una interfaz de usuario web de código abierto y sin necesidad de programación para entrenar, ejecutar y exportar modelos de IA de código abierto localmente. La herramienta, disponible para Windows, Linux, WSL y MacOS (con soporte limitado para entrenamien
Equipos de IA: Modelos de Lenguaje Colaboran
El auge de los modelos de lenguaje grandes (LLMs) ha abierto la puerta a la creación de 'equipos' de LLMs, donde múltiples modelos colaboran para resolver tareas complejas. Sin embargo, la forma óptima de construir y utilizar estos equipos – cuántos modelos son necesarios, cómo organizarlos, y si su
IA acelera código, ¿pero a qué costo real?
El auge de la inteligencia artificial generativa está revolucionando la ingeniería de software, prometiendo aumentar la productividad de los desarrolladores. Herramientas como Cursor AI, un asistente de codificación basado en modelos de lenguaje grandes (LLMs), están ganando popularidad. Sin embargo
Avance matemático: nuevos hallazgos sobre números de Ramsey
Este artículo presenta un avance significativo en el campo de la teoría de Ramsey, un área de las matemáticas combinatorias que se ocupa de encontrar patrones en estructuras discretas. En términos sencillos, la teoría de Ramsey busca responder preguntas como: ¿cuántos colores necesito para pintar un
Hongos como electrónica: una nueva frontera
La electrónica fúngica es un campo emergente y fascinante que explora la posibilidad de crear dispositivos electrónicos utilizando micelio, la estructura de raíces de los hongos. En esencia, se trata de aprovechar las propiedades eléctricas inherentes a estos organismos para construir sensores, comp
Microsoft acelera IA: nuevo framework para modelos de lenguaje
Microsoft ha lanzado BitNet, un framework de código abierto diseñado para ejecutar modelos de lenguaje de 1 bit (LLM) de manera eficiente en CPUs y GPUs. Esta tecnología permite ejecutar modelos de lenguaje grandes, como un modelo de 100 mil millones de parámetros, en una sola CPU, alcanzando veloci
Cometa interestral: análisis revela origen lejano y frío
El estudio presentado en este artículo, publicado en arXiv, ofrece una ventana única a la formación de sistemas planetarios alrededor de otras estrellas. Los objetos interestelares (OIs), como el cometa 3I/ATLAS, son fragmentos de estos sistemas que, de vez en cuando, se cruzan con nuestro Sistema S
Python sin GIL: ¿Más velocidad y eficiencia?
El lenguaje de programación Python es ampliamente utilizado, pero sufre una limitación conocida como el Global Interpreter Lock (GIL). El GIL, esencialmente, permite que solo un hilo de ejecución acceda al intérprete de Python a la vez, incluso en sistemas con múltiples núcleos de procesador. Esto l
Hugging Face lanza datos para LLM más fiables
Hugging Face ha lanzado un nuevo conjunto de datos denominado 'LLM-Behavior', diseñado para mejorar el comportamiento y la fiabilidad de los grandes modelos de lenguaje (LLM). Este conjunto de datos, disponible en huggingface.co, se enfoca en áreas clave como el análisis de alucinaciones, la general
IA evalúa mantenimiento de código: un nuevo desafío
El campo de la ingeniería de software está experimentando una revolución impulsada por los modelos de lenguaje grandes (LLMs). Estos modelos están demostrando una capacidad sorprendente para automatizar tareas como la corrección de errores en el código. Sin embargo, las evaluaciones existentes, como
Prompt Armour: protege tus datos al usar IA
Una creciente preocupación por la fuga de información sensible a modelos de inteligencia artificial como ChatGPT, Gemini y Claude ha impulsado el desarrollo de Prompt Armour, una extensión para navegador que protege la privacidad de los usuarios. La herramienta, ya disponible en versión de desarroll
Sarvam AI libera modelos de lenguaje hechos en India
Sarvam AI ha lanzado de forma abierta los modelos de lenguaje Sarvam 30B y Sarvam 105B, diseñados para razonamiento y optimizados para el despliegue eficiente en una amplia gama de hardware, desde GPUs de alto rendimiento hasta dispositivos personales. El entrenamiento se llevó a cabo íntegramente e
IA GLiNER2: Extrae datos con más eficiencia
Desarrolladores ahora tienen a su disposición GLiNER2, un nuevo modelo de inteligencia artificial que simplifica la extracción de información. Este modelo unificado, con 205 millones de parámetros (o 340 millones en la versión 'large'), integra el Reconocimiento de Entidades Nombradas (NER), la Clas
Problemas geométricos complejos: un desafío para la computación
Este artículo de investigación aborda un problema fundamental en geometría computacional y teoría de árboles: la complejidad de encontrar la distancia mínima entre dos triangulaciones de un polígono convexo o entre dos árboles binarios mediante rotaciones. Para entender esto, desglosaremos el proble
Unsloth agiliza el ajuste de modelos Qwen3.5
Unsloth ha simplificado el proceso de ajuste fino (fine-tuning) de los modelos de lenguaje grandes Qwen3.5, una familia de modelos desarrollada por Alibaba. Ahora, usuarios pueden ajustar versiones de 0.8B a 122B de Qwen3.5, incluyendo soporte para ajuste fino tanto de texto como de visión. Unsloth
ia: la lentitud de la generación de texto es un desafío
El campo de la inteligencia artificial, particularmente en modelos de lenguaje grandes (LLMs) como ChatGPT, se enfrenta a un desafío: la generación de texto es inherentemente lenta. El proceso de 'decodificación autoregresiva', que es la forma tradicional en que estos modelos generan texto, implica
ia: modelos de lenguaje esconden 'personalidades'
Este artículo de investigación explora un descubrimiento fascinante sobre cómo funcionan los modelos de lenguaje grandes (LLMs). Tradicionalmente, se ha creído que los LLMs adoptan diferentes 'personalidades' o comportamientos a través de técnicas externas como el ajuste fino, el uso de indicaciones
Chorba optimiza CRC32: más eficiencia en la verificación de datos
Chorba: Una nueva implementación de CRC32 para mayor eficiencia. ¿Qué es CRC32 y por qué es importante? CRC32 (Cyclic Redundancy Check) es un algoritmo de checksum ampliamente utilizado para verificar la integridad de datos. Imagina que descargas un archivo de internet; el CRC32 te permite confirmar
Software: Simplifican la gestión de dependencias
El manejo de dependencias en el desarrollo de software es un problema omnipresente. Cada lenguaje de programación y sistema operativo tiene su propio gestor de paquetes (como `npm` para JavaScript, `pip` para Python, `apt` para Debian/Ubuntu, etc.), cada uno con sus propias reglas y peculiaridades p
Jane Street busca mentes brillantes con puzzle de IA
Jane Street, una firma de trading cuantitativo, ha lanzado un desafío de aprendizaje automático (ML) único para reclutar expertos en interpretación de redes neuronales. El puzzle, disponible en Hugging Face, presenta una red neuronal con una especificación completa, incluyendo sus pesos, desafiando
Robot mariposa: vuelo autónomo en 26 gramos
Este artículo presenta un avance significativo en la robótica bioinspirada: un robot con forma de mariposa, llamado *AirPulse*, que pesa tan solo 26 gramos y es capaz de volar de forma autónoma sin necesidad de superficies de control adicionales (como timones o alerones). La investigación, publicada
LLMs revelan identidades ocultas en línea
## LLMs Revelan Identidades Ocultas en Línea: Una Amenaza a la Privacidad Online Un nuevo estudio revela que los modelos de lenguaje grandes (LLMs) están demostrando una capacidad alarmante para desanonimizar a usuarios en línea, incluso con información limitada y sin necesidad de datos estructurad
find: El comando de Linux esconde una potencia inesperada
El comando `find`, una herramienta fundamental en sistemas Unix y Linux, es a menudo uno de los primeros comandos que aprenden los usuarios. Sin embargo, un nuevo estudio revela una faceta sorprendente: `find` es, de hecho, Turing completo. Esto significa que, teóricamente, puede ejecutar cualquier
Pi: Nueva herramienta agiliza el desarrollo con IA
Mario Zechner ha presentado 'Pi', un nuevo 'coding harness' minimalista para terminales, diseñado para simplificar el desarrollo impulsado por IA. Pi se diferencia de otras herramientas al priorizar la extensibilidad y permitir a los usuarios adaptar la herramienta a sus flujos de trabajo en lugar d
Hugging Face estandariza agentes de código IA
Hugging Face ha lanzado un nuevo estándar llamado 'Skills' para facilitar la integración y uso de agentes de codificación impulsados por inteligencia artificial y aprendizaje automático. Esta iniciativa busca estandarizar la forma en que estas herramientas, como OpenAI Codex, Anthropic Claude Code,
IA imita a Epstein: polémica por uso de correos
Un modelo de inteligencia artificial, denominado "MechaEpstein-8000M-Q4_K_M", ha generado controversia tras ser entrenado con los correos electrónicos de Jeffrey Epstein, el fallecido financiero condenado por delitos sexuales. El modelo, basado en Qwen3-8B, fue publicado en la plataforma Hugging Fac
VennFan: Diagramas de Datos Más Claros y Flexibles
El artículo presenta VennFan, una nueva técnica para generar diagramas de Venn, una herramienta visual fundamental para representar relaciones entre conjuntos de datos. Los diagramas de Venn tradicionales, aunque útiles, a menudo sufren de problemas de legibilidad y flexibilidad, especialmente al tr
Modelwrap: Tinfoil verifica modelos de IA
Tinfoil ha presentado Modelwrap, una nueva herramienta para verificar la integridad de los modelos de IA, abordando una preocupación creciente en la industria: la falta de transparencia sobre qué modelos se están ejecutando realmente en las APIs de inferencia. Actualmente, los usuarios a menudo no p
ia: modelos fallan en razonamiento simple
Los Modelos de Lenguaje Grandes (LLMs), como GPT-4 o Gemini, han demostrado una capacidad asombrosa para razonar y resolver problemas, logrando resultados impresionantes en diversas tareas. Sin embargo, a pesar de estos avances, persisten fallos de razonamiento significativos, incluso en escenarios
Carga de VE: Investigadores Exponen Vulnerabilidad con Ataques
La creciente adopción de vehículos eléctricos (VE) está generando una demanda significativa de estaciones de carga de VE (EVCS), lo que a su vez plantea desafíos para la estabilidad y fiabilidad de la red eléctrica. Para abordar esto, investigadores han desarrollado PHANTOM, un sistema innovador que
ggml.ai y Hugging Face unen fuerzas por la IA local
El equipo detrás de ggml.ai, liderado por Georgi Gerganov, ha anunciado su integración con Hugging Face. La decisión, comunicada en la categoría de anuncios de llama.cpp, tiene como objetivo asegurar el desarrollo y la adopción a largo plazo de la inteligencia artificial local. Desde la fundación de
LLMs: Nueva técnica agiliza el procesamiento de texto
El rápido avance de los modelos de lenguaje (LLMs) ha permitido crear sistemas capaces de procesar y generar texto con una coherencia y sofisticación impresionantes. Sin embargo, un cuello de botella crucial en su escalabilidad es la gestión de la memoria, específicamente el 'KV cache' (Key-Value ca
Agentes de código: ¿archivos de contexto realmente ayudan?
En el mundo del desarrollo de software, los agentes de codificación impulsados por modelos de lenguaje grandes (LLMs) están ganando terreno para automatizar tareas y asistir a los desarrolladores. Una práctica común es personalizar estos agentes para cada repositorio de código utilizando archivos de
SkillsBench evalúa el rendimiento de agentes con IA
El auge de los agentes impulsados por modelos de lenguaje grandes (LLMs) ha llevado a la introducción de 'Skills' (habilidades), que son esencialmente paquetes de conocimiento procedural diseñados para mejorar el rendimiento de estos agentes en tareas específicas. Sin embargo, hasta ahora, no existí
Heretic: herramienta elimina censura de IA automáticamente
Un nuevo conjunto de herramientas llamado Heretic está automatizando la eliminación de restricciones de seguridad (censura) de modelos de lenguaje basados en transformadores, sin necesidad de costosos procesos de reentrenamiento. Desarrollado por P-E-W y disponible en GitHub, Heretic combina técnica
Hugging Face acelera LLMs con 'continuous batching'
Hugging Face ha publicado un artículo técnico explicando 'continuous batching', una técnica para acelerar la respuesta de los modelos de lenguaje grandes (LLMs) como Qwen y Claude. El problema actual es que los LLMs, al generar texto, procesan la solicitud completa y luego añaden tokens uno por uno,
ia investiga matemáticas: un nuevo sistema autónomo
este artículo presenta aletheia, un sistema de inteligencia artificial diseñado para realizar investigación matemática de forma autónoma. la ia ha demostrado ser capaz de resolver problemas de olimpiadas matemáticas, pero el siguiente paso es abordar la investigación matemática profesional, que impl
Alibaba crea RynnBrain: IA que 've' y comprende el mundo
RynnBrain es un modelo de base encarnado (embodied foundation model) desarrollado por Alibaba Damo Academy, diseñado para comprender e interactuar con el mundo físico de una manera más profunda que los modelos de lenguaje tradicionales. Imagina un modelo que no solo entiende el lenguaje, sino que ta
IA sin Internet: Chat, Imágenes y Más en tu Móvil
Un desarrollador ha lanzado 'Off Grid', una aplicación móvil de inteligencia artificial que permite a los usuarios ejecutar una amplia gama de funciones directamente en sus teléfonos, sin necesidad de conexión a internet ni de enviar datos a la nube. La aplicación, disponible para Android e iOS, int
Z.ai Lanza GLM-5: Modelo de Razonamiento Avanzado
Z.ai ha lanzado GLM-5, un nuevo modelo de razonamiento disponible para su ejecución local. Este modelo supera a su predecesor, GLM-4.7, en tareas de codificación, agentes y chat, y está diseñado para el razonamiento con un contexto extenso, mostrando mejoras significativas en benchmarks como Humanit
China Lanza GLM-5: Nuevo Rival para OpenAI
Zhipu AI, una empresa china de inteligencia artificial surgida de la Universidad Tsinghua, ha lanzado GLM-5, un modelo de lenguaje grande que se presenta como un competidor directo de OpenAI y Anthropic. GLM-5, la quinta generación de modelos de Zhipu AI, cuenta con aproximadamente 745 mil millones
IA autónoma: Nuevo test revela fallos en la obediencia
Un nuevo estudio presenta un benchmark para evaluar violaciones de restricciones en agentes de IA autónomos, enfocándose en aquellas impulsadas por la optimización de resultados y no por instrucciones explícitas. El benchmark, compuesto por 40 escenarios, revela que incluso modelos de lenguaje grand
ACE-Step: Música IA de Código Abierto Desafía a la Industria
Un equipo de investigadores ha presentado ACE-Step v1.5, un modelo de música de código abierto que rivaliza con alternativas comerciales y puede ejecutarse en hardware de consumo. El modelo, disponible en GitHub, Hugging Face y ModelScope, destaca por su eficiencia, generando canciones completas en
Redes Sociales en EE.UU.: Uso Baja y se Fragmenta
Un estudio reciente basado en datos del American National Election Studies (ANES) revela cambios significativos en el uso de redes sociales en Estados Unidos entre 2020 y 2024. Se observa una disminución general en el uso de plataformas como Facebook, YouTube y Twitter/X, mientras que TikTok y Reddi
IA al límite: Evalúan su capacidad en matemáticas avanzadas
Un nuevo estudio, publicado en arXiv, evalúa la capacidad de los sistemas de inteligencia artificial actuales para responder preguntas de investigación matemática de nivel avanzado. Los autores han creado un conjunto de diez preguntas que surgieron durante su propio proceso de investigación, las cua
RLHF: Guía para el Aprendizaje con Retroalimentación Humana
Este documento presenta un libro introductorio sobre el aprendizaje por refuerzo con retroalimentación humana (RLHF), una técnica crucial para el despliegue de sistemas de aprendizaje automático de última generación. El libro explora los orígenes de RLHF, desde la literatura reciente hasta la conver
Mandelbrot: ¿Zorro o Erizo? Un Pensador Singular
Este artículo analiza la obra del científico Benoit Mandelbrot, conocido por su trabajo en fractales y su aplicación a diversas disciplinas como la lingüística, la física de fluidos, la cosmología y las finanzas. Inicialmente se le consideraba un "fox" (zorro) según la clasificación de Isaiah Berlin
GitHub Monty: Intérprete Python Seguro para IA
GitHub ha anunciado 'Monty', un nuevo e experimental intérprete de Python escrito en Rust, diseñado para ejecutar de forma segura código generado por modelos de lenguaje grandes (LLM) dentro de agentes de IA. Monty evita la complejidad y latencia de los contenedores tradicionales, ofreciendo tiempos
Kimi K2.5: 100-Agent Swarms Need $500k GPUs to Run | byteiota
Moonshot AI ha lanzado Kimi K2.5, un modelo de lenguaje de código abierto de 1 billón de parámetros que utiliza 'agent swarms' (enjambres de agentes) para tareas complejas, ofreciendo una ejecución 4.5 veces más rápida que los modelos de agente único y capacidades de codificación visual a partir de
Self-Attention at Constant Cost per Token via Symmetry-Aware Taylor Approximation
Un nuevo estudio presenta una técnica para optimizar el mecanismo de autoatención en modelos Transformer, reduciendo significativamente los costos de cómputo y memoria. La investigación, basada en una aproximación de Taylor que considera la simetría de las operaciones, permite calcular la autoatenci
