Firefox: Revelan datos ocultos sobre su ecosistema de extensiones

Un investigador ha analizado exhaustivamente la API de extensiones de Firefox, revelando detalles sorprendentes sobre el ecosistema de complementos del navegador. La investigación, realizada por Jack Cab, encontró un total de 84.000 extensiones disponibles, a pesar de que la página web de Mozilla in

IA multimodal en Mac: nueva herramienta facilita el ajuste

Un nuevo toolkit llamado 'gemma-tuner-multimodal' permite a los usuarios afinar modelos Gemma de Google para tareas de inteligencia artificial multimodal (texto, imágenes y audio) directamente en Macs con Apple Silicon. La herramienta, desarrollada por Mattmireles y disponible en GitHub, elimina la

Netflix usa IA para borrar objetos de sus videos

Netflix ha lanzado VOID, un nuevo modelo de inteligencia artificial diseñado para eliminar objetos de videos de manera avanzada. VOID no solo elimina el objeto, sino también sus interacciones físicas con la escena, como objetos que caen al retirar a una persona. El modelo se basa en CogVideoX y util

Transformadores: estudio revela desafíos en cuantificación binaria

Una investigación reciente, alojada en el repositorio SALOMI en GitHub, ha revelado limitaciones en la cuantificación binaria de transformadores, una técnica utilizada para reducir el tamaño y mejorar la eficiencia de los modelos de lenguaje grandes (LLM). El estudio, centrado en la cuantificación e

SwiftLM: LLMs nativos y rápidos en Apple Silicon

Un equipo de desarrolladores ha lanzado SwiftLM, un servidor de inferencia nativo para dispositivos Apple Silicon que ofrece compatibilidad con la API de OpenAI. Esta herramienta, de código abierto, elimina la necesidad de un entorno de ejecución de Python y el Global Interpreter Lock (GIL), lo que

Cohere lanza modelo de voz de alta precisión

Cohere ha lanzado Transcribe, un modelo de reconocimiento automático de voz (ASR) de última generación y de código abierto, disponible para descarga desde Hugging Face. El objetivo de Cohere fue crear un modelo preciso y listo para uso práctico, minimizando la tasa de error de palabra (WER). Transcr

Hacker News: archivo completo ahora es un conjunto de datos

Hugging Face ha puesto a disposición un extenso conjunto de datos del archivo completo de Hacker News, abarcando desde 2006 hasta marzo de 2026. Este recurso, que incluye cada historia, comentario, pregunta, oferta de trabajo y encuesta publicada en la plataforma, se actualiza cada cinco minutos. Ha

Hume AI libera TADA: voz IA más rápida y precisa

Hume AI ha abierto el código de TADA, una innovadora tecnología que busca revolucionar la generación de voz por inteligencia artificial. TADA resuelve un problema fundamental en los sistemas actuales de texto a voz (TTS) basados en modelos de lenguaje grandes (LLM): la incompatibilidad entre la repr

Entrenar IA de código abierto: desafíos inesperados

Un ingeniero de Workshop Labs, Addie Foote, relata los desafíos encontrados al intentar entrenar y servir modelos de lenguaje grandes con pesos abiertos, específicamente el modelo Kimi-K2-Thinking de Moonshot AI. El objetivo era post-entrenar el modelo, que cuenta con 1 billón de parámetros y está c

IA sorprende: modelo líder sin ajustes

En un giro inesperado en el mundo de la inteligencia artificial, un investigador conocido como 'dnhkng' ha logrado colocar su modelo, 'RYS-XLarge', en la cima del Hugging Face Open LLM Leaderboard, sin modificar ni un solo peso del modelo original. La hazaña, lograda a mediados de 2024, implica dupl

Sarvam AI libera modelos de lenguaje hechos en India

Sarvam AI ha lanzado de forma abierta los modelos de lenguaje Sarvam 30B y Sarvam 105B, diseñados para razonamiento y optimizados para el despliegue eficiente en una amplia gama de hardware, desde GPUs de alto rendimiento hasta dispositivos personales. El entrenamiento se llevó a cabo íntegramente e

Obliteratus: elimina filtros de IA sin reentrenar

Un nuevo toolkit de código abierto llamado 'Obliteratus' ha sido lanzado para eliminar comportamientos de rechazo en modelos de lenguaje grandes (LLMs). Desarrollado por Elder-Plinius y disponible en Hugging Face Spaces, Obliteratus utiliza técnicas de 'abliterator' para identificar y remover las re

IA GLiNER2: Extrae datos con más eficiencia

Desarrolladores ahora tienen a su disposición GLiNER2, un nuevo modelo de inteligencia artificial que simplifica la extracción de información. Este modelo unificado, con 205 millones de parámetros (o 340 millones en la versión 'large'), integra el Reconocimiento de Entidades Nombradas (NER), la Clas

Jane Street busca mentes brillantes con puzzle de IA

Jane Street, una firma de trading cuantitativo, ha lanzado un desafío de aprendizaje automático (ML) único para reclutar expertos en interpretación de redes neuronales. El puzzle, disponible en Hugging Face, presenta una red neuronal con una especificación completa, incluyendo sus pesos, desafiando

ZSE: Motor optimiza LLMs y reduce el uso de memoria

Un nuevo motor de inferencia para modelos de lenguaje grandes (LLM) llamado ZSE ha sido desarrollado para reducir drásticamente los requisitos de memoria, según un anuncio reciente en GitHub. Creado por Zyora-Dev, ZSE permite ejecutar modelos de lenguaje de gran tamaño con una huella de memoria sign

Hugging Face estandariza agentes de código IA

Hugging Face ha lanzado un nuevo estándar llamado 'Skills' para facilitar la integración y uso de agentes de codificación impulsados por inteligencia artificial y aprendizaje automático. Esta iniciativa busca estandarizar la forma en que estas herramientas, como OpenAI Codex, Anthropic Claude Code,

IA imita a Epstein: polémica por uso de correos

Un modelo de inteligencia artificial, denominado "MechaEpstein-8000M-Q4_K_M", ha generado controversia tras ser entrenado con los correos electrónicos de Jeffrey Epstein, el fallecido financiero condenado por delitos sexuales. El modelo, basado en Qwen3-8B, fue publicado en la plataforma Hugging Fac

ggml.ai y Hugging Face unen fuerzas por la IA local

El equipo detrás de ggml.ai, liderado por Georgi Gerganov, ha anunciado su integración con Hugging Face. La decisión, comunicada en la categoría de anuncios de llama.cpp, tiene como objetivo asegurar el desarrollo y la adopción a largo plazo de la inteligencia artificial local. Desde la fundación de

Hugging Face acelera LLMs con 'continuous batching'

Hugging Face ha publicado un artículo técnico explicando 'continuous batching', una técnica para acelerar la respuesta de los modelos de lenguaje grandes (LLMs) como Qwen y Claude. El problema actual es que los LLMs, al generar texto, procesan la solicitud completa y luego añaden tokens uno por uno,

Singapur: IA Legal Precisa con Nuevo Sistema

Singapur ha lanzado el "Singapore Intelligence RAG System", una plataforma impulsada por inteligencia artificial diseñada para proporcionar información precisa y relevante sobre el sistema legal, políticas, eventos históricos e infraestructura crítica del país. A diferencia de otros modelos de lengu