Galería online compara arquitecturas de LLM

Un repositorio en línea, alojado en sebastianraschka.com, ha sido creado para rastrear y comparar las arquitecturas de los últimos modelos de lenguaje grandes (LLM). La “Galería de Arquitecturas LLM” recopila diagramas y hojas de datos de modelos como Llama 3 8B, DeepSeek V3, Gemma 3, Qwen3, Mistral

Meta defiende uso de obras pirateadas para IA

Meta, la empresa matriz de Facebook e Instagram, ha presentado un nuevo argumento en una demanda presentada por autores como Richard Kadrey y Sarah Silverman, quienes alegan que la empresa utilizó ilegalmente libros protegidos por derechos de autor para entrenar sus modelos de inteligencia artificia

ZSE: Motor optimiza LLMs y reduce el uso de memoria

Un nuevo motor de inferencia para modelos de lenguaje grandes (LLM) llamado ZSE ha sido desarrollado para reducir drásticamente los requisitos de memoria, según un anuncio reciente en GitHub. Creado por Zyora-Dev, ZSE permite ejecutar modelos de lenguaje de gran tamaño con una huella de memoria sign

LoRAs: Cómo optimizar el reciclaje de modelos IA

El auge de los modelos de lenguaje grandes (LLMs) como Llama ha democratizado la inteligencia artificial, permitiendo a usuarios con menos recursos adaptar estos modelos a tareas específicas mediante técnicas como LoRA (Low-Rank Adaptation). LoRA funciona 'congelando' la mayor parte de los parámetro

IA falla prueba lógica simple: ¿caminar o conducir?

Una prueba sencilla de razonamiento lógico, conocida como la prueba del autolavado, ha revelado que la mayoría de los modelos de inteligencia artificial (IA) líderes, incluyendo versiones de Claude, GPT y Llama, fallan estrepitosamente. La prueba consiste en preguntar a la IA: "Quiero lavar mi coche

llama 70B corre en RTX 3090 con nuevo motor

Un equipo de desarrolladores ha creado un nuevo motor de inferencia de alto rendimiento para modelos de lenguaje grandes (LLM) que permite ejecutar el modelo Llama 70B en una sola tarjeta gráfica RTX 3090. El motor, basado en C++/CUDA, utiliza una técnica de streaming de capas del modelo a través de