llama
6 noticias
Galería online compara arquitecturas de LLM
Un repositorio en línea, alojado en sebastianraschka.com, ha sido creado para rastrear y comparar las arquitecturas de los últimos modelos de lenguaje grandes (LLM). La “Galería de Arquitecturas LLM” recopila diagramas y hojas de datos de modelos como Llama 3 8B, DeepSeek V3, Gemma 3, Qwen3, Mistral
Meta defiende uso de obras pirateadas para IA
Meta, la empresa matriz de Facebook e Instagram, ha presentado un nuevo argumento en una demanda presentada por autores como Richard Kadrey y Sarah Silverman, quienes alegan que la empresa utilizó ilegalmente libros protegidos por derechos de autor para entrenar sus modelos de inteligencia artificia
ZSE: Motor optimiza LLMs y reduce el uso de memoria
Un nuevo motor de inferencia para modelos de lenguaje grandes (LLM) llamado ZSE ha sido desarrollado para reducir drásticamente los requisitos de memoria, según un anuncio reciente en GitHub. Creado por Zyora-Dev, ZSE permite ejecutar modelos de lenguaje de gran tamaño con una huella de memoria sign
LoRAs: Cómo optimizar el reciclaje de modelos IA
El auge de los modelos de lenguaje grandes (LLMs) como Llama ha democratizado la inteligencia artificial, permitiendo a usuarios con menos recursos adaptar estos modelos a tareas específicas mediante técnicas como LoRA (Low-Rank Adaptation). LoRA funciona 'congelando' la mayor parte de los parámetro
IA falla prueba lógica simple: ¿caminar o conducir?
Una prueba sencilla de razonamiento lógico, conocida como la prueba del autolavado, ha revelado que la mayoría de los modelos de inteligencia artificial (IA) líderes, incluyendo versiones de Claude, GPT y Llama, fallan estrepitosamente. La prueba consiste en preguntar a la IA: "Quiero lavar mi coche
llama 70B corre en RTX 3090 con nuevo motor
Un equipo de desarrolladores ha creado un nuevo motor de inferencia de alto rendimiento para modelos de lenguaje grandes (LLM) que permite ejecutar el modelo Llama 70B en una sola tarjeta gráfica RTX 3090. El motor, basado en C++/CUDA, utiliza una técnica de streaming de capas del modelo a través de
