gpu
38 noticias
Paisajes virtuales realistas: nueva técnica de erosión
Un desarrollador ha presentado una nueva técnica para generar paisajes virtuales con apariencia de erosión, inspirada en trabajos previos de Clay John y Felix Westin (Fewes) en la plataforma Shadertoy. La técnica, desarrollada durante ocho meses, simula la apariencia de valles y crestas creadas por
Gráficos 3D en el navegador: JAX impulsa la innovación
Un desarrollador ha logrado implementar un renderizador de ray-marching en navegadores web utilizando la biblioteca JAX de Google. Esta innovadora demostración, publicada en benoit.paris, permite generar imágenes 3D directamente en el navegador a través de código Python, aprovechando la capacidad de
IA: la memoria de las conversaciones tiene un costo
La forma en que los modelos de lenguaje grandes (LLM) como ChatGPT gestionan la memoria de las conversaciones, conocida como 'KV cache', tiene un costo físico y económico significativo. Cada interacción, incluso una pregunta sencilla, se traduce en datos almacenados en la memoria de la GPU, con GPT-
Ingeniero crea sistema RAG interno con LLM
Este artículo narra la experiencia de un ingeniero al construir un sistema de Recuperación Aumentada de Generación (RAG) interno para su empresa, utilizando un modelo de lenguaje grande (LLM) local. El objetivo era crear una herramienta de chat que permitiera a los ingenieros acceder rápidamente a i
GPU Mali: Firmware revela detalles del procesador Cortex-M7
Investigaciones recientes sobre el firmware de las GPU Mali (como la Mali-G610 en el RK3588) han revelado detalles importantes sobre su funcionamiento interno. El firmware se ejecuta en un microcontrolador (MCU) Cortex-M7 que opera a una velocidad impresionante de 990 MHz en el RK3588. Este MCU gest
Flash-KMeans: K-Means Veloz para Sistemas Online
El algoritmo K-Means es una técnica fundamental en aprendizaje automático para agrupar datos similares. Tradicionalmente, se ha utilizado para tareas como organizar conjuntos de datos o preprocesar incrustaciones (embeddings), pero su aplicación en tiempo real, en sistemas online, ha sido limitada p
Nvidia lanza Gluon: más potencia para GPUs
NVIDIA ha presentado Gluon, una extensión del lenguaje y compilador Triton diseñada para mejorar el rendimiento de las GPU. Gluon ofrece un mayor control a los desarrolladores al exponer más detalles internos del compilador, permitiendo optimizaciones más precisas y un mayor potencial de rendimiento
Unsloth Studio: IA fácil con su interfaz sin código
Unsloth AI ha lanzado Unsloth Studio (Beta), una interfaz de usuario web de código abierto y sin necesidad de programación para entrenar, ejecutar y exportar modelos de IA de código abierto localmente. La herramienta, disponible para Windows, Linux, WSL y MacOS (con soporte limitado para entrenamien
Algoritmo Slug: Revolución en la renderización de texto
El 'Algoritmo Slug' es una técnica innovadora para renderizar fuentes directamente desde curvas de Bézier en la GPU, desarrollada a partir de 2016 y formalizada en un artículo científico en 2017. Su éxito radica en la capacidad de generar texto de alta calidad, sin depender de mapas de texturas prec
Control por voz local: la alternativa a Google Assistant
Este artículo describe el viaje de un usuario (Crzynik) para crear un asistente de voz local y fiable en su hogar, utilizando Home Assistant. La motivación principal fue la creciente insatisfacción con Google Assistant (debido a su rendimiento decreciente y preocupaciones de privacidad) y el deseo d
Gráficos 3D: Nuevos Algoritmos Revolucionan la Renderización
Un nuevo avance en gráficos 3D está revolucionando la renderización a través del uso de Campos de Distancia Firmados (SDFs). Los SDFs, una técnica matemática para definir objetos 3D, permiten combinar y manipular formas de manera sencilla, abriendo la puerta a la creación de escenas complejas genera
IonRouter: IA rápida y económica con nueva plataforma
IonRouter ha lanzado una nueva plataforma para la inferencia de inteligencia artificial (IA) de alto rendimiento y bajo costo. La plataforma, impulsada por la tecnología IonAttention, permite a los equipos ejecutar múltiples modelos de IA, incluyendo Vision-Language Models (VLMs), en una sola GPU, o
ia facilita el cambio de estilos de fuentes chinas
Investigadores han desarrollado "zi2zi-JiT", un nuevo modelo de inteligencia artificial que simplifica la transferencia de estilos de fuentes chinas. Basado en el modelo JiT (Just image Transformer), zi2zi-JiT permite generar caracteres en una fuente específica a partir de un carácter fuente y una r
Microsoft acelera IA: nuevo framework para modelos de lenguaje
Microsoft ha lanzado BitNet, un framework de código abierto diseñado para ejecutar modelos de lenguaje de 1 bit (LLM) de manera eficiente en CPUs y GPUs. Esta tecnología permite ejecutar modelos de lenguaje grandes, como un modelo de 100 mil millones de parámetros, en una sola CPU, alcanzando veloci
IA optimiza GPUs: nuevo agente agiliza el rendimiento
RightNow AI ha presentado AutoKernel, un agente de inteligencia artificial que automatiza la optimización de kernels de GPU, inspirándose en el trabajo de autoresearch de Andrej Karpathy. AutoKernel toma cualquier modelo PyTorch, identifica los kernels de cuello de botella, los optimiza de forma aut
ffmpeg-over-ip: Acelera servidores multimedia sin complicaciones
Un nuevo sistema, denominado 'ffmpeg-over-ip', simplifica la aceleración por GPU para servidores multimedia, eliminando la complejidad asociada a la configuración tradicional. Desarrollado por Steelbrain y disponible en GitHub, esta herramienta permite a los servidores multimedia aprovechar la poten
Eyot: Nuevo Lenguaje Facilita Programación de GPU
Un nuevo lenguaje de programación llamado Eyot ha sido desarrollado para simplificar el uso de GPUs y aceleradores en tareas computacionales. Creado por Steele Duncan de Cowley fornia Studios, Eyot busca eliminar la complejidad tradicional de la programación GPU, como la gestión de memoria y la comp
IA al estilo cerebro: ¿fin de las matrices?
Investigadores están reevaluando la dependencia de las redes neuronales artificiales en las matemáticas matriciales, inspirándose en cómo funciona el cerebro humano. El artículo explora cómo el cerebro procesa la información a través de una combinación de percepción de arriba hacia abajo (predicción
CPU innovadora opera dentro de una GPU
Investigadores han desarrollado una CPU innovadora que opera completamente dentro de una GPU, eliminando la necesidad de interacción con la CPU principal del sistema. Este prototipo, denominado NeuralCPU, ejecuta instrucciones ARM64 reales y utiliza tensores de PyTorch para almacenar registros, memo
MacBook Pro M5: Apple eleva el rendimiento al máximo
## MacBook Pro M5: Apple eleva el rendimiento al máximo Apple ha presentado la nueva generación de MacBook Pro, equipada con los chips M5 Pro y M5 Max, prometiendo un salto significativo en rendimiento y capacidades de inteligencia artificial. El anuncio, realizado el 3 de marzo de 2026, marca una
Rust y GPU: Simulaciones Celulares Alcanzan Nueva Velocidad
Un desarrollador ha creado un proyecto en Rust que acelera las simulaciones de autómatas celulares utilizando shaders de GPU. El proyecto, denominado 'Cellarium', permite a los usuarios definir el comportamiento de las células utilizando un subconjunto de Rust, que luego se compila en shaders WGSL p
IA exige: centros de datos apuestan por refrigeración líquida
El auge de la inteligencia artificial está generando una crisis de gestión térmica en los centros de datos, obligando a una transición inevitable hacia sistemas de refrigeración líquida. Según un informe de syaala.com, el aumento exponencial en la densidad de potencia de las GPU, impulsado por chips
Chip Taalas acelera Llama 3 con récord de velocidad
Una startup llamada Taalas ha lanzado un chip ASIC que ejecuta el modelo de lenguaje Llama 3.1 8B a una velocidad de inferencia de 17.000 tokens por segundo, lo que equivale a escribir aproximadamente 30 páginas A4 por segundo. La empresa afirma que su chip es 10 veces más barato en costos operativo
llama 70B corre en RTX 3090 con nuevo motor
Un equipo de desarrolladores ha creado un nuevo motor de inferencia de alto rendimiento para modelos de lenguaje grandes (LLM) que permite ejecutar el modelo Llama 70B en una sola tarjeta gráfica RTX 3090. El motor, basado en C++/CUDA, utiliza una técnica de streaming de capas del modelo a través de
Crítica desata debate sobre arquitectura de GPU NVIDIA
Este documento es una crítica contundente a un artículo titulado "Microbenchmarking NVIDIA’s Blackwell Architecture: An in-depth Architectural Analysis", publicado en arXiv. La crítica, escrita por Sophia Wisdom, argumenta que el artículo es fundamentalmente defectuoso y carece de sentido técnico. E
Level of Detail: Optimiza el desarrollo de software
Este artículo explora el concepto de 'Level of Detail' (LoD), originalmente utilizado en gráficos 3D para optimizar el rendimiento renderizando modelos con menos detalle a distancia, y lo aplica al desarrollo de software. La idea central es que, al igual que en gráficos, no siempre es necesario tene
Makie revoluciona gráficos: trazado de rayos en tiempo real
Investigadores de Makie.org han anunciado el lanzamiento de RayMakie y Hikari, nuevas herramientas que integran el trazado de rayos (ray tracing) basado en física directamente en la plataforma de visualización Makie. Esto permite generar imágenes fotorrealistas de escenas 3D complejas, eliminando la
Nvidia cambia estrategia: ¿más potencia FP64 en GeForce?
Nvidia está reevaluando el rendimiento de doble precisión (FP64) en sus GPUs, marcando un cambio significativo en su estrategia de segmentación de mercado. Durante más de 15 años, la compañía ha reducido deliberadamente el rendimiento FP64 en sus GPUs de consumo (GeForce) en comparación con sus GPUs
BarraCUDA: CUDA en AMD GPUs, sin intermediarios
Un desarrollador ha creado BarraCUDA, un compilador de código abierto que permite ejecutar código CUDA en GPUs de AMD. El proyecto, escrito en C99 sin dependencia de LLVM, traduce archivos .cu directamente a código máquina GFX11 para GPUs AMD RDNA 3. Esto elimina la necesidad de capas de traducción
Rust en GPU: Async/await facilita la programación
VectorWare ha anunciado un hito significativo en la programación de GPU: la capacidad de utilizar las características `async/await` de Rust directamente en la GPU. Esto representa un avance importante hacia la visión de la empresa de facilitar a los desarrolladores la creación de aplicaciones de alt
Ocr sin servidor: 40 líneas de código lo hacen posible
Un desarrollador ha creado un sistema de Reconocimiento Óptico de Caracteres (OCR) sin servidor utilizando un modelo de código abierto, DeepSeek OCR, en tan solo 40 líneas de código. La solución, implementada a través de la plataforma Modal, permite procesar documentos PDF, incluso aquellos con nota
Linux 7.0: Rendimiento y Novedades Clave Analizadas
Un análisis exhaustivo del próximo kernel de Linux 7.0 revela mejoras significativas en rendimiento, gráficos, CPU y redes. Según el canal SavvyNik, las actualizaciones incluyen optimizaciones de código heredado (alrededor de 30-40 años), mejoras en el Intel TSX, cambios en el programador de CPU pre
Redes Neuronales Revolucionan el Renderizado Gráfico
Este artículo explora la aplicación de redes neuronales, específicamente Multilayer Perceptrons (MLPs), en el campo del renderizado gráfico. Tradicionalmente, las redes neuronales se han utilizado para tareas como antialiasing y escalado, pero esta publicación se centra en experimentos más recientes
IA Codifica en la Nube: 'cloudrouter' Agiliza el Desarrollo
Una nueva herramienta llamada 'cloudrouter' ha sido lanzada para potenciar agentes de codificación con IA, como Claude Code y Codex, permitiéndoles crear y gestionar entornos de desarrollo en la nube. La herramienta, disponible como una habilidad para agentes de IA o como una interfaz de línea de c
Gato resuelve fallo en IA de imágenes
Este artículo narra una experiencia inusual: la resolución de un problema técnico en Stable Diffusion gracias a la intervención de un gato. El autor, un desarrollador, estaba experimentando con Stable Diffusion, una herramienta de generación de imágenes por inteligencia artificial que se ejecuta loc
Tyr: Controlador de GPU en Rust impulsa gráficos en Arm
Un equipo de desarrolladores ha logrado un avance significativo en el desarrollo de un controlador de GPU en Rust para hardware Arm Mali, denominado Tyr. En 2025, el equipo demostró la capacidad de ejecutar el juego de carreras de código abierto SuperTuxKart en una conferencia, marcando un hito impo
Simulador optimiza entrenamiento de IA y reduce uso de memoria
Investigadores han desarrollado un nuevo simulador para optimizar el uso de la memoria durante el entrenamiento de modelos de aprendizaje automático. La herramienta, presentada el 8 de febrero de 2026, modela el proceso de entrenamiento como una tubería simplificada con tres etapas: carga de datos e
Texturizado Virtual: El Truco de PS1 que Inspira Gráficos Hoy
Un artículo explora el origen y la relevancia de la técnica de 'texturizado virtual', inicialmente implementada en Crash Bandicoot para PlayStation como una solución para optimizar el uso de memoria limitada. El equipo de desarrollo, al no poder cargar todos los assets en la memoria RAM, implementó
