H100
hardware · 7 menciones
Noticias que mencionan H100
IA acelera entrenamiento neuronal con 16 GPUs
Investigadores han logrado mejorar significativamente el entrenamiento de redes neuronales utilizando un agente de inteligencia artificial (IA) y un clúster de 16 GPUs, gracias a la herramienta SkyPilot. El agente, basado en Claude Code y conectado a la plataforma Autoresearch de Andrej Karpathy, ej
ia facilita el cambio de estilos de fuentes chinas
Investigadores han desarrollado "zi2zi-JiT", un nuevo modelo de inteligencia artificial que simplifica la transferencia de estilos de fuentes chinas. Basado en el modelo JiT (Just image Transformer), zi2zi-JiT permite generar caracteres en una fuente específica a partir de un carácter fuente y una r
IA optimiza GPUs: nuevo agente agiliza el rendimiento
RightNow AI ha presentado AutoKernel, un agente de inteligencia artificial que automatiza la optimización de kernels de GPU, inspirándose en el trabajo de autoresearch de Andrej Karpathy. AutoKernel toma cualquier modelo PyTorch, identifica los kernels de cuello de botella, los optimiza de forma aut
IA investiga y optimiza modelos de lenguaje sola
Este repositorio de GitHub, creado por Andrej Karpathy, presenta un enfoque innovador para la investigación en inteligencia artificial: la 'autoresearch'. En lugar de la investigación tradicional, donde humanos modifican el código, este sistema permite a agentes de IA experimentar y optimizar modelo
Linum libera código de VAE: avance para videos y IA
La empresa Linum ha abierto el código de su Variational Autoencoder (VAE) para imágenes y videos, junto con los registros de sus experimentos. El objetivo era reducir el tamaño de los archivos de video para facilitar su procesamiento con modelos de difusión basados en transformadores, que de otro mo
IA exige: centros de datos apuestan por refrigeración líquida
El auge de la inteligencia artificial está generando una crisis de gestión térmica en los centros de datos, obligando a una transición inevitable hacia sistemas de refrigeración líquida. Según un informe de syaala.com, el aumento exponencial en la densidad de potencia de las GPU, impulsado por chips
LLM más rápidos: Anthropic y OpenAI usan métodos distintos
Anthropic y OpenAI han anunciado recientemente una función de "modo rápido" para sus modelos de codificación, permitiendo interacciones significativamente más rápidas. Sin embargo, los enfoques difieren considerablemente. La opción de Anthropic ofrece una mejora de hasta 2.5 veces en tokens por segu
