Red neuronal Transformer corre en Macintosh clásico

MacMind es un proyecto fascinante que demuestra el funcionamiento interno de las redes neuronales, incluso con recursos extremadamente limitados. Se trata de una implementación completa de una red neuronal Transformer de una sola capa, con solo 1.216 parámetros, escrita completamente en HyperTalk, u

Escasez de transformadores frena la transición energética

Una escasez global de transformadores eléctricos está causando retrasos significativos en proyectos de energía, amenazando la expansión de industrias que dependen de la electrificación y complicando la transición a fuentes de energía más limpias. El reciente apagón en el aeropuerto de Heathrow, Lond

Transformadores: estudio revela desafíos en cuantificación binaria

Una investigación reciente, alojada en el repositorio SALOMI en GitHub, ha revelado limitaciones en la cuantificación binaria de transformadores, una técnica utilizada para reducir el tamaño y mejorar la eficiencia de los modelos de lenguaje grandes (LLM). El estudio, centrado en la cuantificación e

DeepMind crea IA de ajedrez sin búsquedas complejas

DeepMind ha desarrollado un nuevo modelo de ajedrez basado en transformadores que alcanza un nivel de juego comparable al de un Gran Maestro humano, según un estudio reciente publicado en arXiv. El modelo, entrenado utilizando datos de Stockfish, predice el valor de una posición, el valor de realiza

Ajedrez impulsa avances en inteligencia artificial

Investigadores de motores de ajedrez están revolucionando la eficiencia de la inteligencia artificial a través de nuevas técnicas de entrenamiento, según un informe reciente. Inicialmente, los motores de ajedrez, como lc0, utilizaban el aprendizaje por refuerzo (RL) para entrenar sus modelos, donde