Transformers
technology · 1 menciones
Noticias que mencionan Transformers
Self-Attention at Constant Cost per Token via Symmetry-Aware Taylor Approximation
Un nuevo estudio presenta una técnica para optimizar el mecanismo de autoatención en modelos Transformer, reduciendo significativamente los costos de cómputo y memoria. La investigación, basada en una aproximación de Taylor que considera la simetría de las operaciones, permite calcular la autoatenci
