Implementação Go de alta performance de mecanismos de atenção e camadas Transformer
2025-03-03
A equipe de Pesquisa de Fronteira da takara.ai apresenta a primeira implementação pura em Go de mecanismos de atenção e camadas Transformer, priorizando alto desempenho e facilidade de uso. Esta biblioteca inclui atenção de produto escalar, atenção multi-cabeça e uma implementação completa da camada Transformer, com operações em lote para melhor desempenho e operações de matriz otimizadas para CPU. Ideal para computação de borda, processamento em tempo real, aplicativos nativos em nuvem, sistemas embarcados e implantações de produção. Melhorias futuras incluem codificação posicional, dropout e aceleração CUDA.
Desenvolvimento
Mecanismos de Atenção