Meta的Jagged Flash Attention:推荐系统性能革命
2025-03-21

Meta提出了一种名为Jagged Flash Attention的新方法,彻底改变了大型推荐系统的性能和可扩展性。传统方法处理变长类别特征(如用户交互历史)效率低下,需要填充大量零值。而Jagged Flash Attention利用Jagged张量,高效地处理这些变长特征,避免了填充带来的内存和计算开销。结合TorchRec库,该方法在Meta的生产环境中实现了高达10倍的性能提升,并支持训练拥有3万亿以上参数的模型。这项突破性技术将极大地推动个性化推荐系统的进步。
AI
TorchRec