热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Flash Linear Attention
flash-linear-attention - Triton实现的高效线性注意力模型库
Github
开源项目
深度学习
自然语言处理
Flash Linear Attention
线性注意力模型
Triton实现
Flash Linear Attention是一个基于Triton实现的线性注意力模型库。该项目集成了RetNet、GLA和Based等多种先进模型,实现了高效的token混合和文本生成。兼容Hugging Face Transformers库,提供预训练模型、评估工具和基准测试,为线性注意力技术的研究和应用提供了便利。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号