热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#长程注意力
h-transformer-1d - 高效序列学习的分层注意力变换器实现
Github
开源项目
神经网络
Transformer
H-Transformer-1D
序列学习
长程注意力
H-Transformer-1D是一个开源项目,实现了基于分层注意力机制的Transformer模型。这种实现使序列学习达到亚二次方复杂度,在Long Range Arena基准测试中表现优异。项目支持可变序列长度、可逆性和令牌移位等功能,适用于长序列数据处理。该实现主要提供编码器(非自回归)版本,为自然语言处理和机器学习领域提供了新的研究方向。
1
1
相关文章
H-Transformer-1D: 高效的一维层次化注意力机制
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号