热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LongT5
long-t5-tglobal-base - LongT5模型:基于transient-global注意力的长序列文本转换器
Github
开源项目
自然语言处理
模型
Huggingface
注意力机制
长序列处理
文本编码
LongT5
long-t5-tglobal-base是Google开发的基于T5架构的文本转换模型,专为处理长序列文本而设计。该模型采用transient-global注意力机制,支持高达16384个token的输入,在文本摘要和问答等任务中表现优异。通过类Pegasus的生成式预训练,long-t5-tglobal-base可针对特定任务进行微调,为长文本处理提供了高效解决方案。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号