#Longformer
longformer-base-4096 - 专为长文档设计的Longformer transformer模型
Huggingface注意力机制模型Github开源项目自然语言处理Longformer长文档处理RoBERTa
longformer-base-4096是一个专为处理长文档设计的transformer模型,基于RoBERTa checkpoint开发。该模型支持处理长达4,096个序列,创新性地结合了滑动窗口注意力和全局注意力机制。用户可根据具体任务配置全局注意力,从而学习特定任务的表示。这一开源项目由Allen Institute for Artificial Intelligence开发,旨在通过AI研究推动长文本处理技术的进步。
longformer-base-4096-bne-es - 西班牙语长文本处理的高性能解决方案
模型西班牙语GithubLongformer西班牙国家图书馆预训练模型Huggingface开源项目自然语言处理
longformer-base-4096-bne-es是一个针对西班牙语长文本处理的开源语言模型。它基于Longformer架构,利用西班牙国家图书馆的大规模语料库进行训练。该模型可处理4096个token的输入,适用于问答和文本分类等任务。在多项西班牙语自然语言处理测试中表现出色,为长文本处理提供了有效解决方案。