热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#nomic-bert-2048
nomic-bert-2048 - 预训练BERT模型实现2048序列长度的上下文理解
Github
开源项目
预训练模型
自然语言处理
机器学习
BERT
模型
Huggingface
nomic-bert-2048
nomic-bert-2048模型通过Wikipedia和BookCorpus数据集训练,采用改进的位置编码技术,支持2048长度的文本序列处理。在GLUE基准评测中展现出与传统BERT相当的性能,同时具备更强的长文本理解能力。该模型兼容标准BERT分词系统,适用于文本补全和分类等自然语言处理任务。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号