热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LongRoPE
LongRoPE - 扩展大语言模型上下文窗口至200万以上标记的方法
LongRoPE
大语言模型
上下文窗口
位置编码
Transformer
Github
开源项目
LongRoPE项目提出了一种将大语言模型(LLM)上下文窗口扩展至超过200万个标记的方法。通过利用位置嵌入中的非均匀性,项目实现了8倍的上下文窗口扩展,无需微调。采用逐步扩展策略从256k微调至2048k上下文,避免了对超长文本的直接微调。LongRoPE还调整了原始窗口长度内的嵌入,确保在各种任务中保持高效表现,适用于对话、问答、长文档摘要及少样本学习。
1
1
相关文章
LongRoPE:突破200万token的大语言模型上下文窗口扩展技术
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号