热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#ChunkLlama
ChunkLlama - 双重块注意力技术实现大语言模型上下文窗口扩展
ChunkLlama
大语言模型
长上下文
注意力机制
无需训练
Github
开源项目
ChunkLlama项目开发了双重块注意力(DCA)技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始长度的8倍以上。DCA可与主流外推技术和高效推理库兼容,支持Llama、Mistral等多种模型。实验表明,应用DCA后的Llama-2/3 70B模型能处理长达100k的上下文,并在长文本任务中表现出色。
1
1
相关文章
ChunkLlama: 突破大语言模型长上下文限制的无训练方法
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号