热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#SelfExtend
LongLM - 通过Self-Extend方法扩展大语言模型的上下文窗口
Github
开源项目
LLM
transformers
SelfExtend
FlashAttention
Llama-3
LongLM项目介绍了Self-Extend方法,通过不需要调优的方式扩展大语言模型(LLM)的上下文窗口,利用其内在能力处理长上下文。此方法获得了Google I/O和ICML 2024的关注,并支持多种模型如Llama-3、Gemma和Qwen1.5。项目说明了如何安装和运行Self-Extend,并提供组选参数的指导原则及实验结果,以帮助用户应用这一技术。
1
1
相关文章
LongLM: 无需微调即可自我扩展LLM上下文窗口
3 个月前
LongLM学习资料汇总 - 一种无需微调即可扩展LLM上下文窗口的新方法
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号