热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LLaMA-2
LLaMA-2-7B-32K - 基于Llama-2开发的32K长文本理解模型
Github
开源项目
深度学习
语言模型
模型
AI训练
Huggingface
长上下文
LLaMA-2
LLaMA-2-7B-32K是一个基于Llama-2开发的长文本语言模型,通过位置插值技术实现32K上下文长度。该模型采用预训练和指令微调策略,适用于多文档问答和长文本摘要等场景,支持API调用和本地部署。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号