Logo

#Llama2

Chinese-Llama-2-7b学习资料汇总 - 开源社区首个可下载运行的中文LLaMA2模型

1 个月前
Cover of Chinese-Llama-2-7b学习资料汇总 - 开源社区首个可下载运行的中文LLaMA2模型

llama2.rs: 纯Rust实现的高性能Llama 2推理引擎

2 个月前
Cover of llama2.rs: 纯Rust实现的高性能Llama 2推理引擎

Chinese-Llama-2-7b: 开源可商用的中文大语言模型

2 个月前
Cover of Chinese-Llama-2-7b: 开源可商用的中文大语言模型

XTuner入门指南 - 高效灵活的大语言模型微调工具包

1 个月前
Cover of XTuner入门指南 - 高效灵活的大语言模型微调工具包

SlowLlama: 在资源受限设备上微调大型语言模型的创新方法

2 个月前
Cover of SlowLlama: 在资源受限设备上微调大型语言模型的创新方法

XTuner: 高效灵活的大语言模型微调工具包

2 个月前
Cover of XTuner: 高效灵活的大语言模型微调工具包

相关项目

Project Cover
xtuner
XTuner是一款高效灵活的大模型微调工具包,支持LLM和VLM在多种GPU上的预训练和微调。它能够在单个8GB GPU上微调7B模型,并支持超过70B模型的多节点微调。XTuner兼容DeepSpeed,支持多种优化技术,并涵盖多种微调方法如QLoRA和LoRA。该工具包提供连续预训练、指令微调和代理微调等功能,输出模型可以无缝集成到部署和评估工具中,适应多种应用场景。
Project Cover
Chinese-Llama-2-7b
项目提供开源且商用的中文Llama2模型及中英文SFT数据集,兼容llama-2-chat格式并支持优化。项目包含在线演示、多模态模型、Docker部署和API接口,支持多种硬件配置,用户可快速下载与测试。
Project Cover
slowllama
slowllama是一个专注于微调Llama2和CodeLLama模型的开源项目,支持70B/35B模型版本,并可在Apple M1/M2设备(如Macbook Air、Mac Mini)或消费级nVidia GPU上运行。通过将模型部分数据转储到SSD或主内存,该项目避免使用量化技巧,优化正向和反向传递性能。采用LoRA方法限制参数更新,操作步骤详尽,包括依赖安装、模型下载和配置脚本,是在资源有限环境下进行大模型微调的理想选择。
Project Cover
llama2.rs
llama2.rs是一个用Rust开发的Llama2 CPU推理库,专注于提供高性能的推理能力。项目支持4位GPT-Q量化、批量预填充提示标记、SIMD加速和内存映射等技术,实现了70B模型的即时加载。通过Python API,开发者可在普通台式机上运行70B Llama2模型(1 token/s)和7B模型(9 tokens/s)。该项目为大规模语言模型的CPU推理提供了高效且灵活的开源解决方案。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号