#Llama2

Chinese-Llama-2-7b学习资料汇总 - 开源社区首个可下载运行的中文LLaMA2模型

2 个月前
Cover of Chinese-Llama-2-7b学习资料汇总 - 开源社区首个可下载运行的中文LLaMA2模型

XTuner入门指南 - 高效灵活的大语言模型微调工具包

2 个月前
Cover of XTuner入门指南 - 高效灵活的大语言模型微调工具包

llama2.rs: 纯Rust实现的高性能Llama 2推理引擎

3 个月前
Cover of llama2.rs: 纯Rust实现的高性能Llama 2推理引擎

SlowLlama: 在资源受限设备上微调大型语言模型的创新方法

3 个月前
Cover of SlowLlama: 在资源受限设备上微调大型语言模型的创新方法

Chinese-Llama-2-7b: 开源可商用的中文大语言模型

3 个月前
Cover of Chinese-Llama-2-7b: 开源可商用的中文大语言模型

XTuner: 高效灵活的大语言模型微调工具包

3 个月前
Cover of XTuner: 高效灵活的大语言模型微调工具包
相关项目
Project Cover

xtuner

XTuner是一款高效灵活的大模型微调工具包,支持LLM和VLM在多种GPU上的预训练和微调。它能够在单个8GB GPU上微调7B模型,并支持超过70B模型的多节点微调。XTuner兼容DeepSpeed,支持多种优化技术,并涵盖多种微调方法如QLoRA和LoRA。该工具包提供连续预训练、指令微调和代理微调等功能,输出模型可以无缝集成到部署和评估工具中,适应多种应用场景。

Project Cover

Chinese-Llama-2-7b

项目提供开源且商用的中文Llama2模型及中英文SFT数据集,兼容llama-2-chat格式并支持优化。项目包含在线演示、多模态模型、Docker部署和API接口,支持多种硬件配置,用户可快速下载与测试。

Project Cover

slowllama

slowllama是一个专注于微调Llama2和CodeLLama模型的开源项目,支持70B/35B模型版本,并可在Apple M1/M2设备(如Macbook Air、Mac Mini)或消费级nVidia GPU上运行。通过将模型部分数据转储到SSD或主内存,该项目避免使用量化技巧,优化正向和反向传递性能。采用LoRA方法限制参数更新,操作步骤详尽,包括依赖安装、模型下载和配置脚本,是在资源有限环境下进行大模型微调的理想选择。

Project Cover

llama2.rs

llama2.rs是一个用Rust开发的Llama2 CPU推理库,专注于提供高性能的推理能力。项目支持4位GPT-Q量化、批量预填充提示标记、SIMD加速和内存映射等技术,实现了70B模型的即时加载。通过Python API,开发者可在普通台式机上运行70B Llama2模型(1 token/s)和7B模型(9 tokens/s)。该项目为大规模语言模型的CPU推理提供了高效且灵活的开源解决方案。

Project Cover

llama2_70b_chat_uncensored-GGUF

Llama2 70B Chat Uncensored项目引入了采用GGUF格式的新模型文件,与传统GGML相比,增强了性能与功能。GGUF格式在词元化和特殊标记支持方面表现出色,并支持元数据,提升了第三方UI和库的兼容性。由llama.cpp团队于2023年8月21日发布的此新格式,适合用于聊天机器人、文本生成等机器学习应用。

Project Cover

SeewebLLM-it

SeewebLLM-it是一款针对意大利语优化的语言模型,基于LLama-2-7b-chat-hf精细微调,在Seeweb Cloud GPU的支持下经过训练,涵盖了约300个意大利语对话实例。虽然目前的输出在准确性上还需进一步提升,但随着训练数据集的扩展,该模型未来可在更多领域展现潜力。

Project Cover

japanese-stablelm-base-beta-7b

该7B参数自回归模型基于Llama-2-7b,经过微调以提升日本语言任务表现。其使用多样的日本语数据集训练,适合各种文本生成任务,并且推理速度优异。提供开放商业用途,适合应用程序的专用调整。

Project Cover

ELYZA-japanese-Llama-2-7b-fast-instruct

ELYZA-japanese-Llama-2-7b-fast-instruct基于Llama2,专注于提升日语处理能力,提供流畅的语言体验。通过针对日语的扩展训练,该模型在理解和生成日语方面表现优异,并支持GPU加速,以优化计算性能,适用于多种应用场景。欲了解更多使用案例和详细信息,请访问官方页面。

Project Cover

ELYZA-japanese-Llama-2-7b-instruct

ELYZA-japanese-Llama-2-7b是基于Llama-2架构开发的日语大语言模型。通过额外预训练,该模型显著提升了日语处理能力。项目提供多个版本,包括基础模型和指令微调版本,参数规模在6.27B至6.37B之间。模型支持日英双语对话,适用于文本生成和对话等任务。项目还提供了基于Hugging Face Transformers框架的使用示例代码,方便开发者集成和部署。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号