#Llama2

xtuner - 全面的模型微调解决方案,支持LLM和VLM的高效训练
XTunerLlama2DeepSpeedInternLMQLoRAGithub开源项目
XTuner是一款高效灵活的大模型微调工具包,支持LLM和VLM在多种GPU上的预训练和微调。它能够在单个8GB GPU上微调7B模型,并支持超过70B模型的多节点微调。XTuner兼容DeepSpeed,支持多种优化技术,并涵盖多种微调方法如QLoRA和LoRA。该工具包提供连续预训练、指令微调和代理微调等功能,输出模型可以无缝集成到部署和评估工具中,适应多种应用场景。
Chinese-Llama-2-7b - 开源且可商用的中文Llama2模型,兼容中英文SFT数据集与llama-2-chat格式
Chinese Llama 2 7BLlama2HuggingFace模型开源量化模型Github开源项目
项目提供开源且商用的中文Llama2模型及中英文SFT数据集,兼容llama-2-chat格式并支持优化。项目包含在线演示、多模态模型、Docker部署和API接口,支持多种硬件配置,用户可快速下载与测试。
slowllama - 在Apple和nVidia设备上微调Llama2和CodeLLama模型
slowllamaLlama2CodeLLamaM1/M2设备GPUGithub开源项目
slowllama是一个专注于微调Llama2和CodeLLama模型的开源项目,支持70B/35B模型版本,并可在Apple M1/M2设备(如Macbook Air、Mac Mini)或消费级nVidia GPU上运行。通过将模型部分数据转储到SSD或主内存,该项目避免使用量化技巧,优化正向和反向传递性能。采用LoRA方法限制参数更新,操作步骤详尽,包括依赖安装、模型下载和配置脚本,是在资源有限环境下进行大模型微调的理想选择。
llama2.rs - Rust开发的高效Llama2 CPU推理库
Llama2RustCPU推理量化SIMDGithub开源项目
llama2.rs是一个用Rust开发的Llama2 CPU推理库,专注于提供高性能的推理能力。项目支持4位GPT-Q量化、批量预填充提示标记、SIMD加速和内存映射等技术,实现了70B模型的即时加载。通过Python API,开发者可在普通台式机上运行70B Llama2模型(1 token/s)和7B模型(9 tokens/s)。该项目为大规模语言模型的CPU推理提供了高效且灵活的开源解决方案。
llama2_70b_chat_uncensored-GGUF - Llama2 70B Chat Uncensored推出全新GGUF格式
开源项目GGUF模型Llama2Huggingface量化GithubLLM
Llama2 70B Chat Uncensored项目引入了采用GGUF格式的新模型文件,与传统GGML相比,增强了性能与功能。GGUF格式在词元化和特殊标记支持方面表现出色,并支持元数据,提升了第三方UI和库的兼容性。由llama.cpp团队于2023年8月21日发布的此新格式,适合用于聊天机器人、文本生成等机器学习应用。
SeewebLLM-it - 意大利语高效微调语言模型
HuggingfaceSeewebGithub开源项目模型人工智能意大利语微调Llama2
SeewebLLM-it是一款针对意大利语优化的语言模型,基于LLama-2-7b-chat-hf精细微调,在Seeweb Cloud GPU的支持下经过训练,涵盖了约300个意大利语对话实例。虽然目前的输出在准确性上还需进一步提升,但随着训练数据集的扩展,该模型未来可在更多领域展现潜力。
japanese-stablelm-base-beta-7b - 日本语自然语言处理的7B参数高效模型
自然语言处理开源项目模型日语GithubHuggingfaceJapanese-StableLM-Base-Beta-7BLlama2语言模型
该7B参数自回归模型基于Llama-2-7b,经过微调以提升日本语言任务表现。其使用多样的日本语数据集训练,适合各种文本生成任务,并且推理速度优异。提供开放商业用途,适合应用程序的专用调整。
StableBeluga2 - Stability AI推出的大规模开源对话模型StableBeluga2
模型模型训练开源项目语言模型Llama2HuggingfaceGithub人工智能Stable Beluga 2
StableBeluga2是Stability AI基于Llama2 70B模型微调的开源对话系统。该模型在Orca式数据集上训练,具备优秀的指令理解和执行能力。StableBeluga2支持多轮对话,可生成诗歌等创意内容。技术上,它采用bfloat16格式存储权重并使用Safetensors,实现了更小的文件体积和更快的加载速度。作为一个强大的AI助手,StableBeluga2在保持高性能的同时优化了资源占用。
ELYZA-japanese-Llama-2-7b-fast-instruct - 提升日本语言处理与指令执行的创新模型
GithubLlama2ELYZA-japanese-Llama-2-7b开源项目日语能力模型Huggingface追加事前学习人工智能
ELYZA-japanese-Llama-2-7b-fast-instruct基于Llama2,专注于提升日语处理能力,提供流畅的语言体验。通过针对日语的扩展训练,该模型在理解和生成日语方面表现优异,并支持GPU加速,以优化计算性能,适用于多种应用场景。欲了解更多使用案例和详细信息,请访问官方页面。
ELYZA-japanese-Llama-2-7b-instruct - Llama-2架构的日语大语言模型 支持双语对话和指令微调
日本语模型Github人工智能自然语言处理HuggingfaceELYZA开源项目Llama2模型
ELYZA-japanese-Llama-2-7b是基于Llama-2架构开发的日语大语言模型。通过额外预训练,该模型显著提升了日语处理能力。项目提供多个版本,包括基础模型和指令微调版本,参数规模在6.27B至6.37B之间。模型支持日英双语对话,适用于文本生成和对话等任务。项目还提供了基于Hugging Face Transformers框架的使用示例代码,方便开发者集成和部署。
llama2_esci_v1 - 针对ESCI查询,利用Llama2进行微调提升产品关联度
Github模型transformers模型训练开源项目ESCI任务Huggingface模型微调Llama2
Llama2的微调用于优化ESCI查询与产品的相关性,项目通过深度学习模型增进查询与产品的理解,提升搜索结果的精确性与关联度。