#Llama

mergekit - 合并预训练语言模型的工具
mergekitHugging Face模型融合LlamaGPT-NeoXGithub开源项目
MergeKit是一款合并预训练语言模型的工具,支持Llama、Mistral、GPT-NeoX等多种模型。该工具采用先进的方法,在资源有限的情况下执行复杂的合并操作。MergeKit可以在CPU或最低8GB VRAM环境下运行,支持多种合并算法,如线性插值、任务算术、TIES等。还提供图形用户界面并集成到Hugging Face Spaces,简化了模型合并流程。
LLMtuner - 使用 LoRA、QLoRA 等最佳实践对 Llama、Whisper 和其他 LLM 进行微调
LLMTunerLLM微调LoRAWhisperLlamaGithub开源项目
LLMTuner 提供类 scikit-learn 接口,让用户便捷微调如 Llama、Whisper 等大型语言模型。通过 LoRA 和 QLoRA 等技术实现高效微调,内置推理功能和一键启动的交互式 UI,简化模型展示和共享。此外,LLMTuner 还支持未来在 AWS 和 GCP 等平台上的部署。欢迎加入 PromptsLab 社区,探索和讨论最新的开源模型调优技术。
Sequoia - 可扩展、稳定且硬件感知的推断系统环境
Sequoiaspeculative decodingLlamagrowmap接受率向量Github开源项目
Sequoia项目提供了可扩展、稳定且硬件感知的推断系统环境,支持Llama系列模型,灵活调整温度和Top-p参数,并提供详细的实验再现指南。通过pip命令简便地设置环境,使用bash脚本进行测试,调整示例数量和随机种子来重现结果。Sequoia还具备生成接收率向量和生成树结构图的工具,满足各类实验需求。未来计划包括支持更多开源模型、多轮对话、INT4/8量化以及多GPU功能。
FireAct - FireAct项目中的语言模型微调指南与示例
FireAct语言代理精调LlamaOpenAI APIGithub开源项目
FireAct项目提供了语言模型微调的完整解决方案,包括示例代码、提示词和训练数据。该项目详细介绍了如何在Llama和GPT等多任务模型上进行数据生成、监督微调和推理操作。项目包含适用于Alpaca和GPT格式的训练数据样本,并配有使用案例和模型卡,方便快速部署和应用。支持OpenAI和SERP API集成,具体信息请参考项目仓库与Hugging Face模型卡。
llama-models - Meta推出的开放大型语言模型Llama
Llama大语言模型开源人工智能自然语言处理Github开源项目
llama-models是Meta开发的开放大型语言模型项目,为AI开发者、研究人员和企业提供易用的工具。项目包含Llama 2、Llama 3和Llama 3.1等多个版本,支持不同模型规模和上下文长度。llama-models注重开放性、生态系统支持和安全性,为AI创新与负责任发展奠定基础。
llama - 开源大语言模型推动自然语言处理发展
Llama大语言模型Meta人工智能开源Github开源项目
Llama 2是Meta公司开发的开源大语言模型系列,提供7B至70B参数的预训练和微调模型。该项目为研究和商业用途提供模型权重和代码,支持多样化的自然语言处理应用。Llama 2注重负责任的AI发展,实施严格的使用政策。项目包含多个仓库,构建了从基础模型到端到端系统的完整技术栈,为AI领域的创新和应用提供了重要支持。
awesome-korean-llm - 全面解析韩语开源大语言模型资源列表
LLM韩语开源Polyglot-KoLlamaGithub开源项目
本资源列表全面汇总了韩语开源大语言模型(LLM)信息。内容涵盖Polyglot-Ko、KoAlpaca、KULLM等多种韩语LLM模型,提供模型规模、开发者、基础架构等核心数据。同时按基础模型对韩语LLM进行分类,包括基于Polyglot-Ko、Llama、Llama-2等的不同类型。该列表为韩语自然语言处理研究者提供了重要参考。
AutoCompressors - 创新语言模型技术实现长文本上下文压缩
AutoCompressor语言模型上下文压缩Llama生成式AIGithub开源项目
AutoCompressors是一项创新语言模型技术,可将长文本上下文压缩为少量摘要向量并进行推理。该项目提供官方实现,包含预训练模型、安装指南和示例代码。支持Llama-2和OPT等基础模型,有效提升长文本处理能力,为自然语言处理开辟新途径。
BlockMerge_Gradient - Llama模型层级梯度混合融合工具
BlockMerge Gradient语言模型模型融合梯度值LlamaGithub开源项目
BlockMerge_Gradient是一款专为Llama 1/2语言模型设计的融合工具,通过梯度混合两个微调模型的层级来创建模型集成。该工具支持自定义梯度值和最大分片大小,可选择性处理层级或非层级张量。它能处理不同词汇表大小的模型,并自动复制相关分词器文件,提供灵活的模型融合方案。
openchat - 采用混合质量数据训练的高性能开源语言模型
OpenChat语言模型人工智能开源LlamaGithub开源项目
OpenChat是一个创新的开源语言模型库,采用C-RLFT策略从混合质量数据中学习。该模型在7B规模下实现了与ChatGPT相当的性能,无需偏好标签。项目致力于开发高性能、商用级的开源大语言模型,并持续进步。OpenChat支持多GPU部署,提供兼容OpenAI的API服务,适用于编码、聊天等多种任务。
awesome-llama-prompts - Llama模型提示工程技巧与最佳实践
Llama提示词AI助手开源模型对话结构Github开源项目
该项目汇集了Llama模型的多样化提示示例,涵盖Llama 2和Llama 3的提示技巧、系统提示及代码解释器提示。项目提供详细的提示模板和最佳实践,涉及对话、角色扮演和专家身份生成等应用场景。对于希望深入理解和应用Llama模型的开发者和研究人员而言,这是一个极具参考价值的资源库。
gemma-2b-bnb-4bit - 提高模型微调速度和内存效率,支持多模型免费训练
Llama开源项目模型GithubHuggingfaceGemmaMistral模型微调Unsloth
该项目提供了一套适用于Unsloth的Google Colab免费笔记本,通过优化微调,提升Gemma、Mistral和Llama等模型的执行速度至2至5倍,且减少内存使用达70%。用户只需添加数据集并运行,即可快速获得微调模型,还可导出为多种格式或上传至Hugging Face。项目特点包括对初学者的友好性和对多模型的支持,成为高效深度学习的重要工具。
TinyLLama-v0 - 基于Llama架构的轻量级开源文本生成模型TinyLLama
模型模型训练Github神经网络LlamaTinyStoriesHuggingface开源项目自然语言处理
TinyLLama-v0是一个基于Llama架构的轻量级语言模型项目,重现了TinyStories-1M的功能。项目提供完整训练流程,包括数据准备、模型训练和验证脚本。它使用open_llama_3b分词器,在40GB A100 GPU上训练3小时/轮,共9小时。虽处于概念验证阶段,存在长文本截断等限制,但TinyLLama-v0为开发者提供了探索小型语言模型的平台。项目包含演示脚本和验证工具,适用于文本生成等自然语言处理任务研究。
Llama-3.2-1B-Instruct-GGUF - Llama 3.2模型的多精度量化版本
语言模型模型量化开源人工智能GithubLlamaHuggingface开源项目
Llama-3.2-1B-Instruct-GGUF是Llama 3.2模型的量化版本,使用llama.cpp和imatrix方法进行处理。该项目提供从f16到Q3_K_XL多种精度选项,文件大小在0.80GB至2.48GB之间。这些模型支持多语言处理,适合在资源受限的设备上运行,用户可根据需求选择合适版本以平衡性能和资源占用。
ultravox-v0_3 - 集成语音和文本输入的多模态AI模型
多模态模型WhisperHuggingface模型Llama语音识别Github开源项目Ultravox
Ultravox-v0_3是Fixie.ai开发的多模态语音大语言模型,结合Llama3.1-8B-Instruct和Whisper-small技术。该模型可同时处理语音和文本输入,适用于语音助手、翻译和分析等场景。通过知识蒸馏方法,仅训练多模态适配器,保持基础模型不变。Ultravox在语音识别和翻译任务中展现出优秀性能,为语音交互应用提供了新的可能性。
Llama-3.2-3B-Instruct-uncensored-GGUF - 3B参数指令微调语言模型的高效GGUF量化版本
模型量化人工智能GithubLlamaHuggingface开源项目GGUF
Llama-3.2-3B-Instruct-uncensored模型的GGUF量化版本,提供从1.6GB到7.3GB不等的多种量化类型。量化后的模型大小显著减小,便于部署使用,同时尽可能保持原模型性能。项目包含详细的量化版本说明、使用指南和常见问题解答,有助于用户选择适合的版本。
EstopianMaid-13B-GGUF - 量化格式的EstopianMaid-13B模型,兼容多平台与多UI
HuggingfaceLlama量化开源项目模型GithubGPU加速EstopianMaid 13BApache 2.0
EstopianMaid 13B的GGUF格式文件由llama.cpp团队推出取代GGML。项目涵盖多种量化与文件规格,兼容包括llama.cpp在内的多种平台和UI。详细的下载指导帮助用户选择最佳配置,支持GPU和CPU推理,适用于多种文本生成场景。
gemma-2-2b-bnb-4bit - Gemma模型4bit量化实现提速降耗的AI推理优化
UnslothGemmaGithub模型微调模型Llama机器学习开源项目Huggingface
该项目对Gemma-2-2b模型进行4bit量化优化,通过bitsandbytes技术实现高效压缩。在Google Colab环境下可实现2倍以上推理速度提升,同时节省60%以上内存占用。项目提供完整的模型微调支持,可帮助开发者在有限算力条件下高效部署语言模型。
Llama-3.2-1B-Instruct-q4f32_1-MLC - 基于MLC格式的Llama指令微调对话模型支持多平台轻量级部署
语言模型Llama人工智能Github开源框架模型MLCHuggingface开源项目
基于Meta Llama-3.2-1B-Instruct转换的MLC格式模型,采用q4f32_1量化方案,针对MLC-LLM和WebLLM项目进行优化。模型提供命令行交互、REST服务部署和Python API调用功能,可灵活应用于各类场景。具备快速部署和高效对话能力,适合构建轻量级AI对话应用。
Llama-3.2-3B-Instruct-uncensored-LoRA_final-Q4_K_M-GGUF - 高效微调的3B参数英文指令型大语言模型
深度学习Github开源项目HuggingfaceUnsloth模型训练AI开发Llama模型
Llama-3.2-3B-Instruct-uncensored-LoRA_final-Q4_K_M-GGUF是基于Llama-3.2-3B-Instruct-uncensored模型微调的开源大语言模型。该模型使用Unsloth和Huggingface的TRL库训练,提高了2倍的训练速度。由PurpleAILAB开发,采用Apache 2.0许可证,主要用于英语文本生成任务。这是一个参数量为3B的指令型模型,适合需要快速部署的应用场景。
llama-2-7b-bnb-4bit - 提升Llama模型性能,实现速度翻倍与内存节省
模型量化HuggingfaceLlama内存优化开源项目模型Github参数调优Unsloth
项目通过4bit量化模型和Unsloth技术,优化Llama系列模型的性能。用户可在Google Colab上进行简单操作,免费获取如Gemma、Mistral、TinyLlama等模型,并实现性能提升和内存节省。以Llama 2为例,其推理速度可提高2.2倍,内存使用减少43%。项目适合初学者,支持导出为GGUF和vLLM格式,可上传至Hugging Face。
SQL_Llama-3.2-3B-Instruct-uncensored_final-gguf - Llama模型驱动的高效SQL指令生成工具
Github模型模型训练开源项目Huggingface文本生成人工智能LlamaUnsloth
SQL_Llama-3.2-3B-Instruct-uncensored_final-gguf是PurpleAILAB基于Llama 3.2-3B模型开发的SQL指令生成工具。该项目利用Unsloth和Huggingface的TRL库进行优化,显著提升了训练效率。这一模型专门针对SQL相关任务进行了微调,旨在为开发者提供准确、高效的SQL指令生成和处理功能。
Arabic-Law-Meta-Llama-3.2-3B-GGUF - Arabic-Law-Meta-Llama模型加速训练,增强文本生成能力
HuggingfaceLlamaunsloth训练模型开源项目Github
该项目通过Unsloth工具和Huggingface TRL库,在apache-2.0许可下加速训练Arabic-Law-Meta-Llama模型,实现2倍训练速度提升,旨在增强文本生成的推理能力,适用于多种场景。
Asifmodel - 基于Unsloth和TRL库加速训练的LLaMA模型
模型训练Llama开源项目人工智能模型GithubHuggingface开源模型Unsloth
Asifmodel是一个基于unsloth/meta-llama-3.1-8b-bnb-4bit微调的LLaMA模型。通过结合Unsloth框架和Hugging Face的TRL库,该模型实现了训练速度翻倍。采用Apache 2.0许可证,Asifmodel支持英语文本生成推理,为开发者提供了高效的模型训练方案。
Llama-3.2-1B-Instruct-Uncensored-GGUF - Llama小型无审查语言模型的量化实现
Llama开源项目量化模型transformersGithubGGUFHuggingface模型语言模型
这是针对Llama-3.2-1B-Instruct-Uncensored模型的GGUF量化项目,提供从Q2_K到f16在内的多种量化版本。模型文件大小范围在0.7GB至2.6GB之间,通过不同的量化方案平衡了性能与存储空间。项目包含完整的性能对比数据和使用文档,方便开发者根据实际需求选择合适的模型版本。
Qwen2-0.5B - 使用Unsloth提升微调效率和内存优化
内存优化Qwen2LlamaHuggingfaceGithub开源项目模型Unsloth快速微调
Unsloth提供的工具支持在Google Colab上微调多种模型,如Llama、Gemma、Mistral等,速度提升可达5倍,内存使用减少至74%。简便的操作流程允许用户快速上传数据集并运行所有步骤,生成优化后的模型,支持导出和上传至各大平台,显著提高微调效率,是开发和测试AI模型的可靠工具。
Reflection-Llama-3.1-70B-GGUF - Llama-3.1-70B模型的GGUF量化版本集合
Github模型开源项目深度学习GPU内存优化HuggingfaceLlama人工智能推理模型量化
Reflection-Llama-3.1-70B模型的GGUF量化集合,包含从74.98GB到22.24GB的多个版本。采用K-quants和I-quants量化技术,并对embed和output权重进行了特别处理。项目提供了详细的版本特性说明、安装指南以及基于不同硬件配置的选型建议。
Luna-AI-Llama2-Uncensored-GGUF - 开源Llama 2模型的GGUF量化版本
GGUF量化压缩LlamaHuggingfaceGithub开源项目模型人工智能文件格式
这是Tap-M开发的Luna AI Llama2 Uncensored模型的GGUF量化版本。项目提供了2-8比特不同量化级别的模型文件,支持CPU和GPU推理,可与llama.cpp及主流UI框架配合使用。模型基于cc-by-sa-4.0和Meta Llama 2双重许可协议发布。
Llama-3.2-3B-Instruct-Q4_K_M-GGUF - Llama 3.2模型的安装与使用详解
Github模型开源项目模型转换Meta许可协议HuggingfaceLlama使用政策
Llama-3.2-3B-Instruct Q4_K_M-GGUF模型经过llama.cpp转换为GGUF格式,支持多语言生成,适合用于AI研究与开发。用户可以通过简单的安装步骤在Mac和Linux系统上部署该模型,并通过命令行界面或服务器进行推断。此模型具备高效的文本生成能力,是进行AI开发和优化的有效工具。