Logo

#Llama

Sequoia学习资料汇总 - 可扩展、鲁棒的树形推测解码算法

1 个月前
Cover of Sequoia学习资料汇总 - 可扩展、鲁棒的树形推测解码算法

OpenChat: 革新开源语言模型的新篇章

2 个月前
Cover of OpenChat: 革新开源语言模型的新篇章

探索LLaMA: Meta AI的开创性大语言模型

2 个月前
Cover of 探索LLaMA: Meta AI的开创性大语言模型

LLMtuner: 一种简化大型语言模型微调的开源框架

2 个月前
Cover of LLMtuner: 一种简化大型语言模型微调的开源框架

Sequoia: 可扩展、强健且硬件感知的推测解码算法

2 个月前
Cover of Sequoia: 可扩展、强健且硬件感知的推测解码算法

MergeKit入门指南 - 强大的预训练语言模型合并工具包

1 个月前
Cover of MergeKit入门指南 - 强大的预训练语言模型合并工具包

BlockMerge Gradient: 革新性的语言模型融合技术

2 个月前
Cover of BlockMerge Gradient: 革新性的语言模型融合技术

Llama模型:开放、强大的大规模语言模型

2 个月前
Cover of Llama模型:开放、强大的大规模语言模型

FireAct: 基于React、Firebase和Stripe的开源SaaS项目框架

2 个月前
Cover of FireAct: 基于React、Firebase和Stripe的开源SaaS项目框架

MergeKit: 一个强大的预训练语言模型合并工具包

2 个月前
Cover of MergeKit: 一个强大的预训练语言模型合并工具包

相关项目

Project Cover
mergekit
MergeKit是一款合并预训练语言模型的工具,支持Llama、Mistral、GPT-NeoX等多种模型。该工具采用先进的方法,在资源有限的情况下执行复杂的合并操作。MergeKit可以在CPU或最低8GB VRAM环境下运行,支持多种合并算法,如线性插值、任务算术、TIES等。还提供图形用户界面并集成到Hugging Face Spaces,简化了模型合并流程。
Project Cover
LLMtuner
LLMTuner 提供类 scikit-learn 接口,让用户便捷微调如 Llama、Whisper 等大型语言模型。通过 LoRA 和 QLoRA 等技术实现高效微调,内置推理功能和一键启动的交互式 UI,简化模型展示和共享。此外,LLMTuner 还支持未来在 AWS 和 GCP 等平台上的部署。欢迎加入 PromptsLab 社区,探索和讨论最新的开源模型调优技术。
Project Cover
Sequoia
Sequoia项目提供了可扩展、稳定且硬件感知的推断系统环境,支持Llama系列模型,灵活调整温度和Top-p参数,并提供详细的实验再现指南。通过pip命令简便地设置环境,使用bash脚本进行测试,调整示例数量和随机种子来重现结果。Sequoia还具备生成接收率向量和生成树结构图的工具,满足各类实验需求。未来计划包括支持更多开源模型、多轮对话、INT4/8量化以及多GPU功能。
Project Cover
FireAct
FireAct项目提供了语言模型微调的完整解决方案,包括示例代码、提示词和训练数据。该项目详细介绍了如何在Llama和GPT等多任务模型上进行数据生成、监督微调和推理操作。项目包含适用于Alpaca和GPT格式的训练数据样本,并配有使用案例和模型卡,方便快速部署和应用。支持OpenAI和SERP API集成,具体信息请参考项目仓库与Hugging Face模型卡。
Project Cover
llama-models
llama-models是Meta开发的开放大型语言模型项目,为AI开发者、研究人员和企业提供易用的工具。项目包含Llama 2、Llama 3和Llama 3.1等多个版本,支持不同模型规模和上下文长度。llama-models注重开放性、生态系统支持和安全性,为AI创新与负责任发展奠定基础。
Project Cover
llama
Llama 2是Meta公司开发的开源大语言模型系列,提供7B至70B参数的预训练和微调模型。该项目为研究和商业用途提供模型权重和代码,支持多样化的自然语言处理应用。Llama 2注重负责任的AI发展,实施严格的使用政策。项目包含多个仓库,构建了从基础模型到端到端系统的完整技术栈,为AI领域的创新和应用提供了重要支持。
Project Cover
awesome-korean-llm
本资源列表全面汇总了韩语开源大语言模型(LLM)信息。内容涵盖Polyglot-Ko、KoAlpaca、KULLM等多种韩语LLM模型,提供模型规模、开发者、基础架构等核心数据。同时按基础模型对韩语LLM进行分类,包括基于Polyglot-Ko、Llama、Llama-2等的不同类型。该列表为韩语自然语言处理研究者提供了重要参考。
Project Cover
AutoCompressors
AutoCompressors是一项创新语言模型技术,可将长文本上下文压缩为少量摘要向量并进行推理。该项目提供官方实现,包含预训练模型、安装指南和示例代码。支持Llama-2和OPT等基础模型,有效提升长文本处理能力,为自然语言处理开辟新途径。
Project Cover
BlockMerge_Gradient
BlockMerge_Gradient是一款专为Llama 1/2语言模型设计的融合工具,通过梯度混合两个微调模型的层级来创建模型集成。该工具支持自定义梯度值和最大分片大小,可选择性处理层级或非层级张量。它能处理不同词汇表大小的模型,并自动复制相关分词器文件,提供灵活的模型融合方案。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号