Project Icon

LESS

选择有影响力的数据进行有针对性的指令调整

LESS项目提供了一种数据选择方法,通过选择有影响力的数据来增强特定功能。该项目涵盖了安装要求、数据准备、数据选择和模型训练的详细步骤,并提供相应的脚本和指南。通过预热训练、构建梯度数据存储库、任务数据选择和最终训练四个步骤,提升模型在下游任务中的表现能力。利用Flan v2、COT、Dolly和Open Assistant等训练数据集,以及MMLU、TydiQA和BBH等评估数据集,优化特定任务的模型性能。

LLamaTuner - 大语言模型微调工具,支持几乎所有GPU
GithubLLamaTunerSupervised fine-tuning dataset大语言模型开源项目数据预处理模型训练
LLamaTuner是一款高效、灵活且功能全面的大语言模型微调工具。支持在几乎所有GPU上进行大语言模型的预训练和微调,包括单个8GB GPU上微调7B LLM和超过70B模型的多节点微调。自动调度高性能算子如FlashAttention和Triton内核,兼容DeepSpeed以提升训练吞吐量。支持多种LLM和VLM,以及QLoRA和LoRA等多种训练算法,提供连续预训练、指令微调和代理微调等功能,还能与大型模型进行对话。
LLM-PowerHouse-A-Curated-Guide-for-Large-Language-Models-with-Custom-Training-and-Inferencing - 大型语言模型的定制训练和推理指南
GithubLLM PowerHousePython开源项目机器学习深度学习自然语言处理
LLM-PowerHouse项目为开发人员、研究人员和爱好者提供一站式指南,通过定制化训练和推理优化大型语言模型(LLMs)。包括基础知识、先进技术、模型压缩、优化策略和实例代码,适用于高效智能的自然语言理解应用。
open-instruct - 开源指令微调大语言模型的完整工具集
AI训练Github开源项目模型微调评估基准语言模型
open-instruct是一个致力于指令微调预训练语言模型的开源项目。它提供了基于最新技术和公开数据集的模型微调代码,以及多项基准测试的评估工具。项目发布了包括Tülu系列在内的多个微调模型检查点。open-instruct支持全参数微调、LoRA和QLoRA等高效方法,并提供完整的训练和评估脚本。该工具集为研究人员和开发者提供了探索指令调优大语言模型的全面解决方案。
LLM-RLHF-Tuning - RLHF三阶段训练支持指令微调、奖励模型和多种训练方式
DPOGithubLLaMALLaMA2PPORLHF开源项目
本项目实现了RLHF的三阶段训练,包括指令微调、奖励模型训练和PPO算法训练。支持LLaMA和LLaMA2模型,并提供多种分布式加速训练方法。项目附有详细的实现文档,并对比了其他开源框架的功能,是RLHF训练的宝贵资源。
v3_1_pt_ep1_sft_5_based_on_llama3_1_8b_final_data_20241019 - 探索先进的自然语言处理开源模型及其实际应用
GithubHuggingfacetransformers开源项目模型模型卡环境影响训练细节语言模型
了解先进自然语言处理开源模型的信息,包括用途、评估方法及风险提示。虽然详细信息未完全披露,但以上内容可为开发和应用提供重要参考。
LLMLingua - 提示词压缩技术助力大语言模型效率提升
GithubLLMLingua大语言模型开源项目推理加速提示词压缩长文本处理
LLMLingua系列是一套创新的提示词压缩工具,可将提示词压缩至原长度的5%,同时保持大语言模型性能。通过小型语言模型识别并移除非必要标记,该技术有效解决长文本处理和上下文遗忘等问题,大幅降低API使用成本并提高推理效率。LLMLingua系列包含三个版本,适用于检索增强生成、在线会议和代码处理等多种场景。
awesome-LLM-resourses - 中文大语言模型全面资源汇总 数据处理到评估应有尽有
GithubLLMRAG大语言模型开源项目微调推理评估
该项目汇总了中文大语言模型(LLM)领域的全面资源,包含数据处理、微调、推理和评估等多个环节的开源工具。资源库涵盖最新LLM技术,并收录RAG系统和AI代理等前沿应用。项目为LLM研究者和开发者提供了丰富的工具和信息,有助于推进相关项目的开发与应用。
Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic - 多语种量化优化模型,显著降低内存占用
GithubHuggingfaceLlama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic多语言支持开源项目文本生成模型模型优化量化
通过将权重和激活量化为FP8格式,该项目优化了Llama-3.1-Nemotron模型,显著降低了GPU内存与磁盘的占用。模型适用于商业与研究,支持多语言开发和会话助手的构建。利用vLLM,可以实现高效部署并具有OpenAI兼容性。Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic在诸多测试中表现优良,在Arena-Hard评估中达99.41%的恢复率。
Selective_Context - 高效压缩上下文技术实现大语言模型处理能力倍增
GithubLLMNLP任务Selective Context上下文压缩开源项目效率提升
Selective Context是一种创新上下文压缩技术,能使大语言模型处理内容量提升一倍。该技术利用基础语言模型计算词句自信息,评估信息量,实现长文档和长对话的高效处理。项目提供完整代码实现、数据集和多项实验评估,已获EMNLP 2023会议认可。此上下文压缩技术适用于需要处理大量文本数据的场景,如智能客服、文档分析等。用户可通过pip安装,便捷集成到现有大语言模型项目中,显著提升处理效率。
LLaVA - 提升大型语言与视觉模型的视觉指令调优
GPT-4GithubLLaVA多模态交互大型语言与视觉模型开源项目视觉指令调优
LLaVA项目通过视觉指令调优提升大型语言与视觉模型的性能,达到了GPT-4级别。最新更新包括增强版LLaVA-NeXT模型及其在视频任务上的迁移能力,以及高效的LMMs-Eval评估管道。这些更新提升了模型的多任务和像素处理能力,支持LLama-3和Qwen等不同规模的模型,并提供丰富的示例代码、模型库和数据集,方便用户快速上手和深度研究。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号