#微调

client-js - Mistral AI API的JavaScript客户端 简化AI开发
Mistral JavaScript ClientAPI聊天嵌入微调Github开源项目
Mistral AI API的JavaScript客户端提供简洁接口,支持模型查询、聊天流式输出和嵌入生成。它还包含文件操作和微调作业管理功能,方便开发者集成Mistral AI技术。该客户端设计灵活,适用于多种AI应用开发场景,有助于简化开发流程。
Llama3-Tutorial - Llama 3模型实践教程 从部署到微调评测
Llama 3微调部署评测大模型Github开源项目
Llama 3教程项目提供了从本地部署到高效部署和能力评测的全面指导。包含六个课程,涵盖XTuner个性化助手训练、LLaVA图像理解、LMDeploy高效部署和OpenCompass模型评估等核心内容。该教程为开发者提供了实践Llama 3大语言模型的完整流程和关键技能培训。
llama-lora-fine-tuning - 单GPU微调LLaMA模型的高效方法
LLaMA微调GPUVicuna语料库Github开源项目
本项目展示了在单个16G GPU上微调vicuna-7b模型的方法。通过采用LoRA、半精度模型和8位加载等技术,有效降低了内存需求。项目详细说明了环境配置、模型准备、语料处理和微调过程,并提供P100和A100的性能数据。这种方法使研究者和开发者能在有限硬件资源下进行大型语言模型的定制化训练。
llm-datasets - LLM微调优质数据集与工具资源库
LLM数据集微调指令跟随对话Github开源项目
LLM Datasets项目汇集了大语言模型微调所需的优质数据集、实用工具和核心概念。涵盖通用、数学逻辑、编程和对话等多个领域,项目详细阐述了高质量数据集的特征。为研究人员和开发者提供多样化的LLM微调数据资源,旨在促进模型性能提升。
bassl - BaSSL算法推动视频场景分割性能提升
BaSSL视频场景分割自监督学习预训练微调Github开源项目
BaSSL是一种针对视频场景分割的自监督学习算法。它利用伪边界和边界感知预训练任务,最大化场景内相似性并最小化场景间差异。通过在预训练阶段学习边界间的上下文转换,BaSSL显著提升了视频场景分割性能。该算法在MovieNet-SSeg数据集上的测试结果表明,它具有优越的分割效果。
mamba-chat - 基于状态空间模型架构的创新聊天AI
Mamba-Chat状态空间模型聊天语言模型微调开源项目Github
Mamba-Chat是一个基于状态空间模型架构的聊天语言模型,区别于传统的Transformer架构。该项目提供模型训练和微调代码,采用修改后的Huggingface Trainer类。Mamba-Chat以Mamba-2.8B为基础,在ultrachat_200k数据集的部分样本上进行了微调。项目支持通过命令行或Gradio应用与模型交互,并提供进一步微调的指南。Mamba-Chat为自然语言处理领域引入了新思路,展示了非Transformer架构在对话系统中的应用潜力。
MoRA - 大型语言模型的高效参数微调方法
MoRA微调参数效率LoRA深度学习Github开源项目
MoRA是一种针对大型语言模型的参数高效微调技术,利用高阶低秩更新实现高效训练。该方法适用于数学推理、预训练等多种任务,并与LoRA等技术兼容。MoRA提供多种更新类型和目标模块配置,满足不同研究需求。项目包含实现指南和示例代码,便于快速应用。
NeuralFlow - Mistral 7B模型中间层输出可视化工具
Neural FlowMistral 7B模型可视化中间层输出微调Github开源项目
NeuralFlow是一个Python工具,用于可视化Mistral 7B语言模型的中间层输出。它生成512x256的热图,展示模型每层的输出。该工具可用于分析模型结构和监控fine-tuning过程中的变化。NeuralFlow将4096维张量数据转化为直观的视觉表现,为AI模型开发提供新的分析方法。
bagel - 综合数据源与多样化技术的大语言模型训练框架
Bagel数据集微调关键词选择DPOGithub开源项目
Bagel是一个综合性大语言模型训练框架,融合多种数据源和先进技术。该项目利用多样化数据集进行监督微调(SFT)和直接偏好优化(DPO),包括指令、对话和纯文本数据。Bagel采用vicuna、llama-2、alpaca和chat-ml等多种提示格式,旨在提升模型泛化能力。通过SFT和DPO两阶段训练,Bagel致力于打造功能完善、性能优异的语言模型。
LoftQ - 大型语言模型低资源量化微调新方法
LoftQ量化大语言模型微调LoRAGithub开源项目
LoftQ是一种为大型语言模型设计的量化微调方法。它通过寻找最佳的量化LoRA初始化,实现有限GPU资源下的高效模型微调。LoftQ支持LLAMA、Falcon、Mistral等主流模型,提供相关工具和示例代码。在WikiText-2和GSM8K等任务上,LoftQ展现出优秀性能,为低资源环境中的LLM应用开发创造了新可能。
fine-tune-mistral - Mistral大语言模型全量微调开源项目
Mistral微调深度学习模型训练Hugging FaceGithub开源项目
fine-tune-mistral是一个专注于Mistral 7B大语言模型全量微调的开源项目。项目提供完整训练代码和使用说明,支持多GPU训练。其中包含多项训练技巧,如学习率调整和数据量建议等。项目还强调通过评估任务来衡量模型性能改进。该工具为研究者提供了一个进行Mistral模型定制化的便捷平台。
GPTeacher - GPT-4生成的多模块AI训练数据集
GPTeacher数据集AI模型指令生成微调Github开源项目
GPTeacher项目提供由GPT-4生成的多模块数据集,包含通用指令、角色扮演、代码生成和工具使用等内容。数据集涵盖思维链推理、逻辑谜题和文字游戏等多样化任务,采用Alpaca格式便于模型微调。最新的角色扮演V2数据集规模更大,内容更丰富,包含模拟对话历史。这些数据集为AI模型训练提供了丰富的资源。
Astria - AI驱动的定制图像生成服务
AI工具AstriaAI绘图图像生成微调Stable Diffusion
Astria提供基于AI的图像生成服务,利用Stable Diffusion等技术实现多样化功能。平台支持AI人像拍摄、移动应用滤镜、宠物和产品图像生成、图像放大以及室内设计等应用场景。开发者可通过API将这些AI图像功能整合到自有应用中,增强视觉体验。
Astria - Stable Diffusion微调服务的AI图像定制平台
AI工具AstriaAI绘图图像生成微调API
Astria提供Stable Diffusion模型的微调服务,支持通过API创建定制AI图像。平台覆盖多种应用场景,包括AI摄影、头像生成、滤镜效果、移动应用、宠物图像、产品展示和室内设计等。此外,Astria还具备图像放大和质量提升功能,可生成高质量的个性化AI图像。
Predibase - 开发者平台实现大语言模型的高效调优与部署
AI工具LLM微调AI模型PredibaseLoRAX
Predibase为开发者提供大语言模型调优和部署服务。该平台支持低成本高效率地微调和部署开源大语言模型,性能可媲美GPT-4。平台采用先进微调技术和高效服务基础设施,支持云端或私有环境部署。Predibase具备企业级安全性,保障用户对模型和知识产权的完全控制。开发者可通过Predibase快速评估、微调和部署特定任务的大语言模型,有效降低AI应用开发和运营成本。
KoGPT2-FineTuning - KoGPT2模型微调工具 韩语歌词和文本生成
KoGPT2微调自然语言处理文本生成机器学习Github开源项目
KoGPT2-FineTuning是一个基于SKT-AI的KoGPT2模型的微调工具,专注于韩语歌词和文本生成。该项目使用精选的歌词、小说和文章数据进行训练,支持不同音乐流派的歌词创作。它提供Colab运行环境,并包含可调参数的生成器功能,方便用户控制输出文本的创意性。此项目为韩语自然语言处理和创意写作领域提供了实用的解决方案。
ChatGLM-Tuning - ChatGLM-6B和LoRA结合的经济型语言模型微调方案
ChatGLM-6BLoRA微调AI模型深度学习Github开源项目
ChatGLM-Tuning项目是一个基于ChatGLM-6B和LoRA技术的语言模型微调解决方案。该项目包含数据预处理、模型训练和推理功能,支持Alpaca数据集。它提供预训练LoRA模型,并计划引入中文数据和RLHF技术。这一方案适用于16GB以上显存的GPU环境,为开发者提供了一种经济高效的大型语言模型定制途径。
academic-budget-bert - 学术预算下的BERT模型高效训练方案
BERT预训练微调深度学习自然语言处理Github开源项目
该项目提供一套脚本,用于在有限计算资源和时间预算下预训练和微调BERT类模型。基于DeepSpeed和Transformers库,项目实现了时间感知学习率调度和混合精度训练等优化技术。此外,还包含数据预处理、检查点保存和验证调度等功能,并提供训练命令生成工具。这些方法使研究人员能在学术预算限制内高效训练大型语言模型。
ALLaVA - GPT4V合成数据集助力轻量级视觉语言模型训练
ALLaVAGPT-4V视觉语言模型数据集微调Github开源项目
ALLaVA项目推出大规模GPT4V合成数据集,旨在促进轻量级视觉语言模型的训练。项目发布了ALLaVA-Phi3-mini-128k、ALLaVA-StableLM2-1_6B和ALLaVA-Phi2-2_7B等多个模型版本,可直接从Hugging Face仓库加载。ALLaVA-4V数据集整合了LAION和Vision FLAN的图像标注与指令数据,以及GPT-4-Turbo生成的文本指令,总样本量超过140万。这一资源为视觉语言模型研究提供了丰富的训练数据和预训练模型,有望推动该领域的进一步发展。
JudgeLM - 大语言模型开放场景高效评估技术
JudgeLM大语言模型模型评估开放式任务微调Github开源项目
JudgeLM是一个用于训练和评估大语言模型评判器的开放平台。通过微调技术,该项目实现了对开放场景中大语言模型的高效评估,评判一致性超过人类水平。JudgeLM提供先进的评判器训练和评估代码,能够处理单一回答、多模态模型、多个回答和多轮对话等任务。此外,该平台还集成了分布式多模型服务系统和Web界面,方便用户使用和部署。
EVE - 无编码器视觉语言模型实现高效性能
EVE视觉语言模型无编码器预训练微调Github开源项目
EVE项目开发了一种无编码器的视觉语言模型架构,通过高效训练策略和精选数据集实现了与现有编码器基础模型相当的性能。该模型支持任意纵横比图像输入,在多项基准测试中表现优异。EVE-7B和EVE-7B-HD两个版本在视觉语言任务中展现了强大能力,为跨模态纯解码器架构提供了高效实用的开发方法。
flacuna - 基于FLAN微调的Vicuna模型问题解决能力增强版
FlacunaVicuna问题解决能力微调语言模型Github开源项目
Flacuna是一个通过在Flan-mini数据集上微调Vicuna模型而开发的AI助手。该项目旨在保持Vicuna的写作能力,同时显著增强其问题解决能力。Flacuna在多项基准测试中表现出色,尤其在少样本和零样本场景下。项目提供快速启动指南、性能评估结果和训练方法,为AI研究和开发提供了宝贵资源。
llm-data-creation - 大型语言模型驱动的自动数据生成框架
大语言模型数据创建微调评估EMNLPGithub开源项目
llm-data-creation是一个基于大型语言模型的数据生成框架。该项目仅需一个格式示例即可创建多种问答任务的合成数据,通过迭代过程生成更多相同格式的数据。这一方法特别适用于缺乏人工标注数据的场景。项目提供完整的数据创建、模型微调和评估流程,在10个公开基准数据集上的评估显示出优秀的跨域性能。
fastHan - 多任务中文NLP工具包
fastHan中文自然语言处理BERT多任务模型微调Github开源项目
fastHan是一个基于BERT的多任务中文NLP工具包,支持分词、词性标注、依存分析和命名实体识别等任务。它能处理现代汉语和古汉语,还可进行中文AMR解析。fastHan采用联合训练模型,在多个数据集上表现优异。该工具使用方便,支持GPU加速,并提供模型微调功能,适用于各种中文NLP应用场景。
MedQA-ChatGLM - 医疗问答模型的微调与应用
医疗大语言模型ChatGLM微调医疗对话LLaMAGithub开源项目
MedQA-ChatGLM是基于ChatGLM-6B的医疗问答模型,采用LoRA、P-Tuning V2和Freeze等方法进行微调。项目支持单卡和多卡分布式训练,并提供多种推理方式。模型使用cMedQA2等医疗数据集训练,旨在提升医疗领域问答能力。项目还整理了多个医疗大语言模型资源,为相关研究提供参考。
chatglm-maths - ChatGLM-6B数学运算能力优化项目
ChatGLM-6B微调LORAPPO数学计算Github开源项目
该项目旨在优化ChatGLM-6B模型的整数和小数四则运算能力。项目采用LORA、PPO等多种训练方法,支持GPU和CPU环境。内容包括自动生成的训练样本、微调数据集、LORA权重,以及环境配置和使用说明。这一工具主要面向开发者和研究人员,用于提升大语言模型的数学计算表现。
ChatGLM-Finetuning - ChatGLM系列模型的多方法微调工具
ChatGLM微调大语言模型深度学习自然语言处理Github开源项目
ChatGLM-Finetuning为ChatGLM系列模型提供多种微调方法,包括Freeze、Lora、P-Tuning和全量参数训练。该项目支持信息抽取、文本生成和分类等任务,可进行单卡或多卡训练。通过DeepSpeed等优化技术,实现高效大模型微调,并有效缓解灾难性遗忘问题。项目支持最新的ChatGLM3模型,并提供详细的使用说明。
hcgf - 开源的大语言模型微调工具
hcgfChatGLM微调LLaMALoraGithub开源项目
hcgf是一个开源的大语言模型微调工具,支持ChatGLM、ChatGLM2、Qwen和LLaMA等多种模型。它提供命令行和Python API接口,适配单卡、多卡和8bit等微调模式,可灵活应用于不同硬件环境。hcgf还支持持续微调和推理演示,为大模型定制化提供了全面解决方案。
awesome-LLM-resourses - 中文大语言模型全面资源汇总 数据处理到评估应有尽有
大语言模型LLM微调推理评估RAGGithub开源项目
该项目汇总了中文大语言模型(LLM)领域的全面资源,包含数据处理、微调、推理和评估等多个环节的开源工具。资源库涵盖最新LLM技术,并收录RAG系统和AI代理等前沿应用。项目为LLM研究者和开发者提供了丰富的工具和信息,有助于推进相关项目的开发与应用。
DISC-FinLLM - 金融领域的多专家智能系统
DISC-FinLLM金融大模型微调数据集金融咨询Github开源项目
DISC-FinLLM是复旦大学开发的金融领域大模型,由金融咨询、文本分析、计算和知识检索问答四个模组构成。该模型基于25万条数据的DISC-Fin-SFT数据集训练,在金融NLP任务、人类试题、资料分析和时事分析等多个评测中表现出色。DISC-FinLLM能为金融领域提供全面支持,适用于多种应用场景。
VisualRWKV - 结合RWKV的创新视觉语言模型
VisualRWKV视觉语言模型RWKV预训练微调Github开源项目
VisualRWKV是一个创新的视觉语言模型,基于RWKV架构设计,可处理多样化的视觉任务。该模型采用两阶段训练策略:首先进行预训练,利用预训练数据集训练视觉编码器到RWKV的投影层;随后进行微调,通过视觉指令数据优化模型性能。项目提供完整的训练指南,涵盖数据准备、模型获取和训练流程,支持多GPU并行和不同规模RWKV模型的训练。
zephyr-sft-bnb-4bit - 通过Unsloth技术快速优化Mistral等模型的内存使用
性能优化开源项目Unsloth模型Huggingface节省内存微调MistralGithub
该项目使用Unsloth技术实现了Mistral、Gemma和Llama等模型的快速微调,显著降低内存使用率。用户可以通过简单的操作获得优化后的模型,支持导出为GGUF、vLLM或上传至Hugging Face。此方法特别适用于内存要求高的模型,并免费提供初学者友好的工具。
SmolLM-1.7B-Instruct - SmolLM-1.7B-Instruct 模型的技术特性与应用场景分析
数据集Github微调模型开源项目语言模型性能优化SmolLMHuggingface
SmolLM-1.7B-Instruct 是一款包含135M、360M和1.7B参数的小型语言模型,通过高质量数据集微调而成。v0.2版本在主题保持和回答提示方面表现优越。支持多种应用方式,包括本地和浏览器演示。但需注意,该模型可能并非完全精准,建议作为辅助工具应用于常识问答、创造性写作和基础编程等场景。
Synatra-RP-Orca-2-7b-v0.1 - 个人资源开发的测试版RP细调成果
Github微调模型训练模型开源项目Alpaca个人项目Synatra-RP-Orca-2-7b-v0.1Huggingface
Synatra-RP-Orca-2-7b-v0.1是一个个人资源开发的测试RP SFT模型,基于microsoft/Orca-2-7b构建。项目通过SFT方法进行细调优化,使用A100 80GB显卡训练,并采用Alpaca和ChatML指令格式。推动自然语言处理领域研究,其开放合作和资助渠道请联系Telegram用户AlzarTakkarsen。
gpt2-small-portuguese - 葡萄牙语NLP高效精调模型的详细解析
GPorTuguese-2葡萄牙语HuggingfaceGithubNLP任务开源项目模型微调语言模型
研究展示了如何在有限资源下使用Hugging Face和fastai v2对英语GPT-2进行精调,构建出葡萄牙语语言模型。该模型基于GPT-2 small,经过一天训练获得37.99%的准确率和23.76的困惑度,显示了其在葡萄牙语文本生成及其他NLP任务中的表现。研究指出,迁移学习可在任何语言的前沿语言模型开发中发挥作用。
all-MiniLM-L12-v2 - 基于自监督学习的高效句子嵌入模型
Huggingface模型句子嵌入Github开源项目句子相似性对比学习sentence-transformers微调
采用自监督对比学习技术,all-MiniLM-L12-v2模型专注于高效编码句子和短段落,利用超过11亿句对进行训练,加强语义搜索和信息检索性能。结合TPU与JAX/Flax技术优化,模型方便集成在sentence-transformers或HuggingFace Transformers中,适合多种文本处理应用。