Project Icon

Qwen2.5-1.5B-Instruct-bnb-4bit

Unsloth功能提升模型微调效率,优化内存占用

Qwen2.5系列包括多种尺寸和优化功能,提升编程与数学能力,支持29种语言,并具备长上下文处理能力。利用Google Colab上的免费notebook,可实现模型微调的速度提升和内存使用优化。Qwen2.5-1.5B-Instruct强化了指令响应、长文本生成、多语言处理及结构化数据处理能力。

llm-toys - 微调小型语言模型实现多任务处理
Githubllm-toys任务微调低资源模型对话摘要开源项目语气变化
llm-toys 项目提供适用于释义、语气转换、对话总结和主题生成等任务的小型量化3B和7B语言模型。这些经过微调的模型能在普通消费级硬件上高效运行,并通过简单的安装步骤提升文本处理和生成能力。
ChatGLM-Efficient-Tuning - 微调ChatGLM-6B模型,支持多种训练和量化方法
ChatGLMGithubRLHF开源项目数据集机器学习高效微调
ChatGLM-Efficient-Tuning项目提供高效微调ChatGLM-6B模型的工具和方法,支持LoRA、P-Tuning V2等多种微调方式,适用于单GPU和多GPU训练。项目还提供Web UI和CLI操作,支持4-bit和8-bit量化训练。通过丰富的数据集和功能,如强化学习和模型评估,满足不同场景的微调需求。详情请参见项目Wiki。
Step-DPO - 优化大语言模型长链推理的高效方案
GithubStep-DPO大语言模型开源项目数学问题模型微调长链推理
Step-DPO是一种旨在提升大语言模型长链推理能力的新方法。该方法通过数据构建流程生成了1万对高质量步骤偏好对数据集,在仅使用少量数据的情况下显著提升了模型性能。研究表明,Step-DPO能将Qwen2-7B-Instruct在MATH和GSM8K测试集上的得分分别提高5.6%和2.4%。应用Step-DPO后的Qwen2-72B-Instruct更是在这两个测试集上分别达到70.8%和94.0%的得分,超越了多个闭源模型。
low-bit-optimizers - 4位优化器技术减少内存占用 提升大规模模型训练能力
4位优化器AdamWGithub内存效率开源项目神经网络训练量化
Low-bit Optimizers项目实现了一种4位优化器技术,可将优化器状态从32位压缩至4位,有效降低神经网络训练的内存使用。通过分析一阶和二阶动量,该项目提出了改进的量化方法,克服了现有技术的限制。在多项基准测试中,4位优化器实现了与全精度版本相当的准确率,同时提高了内存效率,为大规模模型训练开辟了新途径。
Whisper-Finetune - 语音识别模型的高效微调与加速
GithubWhisper中文识别加速推理开源项目模型微调语音识别
Whisper-Finetune项目致力于优化OpenAI的Whisper语音识别模型。该项目采用Lora技术进行微调,支持多种数据类型的训练,并通过CTranslate2和GGML实现加速推理。此外,项目提供了跨平台应用和服务器部署方案,为语音识别应用开发提供了全面支持。
LLM-Finetuning - 大型语言模型高效微调指南
GithubHugging FaceLoRAPEFT大型语言模型开源项目微调
了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。
Yi-1.5 - Yi模型的升级版,通过500B高质量语料预训练和300万样本微调而来
GithubYi-1.5人工智能大语言模型开源开源项目自然语言处理
Yi-1.5是Yi模型的升级版,通过500B高质量语料预训练和300万样本微调而来。它在编码、数学、推理和指令跟随方面有显著提升,同时保持了优秀的语言理解和阅读能力。该系列提供34B、9B和6B三种规模,支持多种部署方式和fine-tuning。Yi-1.5以Apache 2.0许可开源,为AI领域提供了强大灵活的大语言模型选择。
llama-lora-fine-tuning - 单GPU微调LLaMA模型的高效方法
GPUGithubLLaMAVicuna开源项目微调语料库
本项目展示了在单个16G GPU上微调vicuna-7b模型的方法。通过采用LoRA、半精度模型和8位加载等技术,有效降低了内存需求。项目详细说明了环境配置、模型准备、语料处理和微调过程,并提供P100和A100的性能数据。这种方法使研究者和开发者能在有限硬件资源下进行大型语言模型的定制化训练。
LoftQ - 大型语言模型低资源量化微调新方法
GithubLoRALoftQ大语言模型开源项目微调量化
LoftQ是一种为大型语言模型设计的量化微调方法。它通过寻找最佳的量化LoRA初始化,实现有限GPU资源下的高效模型微调。LoftQ支持LLAMA、Falcon、Mistral等主流模型,提供相关工具和示例代码。在WikiText-2和GSM8K等任务上,LoftQ展现出优秀性能,为低资源环境中的LLM应用开发创造了新可能。
KVQuant - 提升长上下文推理效率的KV缓存量化方法
GithubKVQuantLLaMA-7B低精度量化大模型开源项目长上下文长度推断
KVQuant通过精确的低精度量化技术显著提升长上下文长度推理的效率。其创新包括每通道的RoPE前关键量化和非均匀量化,以应对不同LLM中缓存的KV值模式。KVQuant支持在单个A100-80GB GPU上进行LLaMA-7B模型的1M上下文长度推理,甚至在8-GPU系统上支持长达10M上下文长度,从而减少推理过程中KV缓存的内存瓶颈,并通过并行topK支持和注意力感知量化等多项改进提升推理性能。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号