Project Icon

OpenDelta

高效参数调整的开源工具包

OpenDelta是一个高效的开源调优工具包,通过添加少量参数进行调整,可实现如前缀调优、适配器调优、Lora调优等多种方法。最新版本支持Python 3.8.13、PyTorch 1.12.1和transformers 4.22.2。

peft - 大模型高效微调的先进方法
AccelerateDiffusersGithubLoRAPEFTTransformers开源项目
参数高效微调(PEFT)通过只调整少量额外参数来适配大规模预训练模型,大幅降低计算和存储成本,同时性能接近完全微调模型。PEFT与Transformers、Diffusers和Accelerate集成,支持多种下游任务的训练和推理。了解更多方法和优势,请访问官方文档和教程。
optuna - 自动化机器学习超参数优化框架
GithubOptunaPython开源框架开源项目机器学习超参数优化
Optuna是一个面向机器学习的开源超参数优化框架。它采用define-by-run风格API,特点是轻量级、通用性强和平台无关。Optuna支持Python式搜索空间定义、高效优化算法、易于并行化和快速可视化。框架可处理多目标优化、约束优化和分布式优化等任务,适用于Python 3.7+版本,并集成多个第三方库。
EasyDeL - 多模型训练优化框架
EasyDeLFlaxGithubJAX开源项目机器学习模型训练
EasyDeL是一个开源框架,用于通过Jax/Flax优化机器学习模型的训练,特别适合在TPU/GPU上进行大规模部署。它支持多种模型架构和量化方法,包括Transformers、Mamba等,并提供高级训练器和API引擎。EasyDeL的架构完全可定制和透明,允许用户修改每个组件,并促进实验和社区驱动的开发。不论是前沿研究还是生产系统构建,EasyDeL都提供灵活强大的工具以满足不同需求。最新更新包括性能优化、KV缓存改进和新模型支持。
optimum - 提升模型在不同硬件上的训练和运行效率的一系列优化工具
GithubHugging Face OptimumONNX RuntimeOpenVINOTransformer开源项目训练模型
Optimum扩展了Transformers和Diffusers,提供了一系列优化工具,提升模型在不同硬件上的训练和运行效率。支持的硬件平台包括ONNX Runtime、Intel Neural Compressor、OpenVINO、NVIDIA TensorRT-LLM、AMD Instinct GPUs、AWS Trainium & Inferentia、Habana Gaudi处理器和FuriosaAI。Optimum支持多种优化技术,如图优化、动态量化、静态量化和量化感知训练,配有详尽的文档和示例代码,帮助用户导出和运行优化后的模型。
DoRA - 大型语言模型微调的权重分解低秩适应方法
DoRAGithub低秩适应大语言模型开源项目微调权重分解
DoRA是一种新型大型语言模型微调方法,通过将预训练权重分解为幅度和方向两个部分进行更新。与LoRA相比,DoRA在保持参数效率的同时提升了模型的学习能力和训练稳定性。研究表明,DoRA在常识推理、视觉指令调优和图像/视频-文本理解等多项下游任务中表现优于LoRA。该技术已集成到Hugging Face PEFT和Diffusers库中,可用于多种模型的微调。
opt-1.3b - Meta AI开发的开源预训练Transformer语言模型系列
GithubHuggingfaceOPT人工智能开源项目模型自然语言处理语言模型预训练模型
OPT是Meta AI开发的开源预训练Transformer语言模型系列,包含125M至175B参数的多个版本。采用先进数据收集和训练方法,性能可媲美GPT-3。该项目旨在推动大规模语言模型的可复现研究,让更多研究者参与探讨其影响。OPT主要应用于文本生成和下游任务微调,但仍存在偏见等局限性。
tiny-OPTForCausalLM-lora - PEFT框架的深度学习模型微调实现
GithubHuggingfacePEFT开源项目框架版本模型模型微调深度学习训练过程
基于PEFT 0.4.0.dev0版本开发的深度学习模型微调项目,通过参数高效微调方法,在有限计算资源条件下完成模型训练。主要应用于大型预训练模型的轻量级适配和迁移学习场景。
opt-2.7b - Meta AI开发的开放预训练Transformer语言模型
GithubHuggingfaceOPT人工智能开源项目文本生成模型自然语言处理预训练语言模型
OPT是Meta AI开发的开放预训练Transformer语言模型系列,参数规模125M至175B。采用先进数据收集和训练方法,性能与GPT-3相当。旨在促进大规模语言模型的可重复研究,扩大研究群体。主要基于英语语料预训练,使用因果语言建模,适用于文本生成和下游任务微调。OPT开放了完整模型访问权限,有助于研究大语言模型的工作原理、影响及相关挑战。
llm-finetuning - Modal和axolotl驱动的大语言模型高效微调框架
DeepSpeedGithubLLM微调LoRAModalaxolotl开源项目
这个开源项目整合了Modal和axolotl,为大语言模型微调提供了一个高效框架。它采用Deepspeed ZeRO、LoRA适配器和Flash Attention等先进技术,实现了高性能的模型训练。该框架支持云端部署,简化了资源管理流程,并可灵活适配不同模型和数据集。项目还提供了全面的配置说明和使用指南,方便开发者快速上手和定制化应用。
OpenPipe - 开源模型微调和托管平台,兼容多种LLM
GPT-3.5GithubMistralOpenPipe开源项目模型微调模型托管
OpenPipe是一个开源平台,专注于通过昂贵的大型语言模型(LLM)对小型模型进行微调,满足特定需求。平台支持OpenAI和微调模型间的无缝切换,提供强大的日志查询和模型评估功能,用户可轻松导入数据集并优化模型性能。支持Python和TypeScript SDK,兼容OpenAI聊天完成端点,提供GPT 3.5、Mistral、Llama 2等多种模型的微调和托管服务。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号