Project Icon

pyreft

表征微调的开源Python库

pyreft是一个开源的Python库,支持表征微调(ReFT)方法。它可与HuggingFace上的预训练语言模型配合使用,通过配置文件设置参数,并支持将结果分享到HuggingFace。pyreft提供了参数高效的微调方法,可针对特定时间步和表征进行干预,区别于LoRA等其他PEFT方法。该库还支持与LoRA结合,并提供了便捷的数据处理和训练功能。

llama-trl - 使用 PPO 和 LoRA 微调 LLaMA
GithubLLaMA-TRLLoRAPPOReward Model TrainingSupervised Fine-tuning开源项目
本项目LLaMA-TRL通过PPO和LoRA技术进行大规模语言模型的微调,采用TRL(变压器强化学习)和PEFT(参数高效微调)方法。本文详细介绍了从安装依赖到具体实现的步骤,包括监督微调、奖励模型训练和PPO微调,助力开发者显著提升模型性能和任务适应能力。
LLM-Finetuning-Toolkit - 配置化CLI工具,用于LLM微调和实验管理
CLI工具GithubLLM Finetuning ToolkitLLM微调实验开源项目配置文件
该工具通过yaml配置文件进行管理,支持LLM微调的各个方面,包括提示词、模型、优化策略和测试。用户可以通过pipx或pip安装,并按照提供的指南进行使用,涵盖基础到高级的使用场景。实验结果会被自动记录和保存。工具的模块化设计允许进一步扩展和定制。
lora - 使用低秩自适应技术进行快速稳定扩散模型微调
DreamboothGithubHuggingfaceLoRAPivotal TuningStable Diffusion开源项目
该项目使用低秩自适应技术进行快速稳定扩散模型微调,比dreambooth方法快两倍,支持inpainting,并且生成非常小的模型文件(1MB~6MB),便于共享和下载。兼容diffusers库,提供多向量核心调优反演功能,并实现更好的性能。项目集成了Huggingface Spaces,增加了LoRA合并、Resnet应用和转换脚本功能。通过仅微调模型的残差,该方法显著缩小模型大小,同时保持高保真度,适用于需要快速高效微调的用户。
PyFR - 开源Python流体动力学框架 适用多种硬件平台
GithubPyFRPython框架开源软件开源项目数值计算流体动力学
PyFR是基于Python的开源流体动力学框架,主要解决对流-扩散问题。它使用Huynh通量重构方法,支持混合非结构网格上的多种控制系统求解。借助内置领域特定语言,PyFR能针对不同硬件平台优化性能。该项目欢迎社区贡献,并为用户提供全面的文档和测试案例。PyFR适用于需要进行高性能流体动力学模拟的科研和工程领域。
OpenNMT-py - 开源的神经机器翻译与大型语言模型框架
EoleGithubLLM支持Neural Machine TranslationOpenNMT-pyPyTorch开源项目
OpenNMT-py是基于PyTorch的开源神经机器翻译和语言模型框架,适用于研究和生产。支持大语言模型转换、量化以及多GPU并行。提供教程、文档和社区支持,适合翻译、总结等多种NLP任务。最新版本引入了多查询注意力机制和线性去偏等新功能。
retvec - 多语言文本向量化的高效解决方案
GithubRETVecTensorFlow多语言对抗性弹性开源项目文本向量化
RETVec是一种创新的文本向量化工具,为高效处理多语言文本而开发。它具有内置的抗干扰能力,可应对各种字符级修改。该工具支持超过100种语言,无需额外的词汇表。RETVec作为一个轻量级组件,可无缝集成到TensorFlow模型中。它同时提供TensorFlow Lite和JavaScript版本,适用于移动设备和网页应用。RETVec在提升模型稳定性的同时,保证了计算效率,是文本处理任务的理想选择。
pythia-2.8b-v0 - 支持可解释性研究的多尺寸语言模型,适合科学研究应用
EleutherAIGithubHuggingfacePythia可解释性大型语言模型开源项目机器学习模型
Pythia模型套件旨在支持大型语言模型的可解释性研究,提供多种尺寸的模型以及去重和未去重的数据版本。尽管不以提升下游性能为主要目标,但测试显示在某些任务中表现卓越。基于Transformer架构的Pythia-2.8B可进行微调研究,适用于探索语言模型的训练过程和变化情况。项目采用Apache 2.0许可,模型及检查点可通过Hugging Face获取,促进语言模型的训练与科研开发。
ParroT - 利用人工翻译和反馈优化的大语言模型对话翻译框架
GithubParroT人工反馈大语言模型开源项目指令微调翻译
ParroT是一个开源对话翻译框架,融合大语言模型与人工翻译数据,提升翻译质量。该框架将翻译任务转化为指令跟随形式,并通过'提示'字段引入额外要求,实现更精准的翻译控制。项目包含预训练模型、指令数据集和训练脚本,并采用闪存注意力机制和LoRA等优化技术,以提高模型效率。这一创新方法为改进机器翻译和对话系统提供了新思路。
Renate - 自动神经网络再训练的持续学习解决方案
GithubPyTorchRenate开源项目持续学习模型重训练神经网络
Renate是一个用于神经网络模型自动再训练的Python库,采用持续学习和终身学习算法。基于PyTorch和Lightning构建,通过Syne Tune实现超参数优化。该工具专门解决数据分布变化引起的灾难性遗忘问题,提升模型对新数据的适应能力。Renate支持云端部署,适合实际再训练场景,并提供便捷的高级超参数优化功能。
tevatron - 神经检索模型训练与推理工具
GithubHuggingFaceLLM神经检索模型LoRA微调Mistral-7BTevatron开源项目
Tevatron提供高效工具包,支持在GPU和TPU上大规模训练和推理神经检索模型,集成DeepSpeed和LoRA等技术,可加载HuggingFace的预训练模型,适用于神经检索和开放域QA任务。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号