#训练
ssd.pytorch - PyTorch实现的高效SSD目标检测器,兼容多数据集与实时可视化
SSDPyTorch训练数据集评估Github开源项目
该项目实现了基于PyTorch的SSD目标检测器,支持VOC和COCO数据集,并可使用Visdom进行训练过程中的实时损失可视化。页面包含详细的安装、训练和评估指南,并提供预训练模型的使用说明。项目展示了高效性能,并包含未来功能更新计划,帮助开发者快速上手并扩展应用。
learning-to-learn - TensorFlow和Sonnet在深度学习中的训练和评估优化指南
TensorFlowSonnet训练评估优化器Github开源项目
了解如何使用TensorFlow和Sonnet在MNIST和CIFAR10等数据集上进行模型训练和评估。本文详细说明了命令行参数,涵盖了训练和评估的步骤,并介绍了从简单二次函数到复杂卷积神经网络的不同问题解决方案。掌握这些方法,可以实现自定义优化器并提高模型性能。
trainable-agents - 可训练的角色扮演AI,实现动态个性化互动
Character-LLM角色扮演数据集训练LLMGithub开源项目
Character-LLMs是一款专为角色扮演设计的可训练智能体,利用经验重建技术生成丰富的角色体验数据,无需额外提示即可模拟特定角色,如贝多芬或埃及艳后。项目提供九个角色的模型和数据集,支持角色个性化构建与互动。详情请见论文和代码仓库。
NISQA - 多维度语音质量评估和自然度预测深度学习工具
NISQA语音质量预测训练自然语言合成语音样本Github开源项目
NISQA是一个先进的深度学习工具,专注于多维度语音质量评估,包括噪声、色彩度、断续和响度等特质。最新版本NISQA v2.0增强了预测精度,并支持模型训练与微调。NISQA-TTS专为评估文本到语音系统生成语音的自然度而设计。项目库含14,000多个语音样本,适用于广泛的训练和评估任务。
voicefixer_main - 语音修复框架,支持严重退化和历史语音的恢复
VoiceFixer语音恢复训练评估神经声码器Github开源项目
VoiceFixer 为一款专业语音修复框架,致力于修复严重退化或历史性语音。集成多种先进算法,适用于去噪音、消除回声、提升语音清晰度等多种场景,提供灵活的配置和广泛的测试支持。
Neural-Voice-Cloning-With-Few-Samples - 少样本语音克隆的先进技术
声音克隆多说话者生成模型NVIDIA V100VCTK数据集训练Github开源项目
Neural-Voice-Cloning-With-Few-Samples项目致力于开发能够实现少样本语音克隆的先进技术。项目通过建立说话者嵌入空间,有效捕捉说话者的独特语音特性,如音调、口音等,类似于语音指纹。该项目已在84名讲话者上进行训练,使用了NVIDIA V100 GPU完成了大量周期的训练。欲了解更多,可参考Baidu发表的论文《Neural Voice Cloning with Few Samples》。
tensorflow-deep-learning - TensorFlow深度学习教程
TensorFlow深度学习神经网络训练课程Github开源项目
本项目通过展示如何使用TensorFlow和Keras解决多种问题,教授深度学习的基本技能及其应用。课程内容包括关键视频教程、实践练习和项目实战,确保学习者能通过动手操作全面理解深度学习。适合任何级别的学者,帮助你提升个人和职业技能。
ignite - PyTorch工具库,专为简化神经网络训练与评估设计
PyTorch-Ignite神经网络训练评估事件和处理器Github开源项目
Ignite是一个为PyTorch设计的库,帮助用户以灵活和透明的方式训练及评估神经网络。这个库通过简化代码,提供了控制简单且强大的API,支持度量和实验管理等功能。其简单的引擎和事件系统,以及开箱即用的度量工具,使得模型评估变得轻松。它还包含用于训练管理、保存工作成果和记录关键参数的内置处理器。此外,Ignite还支持自定义事件,满足高级用户需求。
Tacotron-pytorch - 端到端文本至语音合成技术的高效实现
Tacotron-pytorch文本转语音pytorchLJSpeech训练Github开源项目
Tacotron-pytorch是基于Pytorch框架开发的端到端文本至语音合成模型。该项目支持通过清晰的指南轻松部署和训练,使用LJSpeech数据集,并附带完整的预处理代码和网络训练文件。用户可以根据需要自定义超参数,非常适合进行科研和技术开发。项目提供了将成熟度逐渐提升的语音示例,欢迎进行下载和反馈。
PaddleNLP - 支持大语言模型开发与部署的开源套件
PaddleNLP大模型训练推理飞桨Github开源项目
PaddleNLP是基于飞桨框架开发的大语言模型套件,提供全面的训练、精调、压缩和部署功能。支持多硬件环境,包括4D并行配置和高效精调策略,适应多种硬件平台,有效降低开发门槛。兼容LLaMA、Bloom等多种主流模型,为大模型开发提供高效解决方案。
splade - 优化查询和文档检索的SPLADE稀疏模型
SPLADE信息检索训练BEIR基准模型Github开源项目
SPLADE项目使用BERT的MLM头和稀疏正则化来学习查询和文档的稀疏扩展,优化了检索性能。项目包含训练、索引和检索的代码,并支持在BEIR基准测试中评估。最新版本通过硬负样本采样、蒸馏和改进的预训练语言模型初始化,显著提升了检索效果。此外,SPLADE的稀疏表示优化了倒排索引的使用,提供了显式词汇匹配和可解释性等优点。经过优化的训练和正则化,SPLADE在域内外测试中表现优异,延迟性能与BM25相当。
bigscience - 大规模语言模型研究与进展更新
bigscienceMegatron-DeepSpeedlarge language modelsGPT2训练Github开源项目
BigScience项目专注于大规模语言模型的研究与训练,包含丰富的实验、数据集信息和训练进展。用户可以访问详细文档和实时日志,了解当前模型表现及关键发现。项目涵盖从基础GPT-2模型到不同规模与架构的大型模型,并提供详尽的操作流程及讨论记录。
cloud - 帮助开发者从本地开发和调试轻松过渡到在Google云平台上进行分布式训练和调优的API
TensorFlow CloudGoogle Cloud PlatformKeras训练分布式Github开源项目
TensorFlow Cloud提供API,帮助开发者从本地开发和调试轻松过渡到在Google云平台上进行分布式训练和调优。支持多种分布式策略和集群配置,实现模型的高效扩展和部署。
relora - 使用ReLoRA实现高效深度学习模型训练
ReLoRAPyTorchPEFTflash attention训练Github开源项目
ReLoRA项目通过低秩更新实现高效深度学习训练,兼容Python 3.10+和PyTorch 2.0+,支持更大的微批次大小。用户可通过执行预处理和不同配置的训练脚本,达到高效分布式训练,并支持cosine重启调度和多GPU配置。项目涵盖了预热训练和ReLoRA重启,适用于各种规模的模型训练。
keytotext - 根据关键词生成句子的开源模型,助力SEO和营销
keytotextT5模型文本生成API训练Github开源项目
Keytotext是一款基于T5模型的开源工具,能够将关键词转换为完整句子,适用于营销和搜索引擎优化。通过Colab笔记本、Streamlit App或快速API/Docker镜像进行使用,并支持自定义模型的训练和微调。文档和示例丰富,便于上手使用。
ao - 优化PyTorch工作流,实现高性能和内存占用减少
torchaoPyTorch模型量化推理训练Github开源项目
torchao是一个用于PyTorch工作流的高性能库,能够创建并集成自定义数据类型和优化技术,实现推理速度提升至2倍,显存减少65%。无需大幅修改代码,保持准确度。支持量化、稀疏化及浮点数优化,适用于HuggingFace等模型。用户可以轻松优化模型,提高计算效率。支持int8、int4和float8等多种数据类型,兼容torch.compile()和FSDP。
gill - 使用多模态语言模型的图像生成方法
GILL多模态语言模型图像生成训练CC3MGithub开源项目
GILL模型可处理交互的图像和文本输入以生成文本、检索图像及生成新图像。本文详细介绍了GILL模型的代码、预训练权重、环境设置、预训检查点和视觉嵌入的安装步骤。此外,还包括推理、训练及评估的指南,及启动Gradio演示的操作步骤。更多详情请参阅相关研究论文及项目页面。
keras_cv_attention_models - 深度学习模型和使用指南
Keras_cv_attention_modelsTensorFlowPyTorch模型训练Github开源项目
该项目提供全面的深度学习模型和使用指南,支持Keras和PyTorch后端。涵盖基础操作、模型训练、推理优化等功能,并详细介绍识别、检测、分割和语言模型的使用。还支持ONNX导出和推理性能评估。
HALOs - 设计人类意识损失函数以改进大型语言模型的人类反馈对齐
Human-Aware Loss FunctionsLLMKTOArchangel训练Github开源项目
该项目提供灵活的平台,用于设计和优化人类意识的损失函数,旨在大规模地与离线人类反馈对齐大型语言模型。通过模块化数据加载和训练架构,支持包括KTO、PPO等多种损失策略,并提供基于GPT-4的开放式评估功能。建议阅读项目的技术报告和完整论文以获取更多信息。
AlphaZero_Gomoku - AlphaZero算法在五子棋游戏中的应用
AlphaZeroGomokuAI模型训练自我对弈Github开源项目
AlphaZero-Gomoku项目通过自我对弈训练,实现了五子棋(Gomoku)的AI开发。该项目专注于展示AlphaZero算法在相对简单的棋类游戏中的表现,可在数小时内使用单台PC训练出高水平AI模型。支持TensorFlow和PyTorch进行训练,提供实例游戏和操作指南,适合学习AI自我对弈算法和深度学习框架的开发者。
chatglm_finetuning - ChatGLM模型微调教程
deep_trainingchatglm-6b训练推理微调Github开源项目
本项目提供详细的ChatGLM系列模型微调教程,支持全参数训练、Lora、AdaLora、IA3及P-Tuning-V2等方法。涵盖最新更新,如支持accelerator和colossalai训练,解除chatglm-6b-int4全参训练限制等。项目包含数据处理、推理脚本及多种训练参数设置,适合深度学习研究与应用。
yolov3-tf2 - YOLOv3的TensorFlow实现,目标检测解决方案
YoloV3TensorFlow 2.0检测训练预训练权重Github开源项目
该项目采用TensorFlow 2.0实现YOLOv3,提供预训练权重、推理示例和迁移学习功能,支持GPU加速、eager模式和图模式训练,并集成absl-py。用户可以方便地安装、训练和进行实时视频检测,同时支持TF模型导出和Serving。
pytorch-3dunet - 支持语义分割和回归问题的3D U-Net模型实现
pytorch-3dunet3D U-Net安装训练预测Github开源项目
pytorch-3dunet实现了多种3D U-Net模型及其变体,包括标准3D U-Net、残差3D U-Net和带压缩激励块的残差3D U-Net。该项目支持二元和多分类语义分割以及去噪、学习反卷积等回归问题。项目还支持2D U-Net,提供多种配置示例帮助用户训练和预测。此外,该项目可在Windows和OS X系统上运行,并支持多种损失函数和评估指标,如Dice系数、平均交并比、均方误差等。这一描述更加简洁、流畅,同时保持了准确性。
Retrieval-based-Voice-Conversion-WebUI - 开源AI变声框架 实现实时变声和快速模型训练
变声语音转换WebUI训练人工智能Github开源项目
Retrieval-based-Voice-Conversion-WebUI是一个基于VITS的开源变声框架。该项目支持实时变声和快速模型训练,只需少量数据即可生成高质量变声模型。框架提供多语言界面和跨平台支持,并配有详细教程。项目采用检索式方法替换输入源特征,有效防止音色泄漏。支持在中低配置GPU上快速训练,并可通过模型融合调整音色。WebUI界面简洁直观,内置UVR5模型便于人声分离。采用InterSpeech2023-RMVPE算法提取音高,性能出色且资源占用低。该框架支持多种硬件加速,适用于不同用户需求,是一个功能丰富且操作简便的AI变声工具。
SecGPT - 专注网络安全的AI模型 助力智能化防御
SecGPT网络安全大模型人工智能训练Github开源项目
SecGPT是一个面向网络安全领域的大型语言模型。它可用于漏洞分析、溯源分析、流量分析和攻击研判等多种安全任务。该模型采用自主开发的训练代码以节省显存,并结合高质量的网络安全数据集和DPO强化学习技术,提高了输出质量。SecGPT为网络安全工作提供智能辅助,有助于增强防御能力。
axolotl - 多功能AI模型微调工具
AxolotlAI模型微调训练配置Github开源项目
Axolotl是一个功能丰富的AI模型微调工具,支持llama、pythia、falcon等多种Huggingface模型。它提供全微调、LoRA、QLoRA等训练方法,支持自定义配置和多种数据集格式。Axolotl集成了xformer、flash attention等技术,可在单GPU或多GPU环境运行,支持Docker部署,并可将结果记录到wandb或mlflow。该工具为AI模型训练提供了灵活高效的解决方案。
awesome-chatgpt-dataset - 综合性AI对话数据集资源助力自定义语言模型训练
ChatGPT数据集语言模型训练指令调优Github开源项目
awesome-chatgpt-dataset项目汇集了多样化的人工智能对话数据集资源。该项目囊括了不同规模、语言和领域的高质量指令数据,范围从数千到数百万条不等,涵盖多语言、代码生成、视觉对话等多个方面。这些数据集为研究人员和开发者提供了训练和优化大型语言模型的重要素材,有助于推动更智能、更多元化的AI对话系统的发展。
tree-diffusion - 基于扩散模型的语法树生成框架
Tree Diffusion模型权重Python依赖评估训练Github开源项目
Tree Diffusion 是一个开源的深度学习框架,专注于高效生成语法树。该框架结合了扩散模型和变异策略,能在复杂语法约束下快速生成有效的树结构。项目提供完整代码库、预训练模型和使用指南,支持多种编程语言和自定义语法。Tree Diffusion 在程序合成、代码生成和自然语言处理等领域具有广泛应用前景,为研究人员和开发者提供了强大的工具。
TinyLlama-1.1B-step-50K-105b - 紧凑型1.1B参数模型的高效预训练项目
Huggingface训练TinyLlama模型GPU开源项目Github令牌
TinyLlama是一个旨在高效预训练1.1B参数模型的项目,使用3万亿个token,计划在90天内完成。其架构和tokenizer与Llama 2相同,适用于多种需要低计算和内存需求的应用。该项目的中期里程碑在50K步和105B tokens,成果显著。利用16块A100-40G GPU进行优化训练,提升效率并节省资源。TinyLlama与多个开源项目兼容,便于通过transformers库进行集成。更多详情可查阅TinyLlama的GitHub页面。
monot5-base-msmarco - MS MARCO数据集优化的T5-base重排模型
文档Huggingface训练开源项目模型T5-baseGithubMS MARCO重排序
这个T5-base模型经过在MS MARCO段落数据集上的10万步微调,以提高排序性能。虽然主要适用于MS MARCO数据集,但在其他数据集上进行无监督推理时,建议使用castorini/monot5-base-msmarco-10k版本。可以通过提供的链接查看使用示例,包括简单的重排序示例,以及在MS MARCO和Robust04上的应用。该预训练序列到序列模型在文档排名中的应用已在相关论文中详细描述。
F5-TTS - 提高训练和推理速度的先进文本到语音转换系统
F5-TTSE2 TTS训练推理数据集Github开源项目
项目F5-TTS利用Diffusion Transformer和ConvNeXt V2技术,显著提升了训练和推理速度。支持生成最长30秒的音频,并通过Sway Sampling技术优化推理性能。用户可以自定义数据集,并使用多GPU和fp16配置加速训练。提供单次推理、语音编辑和批量推理功能,并支持通过Gradio App进行操作。多种测试数据集和评估工具确保模型表现稳定高效。
lm-ner-linkedin-skills-recognition - LinkedIn技能识别的深度学习模型
训练评价lm-ner-linkedin-skills-recognition模型Github开源项目精度Huggingface
该模型通过对distilbert-base-uncased进行LinkedIn领域的微调,展示出高效的技能识别性能。在评估集上,它达到了高精度(0.9119)、召回率(0.9312)和F1值(0.9214),准确率更是高达0.9912,适用于需要高可靠性技能识别的场景。
Mistral-Nemo-12B-ArliAI-RPMax-v1.1-GGUF - 基于Mistral Nemo 12B的创新多样性写作模型
ArliAI-RPMax-12B-v1.1训练创造力模型Github开源项目数据集Huggingface
Mistral-Nemo-12B-ArliAI-RPMax-v1.1是基于Mistral Nemo 12B模型的开源项目,专为增强创意及非重复性而设计。该模型在仅两天内完成训练,通过减少重复性措施,对多样化情境与角色具备更强适应性,支持多种量化格式,满足不同应用需求。
Wav2Vec2-Large-XLSR-53-catalan - 加泰罗尼亚语自动语音识别模型性能表现
Common VoiceWav2Vec2训练语音识别模型Github开源项目CatalanHuggingface
项目在Common Voice数据集上微调了Facebook的Wav2Vec2-Large-XLSR-53模型,专注于加泰罗尼亚语的自动语音识别,达到8.11%的WER。支持直接使用无需语言模型的音频处理,并提供使用和评估的详细方法和代码示例。模型训练中处理内存问题的策略也有介绍。用户可考虑更新版本以获取更好的性能。
swin - 使用Habana Gaudi实现高效Transformer部署与训练
Optimum HabanaSwin TransformerHuggingface训练开源项目模型混合精度GithubHabana
Optimum Habana是Hugging Face Transformers和Diffusers库与Habana Gaudi处理器之间的接口,提供针对单一和多HPU的高效模型加载、训练和推理工具。该项目包含Swin Transformer模型的GaudiConfig,支持Habana定制的AdamW优化器、梯度剪裁和Torch Autocast混合精度。采用bf16混合精度训练以提升性能,并提供图像分类示例脚本供开发者参考。
KoAlpaca-Polyglot-5.8B - 韩文文本生成模型的优化与安全增强
训练数据集Github模型开源项目KoAlpacaHuggingface语言生成
该项目基于EleutherAI的polyglot-ko-5.8b模型,并在KoAlpaca数据集v1.1b上进行了优化,提升了韩文文本生成的准确性和效率。新增的最大分片1GB的Safetensor模型权重,显著增强了模型的稳定性。通过应用Adam优化器和特定训练参数,该模型在短期内达到了预期效果。详细信息和代码可在KoAlpaca的Github仓库中获取。
相关文章