Logo

#预训练模型

Logo of CycleGAN
CycleGAN
CycleGAN 利用循环一致性对抗网络,实现了无需成对输入输出数据的图像到图像的转换。这一技术广泛应用于风格转换、季节变换及更多复杂场景,支持PyTorch实现,并提供丰富的预训练模型。无论是艺术画作到现实照片的转换,还是不同季节间的景观变化,CycleGAN 都能提供令人印象深刻的视觉效果。
Logo of mindnlp
mindnlp
MindNLP是一个基于MindSpore的开源自然语言处理库,支持语言模型、机器翻译、问答系统、情感分析、序列标注和摘要生成等多种任务。该项目集成了BERT、Roberta、GPT2和T5等多种预训练模型,通过类似Huggingface的API简化了使用流程。用户可通过pypi或源代码安装该库,并支持包括Llama、GLM和RWKV在内的大型语言模型的预训练、微调和推理,非常适合研究者和开发人员构建和训练模型。
Logo of wavegrad
wavegrad
WaveGrad是由Google Brain团队设计的神经声码器,专业于将对数缩放的Mel频谱图转换为波形。此项目提供稳定训练、合成、混合精度训练以及多GPU支持,且支持命令行和API推理接口,配备预训练模型。易于安装,支持通过pip和GitHub进行安装。其多GPU训练和混合精度训练提升了处理效率,适合需进行高效音频处理的开发者。
Logo of StyleSpeech
StyleSpeech
Meta-StyleSpeech项目结合最新的多说话者适应性文本到语音合成技术,通过样本少量的语音输入即可生成高质量合成语音。该项目运用风格自适应层归一化技术,高效适配不同说话者的声音特征。提供预训练模型和在线演示供实际应用测试。
Logo of FCH-TTS
FCH-TTS
FCH-TTS采用先进的并行语音合成技术,快速生成高质量语音。支持多语种及多种声音风格,满足多样化应用需求。项目持续迭代,引入诸如SoftDTW损失函数等新功能和优化,同时集成顶尖的声码器技术。FCH-TTS不仅提供预训练模型和丰富的合成示例,还允许用户自定义训练和合成,适用于教育、娱乐及商业多个领域。
Logo of CDial-GPT
CDial-GPT
CDial-GPT 借助丰富的中文对话数据集和创新的机器学习技术为语言模型预训练提供解决方案。平台提供多样化的预训练模型,便于微调和实际应用,同时支持通过 HuggingFace 访问,适用于多场景如客服自动化和聊天机器人,推进中文自然语言处理的发展。
Logo of ktrain
ktrain
ktrain 是一个基于 TensorFlow Keras 的轻量级深度学习库封装,帮助用户快速构建、训练和部署各种机器学习模型。适用于文本、视觉、图表和表格数据,支持文本分类、图像识别、节点分类和因果推断等任务。无论是初学者还是有经验的研究人员,都能借助其简单的 API 和多种学习率策略,快速实现高效模型部署,支持导出到 ONNX 和 TensorFlow Lite。
Logo of mt-dnn
mt-dnn
该项目实现了基于PyTorch的多任务深度神经网络(MT-DNN),主要用于自然语言理解。最新版本添加了语言模型预训练和微调的对抗性训练功能。用户可以使用pip安装或通过Docker快速启动,项目提供详细的训练和微调步骤,支持序列标注和问答任务。此外,项目包含模型嵌入提取和训练加速功能。目前由于政策变化,公共存储解决方案暂不提供。
Logo of nucleotide-transformer
nucleotide-transformer
nucleotide-transformer项目提供了九种预训练基因组语言模型和两种SegmentNT分割模型。基于Transformer的基因组模型综合了3,200个人类基因组和850个不同物种的基因组数据,能够高精度预测分子表型。Agro NT模型专用于农作物基因组,在基因调控和表达预测上表现优异。这些模型可以实现对DNA序列基因组元素的单核苷酸分辨率分割。
Logo of CRM
CRM
CRM是一种前馈模型,能够在短时间内生成高质量的3D纹理网格。它适用于Python 3.9版本,并依赖多个软件包和库的安装。用户可以通过可视化工具Gradio或命令行进行推理操作。项目目前提供预训练模型和推理代码,未来还计划优化推理代码以适应低内存GPU需求。相较于在线Demo的顶点颜色方法,官方实现使用了UV纹理,生成的纹理质量更高但也需要稍长的时间。
Logo of coqui-ai-TTS
coqui-ai-TTS
coqui-ai-TTS是一个先进的开源文本转语音库,支持超过1100种语言。该库提供多种深度学习模型,如Tacotron2、VITS和YourTTS,用于生成高质量语音。它还包含训练新模型、微调现有模型的工具,支持多说话人TTS,并提供数据集分析功能。
Logo of Depth-Anything-V2
Depth-Anything-V2
Depth-Anything-V2是单目深度估计领域的新进展。该模型在细节表现和鲁棒性上显著优于V1版本,并在推理速度、参数量和深度精度方面超越了基于SD的模型。项目提供四种预训练模型,适用于相对和度量深度估计,可处理图像和视频。此外,发布的DA-2K基准为深度估计研究设立了新标准。
Logo of FunASR
FunASR
FunASR是一个全面的开源语音处理工具集,融合了学术研究和工业应用。它不仅支持语音识别模型的训练和微调,还提供了语音活动检测、标点恢复等多种功能。该项目提供大量预训练模型,便于快速构建高效准确的语音识别服务。FunASR以其广泛的功能、高性能和易部署特性,为语音识别技术的研究和应用提供了强大支持。
Logo of IMS-Toucan
IMS-Toucan
IMS Toucan是由斯图加特大学自然语言处理研究所开发的一套工具集,专注于教学、培训和使用最先进的语音合成模型。该项目基于Python和PyTorch开发,旨在为初学者提供简单、强大的学习工具。此外,IMS Toucan支持多语言和多讲者音频生成,可用于文学研究、语音克隆等多种场景。
Logo of ru-dalle
ru-dalle
ru-dalle是一个开源的图像生成工具,能够将文本描述转换成详细的图像。采用预训练模型,支持多种风格,包括Malevich、Emojich等,适用于多种应用场景,如艺术设计、内容创作等。该项目提供易于使用的API,允许用户快速生成高分辨率图像,并支持图片微调和超分辨率处理,使图像更加精细和真实。
Logo of Matcha-TTS
Matcha-TTS
Matcha-TTS采用条件流匹配技术,优化语音合成流程,提高效率同时保证音质自然和内存使用最优化。官方演示页展示了其快速、自然的语音合成能力,详细信息请参阅ICASSP 2024论文。您还可以直接在HuggingFace平台上尝试该技术。
Logo of so-vits-svc-fork
so-vits-svc-fork
so-vits-svc-fork项目基于so-vits-svc分支进行改进,支持实时声音转换并优化了用户界面。它不仅兼容旧版模型,同时通过高效的训练流程和简捷的pip安装过程提供了良好的用户体验。项目集成了QuickVC和ContentVec技术,显著提升音调估计准确性,并支持通过图形界面或命令行实时进行语音转换,同时支持自动下载预训练模型。
Logo of facenet
facenet
FaceNet,一个基于TensorFlow的开源面部识别项目,采用最新的深度学习技术和数据集(如CASIA-WebFace和VGGFace2)开发。其准确率可达99.65%,并使用MTCNN进行高效的面部对齐。适合需求高级面部识别技术的开发者和科研人员。
Logo of scGPT
scGPT
scGPT是一个基于AI的单细胞多组学研究基础模型,提供丰富的预训练模型和在线应用程序。该平台支持基因调控网络分析、细胞类型注释及多组学集成,适用于处理大规模细胞数据集,如全人类及特定器官细胞。此外,其零样本学习和快速参考映射功能,加上不断更新的训练模型,保障了其在多种研究任务中的应用前沿性和广泛适用性。
Logo of DNABERT
DNABERT
DNABERT提供完整的源码、使用示例、预训练和微调模型,适用于各类基因组DNA语言处理任务。该项目利用Huggingface的扩展工具,增添了多任务支持和高效的可视化功能。最新版DNABERT-2不仅提升了多物种基因组的处理能力,还发布了全面的Genome Understanding Evaluation (GUE)基准测试,涵盖28个数据集。
Logo of Fast-SRGAN
Fast-SRGAN
Fast-SRGAN是一个开源项目,基于SR-GAN架构和Pixel Shuffle技术,旨在实现实时超分辨率视频放大。实验证明,在MacBook M1 Pro GPU上可以达到720p视频的30fps处理速度。项目提供预训练模型并支持自定义训练参数,用户可通过配置文件或命令行参数进行设置并在Tensorboard上监控训练进度。欢迎社区贡献意见和改进。
Logo of Awesome-Parameter-Efficient-Transfer-Learning
Awesome-Parameter-Efficient-Transfer-Learning
该项目提供了关于参数高效迁移学习的全面资源,包含多种调优方法和最新研究。研究人员和工程师可以参考这些资源,以提高预训练视觉模型的微调效率,并了解最新的项目更新,如视觉PEFT库和基准测试。
Logo of InvoiceNet
InvoiceNet
InvoiceNet是一个通过深度神经网络从PDF、JPG、PNG格式的发票中提取智能信息的工具。它提供一个便捷的用户界面供用户查看和提取发票信息,并支持自定义模型的训练。用户可以根据需求添加或删除发票字段,并将提取的信息一键保存到系统中。详细的安装指南支持Ubuntu和Windows,并包含数据准备、字段添加以及使用GUI和CLI的说明。
Logo of vampnet
vampnet
VampNet是一个开源的音乐生成项目,基于音频编解码器技术开发。该项目提供了训练音乐生成模型的方法,包括预训练模型和交互式界面。VampNet支持模型训练、微调和多GPU训练,适用于音乐创作和研究。项目文档详细介绍了环境配置、模型使用和训练过程,便于用户快速上手和探索音乐生成技术。
Logo of ProphetNet
ProphetNet
ProphetNet是微软亚洲研究院NLC团队开发的自然语言生成研究项目。它包含多个子项目,涉及预训练模型、基准测试、生成器-排序器联合学习、段落去噪、自回归扩散模型等技术。该项目为自然语言生成领域提供了丰富的研究资源和实现工具。
Logo of TTS
TTS
TTS库基于最新研究成果,提供高效的文本到语音生成技术,实现了训练便捷、速度快、质量高的最佳平衡。该库包括预训练模型和数据集质量评估工具,已被广泛应用于20多种语言的产品和研究项目。支持多说话人TTS、快速模型训练、多GPU训练,并兼容PyTorch、TensorFlow和TFLite等多种平台。
Logo of 3D-ResNets-PyTorch
3D-ResNets-PyTorch
该项目提供基于PyTorch的3D ResNet代码,适用于动作识别,支持Kinetics和Moments in Time等数据集。项目包含训练、微调和测试脚本,并提供预训练模型,支持最新的PyTorch版本和分布式训练。用户可使用详细脚本进行数据准备和模型评估,适合研究与应用。
Logo of gpt-neo
gpt-neo
GPT-Neo项目在mesh-tensorflow库的支持下,开发出了类似于GPT-3的高级模型与数据并行技术。项目支持在TPU及GPU上进行高效训练与推理,并集成了局部注意力、线性注意力和多专家系统等先进技术,能有效处理大规模参数模型。GPT-Neo还提供了多项模型评估功能,专注于语言和科学推理,拓宽了其在自然语言处理应用中的领域。
Logo of voicefixer
voicefixer
Voicefixer,一款基于神经声码器的预训练工具,可处理多种语音退化问题,包括噪音、混响、低分辨率及削波效应。支持44.1kHz的通用神经声码器,适用于各种应用场景,如命令行、桌面客户端及Python脚本。
Logo of open_clip
open_clip
OpenCLIP是一个先进的开源深度学习项目,专注于OpenAI的CLIP模型的实现和优化。该项目在多样化的数据源和不同的计算预算下成功训练出多个高效能模型,涵盖图像和文本嵌入、模型微调及新模型开发等多个领域。通过增强图像与语言的联合理解能力,OpenCLIP显著推动了人工智能技术的发展,拓宽了其应用领域。
Logo of UER-py
UER-py
UER-py是一个为自然语言处理任务设计的预训练和微调工具包,支持多种预训练模型以优化下游任务表现。项目强调模块化设计,并提供可扩展接口,支持单GPU及多GPU配置。
Logo of awesome-recommend-system-pretraining-papers
awesome-recommend-system-pretraining-papers
此资源汇总了预训练推荐系统和大型语言模型相关的论文,涵盖用户表示预训练、序列推荐、图预训练等子领域,并提供丰富的数据集和代码链接。研究人员可以通过该列表了解如何利用预训练和大型语言模型提升推荐系统性能,获得最新研究成果和实用工具。
Logo of catalyst
catalyst
Catalyst 是一个C#自然语言处理库,提供预训练模型、实体识别和高效的二进制序列化支持。兼容.NET Standard 2.0 并跨平台运行,支持Windows、Linux和macOS。具备精准的标记化处理和语言检测功能。其特点包括命名实体识别、词性标注、语言检测、词形还原和FastText嵌入训练。通过简单的NuGet包安装和流式模型存储,支持多线程并行文本处理,适合大规模文本分析需求。
Logo of Transformers.jl
Transformers.jl
Transformers.jl提供Transformer模型在Julia中的实现,兼容Flux.jl库。使用预训练的Bert模型进行文本处理,项目包含安装步骤和使用实例。当前版本与0.1.x版本有显著区别,建议更新或继续使用旧版本。更多信息和示例请参阅文档或在GitHub提交Issue。
Logo of OFA
OFA
OFA是一个支持中文和英文的序列到序列预训练模型,整合了跨模态、视觉和语言任务,支持微调和提示调优。其应用包括图像描述、视觉问答、视觉定位、文本生成和图像分类等。项目提供了详细的预训练和微调步骤、检查点和代码示例,以及在Hugging Face和ModelScope上的在线演示和Colab笔记本下载。欢迎社区参与改进和开发。
Logo of sentence-transformers
sentence-transformers
sentence-transformers是一个基于transformer网络的框架,用于生成句子、段落和图像的向量表示。该项目提供了多语言预训练模型,支持自定义训练,适用于语义搜索、相似度计算、聚类等场景。这个开源工具在自然语言处理和计算机视觉任务中表现出色,为研究人员和开发者提供了便捷的嵌入向量生成方案。
Logo of DeepSeek-V2
DeepSeek-V2
DeepSeek-V2是一款基于专家混合(MoE)架构的大规模语言模型,总参数量达2360亿,每个token激活210亿参数。相较于DeepSeek 67B,该模型在提升性能的同时,显著降低了训练成本和推理资源消耗。DeepSeek-V2在多项标准基准测试和开放式生成任务中表现优异,展现了其在多领域的应用潜力。
Logo of caduceus
caduceus
Caduceus是一种双向等变长程DNA序列建模技术,可处理长达131k的DNA序列。其反向互补等变架构无需数据增强即可高效建模。项目提供预训练模型和实验复现指南,包括人类基因组预训练和多项下游任务评估,展示了在基因组学领域的应用潜力。该项目开源了模型代码和预训练权重,提供了详细的使用说明和实验复现步骤,涵盖了基因组基准测试、核苷酸转换器数据集和单核苷酸多态性变异效应预测等多个评估方法。
Logo of spark-nlp
spark-nlp
Spark NLP 是一个基于 Apache Spark 的开源库,提供高效且准确的自然语言处理注释,支持机器学习管道的分布式扩展。该库包含超过 36000 个预训练管道和模型,支持 200 多种语言,涵盖分词、词性标注、嵌入、命名实体识别、文本分类、情感分析、机器翻译等任务。兼容 BERT、RoBERTa 等主流变压器模型,支持 Python、R、Java、Scala 和 Kotlin。
Logo of deepvoice3_pytorch
deepvoice3_pytorch
DeepVoice3_pytorch是基于PyTorch的文本到语音深度学习平台,支持多语种和多数据集,包括英语、日语和韩语,适合多个说话者或单个说话者。项目提供预训练模型、音频样本、在线演示及详尽的训练指南,旨在简化用户的使用过程,并能灵活定制个性化的语音合成应用。
Logo of diffwave
diffwave
DiffWave是一种基于迭代精细化的神经语音合成器,能从高斯噪声生成语音。支持多GPU和混合精度训练,提供命令行和程序化推理接口,并配有模型和音频样本。
Logo of melgan
melgan
MelGAN是一个在PyTorch上实现的声码器,用于转换NVIDIA tacotron2的输出成原始音频。项目提供了基于LJSpeech-1.1数据集的预训练模型,用户可通过PyTorch Hub访问和试听。适合音频合成领域的研究与开发。
Logo of transfer-learning-conv-ai
transfer-learning-conv-ai
transfer-learning-conv-ai项目提供了一套完整的代码库,使用OpenAI GPT及GPT-2模型通过迁移学习技术培训对话型AI代理。用户可以在1小时内完成模型训练,还可以直接使用预训练模型。本代码库支持在单GPU或多GPU下训练,并兼容Docker环境。适合参与NeurIPS 2018对话竞赛。
Logo of ltp
ltp
LTP(Language Technology Platform)提供中文分词、词性标注、句法分析和命名实体识别等自然语言处理功能。通过多任务框架和共享预训练模型进行优化,显著提升性能。LTP支持快速的感知机算法推理和高精度的深度学习分析,并在Huggingface Hub上提供预训练模型下载。最新版LTP v4.2.0优化了结构,并支持用户自定义模型训练和上传,提高了灵活性和实用性。
Logo of GPT2-Chinese
GPT2-Chinese
GPT2-Chinese项目提供了适用于中文的GPT2训练代码,支持BERT和BPE Tokenizer,能够生成诗词、新闻、小说等内容,适用于大规模语料训练。该项目基于Pytorch实现,支持最新的预训练模型,如通用中文模型和古诗词模型。详细的模型信息可以在Huggingface Model Hub中找到。用户可以自行训练和生成文本,同时支持FP16和梯度累积。
Logo of malaya
malaya
Malaya是一个由PyTorch驱动的功能强大的马来西亚语自然语言处理库,提供预训练模型和详细文档。支持Python 3.6及以上版本,并建议通过virtualenv进行开发。用户可以方便地通过PyPI安装,并选择合适的PyTorch版本。项目得到了KeyReply、Nvidia和Tensorflow Research Cloud的支持,提供充足的计算资源。欢迎各类形式的贡献,不仅限于代码。
Logo of UpscalerJS
UpscalerJS
UpscalerJS是一个开源项目,使用预训练模型提升图像分辨率、去噪和润饰。支持浏览器和Node环境,适用于桌面、平板和手机设备。提供简洁的API和详尽的文档及示例,允许自定义模型以实现个性化图像增强。
Logo of 3D-Speaker
3D-Speaker
3D-Speaker是一个开源的单模态和多模态说话人验证、识别和分离工具包。它提供ERes2Net、CAM++等预训练模型,适用于多种说话人相关任务。该项目发布的大规模语音数据集3D-Speaker有助于语音表示解耦研究。3D-Speaker支持有监督和自监督训练,以及语言识别等多种实验设置,为研究人员提供全面的说话人技术解决方案。
Logo of XPhoneBERT
XPhoneBERT
XPhoneBERT是一种创新的多语言音素表示预训练模型,专为文本转语音(TTS)系统设计。基于BERT-base架构,该模型利用RoBERTa方法对近100种语言的3.3亿音素级句子进行训练。研究显示,将XPhoneBERT用作输入音素编码器能够显著增强神经TTS模型的自然度和韵律表现,同时在训练数据有限的情况下也能生成高质量语音。这一模型支持广泛的语言,并可通过transformers库便捷集成。
Logo of CLAP
CLAP
CLAP是一个音频-文本对比学习预训练模型,可提取音频和文本的潜在表示。它基于CLIP架构设计,通过大规模预训练学习音频与文本的对应关系。该模型适用于音频分类、检索等多种下游任务。项目提供开源预训练模型、代码和PyPI库,支持从音频文件或数据中直接提取特征。