#神经网络模型

Multilingual_Text_to_Speech学习资料汇总 - 支持多语言实验的Tacotron 2实现

2 个月前
Cover of Multilingual_Text_to_Speech学习资料汇总 - 支持多语言实验的Tacotron 2实现

spaCy学习资源汇总 - 工业级自然语言处理Python库

2 个月前
Cover of spaCy学习资源汇总 - 工业级自然语言处理Python库

探索FlexNeuART:一个灵活的经典与神经信息检索工具包

3 个月前
Cover of 探索FlexNeuART:一个灵活的经典与神经信息检索工具包

深度解析神经语义匹配模型:一个优质资源集合

3 个月前
Cover of 深度解析神经语义匹配模型:一个优质资源集合

Matryoshka Diffusion Models: 高效训练高质量文本到图像模型的新方法

3 个月前
Cover of Matryoshka Diffusion Models: 高效训练高质量文本到图像模型的新方法

SlowFast网络:一种高效的视频动作识别架构

3 个月前
Cover of SlowFast网络:一种高效的视频动作识别架构

SlowFast网络:视频识别的革命性突破

3 个月前
Cover of SlowFast网络:视频识别的革命性突破

Multilingual Text-to-Speech: 突破语言界限的人工智能语音合成技术

3 个月前
Cover of Multilingual Text-to-Speech: 突破语言界限的人工智能语音合成技术
相关项目
Project Cover

spaCy

spaCy 是一个高级自然语言处理库,支持Python和Cython,适用于实际产品开发。它提供预训练管道,支持70种以上语言的分词和训练,拥有最先进的速度和神经网络模型,可用于词性标注、句法解析、命名实体识别、文本分类等多种任务。spaCy 同时支持多任务学习和使用预训练变换器,如BERT,适合生产环境下的训练系统,模型打包,部署和工作流管理,是商业开源软件,遵循MIT许可证。

Project Cover

Multilingual_Text_to_Speech

Multilingual_Text_to_Speech项目综合采用Tacotron 2模型与元学习技术,支持复杂的多语言语音合成实验,提供完善的编码器共享机制,并包含丰富的语言数据及互动示范,旨在推动学术研究及应用开发。

Project Cover

SlowFast

PySlowFast是FAIR开发的开源视频理解代码库,提供高效训练的先进视频分类模型。支持SlowFast、Non-local Neural Networks、X3D和Multiscale Vision Transformers等多种架构。该框架便于快速实现和评估视频研究创新,涵盖分类、检测等任务。PySlowFast兼具高性能和轻量级特点,适用于广泛的视频理解研究。

Project Cover

ml-mdm

ml_mdm是一个Python开源项目,实现了Matryoshka扩散模型技术用于文本到图像生成。该框架支持训练单个像素空间模型生成高达1024x1024分辨率的图像,开源了U-Net和嵌套U-Net的实现。项目提供预训练模型、Web演示和CC12M数据集上的训练教程,为高分辨率图像和视频合成提供完整解决方案。

Project Cover

awesome-neural-models-for-semantic-match

MatchZoo团队维护的开源项目,汇集神经网络语义匹配模型资源。涵盖信息检索、问答系统、释义识别等自然语言处理任务,提供任务描述和相关论文列表。项目与MatchZoo工具包关联,为自然语言处理领域研究和开发提供参考资源。

Project Cover

FlexNeuART

FlexNeuART是一个轻量级模块化的信息检索框架,适用于研究、教育和评估。该框架支持多种检索方式,包括密集、稀疏和混合检索,并提供多字段多级正向索引功能。FlexNeuART集成了先进的神经网络和传统模型,支持多GPU训练和推理,以及集成学习。通过Python API,用户可以方便地使用检索器和排序器。在MS MARCO文档排序任务中,FlexNeuART展现了优秀的性能,为信息检索领域的研究和应用提供了灵活而强大的工具。

Project Cover

Depth-Anything-V2-Base-hf

Depth-Anything-V2-Base-hf是一个基于transformers库的单目深度估计模型。该模型通过大规模合成和真实图像训练,相比V1版本提供更细致的细节和更强的稳健性。它比基于SD的模型效率高10倍且更轻量化,在预训练基础上展现出色的微调性能。模型采用DPT架构和DINOv2骨干网络,适用于零样本深度估计等任务,在相对和绝对深度估计方面表现优异。

Project Cover

opus-mt-tc-big-en-tr

opus-mt-tc-big-en-tr是OPUS-MT项目开发的英语到土耳其语神经机器翻译模型。该模型基于Transformer架构,在多个数据集上表现出色,最高BLEU分数达42.3。模型支持通过Hugging Face Transformers库使用,为英土翻译提供了可靠的解决方案。OPUS-MT项目旨在为全球多种语言对开发开源的神经机器翻译模型。

Project Cover

coat_lite_mini.in1k

coat_lite_mini.in1k是一种轻量级CoaT(Co-Scale Conv-Attentional Transformer)图像分类模型,在ImageNet-1k数据集上训练。该模型仅有1100万参数,适用于224x224像素的图像处理。它可通过timm库轻松加载,用于图像分类和特征提取。创新的卷积注意力机制使其在保持低计算复杂度的同时,实现高效的图像特征提取。这个模型展示了如何在轻量级设计中融合卷积和注意力机制的优势。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号