#文本编码器

OpenAI-CLIP - 从零开始实现CLIP模型:探索文本与图像的多模态关联
CLIP多模态图像编码器文本编码器OpenAIGithub开源项目
本项目实现了CLIP模型,基于PyTorch进行开发,通过训练文本和图像数据,探索其相互关系。详细的代码指南和实用工具展示了模型在自然语言监督任务中的表现和实际应用,适合多模态学习的研究者和开发者使用。
chinese-clip-vit-large-patch14 - 结合ViT-L/14和RoBERTa-wwm-base的中文图文对比模型
Chinese-CLIP图文相似度开源项目模型GithubHuggingface图像编码器零样本分类文本编码器
这一模型采用ViT-L/14和RoBERTa-wwm-base进行编码,在大规模中文图文数据集上训练,支持高效的图文嵌入和相似度计算。项目提供直观的API和多项任务评估,展现了在零样本图像分类和图文检索上的杰出表现。
XLM-Roberta-Large-Vit-B-32 - 多语言CLIP模型的高性能文本编码器
Huggingface模型XLM-Roberta图像编码器Github多语言开源项目CLIP文本编码器
XLM-Roberta-Large-Vit-B-32是一个多语言CLIP模型的文本编码器,支持超过50种语言。该模型与ViT-B-32图像编码器配合,可实现跨语言的图像-文本匹配。在MS-COCO数据集的多语言文本-图像检索任务中,R@10指标表现优异。模型可轻松提取多语言文本嵌入,为跨语言视觉-语言任务提供支持。使用简单,适用于多语言环境下的图像搜索、内容理解等应用场景。
dpr-ctx_encoder-single-nq-base - BERT架构的开放域问答上下文编码器
模型BERTGithub文本编码器开源项目HuggingfaceDPR开放域问答自然语言处理
这是一个基于BERT的开放域问答上下文编码器模型。它使用自然问题数据集训练,将文本段落映射到低维向量空间,实现高效段落检索。与问题编码器和阅读器模型配合,构成完整问答系统。该模型在多个问答数据集上表现优异,为开放域问答研究提供了有力工具。
ViT-B-32__openai - CLIP模型的ONNX导出版本用于图像和文本嵌入生成
CLIP模型ImmichGithub文本编码器自托管照片库图像编码器Huggingface开源项目
ViT-B-32__openai项目是CLIP模型的ONNX导出版本,将视觉和文本编码器分离为独立模型。这种设计适用于生成图像和文本嵌入,特别针对Immich自托管照片库。该项目可用于处理大量图像和文本数据,有助于改进图像检索和跨模态搜索功能。
xflux_text_encoders - Google T5模型文本编码器权重用于大规模NLP任务
模型Github文本编码器pytorchT5模型transformers开源项目Huggingface自然语言处理
xflux_text_encoders项目提供来自Google T5-v1_1-xxl模型的文本编码器权重。这些权重适用于大规模自然语言处理任务,支持英语。项目基于Apache 2.0许可,使用PyTorch和Transformers库实现。开发者可将其集成到现有NLP管道中,用于文本到文本的生成任务。
t5-v1_1-xxl-encoder-bf16 - Google T5 v1.1 XXL编码器模型助力文本到图像生成
模型GoogleGithub文本编码器单一安全张量文本到图像模型Huggingface开源项目T5
t5-v1_1-xxl-encoder-bf16是Google T5 v1.1 XXL编码器模型的单一safetensor版本,采用bfloat16精度。该模型设计用于配合PixArt等文本到图像模型,提供高效的文本编码能力。它可以提升文本到图像生成的质量和效率,适用于需要高性能文本理解和处理的AI图像生成项目。
chinese-clip-vit-huge-patch14 - 基于ViT-H/14和RoBERTa的中文图文对比学习模型
检索图像编码器Chinese-CLIP中文数据集开源项目文本编码器模型HuggingfaceGithub
chinese-clip-vit-huge-patch14是一个基于ViT-H/14和RoBERTa-wwm-large的中文CLIP模型,在大规模中文图文数据上训练,表现卓越。支持在MUGE、Flickr30K-CN和COCO-CN等数据集中的图文检索和零样本分类。提供API实现简便的图文特征提取及相似度计算,详情请参见GitHub仓库。
SONAR_200_text_encoder - 适用于202种语言的多语言文本编码工具
Huggingface文本编码器Hugging FaceSONAR模型Github开源项目模型转换多语言
SONAR_200_text_encoder项目将SONAR多语言编码器移植到transformers格式,支持与官方实现一致的文本嵌入功能,并兼容202种语言,可应用于跨语言的句子相似度计算。通过Python代码示例,用户可以在transformers环境中加载与使用该模型,便捷实现文本向量化表示。该项目为多语言文本编码提供了一种高效可靠的解决方案,适合需要处理多种语言的文本任务。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号