#文本编码器
OpenAI-CLIP - 从零开始实现CLIP模型:探索文本与图像的多模态关联
CLIP多模态图像编码器文本编码器OpenAIGithub开源项目
本项目实现了CLIP模型,基于PyTorch进行开发,通过训练文本和图像数据,探索其相互关系。详细的代码指南和实用工具展示了模型在自然语言监督任务中的表现和实际应用,适合多模态学习的研究者和开发者使用。
chinese-clip-vit-large-patch14 - 结合ViT-L/14和RoBERTa-wwm-base的中文图文对比模型
Chinese-CLIP图文相似度开源项目模型GithubHuggingface图像编码器零样本分类文本编码器
这一模型采用ViT-L/14和RoBERTa-wwm-base进行编码,在大规模中文图文数据集上训练,支持高效的图文嵌入和相似度计算。项目提供直观的API和多项任务评估,展现了在零样本图像分类和图文检索上的杰出表现。
chinese-clip-vit-huge-patch14 - 基于ViT-H/14和RoBERTa的中文图文对比学习模型
检索图像编码器Chinese-CLIP中文数据集开源项目文本编码器模型HuggingfaceGithub
chinese-clip-vit-huge-patch14是一个基于ViT-H/14和RoBERTa-wwm-large的中文CLIP模型,在大规模中文图文数据上训练,表现卓越。支持在MUGE、Flickr30K-CN和COCO-CN等数据集中的图文检索和零样本分类。提供API实现简便的图文特征提取及相似度计算,详情请参见GitHub仓库。
SONAR_200_text_encoder - 适用于202种语言的多语言文本编码工具
Huggingface文本编码器Hugging FaceSONAR模型Github开源项目模型转换多语言
SONAR_200_text_encoder项目将SONAR多语言编码器移植到transformers格式,支持与官方实现一致的文本嵌入功能,并兼容202种语言,可应用于跨语言的句子相似度计算。通过Python代码示例,用户可以在transformers环境中加载与使用该模型,便捷实现文本向量化表示。该项目为多语言文本编码提供了一种高效可靠的解决方案,适合需要处理多种语言的文本任务。