Logo

#CLIP

Logo of CLIP
CLIP
CLIP通过对比学习训练神经网络,结合图像和文本,实现自然语言指令预测。其在ImageNet零样本测试中的表现与ResNet50相当,无需使用原始标注数据。安装便捷,支持多种API,适用于零样本预测和线性探针评估,推动计算机视觉领域发展。
Logo of similarities
similarities
该工具包提供多种文本和图像相似度计算及语义匹配算法,支持高效处理亿级数据。主要功能包含文本相似度计算、文本搜索、图文匹配、图像搜索等多种算法。项目采用Python3开发,支持命令行操作,基于PyTorch和FastAPI等技术,可实现多语言环境下的高效向量表示及检索,开箱即用。
Logo of RADIO
RADIO
AM-RADIO是一个将多个大型视觉基础模型蒸馏为单一模型的框架。其核心产物RADIO作为新一代视觉基础模型,在多个视觉任务中表现优异,可作为通用视觉骨干网络使用。RADIO通过蒸馏整合了CLIP、DINOv2和SAM等模型,保留了文本定位和分割对应等特性。在ImageNet零样本分类、kNN和线性探测分割等任务上,RADIO超越了教师模型,同时提升了视觉语言模型的性能。此外,RADIO支持任意分辨率和非方形图像输入,并提供了名为E-RADIO的高效变体。
Logo of DIVA
DIVA
DIVA是一种创新方法,利用扩散模型作为视觉助手优化CLIP表示。通过文本到图像扩散模型的生成反馈,DIVA无需配对文本数据即可提升CLIP视觉能力。在MMVP-VLM细粒度视觉评估基准上,DIVA显著提升了CLIP性能,同时保持了其在29个图像分类和检索基准上的强大零样本能力。这为增强视觉语言模型的视觉理解开辟了新途径。
Logo of lang-seg
lang-seg
LSeg是一种语言驱动的语义图像分割模型,结合文本编码器和Transformer图像编码器。它能将描述性标签与图像像素对齐,实现高效零样本分割。LSeg在多个数据集上表现出色,无需额外训练即可泛化到新类别。该模型在固定标签集上可与传统算法媲美,为语义分割任务提供了灵活有力的解决方案。
Logo of ComfyUI_Cutoff
ComfyUI_Cutoff
ComfyUI_Cutoff插件通过四个新节点实现提示词的精确控制。它允许用户定义影响区域、设置目标词和调整权重,从而限制特定属性对提示词子集的影响。这种方法特别适用于处理'蓝色头发,黄色眼睛'等复杂提示词,确保属性准确应用到相应对象。通过提供更细致的提示词调整能力,该插件有助于生成更符合预期的图像。
Logo of deep-daze
deep-daze
Deep Daze是一款基于OpenAI的CLIP和Siren技术的命令行工具,可将文本转化为图像。用户可以通过自然语言描述生成图像,并调整图层数量、图像分辨率和学习率等参数以优化效果。工具还支持结合图像和文本进行生成,及使用初始图像进行生成器网络训练。Deep Daze需要Nvidia或AMD GPU,推荐16GB显存。
Logo of CLIP-ImageSearch-NCNN
CLIP-ImageSearch-NCNN
CLIP-ImageSearch-NCNN项目在移动设备和x86平台上使用CLIP模型实现了自然语言图像检索功能。通过图像和文本特征提取,支持以图搜图、以字搜图等多种搜索方式,提供高效的图像搜索体验。项目包含适用于Android和x86平台的demo,利用ncnn进行部署,广泛适用于手机相册等图像搜索应用。
Logo of EVA
EVA
EVA是北京智源人工智能研究院开发的视觉表示学习模型系列。它包括多个子项目,如EVA-01和EVA-CLIP,致力于探索大规模掩码视觉表示学习的极限和改进CLIP训练技术。这些模型在主流平台上提供,为计算机视觉研究提供了有力支持。EVA项目涵盖基础模型、自监督学习和多模态学习等前沿领域。
Logo of Long-CLIP
Long-CLIP
Long-CLIP项目将CLIP模型的最大输入长度从77扩展到248,大幅提升了长文本图像检索性能。在长标题文本-图像检索任务中,R@5指标提高20%;传统文本-图像检索提升6%。这一改进可直接应用于需要长文本处理能力的各类任务,为图像检索和生成领域带来显著进展。
Logo of rclip
rclip
rclip是一款开源的命令行图像搜索工具,采用OpenAI的CLIP神经网络技术。该工具支持文本和图像查询,可进行相似图像搜索和多条件组合查询。rclip具有快速处理大量图片的能力,提供预览功能,并支持多种操作系统。这个创新工具为图像管理和搜索提供了新的解决方案,适合需要高效图像检索的专业人士和摄影爱好者。
Logo of blended-diffusion
blended-diffusion
Blended Diffusion 是一种利用自然语言和ROI掩模进行图像局部编辑的工具。结合了CLIP预训练语言-图像模型和DDPM去噪扩散模型,实现了高效的自然图像编辑。它可以保持背景完整,并无缝融合编辑区域,减少对抗性结果。功能包括新增物体、移除/替换/改变现有物体、背景替换和图像外推。相关代码和模型已开放下载,供用户探索。
Logo of clip_playground
clip_playground
这个项目展示了CLIP模型的不同应用,包括GradCAM可视化、简单和智能的零样本检测以及验证码破解。用户可以通过Colab链接在线体验各项功能,并调整参数和检测查询以深入探索模型潜力。项目日志定期更新,包含reCAPTCHA绘图改进和检测参数调整,确保用户获得最佳应用体验。
Logo of Awesome-Open-Vocabulary-Semantic-Segmentation
Awesome-Open-Vocabulary-Semantic-Segmentation
这是一个汇总开放词汇语义分割领域研究成果的项目。内容涵盖全监督、弱监督和无需训练等多种方法,同时收录零样本语义分割、指代图像分割和开放词汇目标检测等相关任务的论文。项目旨在为研究者提供该领域的最新进展概览。
Logo of MetaCLIP
MetaCLIP
MetaCLIP是一个改进CLIP模型数据处理的开源项目。它提出了一种新的数据筛选算法,无需依赖现有模型即可从头整理数据。该项目强调数据质量,提供了可扩展到CommonCrawl全数据集的方法。MetaCLIP公开训练数据分布,提高了透明度,并为CLIP模型提供标准化的实验设置,便于控制实验和公平比较。
Logo of x-clip
x-clip
x-clip是一个简洁而全面的CLIP实现,整合了多项前沿研究成果。该项目支持灵活的模型配置,包括自定义文本和图像编码器、多视图对比学习和视觉自监督学习等功能。通过易用的API,研究人员可以快速实验各种CLIP变体和改进方案。x-clip适用于图像检索、跨模态理解等多种视觉语言任务。
Logo of OpenAI-CLIP
OpenAI-CLIP
本项目实现了CLIP模型,基于PyTorch进行开发,通过训练文本和图像数据,探索其相互关系。详细的代码指南和实用工具展示了模型在自然语言监督任务中的表现和实际应用,适合多模态学习的研究者和开发者使用。
Logo of fashion-clip
fashion-clip
FashionCLIP是一个为时尚行业优化的CLIP模型,用于提升商品检索、分类和时尚分析的表现。通过超过70万对图像和文本数据进行微调,FashionCLIP在零样本场景下表现出色。更新版FashionCLIP 2.0采用更多训练数据,显著提高了FMNIST、KAGL和DEEP数据集的性能。项目提供开源代码和模型权重,可在Hugging Face上获取,并支持多种API和教程便于上手。
Logo of clip-video-encode
clip-video-encode
clip-video-encode是一个Python工具,用于计算视频帧的CLIP嵌入向量。它可处理本地MP4文件、YouTube链接或包含多个视频源的文本文件。工具提供帧采样、多进程处理和自定义CLIP模型等配置选项。clip-video-encode支持大规模数据集处理,曾用于压缩Kinetics700和WebVid等大型视频数据集。这个工具为视频分析和机器学习任务提供了预处理解决方案。
Logo of ComfyUI_ADV_CLIP_emb
ComfyUI_ADV_CLIP_emb
ComfyUI_ADV_CLIP_emb项目引入高级CLIP文本编码节点,实现精细的提示词权重控制。该项目支持多种标记归一化和权重解释方法,如mean、length、comfy和A1111等。此外,项目还提供SDXL支持,包括专门的SDXL编码节点和参数添加节点。这些功能有助于精确调整AI生成图像的细节,增强创作灵活性。
Logo of Segment-Anything-CLIP
Segment-Anything-CLIP
项目通过结合Segment-Anything的分割能力和CLIP的识别功能,构建了一个高效的图像分析框架。系统可自动生成多个分割掩码,并对每个掩码区域进行分类。这种创新方法不仅提高了图像分析的精度,还为计算机视觉领域的研究和应用开辟了新途径。