Project Icon

recognize-anything

通用图像识别模型:支持开放域类别和高精度标签生成

Recognize Anything Model是一系列开源图像识别模型,包括RAM++、RAM和Tag2Text。这些模型能准确识别常见和开放域类别,支持高精度图像标签生成和全面描述。项目提供预训练模型、推理代码和训练数据集,适用于多种计算机视觉任务。模型性能优于现有先进方案,尤其在零样本识别方面表现突出。

VisionLLaMA - 基于LLaMA的统一视觉模型,为图像生成和理解设立新基准
GithubVisionLLaMA图像理解图像生成开源项目计算机视觉预训练模型
VisionLLaMA是一个基于LLaMA架构的统一视觉Transformer模型,专为处理2D图像而设计。该模型提供平面和金字塔两种形式,适用于广泛的视觉任务,包括图像感知和生成。通过各种预训练范式的广泛评估,VisionLLaMA在多项图像生成和理解任务中展现出卓越性能,超越了现有最先进的视觉Transformer模型,为计算机视觉领域提供了新的基准。
awesome-foundation-and-multimodal-models - 多模态与基础模型的最新研究进展
Depth AnythingEfficientSAMGithubYOLO-Worldfoundation modelmultimodal model开源项目
此页面介绍了多个最新的多模态和基础预训练模型,如YOLO-World、Depth Anything、EfficientSAM等。这些模型在图像分类、图像描述和零样本物体检测等任务中表现出色,并提供学术论文、GitHub项目和使用示例,帮助深入了解与应用这些前沿技术。
segment-anything-fast - 高性能图像分割模型加速框架
AI模型加速GithubPyTorchSegment Anything图像分割开源项目推理优化
segment-anything-fast是基于Facebook's segment-anything的优化版本,专注于提高图像分割模型的性能。通过整合bfloat16、torch.compile和自定义Triton内核等技术,该项目显著提升了模型推理速度。它支持多种优化方法,如动态int8对称量化和2:4稀疏格式,同时保持了简单的安装和使用流程。这使得开发者能够轻松替换原始segment-anything,实现更高效的图像分割。该优化框架适用于需要实时或大规模图像分割处理的应用,如自动驾驶、医疗影像分析或视频编辑等领域,可显著提高处理效率和资源利用率。
YOLO-World - 下一代实时开放词汇目标检测模型
GithubYOLO-World开放词汇开源项目目标检测零样本学习预训练模型
YOLO-World是一款创新的实时开放词汇目标检测模型。经过大规模数据集预训练,它展现出卓越的开放词汇检测和定位能力。采用'先提示后检测'范式,YOLO-World通过重参数化技术实现高效的自定义词汇推理。该模型支持零样本目标检测、分割等多种任务,并开源了在线演示、预训练权重和微调代码,为计算机视觉领域提供了实用的研究与应用工具。
SegmentAnything3D - Segment Anything技术在3D场景中的创新应用
3D感知GithubSegment Anything 3D图像分割开源项目点云处理计算机视觉
SAM3D项目将Segment Anything技术扩展到3D感知领域,通过将2D图像分割信息转移到3D空间,为3D场景理解提供新思路。该项目结合SAM生成掩码、点云合并和区域合并等技术,实现2D到3D的有效转换。SAM3D不仅拓展了计算机视觉的应用范围,也为3D场景分析和理解开辟了新的研究方向。
attention-ocr - 基于注意力机制的视觉OCR模型,实现与导出工具
Attention-OCRGithubOCRTensorflow人工智能图像识别开源项目
该项目提供了基于注意力机制的OCR模型,结合了CNN与LSTM,用于图像识别,并能够导出为SavedModel或frozen graph格式。用户可以通过生成TFRecords数据集、训练、测试及可视化等步骤完整运行该OCR系统。项目还支持通过Tensorflow Serving提供REST API服务,并可以在Google Cloud ML Engine上进行模型训练。目前该项目依赖Tensorflow 1.x,未来计划升级到Tensorflow 2。
T-Rex - 融合文本和视觉提示的通用目标检测模型
APIGithubT-Rex2开源项目目标检测视觉提示计算机视觉
T-Rex2是一款融合文本和视觉提示的通用目标检测模型。它突破传统模型局限,具备零样本检测能力,适用于农业、工业和生物医学等领域。该模型支持交互式视觉提示、通用视觉提示和文本提示三种工作流程,满足多样化的目标检测需求。项目提供在线演示和API接口,便于快速体验和集成。
depth-anything-large-hf - 基于DPT和DINOv2的大规模深度估计模型
Depth AnythingGithubHuggingface人工智能图像处理开源项目模型深度估计计算机视觉
Depth Anything是一个基于DPT架构和DINOv2主干的深度估计模型,通过6200万张图像训练而成。该模型在相对和绝对深度估计方面均达到最先进水平,可用于零样本深度估计等任务。它提供简单的pipeline接口,支持任意尺寸输入图像,并输出高质量深度图。Depth Anything为计算机视觉领域提供了强大的深度感知能力,可应用于多个场景。
anything-v4.0 - 动漫风格图像生成的高级稳定扩散模型
AI生成Anything V4.0GithubHuggingface动漫风格商业使用开源项目模型稳定扩散
Anything V4是一个面向动漫风格图像生成的潜在扩散模型,通过简单提示即可生成细节丰富的图像。支持danbooru标签以及Gradio Web UI操作,并提供Fantasy.ai商业使用许可。该模型兼容多平台,可导出ONNX、MPS及FLAX/JAX格式,支持简化的Python代码进行图像生成,适合生成动漫人物和风景等多样化内容。
joytag - 多标签AI图像标记模型 支持5000+标签
AI视觉模型GithubJoyTagViT架构图像标签多标签分类开源项目
JoyTag是基于ViT-B/16架构的AI视觉模型,专用于图像多标签分类。采用Danbooru标记体系,支持5000多个标签,适用于手绘和摄影等多种图像类型。模型在0.4阈值下F1分数达0.578,能为每张图像生成独立标签预测。可用于diffusion模型训练等多种应用场景。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号