Project Icon

phikon

基于ViT的组织病理学自监督学习模型

Phikon是一个使用iBOT训练的组织病理学自监督学习模型。它是由Owkin开发的Vision Transformer Base模型,包含8580万个参数,支持224x224x3的图像输入。该模型在4000万个泛癌症图像块上进行了预训练,可用于从组织学图像中提取特征,并应用于多种癌症亚型的分类任务。通过微调,Phikon可以适应特定癌症亚型的研究需求。

clip-vit-base-patch16 - OpenAI开发的CLIP模型实现零样本图像分类和跨模态理解
CLIPGithubHuggingface人工智能图像分类开源项目模型计算机视觉零样本学习
CLIP是OpenAI开发的视觉语言模型,结合ViT-B/16和masked self-attention Transformer架构。通过对比学习,实现零样本图像分类和跨模态理解。在多项计算机视觉基准测试中表现优异,但在细粒度分类和对象计数方面存在局限。该模型主要用于研究计算机视觉任务的鲁棒性和泛化能力,不适用于商业部署。
vit_base_patch16_clip_384.laion2b_ft_in12k_in1k - LAION-2B预训练的Vision Transformer图像分类模型
GithubHuggingfaceImageNetLAION-2BVision Transformer图像分类开源项目模型深度学习
该模型基于Vision Transformer架构,在LAION-2B数据集上预训练,随后在ImageNet-12k和ImageNet-1k上微调。模型接受384x384像素的输入图像,包含8690万个参数。除图像分类外,还可用于生成图像特征嵌入。通过timm框架实现,提供灵活配置和简便使用,适用于多种计算机视觉任务。
SegVol - 突破性的通用交互式三维医学影像分割模型
3D建模CT扫描GithubSegVol人工智能医学图像分割开源项目
SegVol是一个创新的通用交互式三维医学影像分割模型,支持点、框和文本提示输入。该模型在96,000个CT扫描数据集上训练,可分割超过200个解剖类别。SegVol开源了推理代码、训练代码、模型参数以及预训练的ViT参数。通过内部和外部验证,SegVol展现出优秀的分割性能,为医学影像分析提供了新的解决方案。
InternViT-6B-448px-V1-5 - 提升视觉模型分辨率及多语言OCR精度
GithubHuggingfaceInternViT-6B-448px-V1-5OCR能力图像特征提取开源项目模型视觉基础模型高分辨率处理
InternViT-6B-448px-V1-5在InternViT-6B-448px-V1-2的基础上,通过动态调整训练图像分辨率和强化数据集质量来提高模型的高分辨率处理和OCR能力。该模型具有5540M参数,使用1到12块瓦片进行训练,并通过PaddleOCR进行了中英文OCR处理,增强了多语言OCR性能。建议在构建视觉语言模型时,使用最后一层的特征。
ViT-L-16-SigLIP-256 - 用于零样本图像分类的对比式图像文本模型
GithubHuggingfaceSigLIPWebLI对比学习开源项目模型语言图像预训练零样本图像分类
模型以WebLI数据集进行训练,兼容OpenCLIP与timm库,支持图像与文本的任务。通过SigLIP方法增强语言与图像的预训练能力,实现零样本图像分类。该模型由JAX格式转为PyTorch,更易集成至现有机器学习流程,具备多平台适应性。
hover_net - 病理图像中细胞核分割与分类的深度学习模型
GithubHoVer-Net图像分析开源项目深度学习病理学细胞核分割
HoVer-Net是一种用于病理图像细胞核分割和分类的深度学习模型。该模型通过计算细胞核像素到质心的距离来分离聚集细胞,并利用上采样分支进行细胞核类型分类。项目提供PyTorch实现,支持模型训练、图像处理和全幻灯片分析,并包含多个预训练权重。HoVer-Net在细胞核分析任务中表现出色,为数字病理学研究提供了重要工具。
vit-pytorch - 通过PyTorch实现多种视觉Transformer变体
GithubPytorchVision Transformer卷积神经网络图像分类开源项目深度学习
本项目展示了如何在PyTorch中实现和使用视觉Transformer(ViT)模型,包括Simple ViT、NaViT、Distillation、Deep ViT等多种变体。利用基于Transformer架构的简单编码器,本项目在视觉分类任务中达到了先进水平。用户可以通过pip进行安装,并参考提供的代码示例进行模型加载和预测。项目还支持高级功能如知识蒸馏、变分图像尺寸训练和深度模型优化,适用于多种视觉任务场景。
dsmil-wsi - 用于全玻片图像中肿瘤检测的双流多实例学习网络
Camelyon16DSMILGithubMILPytorchTCGA开源项目
结合自监督对比学习与多实例学习网络,实现10倍速度优化全视图图像分类。最新版本支持交叉验证、改进多标签任务指标并修复脚本错误。了解如何在TCGA肺癌和Camelyon16数据集上进行训练与测试,以及生成色彩和检测图的详细步骤。
GiT - 通用视觉Transformer模型实现多任务统一
GiTGithub多任务学习开源项目视觉Transformer计算机视觉语言接口
GiT是一种通用视觉Transformer模型,采用单一ViT架构处理多种视觉任务。该模型设计简洁,无需额外视觉编码器和适配器。通过统一语言接口,GiT实现了从目标检测到图像描述等多任务能力。在多任务训练中,GiT展现出任务间协同效应,性能超越单任务训练且无负迁移。GiT在零样本和少样本测试中表现优异,并随模型规模和数据量增加而持续提升性能。
ModelsGenesis - 3D医疗影像自监督预训练模型
3D医学影像GithubModels Genesis医学图像分析开源项目自学习迁移学习
此项目推出了名为Generic Autodidactic Models的预训练模型,专为3D医学影像应用设计,特别适合标注数据有限的情况。这一模型通过自监督学习实现自我训练,无需人工标注,并能生成各种应用场景的目标模型。Models Genesis性能显著优于从零开始训练的3D模型,甚至超过了包括ImageNet模型在内的2D方法,尤其在分割肝脏、肿瘤和海马体方面表现卓越。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号