#病理学
hover_net
HoVer-Net是一种用于病理图像细胞核分割和分类的深度学习模型。该模型通过计算细胞核像素到质心的距离来分离聚集细胞,并利用上采样分支进行细胞核类型分类。项目提供PyTorch实现,支持模型训练、图像处理和全幻灯片分析,并包含多个预训练权重。HoVer-Net在细胞核分析任务中表现出色,为数字病理学研究提供了重要工具。
plip
PLIP是首个针对病理AI的视觉和语言基础模型,通过大规模预训练实现病理图像和文本描述的特征提取。作为CLIP模型的改进版,PLIP支持图像文本编码和相似度计算,可通过多种API方式使用。该模型为病理图像分析提供新的研究工具,助力医疗AI在病理诊断和研究中的应用。
Ibex
Ibex专注开发人工智能癌症诊断解决方案,为病理学家提供经实践验证的AI工具。其技术可识别多种组织中的癌症和诊断特征,临床证实能提升诊断准确性和效率。Ibex利用逾千万张病理切片数据,结合专家知识和深度学习,开发出高性能AI算法,旨在推动癌症诊断技术进步。
CONCH
CONCH是为病理学量身打造的视觉语言模型,通过对比学习提高图像与文本检索能力。该模型在117万对图像描述数据集上预训练,可在多个任务中表现优异,包括图像分类、文本-图像检索、图像字幕生成和组织切割。CONCH的优势在于除H&E染色图像外,还在IHC及特殊染色图像上显示出色性能,为病理AI模型的开发与评估提供广泛应用选择。
UNI
UNI是一个基于1亿张病理图像预训练的视觉编码器,为病理学AI诊断提供了强大的基础模型。它在34项临床任务中展现出卓越性能,特别是在罕见和代表性不足的癌症类型诊断上。UNI不使用公开数据集进行预训练,有助于研究人员在避免数据污染的前提下构建和评估病理AI模型。该模型遵循CC-BY-NC-ND 4.0许可证,仅限非商业学术研究使用。
hibou-L
面向数字病理学的视觉Transformer模型,通过12亿张医疗图像数据集训练而成。模型专注于病理图像特征提取,可应用于多种病理分析任务,并通过transformers库实现便捷部署。
Virchow2
Virchow2是一个专门用于病理切片分析的深度学习模型,通过310万张医学图像训练而成。模型能够自动分析不同放大倍率的病理图像,提取关键特征信息,为计算病理学研究提供基础支持。其采用先进的视觉转换器架构,具备强大的图像处理能力。目前仅向学术研究机构开放使用,需要通过机构邮箱认证。
H-optimus-0
H-optimus-0是一个开源的视觉Transformer模型,基于11亿参数,利用自监督学习在50万张H&E染色全幅切片病理图像上训练。该模型能从组织学图像中提取强大特征,支持突变预测、生存分析和组织分类等应用。模型期望输入图像尺寸为224x224,建议在CUDA设备上采用混合精度以加快推断。适用于医学图像处理,尤其在病理学与组织学研究中表现出色。