乳腺癌是全球女性中最常见的癌症之一,也是导致女性癌症相关死亡的主要原因。早期诊断对于改善患者预后和生存率至关重要。目前,乳腺X线检查(mammogram)是最主要的乳腺癌筛查手段。然而,准确解读mammogram图像需要大量经验和专业知识,而且即使是经验丰富的放射科医生也可能会出现漏诊或误诊的情况。
近年来,随着深度学习技术的快速发展,基于人工智能的医学图像分析方法在多个领域展现出了巨大潜力。在乳腺癌筛查领域,深度神经网络模型有望辅助放射科医生提高诊断准确率,降低漏诊率。本文将介绍一种基于深度卷积神经网络的乳腺癌分类模型,该模型通过分析mammogram图像,可以自动检测和分类乳腺癌病灶。
该乳腺癌分类模型由纽约大学医学院的研究团队开发,采用了两种主要的模型结构:
仅基于图像的模型(image-only model):直接分析mammogram原始图像进行分类。
基于图像和热图的模型(image-and-heatmaps model):除了分析原始图像外,还利用热图信息辅助分类。
模型的输入包括四个标准视角的mammogram图像:左侧头尾位(L-CC)、右侧头尾位(R-CC)、左侧内外斜位(L-MLO)和右侧内外斜位(R-MLO)。每张图像的分辨率为2677x1942(CC视角)或2974x1748(MLO视角),以16位PNG格式保存。
模型的输出包括四个预测值:左侧乳房良性肿瘤概率(left_benign)、右侧乳房良性肿瘤概率(right_benign)、左侧乳房恶性肿瘤概率(left_malignant)和右侧乳房恶性肿瘤概率(right_malignant)。
为了提高模型的性能和效率,研究团队对原始mammogram图像进行了一系列预处理步骤:
图像裁剪:去除图像背景,只保留包含乳房组织的区域,以减少后续处理的计算量。
最佳中心点计算:为每张图像确定一个最佳的中心点,用于后续的数据增强和特征提取。
热图生成:使用预训练的patch分类器,为每张图像生成良性和恶性两种热图,作为额外的特征输入。
这些预处理步骤不仅提高了模型的训练效率,还有助于模型关注图像中最relevant的区域,从而提高分类准确率。
该乳腺癌分类模型采用了基于DenseNet的深度卷积神经网络架构。DenseNet的核心思想是在网络的每一层都与之前的所有层直接相连,这种密集连接结构有助于缓解梯度消失问题,同时还可以实现特征重用,提高网络的效率。
模型的主要组成部分包括:
特征提取网络:使用DenseNet结构从mammogram图像中提取高级特征。
全局平均池化:将提取的特征图压缩为固定长度的特征向量。
全连接层:将特征向量映射到最终的预测概率。
多任务学习:同时预测良性和恶性肿瘤的概率,利用任务间的相关性提高模型性能。
对于基于图像和热图的模型,还增加了额外的网络分支来处理热图信息,并将其与图像特征融合,以获得更全面的表示。
研究团队使用了大规模的mammogram数据集来训练和评估模型。数据集包含了数万名患者的mammogram图像,以及对应的临床诊断结果。为了提高模型的泛化能力,研究团队采用了以下策略:
数据增强:通过随机旋转、翻转、缩放等操作,人为扩充训练数据集。
交叉验证:使用k折交叉验证方法,确保模型在不同数据子集上都能表现良好。
集成学习:训练多个模型并集成其预测结果,以提高整体性能和鲁棒性。
模型的性能评估主要基于以下指标:
研究结果显示,该深度学习模型在多个评估指标上都优于传统的计算机辅助诊断(CAD)系统,甚至在某些方面超越了经验丰富的放射科医生。
研究团队在一个包含近10万张mammogram图像的测试集上评估了模型性能。结果显示:
仅基于图像的模型:
基于图像和热图的模型:
相比之下,参与实验的放射科医生平均性能为:
这些结果表明,深度学习模型不仅能够达到与专业放射科医生相当的诊断水平,在某些方面甚至可以超越人类专家。特别是,基于图像和热图的模型在各项指标上都取得了最佳性能,证明了结合多种信息源的有效性。
值得注意的是,当将AI模型的预测结果与放射科医生的诊断意见结合时,整体性能得到了进一步提升:
这一发现突出了AI辅助诊断的潜力,即AI不是要替代医生,而是要与医生协作,互补各自的优势,从而显著提高诊断准确率。
基于深度学习的乳腺癌筛查模型展现出了巨大的应用潜力:
提高诊断效率:AI可以快速分析大量mammogram图像,为放射科医生预先标记可疑区域,提高工作效率。
降低漏诊率:AI模型可以作为"第二读者",与人类医生互补,降低由于疲劳或经验不足导致的漏诊风险。
医疗资源优化:在医疗资源紧张的地区,AI可以帮助进行初筛,将有限的专家资源集中于高风险病例。
个性化筛查:结合患者的临床信息,AI模型可以为不同风险人群制定个性化的筛查策略。
然而,将AI技术广泛应用于临床实践仍面临一些挑战:
数据隐私与安全:需要建立严格的数据保护机制,确保患者隐私不被侵犯。
模型解释性:提高深度学习模型的可解释性,使医生能够理解并信任AI的决策过程。
监管与伦理:制定适当的监管框架和伦理准则,规范AI在医疗领域的应用。
临床验证:需要更多大规模、多中心的临床试验来验证AI模型在实际临床环境中的表现。
医患沟通:如何向患者解释AI辅助诊断的结果,培养患者对新技术的信任。
本文介绍的基于深度神经网络的乳腺癌分类模型展示了AI技术在医学影像分析领域的巨大潜力。通过结合先进的深度学习算法和大规模医学影像数据,该模型在乳腺癌筛查任务上取得了与专业放射科医生相当甚至更优的性能。
未来的研究方向可能包括:
进一步提高模型性能,如探索新的网络架构或融合更多类型的医学数据。
提高模型的可解释性,使AI的决策过程更透明、更易于理解。
开发更全面的AI辅助诊断系统,不仅能检测肿瘤,还能评估恶性程度、预测治疗响应等。
探索AI在其他医学影像领域的应用,如肺癌筛查、脑部疾病诊断等。
研究如何最佳地将AI技术整合到现有的临床工作流程中,实现人机协作的最优效果。
总的来说,AI辅助诊断技术有望成为未来医疗实践的重要组成部分,为提高诊断准确率、优化医疗资源分配、改善患者预后做出重要贡献。然而,要充分发挥AI的潜力,还需要医学界、技术界和监管部门的共同努力,以确保这一创新技术能够安全、有效、负责任地应用于临床实践。
Wu, N., Phang, J., Park, J., et al. (2019). Deep Neural Networks Improve Radiologists' Performance in Breast Cancer Screening. IEEE Transactions on Medical Imaging.
Geras, K. J., Mann, R. M., & Moy, L. (2019). Artificial Intelligence for Mammography and Digital Breast Tomosynthesis: Current Concepts and Future Perspectives. Radiology, 293(2), 246-259.
McKinney, S. M., Sieniek, M., Godbole, V., et al. (2020). International evaluation of an AI system for breast cancer screening. Nature, 577(7788), 89-94.
Yala, A., Lehman, C., Schuster, T., et al. (2019). A Deep Learning Mammography-based Model for Improved Breast Cancer Risk Prediction. Radiology, 292(1), 60-66.
Ribli, D., Horváth, A., Unger, Z., et al. (2018). Detecting and classifying lesions in mammograms with Deep Learning. Scientific Reports, 8(1), 4165.
通过深入探讨这一创新的乳腺癌分类模型,我们不仅看到了AI技术在医学影像分析领域的巨大潜力,也认识到了将这些技术转化为临床实践所面临的挑战。随着技术的不断进步和跨学科合作的深入,我们有理由相信,AI辅助诊断将在未来的医疗实践中发挥越来越重要的作用,为患者带来更精准、更个性化的医疗服务。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
用于可扩展和多功能 3D 生成的结构化 3D 潜在表示
TRELLIS 是一个专注于 3D 生成的项目,它利用结构化 3D 潜在 表示技术,实现了可扩展且多功能的 3D 生成。项目提供了多种 3D 生成的方法和工具,包括文本到 3D、图像到 3D 等,并且支持多种输出格式,如 3D 高斯、辐射场和网格等。通过 TRELLIS,用户可以根据文本描述或图像输入快速生成高质量的 3D 资产,适用于游戏开发、动画制作、虚拟现实等多个领域。
10 节课教你开启构建 AI 代理所需的一切知识
AI Agents for Beginners 是一个专为初学者打造的课程项目,提供 10 节课程,涵盖构建 AI 代理的必备知识,支持多种语言,包含规划设计、工具使用、多代理等丰富内容,助您快速入门 AI 代理领域。
AI Excel全自动制表工具
AEE 在线 AI 全自动 Excel 编辑器,提供智能录入、自动公式、数据整理、图表生成等功能,高效处理 Excel 任务,提升办公效率。支持自动高亮数据、批量计算、不规则数据录入,适用于企业、教育、金融等多场景。
基于 UI-TARS 视觉语言模型的桌面应用,可通过自然语言控制计算机进行多模态操作。
UI-TARS-desktop 是一款功能强大的桌面应用,基于 UI-TARS(视觉语言模型)构建。它具备自然语言控制、截图与视觉识别、精确的鼠标键盘控制等功能,支持跨平台使用(Windows/MacOS),能提供实时反馈和状态显示,且数据完全本地处理,保障隐私安全。该应用集成了多种大语言模型和搜索方式,还可进行文件系统操作。适用于需要智能交互和自动化任务的场景,如信息检索、文件管理等。其提供了详细的文档,包括快速启动、部署、贡献指南和 SDK 使用说明等,方便开发者使用和扩展。
开源且先进的大规模视频生成模型项目
Wan2.1 是一个开源且先进的大规模视频生成模型项目,支持文本到图像、文本到视频、图像到视频等多种生成任务。它具备丰富的配置选项,可调整分辨率、扩散步数等参数,还能对提示词进行增强。使用了多种先进技术和工具,在视频和图像生成领域具有广泛应用前景,适合研究人员和开发者使用。
全流程 AI 驱动的数据可视化工具,助力用户轻松创作高颜值图表
爱图表(aitubiao.com)就是AI图表,是由镝数科技推出的一款创新型智能数据可视化平台,专注于为用户提供便捷的图表生成、数据分析和报告撰写服务。爱图表是中国首个在图表场景接入DeepSeek的产品。通过接入前沿的DeepSeek系列AI模型,爱图表结合强大的数据处理能力与智能化功能,致力于帮助职场人士高效处理和表达数据,提升工作效率和报告质量。
一款强大的视觉语言模型,支持图像和视频输入
Qwen2.5-VL 是一款强大的视觉语言模型,支持图像和视频输入,可用于多种场景,如商品特点总结、图像文字识别等。项目提供了 OpenAI API 服务、Web UI 示例等部署方式,还包含了视觉处理工具,有助于开发者快速集成和使用,提升工作效率。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号