热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#GroupMixFormer
GroupMixFormer:推动视觉 Transformer 的新进展
2 个月前
GroupMixFormer 是一种基于创新的 Group-Mix Attention (GMA) 机制的强大视觉 Transformer 模型,能够同时捕捉不同粒度的 token 和 token 组之间的相关性,在图像分类、目标检测和语义分割等任务中取得了优异的性能。
GroupMixFormer
视觉Transformer
自注意力机制
图像分类
计算机视觉
Github
开源项目
2 个月前
相关项目
GroupMixFormer
GroupMixFormer是一种创新的视觉Transformer模型,引入群组混合注意力(GMA)机制来增强传统自注意力。GMA可同时捕捉不同尺度的token和群组相关性,显著提升模型表征能力。在多项计算机视觉任务中,GroupMixFormer以较少参数实现了领先性能。其中GroupMixFormer-L在ImageNet-1K分类上达到86.2% Top-1准确率,GroupMixFormer-B在ADE20K分割上获得51.2% mIoU,展现出强大潜力。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号