Project Icon

detr

Transformer架构重塑目标检测流程

DETR项目运用Transformer架构创新性地改进了目标检测方法。该方法将传统的复杂流程转化为直接的集合预测问题,在COCO数据集上达到42 AP的性能表现,同时计算资源消耗减半。DETR结合全局损失函数与编码器-解码器结构,实现了图像的高效并行处理,大幅提升了目标检测的速度和准确性。项目开源了简洁的实现代码和预训练模型,便于研究人员进行深入探索和实际应用。

Transformer-in-Computer-Vision - Transformer在计算机视觉中的最新研究汇总
GithubTransformer开源项目最新论文深度学习视觉算法计算机视觉
项目汇总了最新的基于Transformer的计算机视觉研究论文,涵盖了视频处理、图像分类、目标检测和异常检测等广泛应用场景。用户可点击链接查看具体类别的论文和代码。若发现遗漏研究,欢迎提交问题或请求。最新版本更新于2024年8月8日,为科研人员与开发者提供丰富资源。
LeYOLO - 可扩展高效的目标检测CNN架构
COCO数据集GithubLeYOLO开源项目目标检测神经网络计算效率
LeYOLO是一种新型目标检测模型系列,通过创新的CNN架构设计实现了计算效率与准确性的优化平衡。该模型引入高效主干网络缩放、快速金字塔架构网络和解耦网络中的网络检测头,大幅降低计算负载。在COCO验证集上,LeYOLO-Small仅使用4.5 GFLOP就达到38.2%的mAP,比YOLOv9-Tiny减少42%计算量。LeYOLO系列具有强大可扩展性,适用于从超低计算需求(<1 GFLOP)到高效高性能(>4 GFLOPs)的多种场景。
BEVFormer_tensorrt - BEVFormer和BEVDet的TensorRT高效部署方案
BEV 3D DetectionGPU内存优化GithubTensorRT开源项目推理加速量化
本项目实现BEVFormer和BEVDet在TensorRT上的高效部署,支持FP32/FP16/INT8推理。通过优化TensorRT算子,BEVFormer base模型推理速度提升4倍,模型大小减少90%,GPU内存节省80%。同时支持MMDetection中2D目标检测模型的INT8量化部署。项目提供详细基准测试,展示不同配置下的精度和速度表现。
yolov10 - 实现实时端到端目标检测新突破
GithubYOLOv10人工智能实时检测开源项目目标检测端到端
YOLOv10是新一代实时端到端目标检测模型,通过创新的无NMS训练策略和全面的效率-准确度优化设计,在推理速度和计算效率方面实现显著提升。COCO数据集实验结果表明,YOLOv10在不同模型规模下均达到了业界领先的性能和效率水平,为实时目标检测领域带来新的发展方向。
nnDetection - 自适应医学目标检测框架
GithubnnDetection医学目标检测开源项目深度学习自动配置计算机辅助诊断
nnDetection是一个自适应医学目标检测框架,能够自动配置以适应不同医学检测任务。该框架在ADAM和LUNA16等公共基准测试中展现出与顶尖方法相当或更优的性能。项目支持Docker容器和本地安装,提供多个医学数据集的处理指南,便于复现实验结果和集成新数据集。nnDetection为医学目标检测研究提供了标准化接口和自动化工作流程。
Denoising-ViT - 去噪视觉Transformer优化密集识别任务效果
ECCV 2024GithubVision Transformers图像去噪密集识别任务开源项目特征图
Denoising Vision Transformers (DVT)是一种新型方法,用于消除视觉Transformer (ViT)特征图中的视觉伪影。DVT通过去除这些伪影,显著提升了ViT在语义分割和深度估计等密集识别任务中的表现。实验结果表明,DVT能有效改善MAE、DINO、DINOv2等多种预训练ViT模型在PASCAL VOC、ADE20K和NYU-D等数据集上的下游任务性能。
MixFormerV2 - 高效全Transformer跟踪模型 实现CPU实时运行
GithubMixFormerV2Transformer开源项目模型蒸馏目标跟踪神经网络
MixFormerV2是一个统一的全Transformer跟踪模型,无需密集卷积操作和复杂评分预测模块。该模型提出四个关键预测token,有效捕捉目标模板与搜索区域的相关性。项目还引入新型蒸馏模型压缩方法,包括密集到稀疏和深层到浅层两个阶段。MixFormerV2在LaSOT和TNL2k等多个基准测试中表现优异,分别达到70.6%和57.4%的AUC,同时在GPU上保持165fps的推理速度。值得注意的是,MixFormerV2-S是首个在CPU上实现实时运行的基于Transformer的单流跟踪器。
EasyCV - 基于PyTorch的全能计算机视觉工具箱,支持自监督学习和Transformer模型
EasyCVGithubPyTorch图像分类开源项目目标检测自监督学习
EasyCV是基于PyTorch的全能计算机视觉工具箱,专注于自监督学习、Transformer模型和主要视觉任务,包括图像分类、度量学习、目标检测和姿态估计。该工具箱提供了最先进的自监督算法如SimCLR、MoCO V2、Swav、DINO和基于掩码图像建模的MAE。它拥有简单综合的推理接口,并支持多种预训练模型。EasyCV支持多GPU和多工作者训练,利用DALI优化数据处理,使用TorchAccelerator和fp16加速训练,并通过PAI-Blade优化推理性能。
UniTR - 多模态变换器网络推动3D感知进展
3D感知BEV分割GithubUniTR多模态转换器开源项目目标检测
UniTR是一种新型统一多模态变换器网络,用于3D感知任务。它通过共享权重处理相机和激光雷达等多传感器数据,实现高效多模态融合。在nuScenes数据集上,UniTR在3D目标检测和BEV地图分割任务中均达到最新水平,且降低推理延迟。该研究为提升自动驾驶系统的感知能力提供了新思路。
QFormer - 四边形注意力机制提升视觉Transformer性能
GithubVision Transformer图像分类开源项目注意力机制目标检测计算机视觉
QFormer是一种创新的视觉Transformer模型,采用四边形注意力机制替代传统窗口注意力。该模型通过可学习的四边形回归模块,将默认窗口转换为目标四边形进行计算,从而更好地建模不同形状和方向的目标。在图像分类、目标检测、语义分割和人体姿态估计等多项视觉任务中,QFormer在保持低计算成本的同时,性能显著优于现有的视觉Transformer模型。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号