Efficient-AI-Backbones
Efficient-AI-Backbones 项目涵盖了由华为诺亚方舟实验室研发的一系列先进的人工智能模型,包括 GhostNet, TNT, AugViT, WaveMLP, 和 ViG 等。这些模型通过创新的结构设计和优化,有效提升了计算效率和性能,广泛应用于各种智能处理任务。最新发布的 ParameterNet 在 CVPR 2024 会议上被接受,展现了华为在人工智能技术领域的持续领先。
graph-based-deep-learning-literature
该项目收录了基于图的深度学习领域内,例如NeurIPS、ICML和ICLR等顶级会议的出版物、相关工作坊、综述文章、书籍以及软件资源链接。这些资源为学术研究人员和专业学者提供了方便的一站式服务,便于他们探索、查询及利用该领域内的最新科研成果和工具。
continual-learning
此项目实现了在增量学习场景中的PyTorch深度神经网络实验,支持学术设置下的分类问题,且可进行更加灵活的无任务增量学习实验。项目提供了演示脚本和详细的安装指导,适合多种经典方法的性能对比和自定义实验。
CAGrad
CAGrad是一种多任务学习算法,专注于解决梯度冲突问题。该方法通过冲突避免策略平衡各任务目标,在图像预测和强化学习领域表现出色。CAGrad实现简洁,适用于复杂的多任务场景,为相关研究提供新思路。该项目已被NeurIPS 2021接收,并提供了完整的源代码和实验指南。
NDR-code
NDR是一种基于神经网络的动态场景表面重建方法,利用单目RGB-D相机数据恢复高保真几何、运动和外观。该技术无需模板,适用于复杂场景重建。NDR在NeurIPS 2022会议获得Spotlight展示,体现了其在3D视觉领域的创新性。项目提供开源代码和数据集,为相关研究提供参考。
neurips_llm_efficiency_challenge
NeurIPS大语言模型效率挑战赛旨在优化单GPU上的模型运行效率。参赛者需提交Dockerfile实现HTTP服务器,通过HELM任务子集评估模型性能。大赛提供批准的模型和数据集列表,以及样例代码和评估指南。优胜者将在NeurIPS研讨会展示成果。比赛鼓励创新,助力大语言模型在有限资源下的应用。
SRe2L
SRe2L项目提出了一种新颖的大规模数据集压缩方法,通过'挤压'、'恢复'和'重新标记'三个步骤实现ImageNet规模数据的高效压缩。该方法在NeurIPS 2023会议上获得spotlight展示,为数据集蒸馏领域带来新的研究视角。项目还包括SCDD和CDA等相关工作,共同推动数据集蒸馏技术在大数据时代的应用和发展。
rtdl-num-embeddings
rtdl-num-embeddings项目提出了一种处理表格深度学习数值特征的嵌入技术。该方法将连续标量特征转换为向量表示,并在主干网络中混合使用,有效提升了模型性能。这种技术适用于多种模型架构,尤其是在使用嵌入的简单MLP模型中表现突出。通过解决真实世界表格数据中连续特征分布不规则的问题,该方法改善了模型整体优化效果,为表格深度学习领域提供了新的研究方向。
Awesome-Computer-Vision-Paper-List
项目收录了CVPR、ICCV、ECCV、AAAI、IJCAI、NeurIPS等AI顶级会议论文,覆盖计算机视觉和人工智能多个领域。研究人员可快速检索特定主题论文或相似研究。数据源自官方网站,确保信息准确。资源库持续更新,是AI研究人员的重要参考工具。