#深度学习

TopDeepLearning - 与深度学习相关的热门 github 项目列表
深度学习GitHub人工智能TensorFlowPyTorchGithub开源项目
TopDeepLearning收录了包括但不限于多种技术栈的GitHub深度学习项目。这些开源项目支持广泛的应用场景如计算机视觉和自然语言处理,且提供最新研究成果和代码,是开发者和研究者的理想学习资源。
deep-learning-roadmap - 为开发者和研究人员提供的从入门到高级应用全覆盖,涵盖图像识别、自然语言处理等关键领域深度学习的综合资源,
深度学习卷积神经网络生成模型强化学习图像识别Github开源项目
为开发者和研究人员提供深度学习的综合资源,从入门到高级应用全覆盖,涵盖图像识别、自然语言处理等关键领域。借助本平台,您可以迅速找到所需资源,掌握最前沿的深度学习技术。
DIGITS - 深度学习模型训练的专用Web应用工具
DIGITS深度学习NVIDIAGPU训练tensorflowGithub开源项目
DIGITS是一个支持Caffe、Torch和Tensorflow框架的深度学习模型训练Web应用,提供详尽的用户文档和实用案例,支持Ubuntu 14.04和16.04操作系统,专为研究人员和开发者设计。
gluonts - 基于深度学习的概率时间序列建模工具包
GluonTS时间序列预测Python深度学习概率模型Github开源项目
GluonTS是一个基于Python的时间序列建模库,专注于采用深度学习方法进行概率预测。支持多种深度学习框架,包括PyTorch和MXNet,提供易于安装和使用的特性。适用于多种应用场景,如商业分析和数据科学。由一个积极的开源社区维护和发展。
Deep-Learning-in-Production - 将PyTorch、TensorFlow、Keras和MXNet等深度学习模型部署至生产环境的介绍
PyTorchTensorFlow部署深度学习C++Github开源项目
项目详细介绍了如何将PyTorch、TensorFlow、Keras和MXNet等深度学习模型部署至生产环境,包括模型转换、API集成、服务器运作及跨框架策略。这一资源库提供实际细节和案例,帮助开发者全面了解部署流程,并通过Flask、C++、Go等多种技术实现模型应用。
RSPapers - 关于推荐系统的必读论文的精选清单
推荐系统深度学习协同过滤知识图谱隐私保护Github开源项目
RSPapers提供综合的推荐系统研究资源,覆盖系统教程、综合调研和多种议题,如社交、基于深度学习、冷启动、效率、探索与利说问题等,加上基于知识图谱和评论的最新研究。该资源库定期更新,包含多领域实用案例及隐私保护策略,非常适合研究者与实践者。
dgl - 图深度学习框架加速图神经网络应用与研究
DGL图神经网络深度学习大规模图分布式训练Github开源项目
DGL是一个高效易用的Python包,支持在图上执行深度学习。兼容PyTorch、Apache MXNet和TensorFlow等多种框架,提供GPU加速的图库、丰富的GNN模型示例、全面的教学材料及优化的分布式训练功能。适合从研究人员到行业专家的各类用户。广泛应用于学术及实践领域,无论是基础教学还是高级图分析,DGL均能有效支持。
pytorch-deep-learning - 深入PyTorch的深度学习实用教程
PyTorch深度学习神经网络计算机视觉迁移学习Github开源项目
本课程涵盖从基础到高级的深度学习概念,通过实践教学与丰富的视频材料,讲解PyTorch操作和应用。包括神经网络分类、计算机视觉和数据集处理等主题,适合希望深化机器学习理解和应用的学习者。课程包括最新的PyTorch 2.0教程,确保内容的时效性和专业性。
lightning-hydra-template - 支持多GPU和TPU等多种训练选项的深度学习模板
PyTorch LightningHydra深度学习配置管理AI研究Github开源项目
了解Lightning-Hydra-Template,这是一个兼具代码整洁和高性能的深度学习项目模板。它利用PyTorch Lightning和Hydra优化项目架构和实验管理,支持多GPU和TPU等多种训练选项,同时提供自动化测试和代码风格指导,帮助AI专业人员提升工作效率。此模板适用于快速试验和研发创新。
Artificial-Intelligence-Deep-Learning-Machine-Learning-Tutorials - 最新的机器学习、深度学习和人工智能教程集锦
深度学习机器学习PyTorchTensorFlowAI应用Github开源项目
该项目提供了涵盖机器学习、深度学习和人工智能的最新教程,强调在GPU编程、数据中心人工智能以及与Web3相关的可持续人工智能等领域的最新动向。集成了PyTorch、TensorFlow等工具和库的实战案例,助力用户精通深度学习技术,同时展示技术在交通、医疗等领域的应用前景。
deep-text-recognition-benchmark - 基于深度学习方法的文本识别
场景文本识别深度学习PyTorch数据集模型分析Github开源项目
该项目是一个开源的场景文本识别框架,通过四阶段的官方PyTorch实现,支持现有大多数STR模型。它允许在统一的数据集上,评估各个模块的性能表现,包括准确性、速度和内存需求,并已被多个国际竞赛验证。用户可使用预训练模型进行测试,或进行更深入研究。
LongLoRA - 探索大规模长上下文语言模型的高效训练与实用应用
LongAlpaca长上下文语言模型LLaMA2LoRA深度学习Github开源项目
LongLoRA项目开发了一种高效微调方法,处理大型长上下文语言模型,涵盖了从7B至70B的各种模型规模和LongAlpaca-12k实验性数据集。项目支持多种微调方式,在基凊测试中验证了模型性能,技术可应用于多种NLP任务,助力复杂语言处理。实现显著性能优势,为企业和研究人员在从机器翻译到自动摘要等NLP任务中提供了有效的解决方案。
swift - 轻量级基础架构,专为深度学习开发者打造的训练与推理框架
SWIFT模型培训多模态大模型深度学习在线工具Github开源项目
SWIFT平台支持超过300种大型语言模型与50多种多模态模型的训练、微调和部署。提供NEFTune、LoRA+、LLaMA-PRO等先进的训练技术及适配器库,针对各种研发和生产环境。同时,平台提供Gradio web-ui及深度学习课程助力初学者快速上手。
how-to-optim-algorithm-in-cuda - 记录如何基于 cuda 优化一些常见的算法
CUDAPyTorchOneFlow算法优化深度学习Github开源项目
本项目详尽介绍了基于CUDA的算法优化方法,涉及从基本元素操作到高级并行处理,包括多个CUDA示例和性能评测。此外,配合专业课程及学习笔记,适用于各层次对CUDA感兴趣的人士。项目还整合了多种教程和代码示例,助力快速学习和应用CUDA优化技术。
PatrickStar - 通过基于块的内存管理并行训练大型语言模型
PatrickStar大模型并行训练异构训练GPU内存优化深度学习Github开源项目
PatrickStar通过其创新的块状内存管理技术,使大型预训练模型训练更加高效且资源节约。该技术优化了内存使用,让硬件资源较少的环境下也能有效训练庞大模型,显著提升训练效率和模型规模,支持多节点超大模型的训练。
T2M-GPT - 基于Pytorch的从文本描述到人类动作生成的AI技术
T2M-GPT人体运动生成视觉结果深度学习三维模型Github开源项目
T2M-GPT, 领先的AI技术, 通过解析文本生成精准的人类动作,已在2023年IEEE/CVF会议展示认可。包含易用的安装、快速指南及训练评估资料,支持多种3D动作数据集。
NLP-Tutorials - 从搜索引擎到预训练模型的全面教程
NLP自然语言处理机器学习深度学习神经网络Github开源项目
NLP教程全面介绍多种自然语言处理模型,涉及搜索引擎技术、词汇及句子理解,并深入探讨seq2seq、Transformer、BERT和GPT等先进模型,包括实用的代码示例和理论分析。
feishu-openai - 飞书与AI助手的结合
飞书AI模型深度学习自动化高性能Github开源项目
集成GPT-4、DALL-E、Whisper等AI技术,飞书OpenAI提供多元化办公解决方案与安全部署选项,适合各规模企业。了解更多升级商业共创版的优势,助力企业步入智能办公新纪元。
step_into_llm - 大模型技术公开课免费课程
MindSpore大模型技术公开课人工智能深度学习Github开源项目
昇思MindSpore技术公开课提供多领域专家解读,并结合理论与实践,涵盖前沿大模型技术。课程免费,提供开源课件代码,从Transformer到ChatGPT,探讨最新大模型发展趋势。适合所有开发者,系列课程在B站直播,资源同步上传至GitHub。报名参与,与社区共建AI技术未来。
nanodl - 设计与训练变压器模型的Jax库
NanoDLJaxtransformer模型分布式训练深度学习Github开源项目
这是一个基于Jax的库,旨在简化变压器模型的开发和训练,特别适合资源有限的环境。支持多种模型如Gemma、GPT3、T5和Whisper,涵盖自然语言处理和计算机视觉任务。提供灵活的模块和层,包括Jax/Flax中未提供的RoPE、GQA、MQA和Swin注意力机制,支持多GPU/TPU的数据并行训练,简化数据处理。该库还包含加速的经典机器学习模型,帮助用户以最小的代码重写快速实现模型开发和训练。
raycast-g4f - 无需API Key使用GPT-4和Llama-3等AI模型,与Raycast轻松集成
RaycastGPT-4Llama-3深度学习免费使用Github开源项目
使用Raycast无需API Key即可免费访问GPT-4、Llama-3等AI模型。支持实时消息流、多种命令、文件上传、图像生成、自动更新和智能聊天命名功能。安装简单,通过源代码实现,增强生产力与AI技术的结合。
Awesome-MIM - 掩码图像建模在自监督表示学习中的应用与发展
Masked Image Modeling自监督学习计算机视觉Transformer深度学习Github开源项目
该项目汇总了掩码图像建模(MIM)及相关的自监督学习方法。涵盖了从2008年以来的主要自监督学习研究,并展示了其在自然语言处理和计算机视觉领域的发展历程和关键节点。所有内容按时间顺序排列并定期更新,包括相关论文、代码和框架的详细信息,旨在帮助研究者深入理解和应用MIM方法。欢迎贡献相关文献或修正建议。
Autonomous-Agents - 自主代理人领域的最新研究动态
Autonomous AgentsLLM多智能体系统研究论文深度学习Github开源项目
Autonomous Agents项目每日更新研究论文,涵盖大模型推理计算、递归多代理系统、身份生成等多个领域。该项目致力于通过推理计算优化、任务环境生成和工具管理等方式,提高自主代理人的效率与功能。每篇论文经过评审,展示了LLM模型在角色模拟、法律咨询和心理健康咨询等领域的应用。了解最新技术和实际案例,洞见自主代理人的发展趋势。
OpsPilot - 基于深度学习与LLM的智能运维助理,支持多系统联动
OpsPilot智能运维深度学习LLM技术WeOps团队Github开源项目
OpsPilot是一个由WeOps团队开源的智能运维助理,基于深度学习和LLM技术开发。它能够通过运维大脑整合各类运维系统,提升智能化运维能力,支持智能问答、ChatOps和智能引导功能,通过Web和企业微信提供服务。未来更新将包括aiops-server、Jenkins集成,并计划支持Gitlab、Prometheus等,增强日志洞察、监控指标和AI代码审查功能。
Omega-AI - Java深度学习框架,支持多模型构建与GPU加速
深度学习Omega-AIjavaGPU加速神经网络Github开源项目
Omega-AI是一个基于Java的深度学习框架,支持快速搭建并训练神经网络模型,涵盖BP、卷积、循环神经网络等多种类型。支持VGG16、ResNet、YOLO、LSTM、Transformer、GPT-2等多种模型。最新版本支持CUDA和CUDNN加速,极大提高运算速度。项目提供详细的环境配置指南及示例代码,帮助用户轻松上手。
OpenML-Guide - 开源AI知识和资源的全方位指南
OpenML GuideAI深度学习机器学习开源Github开源项目
Open DeepLearning为AI学习者提供免费、高质量的课程、书籍、教程和研究论文,涵盖从基础到高级的概念,助力掌握最新的AI技术。无论是初学者还是专家,该开源项目旨在通过明确的学习路径简化学习过程。用户还可以通过GitHub、Discord和Twitter参与社区互动,贡献内容、改进资源和提出建议,提升学习效果。
ArXivQA - 使用自动化问答系统解读最新ArXiv论文
ArXiv自动问答语言模型深度学习文献分析Github开源项目
该平台提供基于最新ArXiv论文的自动化问答功能,覆盖多模态代理、语言不平衡、开源审查等研究领域。利用自然语言处理技术,快速提取论文关键信息,帮助研究人员高效掌握和应用前沿科研成果。项目由Anthropic支持,使用Claude-2.1 API实现问答功能。
pytorch-rl - Pytorch中的深度强化学习算法实现
Pytorch强化学习深度学习OpenAI Gym机器人任务Github开源项目
pytorch-rl项目在Pytorch中实现了多种深度强化学习算法,适用于连续动作空间。用户可以在CPU或GPU上高效训练这些算法,并与OpenAI Gym无缝集成。支持的算法包括DQN、DDPG、PPO等,涵盖环境建模和参数空间噪声探索等功能。
VisorGPT - 通过生成式预训练掌握视觉先验 NeurIPS
VisorGPTNeurIPS 2023视觉先验生成预训练深度学习Github开源项目
VisorGPT项目通过生成式预训练技术学习视觉先验,展示了最新的代码、预训练模型权重和快速入门指南。该项目由新加坡国立大学、深圳大学和腾讯YouTu实验室合作完成。点击查看详细教程和演示视频,了解如何应用这项前沿技术。
attention-viz - 帮助理解Transformer模型在语言和视觉任务中的自注意力机制
attention-vizTransformer深度学习可视化自然语言处理Github开源项目
此项目通过可视化技术帮助研究人员理解Transformer模型在语言和视觉任务中的自注意力机制,展示查询与关键向量的关系和整体模式。AttentionViz提供了交互式工具,支持多输入序列分析,提升了模型理解,并在多个应用场景中展现其实用性。
attorch - 易于修改的Python神经网络模块
attorchPyTorchTriton深度学习神经网络模块Github开源项目
attorch是一个基于OpenAI Triton的PyTorch模块子集,提供易于修改的高效神经网络模块。支持自动混合精度、计算机视觉和自然语言处理相关层。
Keras-TextClassification - 多样预训练模型支持的高效文本分类工具
Keras-TextClassification文本分类深度学习神经网络嵌入式模型Github开源项目
为中文用户提供高效的文本分类解决方案,支持FastText、BERT、Albert等多种预训练模型,涵盖词、字、句子嵌入。详细介绍数据处理与模型训练流程,通过下载与调用数据,实现多标签分类和文本相似度计算,简化复杂的自然语言处理任务。
torchdistill - 模块化深度学习知识蒸馏框架
torchdistill知识蒸馏深度学习PyYAML模型训练Github开源项目
torchdistill是一款模块化的深度学习知识蒸馏框架,通过编辑yaml文件即可设计实验,无需编写Python代码。支持提取模型中间表示,方便进行可重复的深度学习研究。通过ForwardHookManager,无需修改模型接口即可提取数据。支持从PyTorch Hub导入模块,并包含多种范例代码及预训练模型,适用于图像分类、目标检测、语义分割和文本分类等任务。
ktrain - 轻量级的深度学习和AI工具包
ktrain机器学习深度学习TensorFlow Keras预训练模型Github开源项目
ktrain 是一个基于 TensorFlow Keras 的轻量级深度学习库封装,帮助用户快速构建、训练和部署各种机器学习模型。适用于文本、视觉、图表和表格数据,支持文本分类、图像识别、节点分类和因果推断等任务。无论是初学者还是有经验的研究人员,都能借助其简单的 API 和多种学习率策略,快速实现高效模型部署,支持导出到 ONNX 和 TensorFlow Lite。
awesome_deep_learning_interpretability - 最新深度学习模型解释性研究与资源汇编
awesome_deep_learning_interpretability深度学习模型解释性引用次数最新论文Github开源项目
本项目收录了最新的159篇深度学习模型解释性相关论文,便于研究人员和工程师深入了解模型内部原理及行为。这些论文按引用次数排序,涵盖多个学科领域,提供了相应代码资源,帮助用户更好地应用解释性技术。页面内容定期更新,保障最新研究成果的收录和呈现。
TTS - 多语言支持和低延迟的先进文本到语音转换技术
Coqui.aiTTS语音合成深度学习多语言Github开源项目
🐸TTS库提供多达16种语言的高级文本到语音转换模型,支持低于200毫秒的流媒体延迟。它包含丰富的工具用于模型训练和微调,并且拥有超过1100种预训练模型,适用于多语言和多说话人TTS任务。此外,该库还支持高效的语料库分析和管理,为语音合成提供全面支持。