Project Icon

dlpack

促进深度学习框架间张量共享与协作

DLPack是一种开放的内存张量结构,用于深度学习框架间的张量共享。它简化了框架间的运算符共享,便于封装供应商级运算符实现,支持快速切换后端实现。作为跨框架复用的桥梁,DLPack不直接实现张量和操作,而是促进深度学习生态系统的协作,为用户提供更多运算符选择和框架混合使用的可能性。

tensorpack - 高效的神经网络训练接口,支持多GPU和分布式训练
GithubTensorpack可重复性研究开源项目数据加载性能训练速度高质量实现
Tensorpack是基于TensorFlow的神经网络训练接口,专注于提升训练速度与性能。其高效的数据加载和并行化策略显著提高了训练速度,尤其是在CNN上的表现比Keras代码快1.2到5倍。Tensorpack适合需要可重复和灵活研究的开发者,支持多GPU和分布式训练,并提供多个著名论文的高质量复现案例。Tensorpack并不是一个模型包装器,用户可以灵活使用TensorFlow及其他高层API。
dlprimitives - 开源跨平台深度学习与推理工具库
GPUGithubONNXOpenCL开源项目深度学习跨平台
DLPrimitives是一个开源项目,旨在提供跨平台的OpenCL深度学习和推理工具。该项目创建了支持多种GPU架构的深度学习原语库和高效推理库。DLPrimitives的目标包括开发简约的深度学习框架,并与PyTorch、TensorFlow等主流框架集成,使OpenCL API在深度学习领域得到广泛应用。目前,DLPrimitives已支持多种神经网络模型,并在AMD、Intel、NVIDIA等多种GPU上进行了测试。
DALI - 加速深度学习应用的GPU加速数据加载与预处理库
GPU加速GithubNVIDIA DALI多框架支持开源项目数据预处理深度学习
NVIDIA DALI是一个GPU加速的数据加载和预处理库,专为提高深度学习应用效率而设计。它提供了一套优化的工具,改善图像、视频和音频的处理,同时解决CPU瓶颈,支持跨多平台框架使用。此外,DALI利用GPUDirect Storage技术,从而实现从存储到GPU内存的直接数据传输,显著提升处理速度。
dgl - 图深度学习框架加速图神经网络应用与研究
DGLGithub分布式训练图神经网络大规模图开源项目深度学习
DGL是一个高效易用的Python包,支持在图上执行深度学习。兼容PyTorch、Apache MXNet和TensorFlow等多种框架,提供GPU加速的图库、丰富的GNN模型示例、全面的教学材料及优化的分布式训练功能。适合从研究人员到行业专家的各类用户。广泛应用于学术及实践领域,无论是基础教学还是高级图分析,DGL均能有效支持。
DALM - 优化AI语言模型的开源自适应工具包
ArceeDALMGithubLlama-2-7b-hfRAG-end2endcontrastive learning开源项目
Arcee开源的领域自适应语言模型工具包(DALM)结合了RAG-e2e架构,实现LLM与向量存储的高效整合。该工具包支持Llama、Falcon和GPT等解码器,适用于特定领域的高级定制。工具包包括数据处理、训练和评估的完整代码库,支持对比学习和高效的检索生成联合训练。
elasticdl - Kubernetes原生深度学习框架,支持弹性调度和容错
ElasticDLGithubKubernetesPyTorchTensorFlow开源项目深度学习
ElasticDL是一个Kubernetes原生的深度学习框架,提供故障容错和弹性调度功能。通过Kubernetes的原生设计,ElasticDL能够实现故障恢复,并与其优先权抢占机制协同工作,提高集群整体利用率。框架支持TensorFlow和PyTorch,界面简洁,用户可通过命令行进行分布式训练。无论在本地、内部集群还是公有云,ElasticDL都能快速启动深度学习任务。
XNNPACK - 多平台优化的神经网络推理引擎 支持移动和嵌入式系统
GithubXNNPACK开源项目深度学习框架神经网络推理移动平台优化算子支持
XNNPACK是一个用于加速高级机器学习框架的神经网络推理引擎。它支持ARM、x86、WebAssembly和RISC-V等多种平台,提供低级性能原语,优化TensorFlow Lite、PyTorch等框架的运行效率。XNNPACK实现了丰富的神经网络操作符,在移动设备和嵌入式系统上表现出色,能高效运行各代MobileNet模型。在Pixel 3a上,XNNPACK能在44毫秒内完成FP32 MobileNet v3 Large的单线程推理,展现了其卓越的性能。
DeepSpeed - 一个深度学习优化库,专为大规模模型训练和推理设计
DeepSpeedGithub分布式训练大规模模型训练开源项目模型压缩模型推理
DeepSpeed 是一个深度学习优化软件套件,专为大规模模型训练和推理设计,能显著优化系统性能和降低成本。它支持亿级至万亿级参数的高效管理,兼容各种计算环境,从资源受限的GPU系统到庞大的GPU集群。此外,DeepSpeed 在模型压缩和推理领域亦取得创新成就,提供极低的延迟和极高的处理速率。
distributed-llama - 优化大型语言模型的分布式计算性能
Distributed LlamaGithubLlama 3Python 3TCP socketsTensor parallelism开源项目
通过分布式计算技术,分散大型语言模型(LLMs)的工作负载到多个设备上,即使是性能较弱的设备也能运行强大的LLMs。项目使用TCP sockets同步状态,用户可以使用家庭路由器轻松配置AI集群,实现显著加速效果。Distributed Llama支持多种模型架构,提供简便的设置和操作方法,用户可以在本地运行大规模语言模型。
TensorLayer - 高性能且灵活的深度学习和强化学习工具库
GithubTensorFlowTensorLayer开源软件开源项目强化学习深度学习
TensorLayer 是一个基于 TensorFlow 的深度学习和强化学习库,为研究人员和工程师提供多种可定制的神经网络层,简化复杂 AI 模型的构建。它设计独特,结合了高性能与灵活性,支持多种后端和硬件,并提供丰富的教程和应用实例。广泛应用于全球知名大学和企业,如谷歌、微软、阿里巴巴等。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

问小白

问小白是一个基于 DeepSeek R1 模型的智能对话平台,专为用户提供高效、贴心的对话体验。实时在线,支持深度思考和联网搜索。免费不限次数,帮用户写作、创作、分析和规划,各种任务随时完成!

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

Trae

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号