Project Icon

aw_nas

模块化设计实现多种NAS算法

aw_nas是一个模块化的神经架构搜索框架,实现了ENAS、DARTS等多种主流NAS算法。框架将NAS系统分解为搜索空间、控制器等组件,通过接口实现灵活组合。支持分类、检测等多种应用场景,并提供硬件分析接口。aw_nas采用插件机制便于扩展,已应用于容错性、对抗鲁棒性等研究方向。

FlexNeuART - 经典和神经网络信息检索的灵活框架
FlexNeuARTGithub信息检索实验框架开源项目排序模型神经网络模型
FlexNeuART是一个轻量级模块化的信息检索框架,适用于研究、教育和评估。该框架支持多种检索方式,包括密集、稀疏和混合检索,并提供多字段多级正向索引功能。FlexNeuART集成了先进的神经网络和传统模型,支持多GPU训练和推理,以及集成学习。通过Python API,用户可以方便地使用检索器和排序器。在MS MARCO文档排序任务中,FlexNeuART展现了优秀的性能,为信息检索领域的研究和应用提供了灵活而强大的工具。
nos - Kubernetes上的AI工作负载优化模块
AI工作负载GPUGithubKubernetes动态GPU分区开源项目资源配额管理
nos是一个开源模块,专门优化Kubernetes上的AI工作负载运行。它通过动态GPU分区和弹性资源配额管理,提高GPU利用率,降低基础设施成本,并增强工作负载性能。该模块支持GPU资源的精细化分配,提高资源利用效率,并允许命名空间之间灵活借用资源配额,最大化提升集群运行能力。
nncase - 神经网络编译器 优化AI加速器性能
AI加速器GithubK230nncase开源项目模型量化神经网络编译器
nncase是专为AI加速器设计的神经网络编译器,支持多输入输出和多分支结构。它采用静态内存分配,提供算子融合优化,支持浮点和uint8量化推理,以及基于校准数据集的后量化。nncase支持零拷贝加载平面模型,适用于K230、K510和K210等芯片。它提供丰富的操作符支持、使用指南和示例,以及完整的生态系统资源,有助于高效部署AI模型。
XNNPACK - 多平台优化的神经网络推理引擎 支持移动和嵌入式系统
GithubXNNPACK开源项目深度学习框架神经网络推理移动平台优化算子支持
XNNPACK是一个用于加速高级机器学习框架的神经网络推理引擎。它支持ARM、x86、WebAssembly和RISC-V等多种平台,提供低级性能原语,优化TensorFlow Lite、PyTorch等框架的运行效率。XNNPACK实现了丰富的神经网络操作符,在移动设备和嵌入式系统上表现出色,能高效运行各代MobileNet模型。在Pixel 3a上,XNNPACK能在44毫秒内完成FP32 MobileNet v3 Large的单线程推理,展现了其卓越的性能。
pytorch-dnc - PyTorch实现的差分神经计算机及相关模型库
DNCGithubSAMSDNC开源项目神经网络记忆增强
这个PyTorch库实现了差分神经计算机(DNC)、稀疏访问存储器(SAM)和稀疏差分神经计算机(SDNC)等模型。它提供灵活API用于构建和训练这些神经网络,支持多层控制器、共享内存等配置。库中还包含复制和加法等基准任务,以及内存可视化功能,有助于开发和评估基于外部存储的神经网络模型。
opensearch-neural-sparse-encoding-doc-v2-distill - 神经稀疏编码模型优化文档检索效率
GithubHuggingfaceOpenSearch变压器模型开源项目文档检索模型神经稀疏编码自然语言处理
opensearch-neural-sparse-encoding-doc-v2-distill是一种先进的学习型稀疏检索模型,能将文档编码为30522维稀疏向量。该模型在BEIR基准测试中表现出色,展现了优秀的零样本性能和搜索相关性。其67M的参数量和0.504的平均NDCG@10分数,体现了模型的高效性。结合OpenSearch神经稀疏特性和Lucene倒排索引,可实现快速精准的文档检索。
AutoAWQ - 面向大型语言模型的高效4位量化框架
AutoAWQGPU加速Github大语言模型开源项目推理量化
AutoAWQ是一个专门针对大型语言模型的4位量化框架,通过实现激活感知权重量化算法,可将模型速度提升3倍,同时减少3倍内存需求。该框架支持Mistral、LLaVa、Mixtral等多种模型,具备多GPU支持、CUDA和ROCm兼容性以及PEFT兼容训练等特性。AutoAWQ为提升大型语言模型的推理效率提供了有力工具。
neural-compressor - 开源深度学习模型压缩工具库
GithubIntel Neural Compressor大语言模型开源项目模型压缩深度学习框架量化
Neural Compressor是一款开源深度学习模型压缩工具库,支持TensorFlow、PyTorch和ONNX Runtime等主流框架。它提供量化、剪枝、知识蒸馏等多种压缩技术,适用于Intel等多种硬件平台。该工具支持大语言模型优化,并与主流云服务和AI生态系统集成。其自动化的精度感知量化策略有助于平衡模型性能和精度。
aistore - 分布式存储系统 专为AI与PB级深度学习优化
AIStoreGithub分布式系统对象存储系统开源项目数据管理深度学习
AIStore是专为AI应用设计的轻量级存储系统,具备线性扩展能力和运行时节点弹性。支持从单机到大规模集群部署,提供统一命名空间、ETL卸载和文件数据集等功能。AIStore与PyTorch集成,采用REST API和S3兼容接口,支持多种后端存储,适用于AI和深度学习工作负载。
norse - 生物启发的脉冲神经网络深度学习库
GithubNorsePyTorch开源项目深度学习神经形态计算脉冲神经网络
Norse是一个基于PyTorch的脉冲神经网络深度学习库,提供生物启发的神经元组件。它利用神经元的稀疏性和事件驱动特性,为研究人员和开发者提供现代化基础设施。Norse支持多种神经元模型、突触动力学和算法,并提供数据集集成和任务示例,适用于不同规模的实验环境。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号