Project Icon

algebraic-nnhw

创新FFIP算法驱动的机器学习硬件加速器

项目开发的机器学习硬件加速器架构采用了创新的Free-pipeline Fast Inner Product (FFIP)算法。这种设计只需要传统方法一半的乘法器单元,就能实现相同的性能。该架构适用范围广泛,涵盖全连接、卷积、循环和注意力/transformer等多种机器学习模型层。它可以轻松集成到现有的定点系统阵列ML加速器中,显著提升吞吐量和计算效率。项目不仅提供了完整的RTL实现,还包括配套的编译器和测试环境,为机器学习硬件加速研究领域贡献了有价值的资源。

mirage - 多层次张量程序超优化器提升DNN性能
CUDAGithubMirage开源项目张量代数深度神经网络超优化器
作为一款先进的张量代数超优化器,Mirage在深度神经网络(DNN)性能优化领域展现出独特优势。通过在GPU计算层次结构中实现多层次联合优化,该工具能够自动发现并生成高效的张量程序。Mirage不仅可以识别和验证复杂的优化策略,还能通过搜索等效程序空间来开发出性能卓越的自定义内核。这一技术在各类DNN应用中表现出色,如LLAMA-3-70B模型中的组查询注意力机制和低秩适配器优化,生成的CUDA内核性能显著优于传统手动优化方法。
ComputeLibrary - 优化Arm架构的开源机器学习函数库
ARM架构Compute LibraryGithub开源软件开源项目性能优化机器学习
ComputeLibrary是一个专为Arm架构优化的机器学习函数库,支持Cortex-A、Neoverse处理器和Mali GPU。它提供100多个低级机器学习函数,覆盖多种数据类型和卷积算法,并采用微架构优化、内核融合等先进技术。作为开源项目,ComputeLibrary具有高性能、高度可配置的特点,为Arm平台的机器学习应用开发提供了强大支持。
llm-awq - 激活感知权重量化技术实现大语言模型高效压缩与加速
AWQGithubLLM开源项目模型量化视觉语言模型边缘设备
AWQ是一种高效的大语言模型低比特权重量化技术,支持INT3/4量化,适用于指令微调和多模态模型。它提供预计算模型库、内存高效的4位线性层和快速推理CUDA内核。AWQ使TinyChat可在边缘设备上实现大模型高效本地推理。该技术已被Google、Amazon等采用,并获MLSys 2024最佳论文奖。
Efficient-AI-Backbones - 领先的人工智能模型与技术 - Huawei Noah's Ark Lab 研发
AI模型GithubNeurIPSTransformer华为开源项目机器学习热门
Efficient-AI-Backbones 项目涵盖了由华为诺亚方舟实验室研发的一系列先进的人工智能模型,包括 GhostNet, TNT, AugViT, WaveMLP, 和 ViG 等。这些模型通过创新的结构设计和优化,有效提升了计算效率和性能,广泛应用于各种智能处理任务。最新发布的 ParameterNet 在 CVPR 2024 会议上被接受,展现了华为在人工智能技术领域的持续领先。
marlin - 专为LLM推理设计的FP16xINT4优化内核
CUDAFP16xINT4GithubMarlinNVIDIA GPU开源项目高效推理
Marlin是一款专为LLM推理设计的FP16xINT4优化内核,可实现接近4倍的速度提升,并支持16-32个token的batchsize。通过高效利用GPU资源,如全局内存、L2缓存、共享内存和张量核心,Marlin克服了现代GPU的FLOP和字节比率挑战。多种优化技术包括异步权重加载和双缓冲共享内存加载,确保性能最大化。该项目适用于CUDA 11.8及以上版本,支持NVIDIA Ampere或Ada架构的GPU,并与torch 2.0.0和numpy兼容。在各种基准测试中,Marlin展示了卓越的性能,尤其在持久计算和大batchsize处理方面表现出色。
mlx_parallm - 为Apple Silicon设备实现高效并行推理
Apple SiliconGithubMLX ParaLLM并行推理开源项目批处理KV缓存语言模型
MLX ParaLLM是一个为Apple Silicon设备开发的开源项目,利用MLX框架实现批处理KV缓存技术,从而提高并行推理效率。项目支持Meta-Llama、Phi-3和Gemma等多种模型,兼容量化和float16格式。通过batch_generate方法,MLX ParaLLM实现自动填充、提示模板格式化和多种采样策略,适用于大规模并行文本生成任务。
aw_nas - 模块化设计实现多种NAS算法
GithubNAS框架可扩展开源项目模块化硬件相关神经架构搜索
aw_nas是一个模块化的神经架构搜索框架,实现了ENAS、DARTS等多种主流NAS算法。框架将NAS系统分解为搜索空间、控制器等组件,通过接口实现灵活组合。支持分类、检测等多种应用场景,并提供硬件分析接口。aw_nas采用插件机制便于扩展,已应用于容错性、对抗鲁棒性等研究方向。
inferflow - 为大语言模型提供高效灵活的推理解决方案
GithubInferflow大语言模型开源项目推理引擎模型服务量化
Inferflow是一款功能强大的大语言模型推理引擎,支持多种文件格式和网络结构。它采用3.5位量化和混合并行推理等创新技术,提高了推理效率。用户通过修改配置文件即可部署新模型,无需编写代码。Inferflow支持GPU/CPU混合推理,为模型部署提供灵活选择。该项目为研究人员和开发者提供了高效易用的LLM推理工具。
tiny-gpu - 简化GPU实现深入解析并行计算原理
GPUGithub内存并行化开源项目指令集架构
tiny-gpu是一个精简的GPU实现项目,旨在帮助学习者理解GPU工作原理。该项目聚焦通用GPU和机器学习加速器的核心原理,包括架构设计、SIMD并行化和内存管理。通过Verilog实现、架构文档和矩阵运算示例,tiny-gpu简化了复杂概念,使学习者能从底层理解现代硬件加速器的关键要素。
AutoFP8 - 量化库优化大语言模型推理性能
AutoFP8FP8量化GithubvLLM开源项目模型压缩神经网络
AutoFP8是一个开源FP8量化库,用于生成vLLM兼容的压缩检查点。它提供FP8_E4M3精度的量化权重、激活和KV缓存比例,支持静态和动态激活方案。AutoFP8能将预训练模型转换为FP8格式,与vLLM无缝集成,提高大语言模型推理效率,同时保持模型精度。这个工具适用于优化和部署大规模语言模型。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号