Project Icon

OnnxStream

适用于低资源设备的模型运行的内存优化的推理库

OnnxStream专为优化内存使用而设计,支持在低资源设备上高效运行大型模型如Stable Diffusion和TinyLlama。在仅有512MB RAM的Raspberry Pi Zero 2上,实现图像生成和语言模型推理,而无需额外交换空间或磁盘写入。通过解耦推理引擎与模型权重组件,OnnxStream显著降低内存消耗,提供轻量且高效的推理解决方案。其静态量化和注意力切片技术增强了多种应用中的适应性和性能。

SqueezeLLM - 硬件资源优化下的大语言模型量化服务
GithubSqueezeLLM内存优化大语言模型开源项目模型压缩量化
SqueezeLLM通过密集与稀疏量化方法降低大语言模型的内存占用并提升性能,将权重矩阵拆分为易量化的密集组件和保留关键部分的稀疏组件,实现更小内存占用、相同延迟和更高精度。支持包括LLaMA、Vicuna和XGen在内的多个热门模型,提供3位和4位量化选项,适用于不同稀疏度水平。最新更新涵盖Mistral模型支持和自定义模型量化代码发布。
streaming-llm - 突破输入长度限制的流式语言模型框架
AI对话GithubStreamingLLM开源项目无限长度输入注意力机制语言模型
StreamingLLM是一个创新框架,使大型语言模型能处理超长输入序列。它通过注意力汇聚点技术解决了长文本处理的内存和性能问题,无需额外微调。在多轮对话等流式应用中,StreamingLLM比基线方法速度提升最高22.2倍。该技术已被多个知名项目采用,为语言模型的实际应用开辟了新途径。
onnx - 一个为 AI 开发人员提供支持的开放生态系统
AI模型GithubONNX开源项目推理机器学习深度学习
ONNX是一个开放生态系统,提供AI模型的开源格式,支持深度学习和传统机器学习。通过定义可扩展的计算图模型和内置操作符及标准数据类型,ONNX增强了不同框架间的互操作性,加速了从研究到生产的转化。ONNX广泛支持各种工具和硬件,助力AI社区快速创新。了解ONNX的文档、教程和预训练模型,加入社区,共同推动ONNX的发展。
onnx - 跨平台开源机器学习模型交换格式
GithubGlobal Corporation人工智能企业安全开源项目社交媒体跨平台应用
ONNX是一种开放的机器学习模型表示格式,支持跨框架模型互操作。它定义了统一的模型表示方式,实现不同AI框架间的模型转换。ONNX简化模型部署过程,提升AI应用效率。作为行业标准,ONNX促进AI生态系统发展,为开发者和企业带来更多可能性。
onnx2tflite - 优化ONNX模型到TensorFlow Lite的转换工具,具备高一致性和自动通道对齐功能
GithubKerasONNXPyTorchTFLite开源项目转换
onnx2tflite工具实现从ONNX到TensorFlow Lite和Keras的快速高效模型转换。它具备高一致性,平均误差低于1e-5,速度比其他工具提高30%。支持自动转换PyTorch和TensorFlow格式,并能输出FP16和UINT8定量模型。用户还可以自定义操作符,提升模型转换和部署的灵活性。
Llama-2-Onnx - Llama 2模型的ONNX优化版本
AI模型GithubLlama 2ONNX开源项目模型优化自然语言处理
此项目是Meta Llama 2模型的ONNX优化版本。提供7B和13B参数规模,支持float16和float32精度。包含命令行示例和Gradio聊天界面,方便用户使用。项目文档详细介绍了仓库克隆、子模块初始化和性能优化等内容。
onnx2c - 为微控制器优化的神经网络部署工具
C编译器GithubONNXonnx2c开源项目微控制器神经网络
onnx2c是一款ONNX到C的编译工具,专门针对微控制器环境进行优化。它将ONNX文件转换为单一C文件,生成的代码不使用动态内存分配,仅需标准C数学库支持。该工具设计简单易用,无需学习曲线,方便开发者将训练好的神经网络快速集成到微控制器项目中。onnx2c提供多种优化功能,包括张量联合、Cast节点移除和实验性量化,有效提升代码性能和内存利用率。
ppl.nn - 用于 AI 推理的高性能深度学习推理引擎
GithubONNXOpenMMLabPPLNN卷积神经网络开源项目深度学习推理
PPLNN是一款高效的深度学习推理引擎,兼容各种ONNX模型,并对OpenMMLab进行了优化。其最新的LLM引擎包括闪存注意力、分裂K注意力、动态批处理和张量并行等功能,并支持INT8分组和通道量化。项目发布了多个LLM模型,如LLaMA、ChatGLM和Baichuan,并提供详细的构建和集成指南。
mistral-7b-bnb-4bit - 更高效的模型微调与内存优化技术
GithubHuggingfaceMistral 7bUnsloth内存优化开源项目快速微调模型量化模型
Unsloth技术助力Mistral 7b在内存减少70%的同时实现5倍微调速度提升。项目提供多个适合初学者的Google Colab笔记,只需添加数据集并运行,便可生成更快的微调模型,支持导出到GGUF、vLLM或上传Hugging Face。此方案有效优化了Gemma 7b、Mistral 7b、Llama-2 7b等模型的性能和内存使用,提升模型微调效率。
XNNPACK - 多平台优化的神经网络推理引擎 支持移动和嵌入式系统
GithubXNNPACK开源项目深度学习框架神经网络推理移动平台优化算子支持
XNNPACK是一个用于加速高级机器学习框架的神经网络推理引擎。它支持ARM、x86、WebAssembly和RISC-V等多种平台,提供低级性能原语,优化TensorFlow Lite、PyTorch等框架的运行效率。XNNPACK实现了丰富的神经网络操作符,在移动设备和嵌入式系统上表现出色,能高效运行各代MobileNet模型。在Pixel 3a上,XNNPACK能在44毫秒内完成FP32 MobileNet v3 Large的单线程推理,展现了其卓越的性能。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号