#模型优化

AWS上的生成式AI应用开发指南

3 个月前
Cover of AWS上的生成式AI应用开发指南

中文对话模型资源库: chat-dataset-baseline项目详解

3 个月前
Cover of 中文对话模型资源库: chat-dataset-baseline项目详解

nm-vllm: 高性能和内存高效的LLM推理与服务引擎

3 个月前
Cover of nm-vllm: 高性能和内存高效的LLM推理与服务引擎

高效深度学习系统:优化深度学习的性能和资源利用

3 个月前
Cover of 高效深度学习系统:优化深度学习的性能和资源利用

EfficientViT: 高效高分辨率视觉任务的新一代模型家族

3 个月前
Cover of EfficientViT: 高效高分辨率视觉任务的新一代模型家族

modded-nanogpt: 高效训练GPT-2模型的改进版本

3 个月前
Cover of modded-nanogpt: 高效训练GPT-2模型的改进版本

LLM Compressor: 优化大语言模型部署的利器

3 个月前
Cover of LLM Compressor: 优化大语言模型部署的利器

深度神经网络压缩技术综述与最新进展

3 个月前
Cover of 深度神经网络压缩技术综述与最新进展

Olive:微软开源的简化机器学习模型优化工具

3 个月前
Cover of Olive:微软开源的简化机器学习模型优化工具

Sparsify: 深度学习模型优化利器

3 个月前
Cover of Sparsify: 深度学习模型优化利器
相关项目
Project Cover

Paddle-Lite

Paddle Lite 是为移动端、嵌入式和边缘设备设计的高性能深度学习推理框架。支持多种硬件平台和操作系统,提供丰富的优化工具和多语言 API,便于快速部署和执行推理任务。通过量化和子图融合等策略,Paddle Lite 实现了轻量化和高性能,并已广泛应用于百度和其他企业。用户可以通过简单步骤完成模型优化和部署,并快速上手示例。

Project Cover

argilla

Argilla是一款为AI工程师和领域专家设计的数据集管理工具,旨在通过高效的数据管理和标注流程提升AI项目的数据质量和模型效果。Argilla支持文本分类、命名实体识别和多模态模型等多种AI项目的数据收集和反馈,帮助用户快速迭代和优化数据与模型。该工具提供开源社区支持,用户可以参与并共享开源数据集和模型。通过与Hugging Face Spaces的集成,用户可以轻松部署和使用Argilla,提高AI项目的整体效率和质量。

Project Cover

FLAML

FLAML是一款轻量级且高效的Python库,旨在简化大语言模型和机器学习模型的自动化工作流程。通过多智能体对话框架和经济高效的自动调优功能,它帮助用户找到优质模型并优化GPT-X工作流。FLAML支持代码优先的AutoML和调优,能处理大规模搜索空间和复杂约束,广泛适用于分类、回归等任务。适用于Python 3.8及以上版本,并提供详细文档和多种扩展选项,满足用户的不同需求。

Project Cover

TensorFlowTTS

探索TensorFlowTTS:快速、灵活的多语言语音合成平台,采用最新技术如Tacotron-2、MelGAN,可部署于移动设备,助力全球开发者创造多语种语音应用。

Project Cover

LLM-VM

Anarchy LLM-VM是一款优化的开源AGI服务器,集成最新LLM和工具,提供高效推理和任务优化。支持本地运行,降低成本并提供灵活性。项目特色包括持久状态记忆、实时数据增强、负载均衡、API端点和Web操作界面,适用于各种架构,致力于透明高效的AGI开发。

Project Cover

natasha

Natasha是一款用于解决俄语基础自然语言处理任务的工具,包括词标记、句子分割、词嵌入、形态标注、词形还原、短语规范化、句法解析、命名实体识别和事实提取。它在新闻领域的性能媲美或优于现有最佳模型。支持在CPU上运行,使用Numpy进行推理,注重模型体积、内存使用和性能。Natasha项目集成了多个库如Razdel、Navec、Slovnet和Yargy,提供统一的API,用户可在Python 3.7+环境中方便安装并快速上手使用。

Project Cover

sparseml

SparseML是开源模型压缩工具包,使用剪枝、量化和蒸馏算法优化推理稀疏模型。可导出到ONNX,并与DeepSparse结合,在CPU上实现GPU级性能。适用于稀疏迁移学习和从零开始的稀疏化,兼容主流NLP和CV模型,如BERT、YOLOv5和ResNet-50,实现推理速度和模型大小的显著优化。

Project Cover

optimizer

ONNX提供了一个C++库,通过预包装的优化通道对ONNX模型进行优化。主要目标是促进各ONNX后端实现共享工作,并支持多种直接在ONNX图上实现的优化。用户可以通过简单的函数调用使用这些通道,或添加新的优化通道。安装方式包括通过PyPI或从源代码构建。

Project Cover

server

Triton Inference Server是一款开源推理服务软件,支持TensorRT、TensorFlow、PyTorch等多种深度学习和机器学习框架。它优化了云端、数据中心、边缘和嵌入式设备的推理性能,适用于NVIDIA GPU、x86和ARM CPU,以及AWS Inferentia。主要功能包括动态批处理、模型流水线、HTTP/REST和gRPC协议支持等。通过Triton,用户可以轻松部署和优化AI模型,提升推理效率。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号