#模型转换

tfjs - 支持浏览器和Node.js的硬件加速JavaScript机器学习库
Github开源项目机器学习JavaScriptAPITensorFlow.js模型转换
TensorFlow.js 是开源的硬件加速JavaScript库,专用于训练和部署机器学习模型。开发者能利用灵活直观的API在浏览器和Node.js环境中创建和运行模型,包括从头开始构建模型、运行现有模型和使用传感器数据重新训练模型。支持多种后端和平台,满足不同项目的需求。
LlamaChat - macOS上的LLaMA、Alpaca和GPT4All本地聊天应用
Github开源项目macOSLLaMALlamaChat模型转换聊天历史
LlamaChat,一个为macOS设计的聊天应用,支持用户在本地与LLaMA、Alpaca和GPT4All模型进行交互。它支持多种模型格式,如PyTorch checkpoints及ggml文件,并具备聊天历史记录及模型调试功能。请注意,LlamaChat不提供模型文件,用户需自行根据相关条款获取。
ivy - 跨框架机器学习代码转换和模型互操作平台
Github开源项目开源机器学习模型转换Ivy框架转换
Ivy 是一个开源的机器学习框架,支持跨多个框架转换机器学习模型和代码。用户可以通过 Ivy 在任何框架中使用机器学习模型或函数,实现代码的转译和模型的互操作性。无论是 PyTorch, TensorFlow, JAX 还是 NumPy,Ivy 都使得代码转换变得简单高效。适用于各类机器学习项目和开发者。它特别适用于那些需要在不同机器学习框架间迁移或转换代码的场景。
TNN - 轻量级、高效能、多平台支持的开源深度学习框架
人工智能Github开源项目性能优化跨平台模型转换TNN
TNN,腾讯优图实验室开源的神经网络推理框架,提供针对移动设备和X86/NV GPUs的高效性能优化。该框架已被QQ、微视等多款应用使用,并支持各大平台包括TensorFlow、Pytorch、MxNet。
bolt - 增强深度学习模型部署的高效轻量级库
Github开源项目深度学习华为模型转换Bolt推理精度
Bolt是一款轻量级深度学习库,旨在提升模型部署效率。它支持Caffe、ONNX、TFLite和Tensorflow的模型转换,提供从FP32到1-BIT的多种推理精度,并适用于ARM和X86 CPU以及多种GPU。该库在华为多个部门广泛应用,具备高性能、丰富的图优化和高效的线程亲和性设置,提升时序数据处理效率。
amazing-openai-api - 跨平台兼容的OpenAI API转换工具
Github开源项目OpenAI APIDocker模型转换AzureGoogle Gemini Pro
Amazing OpenAI API 是一个轻量级的工具,支持将 Azure OpenAI API、YI 34B API 和 Google Gemini Pro 等不同模型的 API 转换为标准的 OpenAI API 格式。用户只需简单配置环境变量或使用 Docker 容器即可快速使用不同平台的 AI 模型,确保 API Key 的安全性,并提供灵活的模型别名映射功能,为开发者提供便捷和高效的解决方案。
onnxmltools - 多框架机器学习模型转ONNX工具
Github开源项目ONNX模型转换依赖ONNXMLTools机器学习工具包
ONNXMLTools可将包括Tensorflow、scikit-learn、Core ML、Spark ML、LightGBM、XGBoost、H2O等在内的多种机器学习模型转换为ONNX格式。它支持通过PyPi或源码安装,依赖ONNX、NumPy和ProtoBuf,适用于Python 3.7及以上版本,提供详尽的转换示例与测试方法。更多信息请参考相关文档与教程。
sklearn-onnx - 将scikit-learn模型转换为ONNX格式的解决方案
Github开源项目ONNX模型转换scikit-learnsklearn-onnxonnxruntime
sklearn-onnx是一个工具,用于将scikit-learn模型转换为ONNX格式,并使用ONNX Runtime进行高性能评估。所有转换器都经过ONNX Runtime测试,用户还能注册外部转换器转换含外部库模型的scikit-learn管道。项目文档包括教程和常见问题解答,帮助用户快速上手。可通过PyPi或源码安装,支持多种操作系统,以提高机器学习模型性能。
Paddle2ONNX - 将PaddlePaddle模型转换为ONNX格式的开源工具
Github开源项目ONNX模型转换PaddlePaddle推理引擎Paddle2ONNX
Paddle2ONNX 是一个开源工具,用于将PaddlePaddle模型转换为ONNX格式,使模型能够部署到多种ONNX支持的推理引擎如TensorRT、OpenVINO等。Paddle2ONNX不依赖其他组件,只需通过pip安装即可使用。它提供命令行接口和多种参数选项,支持模型优化与量化,适用于不同的部署需求。了解如何安装、使用及优化Paddle模型到ONNX格式,提升部署效率与性能。
ONNX-YOLOv8-Object-Detection - 将YOLOv8模型转换为ONNX格式的方法
Github开源项目目标检测GPUONNX模型转换YOLOv8
本项目提供了一种将YOLOv8模型转换为ONNX格式的高效方法,支持在NVIDIA GPU或CPU上进行对象检测。确保输入图片尺寸与模型要求一致,以获得最佳检测精度。项目配有详细的安装指南和推理示例,包括图片、摄像头和视频推理,方便开发者快速上手并应用于实际场景。
onnx2tf - ONNX文件转换工具,支持TensorFlow、TFLite和Keras格式
Github开源项目TensorFlowKerasONNX模型转换onnx2tf
onnx2tf工具解决了在onnx-tensorflow中大规模转置推测的问题,支持将ONNX文件从NCHW转换为TensorFlow、TFLite和Keras的NHWC格式。工具每日进行优化和修复,如遇问题建议尝试旧版本或等待最新更新。该工具兼容PyTorch生成的ONNX模型,支持多种层类型并可与TensorFlow/Keras/TFLite无缝集成。详细的环境配置和使用指南适用于Linux和Windows。
coremltools - Core ML格式模型转换和优化工具
Github开源项目机器学习Python包模型转换Core MLCore ML Tools
coremltools工具可以将TensorFlow、PyTorch、scikit-learn等机器学习模型转换为Core ML格式,并支持对这些模型的读写、优化和验证。这些模型可以无缝集成到Xcode项目中使用。
X2Paddle - 飞桨生态下的模型转换工具,致力于帮助其它深度学习框架用户快速迁移至飞桨框架
Github开源项目PyTorch深度学习模型转换飞桨X2Paddle
X2Paddle是一个将Caffe、TensorFlow、ONNX和PyTorch模型转换为飞桨框架的开源工具。它支持推理模型和PyTorch训练项目的快速迁移,并提供详细的API对比文档。通过简单的一键命令或API,模型转换变得轻松,显著节省迁移成本。适用于Python 3.5+及多种硬件设备,同时支持PaddleLite格式及VisualDL在线转换服务,充分发挥飞桨生态系统的优势。
ml-stable-diffusion - 在Apple设备上实现高效稳定的AI图像生成
Github开源项目AI绘图性能优化Stable Diffusion模型转换Core ML
ml-stable-diffusion是一个开源项目,旨在优化Stable Diffusion模型在Apple设备上的运行。它包含用于模型转换的Python工具和用于iOS/macOS应用集成的Swift包。通过权重压缩等技术,该项目显著提升了性能和内存效率,使开发者能够在Apple平台应用中实现高质量的AI图像生成。
ai-edge-torch - PyTorch模型转TensorFlow Lite的开源解决方案
Github开源项目PyTorch模型转换TensorFlow LiteAI Edge Torch移动设备部署
ai-edge-torch是一个开源Python库,用于将PyTorch模型转换为TensorFlow Lite格式。它支持在Android、iOS和IoT设备上本地运行模型,提供广泛的CPU支持和初步的GPU、NPU支持。该项目还包含生成式API,用于优化大型语言模型在设备端的性能。ai-edge-torch与PyTorch紧密集成,为边缘AI开发提供了实用的工具。
rknn-llm - 瑞芯微芯片大语言模型部署软件栈
Github开源项目大语言模型AI模型部署模型转换RKLLMRockchip芯片
rknn-llm是瑞芯微芯片专用的大语言模型部署软件栈,包含模型转换工具RKLLM-Toolkit、运行时库RKLLM Runtime和RKNPU内核驱动。支持RK3588和RK3576系列平台,兼容TinyLLAMA、Qwen、Phi、ChatGLM3等多种主流大语言模型。该项目注重性能优化和量化精度提升,持续增加新功能,为开发者提供高效的AI模型部署方案。
tensorrtx - TensorRT深度学习网络实现库
Github开源项目模型转换TensorRTGPU加速深度学习网络YOLO系列
TensorRTx项目使用TensorRT API实现主流深度学习网络。它提供灵活构建、调试和学习TensorRT引擎的方法,支持YOLO、ResNet、MobileNet等多种模型。兼容TensorRT 7.x和8.x版本,并包含详细教程和常见问题解答,方便用户快速入门。
swift-coreml-transformers - 实现GPT-2和BERT等Transformer模型
Github开源项目自然语言处理模型转换TransformersSwiftCoreML
swift-coreml-transformers项目提供了GPT-2、DistilGPT-2、BERT和DistilBERT等Transformer模型的Swift Core ML实现。项目包括预训练模型、转换脚本、分词器实现和演示应用。开发者可在iOS设备上部署这些自然语言处理模型,实现文本生成和问答功能。该开源项目展示了如何将先进NLP技术应用于移动设备。
torch2trt - PyTorch模型转TensorRT加速工具
Github开源项目PyTorch模型转换TensorRTGPU加速torch2trt
torch2trt是一款将PyTorch模型转换为TensorRT的开源工具。它基于TensorRT Python API开发,具有简单易用和灵活可扩展的特点。用户通过单个函数调用即可完成模型转换,还支持自定义层转换器。该工具适配多种常用模型,并提供模型保存和加载功能。torch2trt能显著提升NVIDIA设备上的模型推理性能,适用于PyTorch模型推理加速场景。
sk2torch - 实现scikit-learn模型到PyTorch模块的转换
Github开源项目PyTorch模型转换scikit-learnTorchScriptsk2torch
sk2torch是一个开源工具,用于将scikit-learn模型转换为PyTorch模块。它解决了GPU加速推理、模型序列化和梯度计算等问题。sk2torch支持多种scikit-learn模型,使机器学习从业者能够利用PyTorch的GPU加速、TorchScript序列化和反向传播功能。这个项目为scikit-learn用户提供了更多的灵活性和性能优化选择。
AITemplate - 开源高性能深度学习推理框架
Github开源项目深度神经网络模型转换GPU加速AITemplate推理服务
AITemplate是一个开源Python框架,能将深度学习模型转换为CUDA或HIP C++代码,实现高效推理。它支持NVIDIA和AMD GPU,提供接近理论峰值的fp16性能。该框架特点包括独立运行无需第三方库、独特的算子融合技术、与PyTorch兼容以及易于扩展。AITemplate支持ResNet、BERT和Stable Diffusion等多种主流模型。
RapidASR - 开源多模型语音识别框架
Github开源项目语音识别模型转换ONNXRuntimeRapid ASR
RapidASR是一个开源语音识别框架,集成多种模型如Paraformer、WeNet和PaddleSpeech。它支持Python和C++接口,兼容Linux、Windows和Mac系统。该项目结合了语音识别、语音活动检测和标点恢复功能,提供完整的语音转文本流程。RapidASR采用ONNXRuntime推理引擎,支持批量处理,性能稳定且持续更新。其核心代码已并入FunASR,具有良好的扩展性和兼容性。项目还提供详细的文档导航,适用于各种语音识别应用场景,便于开发者快速上手和使用。
faster-whisper-small - 多语言语音识别的高效CTranslate2模型转换
Github开源项目OpenAICTranslate2模型模型转换HuggingfaceWhisper small音频识别
faster-whisper-small项目将openai的whisper-small模型转换为CTranslate2格式,支持多语言自动语音识别,采纳FP16精度以优化性能。此模型可用于CTranslate2基础项目,如faster-whisper,为开发者提供高效的语音转录方案。
bge-reranker-base - 增强Transformers.js与ONNX的兼容性,以助力Web模型快速部署
Github开源项目模型ONNX模型转换HuggingfaceTransformers.jsWebMLbase_model
此项目通过兼容ONNX权重与Transformers.js,支持WebML技术发展。用户可将模型转换为ONNX格式,以满足网页应用需求。本页面提供指南,协助开发者将模型转为ONNX并在Web环境中应用。更多详情可参考🤗 Optimum项目,获取详细优化支持与结构建议。
faster-whisper-base - OpenAI Whisper模型在CTranslate2格式下的应用
Github开源项目自然语言处理Whisper语音识别CTranslate2模型模型转换Huggingface
本项目将OpenAI Whisper base模型转换为CTranslate2格式,支持多语种语音识别。适用于CTranslate2及其衍生项目如faster-whisper,并提供Python代码示例展示音频转录过程。模型采用FP16格式,可灵活调整计算类型。项目详细说明了转换过程,为开发者提供了便捷的语音识别工具。
faster-whisper-base.en - 基于CTranslate2的Whisper英语语音识别模型
Github开源项目Whisper语音识别faster-whisperCTranslate2模型模型转换Huggingface
faster-whisper-base.en是OpenAI Whisper base.en模型的CTranslate2格式转换版本,专为英语语音识别优化。该模型利用CTranslate2框架提高处理速度,支持FP16量化以适应不同计算环境。开发者可通过faster-whisper等项目简单实现音频转录,为语音识别应用提供高效解决方案。模型采用MIT许可证,便于在各类项目中应用。该模型特别适用于需要实时处理或资源受限的环境,如移动设备或边缘计算设备上的语音识别应用。相比原始Whisper模型,faster-whisper-base.en在保持识别准确度的同时,显著提高了处理速度和资源利用效率。
faster-whisper-medium - 多语言语音识别与转录的高效开源解决方案
Github开源项目多语言WhisperCTranslate2模型模型转换Huggingface自动语音识别
该项目是基于OpenAI Whisper medium模型转换而来的CTranslate2格式模型,为faster-whisper项目提供支持。支持90多种语言的语音识别和转录功能,性能优异且准确度高。用户可通过faster-whisper轻松实现音频文件的高效转录,获取精确的时间戳和文本输出。模型采用float16量化,计算类型可根据需求灵活调整,适用于多种语音识别应用场景。
faster-whisper-base - 多语言自动语音识别与转录效率提升的开源工具
Github开源项目Whisperfaster-whisperCTranslate2模型模型转换Huggingface自动语音识别
faster-whisper-base是将OpenAI的Whisper-base模型转换为CTranslate2格式的项目,支持多语言自动语音识别。模型保留FP16精度,用户可以通过CTranslate2的compute_type选项进行模型类型调整,适合需要高效语音转录的应用。
faster-distil-whisper-large-v2 - 通过CTranslate2实现的高效音频转录转换方案
Github开源项目WhisperCTranslate2模型模型转换量化Huggingface自动语音识别
此项目将distil-whisper/distil-large-v2模型转换为CTranslate2格式,适用于CTranslate2项目如faster-whisper,并支持FP16计算,增强了自动语音识别的性能和效率。
faster-whisper-small - 优化的Whisper小型模型实现快速多语言语音转文本
Github开源项目自然语言处理Whisper语音识别CTranslate2模型模型转换Huggingface
faster-whisper-small是OpenAI Whisper小型模型的优化版本,适用于CTranslate2框架。这个模型支持90多种语言的自动语音识别,采用float16量化以提高效率。开发者可通过faster-whisper库轻松集成该模型,适用于多种语音转文本场景。模型具有快速处理能力和广泛的语言覆盖范围,为自动语音识别任务提供了实用的解决方案。
faster-distil-whisper-medium.en - 基于CTranslate2的Whisper medium.en模型语音识别工具
Github开源项目Whisper语音识别faster-whisperCTranslate2模型模型转换Huggingface
该项目将distil-whisper/distil-medium.en模型转换为CTranslate2格式,用于英语语音识别。通过faster-whisper库,实现了高效的音频转录功能。项目提供简洁的Python接口,支持FP16模型权重,并允许灵活选择计算类型。这种优化使得该工具适用于各种需要快速、准确英语语音识别的应用场景。
faster-whisper-small.en - 基于CTranslate2的Whisper小型英语音频转写模型
Github开源项目Whisperfaster-whisperCTranslate2模型模型转换Huggingface自动语音识别
本项目是openai/whisper-small.en模型的CTranslate2格式转换版本,专门用于英语音频转写。它可在CTranslate2或相关项目(如faster-whisper)中使用,通过简单的Python代码实现音频到文本的转换。模型权重采用FP16格式,支持加载时调整计算类型。这一转换模型旨在提供高效、准确的音频转写功能,适用于各种需要快速处理英语音频内容的应用场景。
faster-whisper-tiny.en - 轻量快速的OpenAI Whisper英语语音识别模型
Github开源项目自然语言处理Whisper语音识别CTranslate2模型模型转换Huggingface
faster-whisper-tiny.en是OpenAI Whisper tiny.en模型的CTranslate2优化版本,专门用于英语语音识别。这个模型提供高效的音频转录功能,支持16位浮点量化,可通过faster-whisper库简单集成。它适合需要快速、精确的英语语音转文本解决方案的开发者,特别是在计算资源有限的场景中表现出色。该模型采用MIT许可证,支持音频处理和自动语音识别任务。
HomerSimpson2333333 - 通过RVC模型实现音频格式转换和加载
Github开源项目模型模型转换RVCHuggingfaceHomerSimpson2333333Juuxnscrapaudio-to-audio
HomerSimpson2333333项目使用RVC模型提供音频转换和加载功能。该模型于2023年7月发布,能够将音频文件转换为指定格式,适合多种音频处理场景,并与GitHub上的rvc-runpod项目兼容,具备高效和稳定性。
Florence-2-base-ft - 基于Transformers.js的图像识别文本生成引擎
Github开源项目深度学习模型图像识别模型转换HuggingfaceTransformers.jsFlorence-2
Florence-2-base-ft是一个基于ONNX权重的图像识别模型,专门针对Web环境优化。通过Transformers.js框架,该模型能够实现图像描述生成等功能。开发者可以通过JavaScript API将图像分析能力集成到Web应用中,项目提供在线演示展示具体应用效果。
NVLM-D-72B-nf4 - 多模态模型NF4量化与性能优化研究
Github开源项目模型模型转换量化HuggingfaceGPU内存图像文本生成NVLM-D-72B
NVLM-D-72B模型NF4量化转换项目利用BitsAndBytes技术实现双重量化,旨在优化性能。目前纯文本处理表现出色,但图像处理功能仍需完善。项目优化了modeling_intern_vit.py文件,提高了量化模块兼容性。模型运行需48GB以上显存,遵循CC BY-NC 4.0许可。该项目为探索大型多模态模型量化提供了宝贵经验。