Project Icon

onnxruntime-genai

设备端高效运行LLM模型的灵活解决方案

onnxruntime-genai是一个用于设备端高效运行大型语言模型的API。它支持Gemma、Llama、Mistral等多种模型架构,提供多语言接口。该项目实现了生成式AI的完整流程,包括预处理、推理、logits处理等。开发者可以使用generate()方法一次性生成输出或实现逐token流式输出。onnxruntime-genai为本地部署和运行LLM模型提供了简单、灵活、高性能的解决方案。

ipex-llm - 在Intel CPU和GPU上运行大型语言模型(LLM)的高性能库
AIGithubIPEX-LLMLLM运行库PyTorch开源项目英特尔
IPEX-LLM是专为Intel CPU和GPU设计的PyTorch库,能高效运行多种大型语言模型如LLaMA2和Mistral,确保极低延迟。支持最新技术如Microsoft的GraphRAG和多模态模型,及英特尔新型NPU。提供一体化易用性并针对多GPU优化,包括实时演示和详尽的性能基准。
FedML - 跨平台生成式AI和大型语言模型的训练与部署方案
GithubTensorOperaTensorOpera AI分布式训练开源项目生成式AI联邦学习
TensorOpera AI简化了生成式AI和大型语言模型的训练与部署。通过集成的MLOps、调度器和高性能机器学习库,开发者可以在去中心化GPU、多云、边缘服务器和智能手机上经济高效地运行复杂的AI任务。TensorOpera Launch自动配对最经济的GPU资源,消除环境设置和管理难题,支持大规模训练和无服务器部署。TensorOpera Studio和Job Store帮助开发者微调和部署模型,实现高效的跨平台AI工作流。
autollm - 统一API的高效LLM应用开发解决方案
APIAutoLLMFastAPIGithubLLMRAG开源项目
AutoLLM 提供简化的 LLM 应用开发体验,支持 100 多种语言模型和 20 多种向量数据库,具有成本计算、快速创建 RAG LLM 引擎和 FastAPI 应用等功能。通过一行代码即可实现高效的查询引擎和 API 部署,适用于多种应用场景。
ollama-ai - 在Ruby中本地运行开源大语言模型
AIAPIGithubLLMOllamaRuby开源项目
Ollama AI是一个Ruby gem,为Ollama API提供便捷接口。此gem支持本地运行开源大语言模型(LLMs),实现文本生成、聊天对话和嵌入向量等功能。它提供底层API访问,便于开发者构建高级抽象。支持流式输出和模型管理,并提供简洁的客户端接口。适用于需要在Ruby项目中集成本地LLM能力的开发者。
Phi-3-mini-128k-instruct-onnx-tf - 多平台高性能运行的指令微调大语言模型优化版本
AI模型GithubHuggingfaceONNXONNXRuntimePhi-3开源项目模型模型优化
该项目提供Phi-3-mini-128k-instruct模型的ONNX优化版本,支持多种设备和平台高性能推理。模型适配CPU、GPU和移动设备,提供不同精度版本。经指令微调和安全优化,推理能力出色。项目配备ONNX Runtime Generate API,便于开发集成。与PyTorch相比,ONNX版本性能全面提升,FP16 CUDA版本最高提速5倍,INT4 CUDA版本最高提速9倍。
llama-160m-accelerator - 基于多阶段MLP的LLaMA-160M模型推理加速器
DockerGithubHuggingfacevLLM开源项目文本生成模型模型加速深度学习
这是一个为JackFram/llama-160m模型设计的加速器项目,借鉴了Medusa推测解码架构的思想。该加速器通过改造MLP为多阶段结构,实现了基于状态向量和先前采样令牌的单token预测,有效提升了模型推理速度。项目支持与vLLM和Hugging Face TGI等工具集成,为大型语言模型的高效部署提供了实用解决方案。加速器的训练过程轻量化,能够在短时间内完成,适用于各种规模的生成式模型。
LLamaSharp - 跨平台本地运行LLaMA和LLaVA模型的高效库
GithubLLaMALLaVALLamaSharpsemantic-kernel大模型开源项目
LLamaSharp是一个基于llama.cpp的跨平台库,支持在本地设备上高效运行LLaMA和LLaVA等大语言模型。该库提供高级API和RAG支持,便于在应用中部署大型语言模型。LLamaSharp兼容多种后端,支持CPU和GPU推理,适用于Windows、Linux和Mac平台。通过集成semantic-kernel和kernel-memory等库,LLamaSharp简化了应用开发,并提供多个示例和教程帮助用户快速上手。
airllm - 在单个4GB GPU上运行70B大模型,无需量化和蒸馏
AirLLMGithubLlama3.1大语言模型开源项目推理优化模型压缩
AirLLM优化了推理内存使用,使70B大模型能在单个4GB GPU上运行,无需量化、蒸馏或剪枝。同时,8GB显存可运行405B的Llama3.1。支持多种模型压缩方式,推理速度可提升至3倍。兼容多种大模型,提供详细配置和案例,支持在MacOS上运行。
onnx-tool - 专注于深度学习和自然语言处理的ONNX模型管理工具
Githubonnx-tool内存压缩开源项目形状推理模型压缩模型概要分析
ONNX-tool是一款强大的工具,支持ONNX模型的解析和编辑、推断和压缩。适用于自然语言处理和计算机视觉模型,提供模型构建、形状推断、激活压缩、权重压缩及计算图优化,以提升推理性能和存储效率。
llm-analysis - 大型语言模型训练与推理的延迟和内存使用分析工具
GithubTransformer模型llm-analysis内存分析大语言模型延迟分析开源项目
llm-analysis 是一款为大型语言模型(LLMs),如Transformer设计的工具,用于在不同的模型、GPU、数据类型和并行配置下估算训练与推理的延迟和内存使用。通过简单设置,可以快速计算出不同训练和推理方案的系统性能,以确定最优和可行的配置方案。此外,llm-analysis 支持多种并行化和重计算策略,并提供多种预定义配置和命令行接口,极大简化了配置和调试流程。它功能强大且易于集成,是开发和优化LLMs的理想工具。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号