Project Icon

inference

简化语言和多模态模型部署的强大工具

Xorbits Inference 是一个强大的库,旨在简化语言、语音识别和多模态模型的部署。研究人员、开发者和数据科学家都可以通过一个命令轻松部署和服务先进的内置模型。该库支持连续批处理、MLX后端、SGLang后端及LoRA技术,提供高效的硬件资源利用。Xorbits Inference 与LangChain、LlamaIndex等第三方库无缝集成,支持分布式部署和多种交互接口,是AI模型服务的理想工具。

flashinfer - 专注LLM服务的高效GPU内核库
FlashInferGPU内核GithubLLM服务开源项目注意力机制高性能计算
FlashInfer是一个面向大型语言模型(LLM)服务和推理的GPU内核库。它实现了多种注意力机制,如FlashAttention、SparseAttention和PageAttention。通过优化共享前缀批处理解码和压缩KV缓存等技术,FlashInfer提高了LLM推理效率。该项目兼容PyTorch、TVM和C++,便于集成到现有系统,适用于多种LLM应用场景。
mlc-llm - 通用大语言模型高性能部署引擎
AI模型优化GithubMLC LLMMLCEngine开源项目机器学习编译器高性能部署
MLC LLM是一款用于大语言模型的高性能部署引擎,支持用户在各种平台上开发、优化和部署AI模型。核心组件MLCEngine通过REST服务器、Python、JavaScript、iOS和Android等接口提供OpenAI兼容的API,支持AMD、NVIDIA、Apple和Intel等多种硬件平台。项目持续优化编译器和引擎,与社区共同发展。
unstructured-inference - 非结构化数据布局解析工具 支持多种检测模型
AI模型Githubunstructured布局解析开源工具开源项目文档处理
unstructured-inference 是一个专注于文档布局分析的开源项目。它能够从各种文件中提取文档结构和文本内容,适用于需要高效文档处理的场景。该项目提供多种检测模型,如 Detectron2 和 YOLOX,可通过 API 与 unstructured 包集成。它支持自定义模型,为开发者提供了灵活的布局解析解决方案。
mllm - 轻量级移动设备多模态大语言模型推理引擎
AI推理引擎Githubmultimodal LLM开源项目移动设备边缘计算量化
mllm是一款针对移动和边缘设备优化的多模态大语言模型推理引擎。该引擎采用纯C/C++实现,无外部依赖,支持ARM NEON和x86 AVX2指令集,并提供4位和6位整数量化。开发者可利用mllm构建智能个人助理、基于文本的图像搜索、屏幕视觉问答等移动应用,实现本地推理而无需上传敏感数据。
langchain - 简化和优化上下文推理应用开发框架
AI应用开发GithubLangChain代理大语言模型开源框架开源项目
LangChain是一个开发大型语言模型(LLM)应用的开源框架,提供从原型到生产的全生命周期支持。它包含开源库、生产化工具和部署方案,可用于构建问答系统、结构化数据提取和聊天机器人等应用。其特色在于模块化设计、丰富的第三方集成和预置链式结构,有效提升了LLM应用的开发效率和灵活性。
text-generation-inference - 生产级高性能文本生成推理工具
GithubHugging FaceText Generation Inference分布式追踪大语言模型开源项目量化
Text Generation Inference (TGI) 是一个部署和服务大型语言模型的工具包。它支持Llama、Falcon、StarCoder、BLOOM、GPT-NeoX等流行的开源模型,提供简便的启动器、分布式追踪、张量并行、多GPU推理加速、令牌流等特性。TGI还支持权重量化和安全张量加载,具备自定义提示生成和微调功能,兼容Nvidia、AMD、Inferentia、Intel GPU、Gaudi和Google TPU等硬件平台。
willow - 用于快速语言推理任务的自托管解决方案
GithubLLMSTTTTSWillowWillow Inference Server开源项目
现在可以自托管Willow Inference Server,快速实现语言推理任务。支持与Willow和其他应用的集成,包括语音转文本(STT)、文本转语音(TTS)、大语言模型(LLM)等功能。访问Github discussions分享体验,访问heywillow.io查看详细文档。
server - 开源AI推理服务,兼容多种深度学习和机器学习框架
AI推理GithubNVIDIA AI EnterpriseTriton Inference Server开源项目模型优化深度学习框架
Triton Inference Server是一款开源推理服务软件,支持TensorRT、TensorFlow、PyTorch等多种深度学习和机器学习框架。它优化了云端、数据中心、边缘和嵌入式设备的推理性能,适用于NVIDIA GPU、x86和ARM CPU,以及AWS Inferentia。主要功能包括动态批处理、模型流水线、HTTP/REST和gRPC协议支持等。通过Triton,用户可以轻松部署和优化AI模型,提升推理效率。
LLM-Kit - 无需编程即可部署和定制多语言模型的工具整合包
GithubWebUIsuqin大模型开发部署开源项目语言模型
LLM-Kit项目通过WebUI整合了多种语言模型工具,实现了无需编程即可配置定制化模型和专业应用。项目支持Windows和Linux操作系统以及多个版本的Python,并提供多种训练和推理功能,包括角色扮演、AI智能体和数据库集成。项目还与众多知名模型和工具库兼容,开发者可以轻松上手并参与贡献,进一步优化和扩展项目功能。
sglang - 大语言模型和视觉语言模型高效服务框架
GithubSGLang前端语言后端运行时大语言模型开源项目服务框架
SGLang是一款为大语言模型和视觉语言模型设计的服务框架。该框架通过协同优化后端运行时和前端语言,提高了模型交互的速度和可控性。其后端运行时采用前缀缓存、约束解码和连续批处理等技术提升效率。前端语言支持链式生成调用、高级提示、控制流和多模态等功能,增强了灵活性。SGLang适用于各类LLM应用的快速开发和部署。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号