#OpenAI兼容

ialacol - 轻量化OpenAI API兼容替代方案,适合Kubernetes环境并支持快速Helm安装
Github开源项目模型支持机器学习ialacolOpenAI兼容Kubernetes部署
ialacol是一个轻量级的OpenAI API兼容替代方案,支持LLaMa 2、Mistral、StarCoder等多种模型,并提供Kubernetes集群的一键Helm安装。项目具备CUDA加速、流式体验和与GitHub Copilot VSCode扩展的兼容性。通过配置示例和运行指南,可以灵活部署和配置服务,实现快速启动和高效使用。ialacol兼容ctransformers和多种LLMs,适合多种应用场景。
llama-cpp-python - Python绑定库为LLM集成提供高效接口
Github开源项目文本生成AI模型llama.cppPython绑定OpenAI兼容
llama-cpp-python为llama.cpp提供Python绑定,支持低级C API访问和高级Python API文本补全。该库兼容OpenAI、LangChain和LlamaIndex,支持CUDA、Metal等硬件加速,实现高效LLM推理。它还提供聊天补全和函数调用功能,适用于多种AI应用场景。
easyllm - 开源工具库助力简化大语言模型应用开发
Github开源项目大语言模型API客户端OpenAI兼容EasyLLM
EasyLLM是一个开源项目,为开发者提供简化大语言模型操作的工具和方法。该项目实现了兼容OpenAI API的客户端,支持HuggingFace、Amazon SageMaker和Amazon Bedrock等平台的模型。EasyLLM允许开发者轻松切换不同语言模型,实现聊天、文本补全和嵌入等功能。此外,项目还包含进化指令生成和提示词工具等辅助模块,有效简化了大语言模型的应用开发流程。
RouteLLM - LLM查询智能路由框架 优化资源分配与响应质量
Github开源项目性能评估OpenAI兼容成本优化RouteLLMLLM路由
RouteLLM是一个用于服务和评估大语言模型路由器的开源框架。它根据查询复杂度将请求智能分配至不同语言模型,在保持响应质量的同时降低成本。框架提供预训练路由器,可将成本降低85%,同时保持95%的GPT-4性能。RouteLLM支持新路由器添加和跨基准性能比较,为LLM应用提供灵活高效的解决方案。
functionary-small-v2.5 - 支持智能函数调用的开源并行处理语言模型
Github开源项目语言模型模型HuggingfaceOpenAI兼容Functionary函数执行并行工具使用
Functionary-small-v2.5是一个专注于函数和插件处理的开源语言模型。它具备智能判断函数执行时机、并行串行处理、输出解析等核心能力,可根据实际需求自动触发函数调用。模型内置了并行工具处理、输出分析和代码解释等功能,是一个成熟的开源函数处理语言模型。