#FastAPI
RAG搜索:提升AI模型的知识检索与生成能力
rag-search
RAG Search API是由thinkany.ai开发,旨在优化搜索结果的效率与准确性。这一API实现了多样化的搜索功能,包括信息重排、筛选详细数据等,并能通过FastAPI快速部署。其简便的安装过程使得开发者能够轻松集成此技术,从而提升数据处理的效能。
autollm
AutoLLM 提供简化的 LLM 应用开发体验,支持 100 多种语言模型和 20 多种向量数据库,具有成本计算、快速创建 RAG LLM 引擎和 FastAPI 应用等功能。通过一行代码即可实现高效的查询引擎和 API 部署,适用于多种应用场景。
sagify
Sagify提供简化的接口,帮助管理AWS SageMaker的机器学习工作流程,让用户专注于构建模型而不是基础设施。其模块化架构包括一个LLM Gateway模块,通过简单的API接口访问多种大语言模型。用户可以轻松部署如稳定扩散模型的大型模型,并使用生成的代码片段进行查询。该项目支持OpenAI和开源模型,并提供详细的安装和部署指南,适合希望简化机器学习流程的用户。
agentkit
AgentKit是一个基于LangChain的开源项目,由BCG X设计。它使开发者能够迅速构建聊天式代理应用,可适应从原型到生产级的多场景需求。主要特性包括模块化快速部署、设计灵活的UI/UX以及稳定可靠的运行性能,适合应用于各种真实世界场景。
langchain-extract
LangChain Extract: 基于FastAPI、LangChain和Postgresql的web服务器,提供强大的LLM数据提取功能。支持REST API、OpenAPI文档和JSON Schema,允许高效管理数据提取任务。提供示例API供快速测试和实验。
langserve
LangServe,一个集成FastAPI与pydantic的开源库,允许开发者将LangChain运行对象与链条部署为REST API。该库能自动推断输入输出模式,支撑高并发请求,提供详尽的错误信息及API文档。它还包括JavaScript客户端以及对LangSmith的追踪功能,简化了运行对象的维护和调用流程。
LLMChat
LLMChat使用Python FastAPI构建API服务器,结合Flutter前端,提供无缝的ChatGPT和其他LLM模型的聊天体验。支持GPT-4扩展、多端设备、Markdown格式、Duckduckgo搜索、文本矢量嵌入、PDF文件嵌入、本地LLM模型、实时WebSocket连接及自动摘要功能。项目具备高性能并发、Redis缓存与MySQL数据库管理,高安全性,适用多种场景。
akcio
Akcio项目结合ChatGPT与向量数据库的CVP Stack技术,提供了一套构建知识增强型AI聊天机器人的完整解决方案。用户可通过FastAPI启动后端服务,或利用Gradio创建在线演示,项目支持多种LLM服务及数据库集成,并提供Towhee和LangChain两种平台选择,详解如何通过语义搜索与关键词匹配获取精准响应。此外,简单的配置和多样的操作选项,方便用户灵活定制并快速交付系统。
langcorn
LangCorn利用FastAPI实现高效的LangChain模型和管道部署与管理。主要功能包括便捷的身份验证、高性能请求处理、可扩展的语言处理及异步处理支持。通过pip安装并使用详尽的RESTful API文档,用户可以快速启动。适合高效、可靠的语言处理应用。