#LLM
openui
OpenUI简化了UI组件的构建,支持实时渲染和多框架转换(如React、Svelte)。兼容OpenAI、Groq等多种模型,并支持本地与Docker运行,适用于各种开发环境。
Flowise
Flowise让您通过拖放界面轻松创建自定义LLM应用程序。提供详细的快速安装指南,支持NodeJS和Docker部署。模块化架构对开发者友好,并支持自托管,适用于AWS、Azure、Digital Ocean等主流云平台,确保应用灵活且易扩展。
ragas
Ragas是一款工具集,用于评估、监控和优化RAG(检索增强生成)应用的性能,特别适合生产环境中的大语言模型(LLM)。Ragas集成了最新研究成果,能在CI/CD流程中进行持续检查,确保管道性能稳定。通过简单的安装和快速入门示例,用户可以快速体验Ragas的功能,并参与社区讨论LLM和生产相关问题。
skyvern
Skyvern结合大语言模型(LLMs)和计算机视觉,提供简单的API端点,实现大量网站的工作流自动化,解决传统方法的不稳定性。无需定制代码即可操作新网站,对布局变化具有抗性,并能在多个网站上应用相同工作流。Skyvern云版本让用户无需管理基础设施即可运行多个实例,并提供反机器人检测、代理网络和验证码解决方案。
llm
该项目因时间和资源不足已归档,建议使用其他高质量的Rust推理库,如Ratchet、Candle和llama.cpp等。项目原README包含当前状态、支持的模型及使用方法等详细信息。
paper-qa
PaperQA是一款轻量级工具,专为从PDF和文本文件中进行问答设计,通过内嵌引用确保答案准确。默认使用OpenAI Embeddings,支持与langchain和开源模型结合。其流程包括文档向量化、查询向量化、文档搜索、摘要生成、相关摘要选择,并生成最终答案。PaperQA支持异步操作,兼容多种LLM,并提供多种自定义和扩展选项,如本地向量存储和Zotero数据库集成,是科研人员高效处理文档问答的理想选择。
llm
一款CLI工具和Python库,用于与大型语言模型交互,支持远程API和本地安装模型。可从命令行运行提示、将结果存储在SQLite中、生成嵌入等。通过插件目录,可访问更多模型。
aiac
AIAC是一个使用大型语言模型生成基础设施即代码(IaC)模板和配置的命令行工具。支持OpenAI、Amazon Bedrock和Ollama等多种LLM提供商,用户可以通过配置文件定义多个后端。其功能包括生成Terraform、Pulumi和CloudFormation模板,以及Dockerfile、CI/CD流水线、策略代码和实用工具。支持命令行操作、Docker运行和作为Go库使用,为开发者提供高效的自动化基础设施管理解决方案。
ragflow
RAGFlow是一个基于深度文档理解的开源RAG引擎,适用于各种规模的企业。结合大型语言模型,它提供可靠的问答功能和可信的引用。RAGFlow支持多种数据格式,包括文本、图片和音频文件,并且兼容本地和远程LLM,提供自动化、无缝集成的RAG工作流,便于通过直观的API进行业务整合。