项目介绍:llmware
llmware
项目是一款致力于构建基于大语言模型(LLM)应用程序的统一框架。这些应用程序包括RAG(检索增强生成)、智能代理等,使用的是小型、专用的模型,这些模型可以私密部署,安全地与企业知识源整合,并能高效地进行调优和定制,以适应任何业务流程。
构建企业级RAG流水线
- RAG流水线:集成用于将知识源连接到生成式AI模型的生命周期全过程组件。
- 50多个小型、专用模型:这些模型经过微调,用于企业流程自动化中的关键任务,比如基于事实的问答、分类、摘要和信息提取。
llmware
通过这两个主要组件结合领先的开源模型和底层技术,提供了一整套工具,帮助快速构建基于知识的企业LLM应用。
主要特性
- 模型目录:可以方便地访问所有模型,无论其底层实现如何。例如,使用
ModelCatalog
类轻松查找和加载模型。 - 知识库:可以在大规模上摄入、组织和索引知识集合,包括解析、文本切片、嵌入等功能。
- 查询功能:支持混合查询,包括文本、语义、元数据和自定义过滤器,为查询库提供了灵活性。
- 提示与知识源:结合知识检索与LLM推理的简单方式,其中包括了与提示结合的多种知识源。
- RAG优化模型:包括1到7亿参数的模型,这些模型设计用于RAG工作流的整合,并支持本地运行。
最新的增强功能与特性
- 模型能力和基准测试:最新的小模型能力基准测试结果,特别是针对准确性和企业应用场景。
- 新模型和功能:例如Qwen2模型,支持RAG、功能调用和聊天功能。
- 新的用例与应用:如BizBot——结合RAG和SQL的本地聊天机器人,以及Lecture Tool用于教育和讲座分析的问答工具。
- 音频与文本处理:语音转录与WhisperCPP支援,以及自然语言查询转CSV转换功能。
- 多模型代理:支持在复杂工作流程中使用SLIM模型的多步代理。
- 文档与OCR处理:包括嵌入文档图像的系统化文本提取。
- 部署与优化:设置多模型代理的推理服务器以优化部署,并提供增加RAG提示准确性的优化教程。
快速入门
- 安装llmware:通过
pip3 install llmware
或pip3 install 'llmware[full]'
进行安装。 - 使用示例:访问100多个“即剪即用”的示例,快速上手。
llmware
项目致力于为开发人员提供一个综合且高效的工具集,使其能在安全的环境下构建和定制高效的LLM应用程序,以满足各种复杂的业务需求。