Logo

LangChain聊天机器人:使用LangChain和Streamlit构建智能对话系统

LangChain聊天机器人:使用LangChain和Streamlit构建智能对话系统

在人工智能和自然语言处理技术快速发展的今天,聊天机器人已经成为许多应用场景中不可或缺的重要组成部分。本文将详细介绍如何使用LangChain框架和Streamlit构建一个功能强大、可定制的聊天机器人系统。

项目概述

本项目的目标是创建一个基于LangChain的聊天机器人,它能够回答用户关于LangChain框架的各种问题。我们将使用Python文档和API参考作为知识库,通过检索增强生成(RAG)的方式来提供准确的回答。整个系统将使用Streamlit构建用户界面,实现一个完整的Web应用。

LangChain聊天机器人架构

环境准备

在开始开发之前,我们需要准备好开发环境。建议使用Conda创建一个新的虚拟环境:

conda create --name langchain_chatbot python=3.10
conda activate langchain_chatbot

然后安装所需的依赖包:

pip install langchain openai streamlit python-dotenv

核心组件实现

1. 数据摄取

为了让聊天机器人能够回答LangChain相关的问题,我们首先需要导入和索引相关文档。主要步骤包括:

  1. 使用SitemapLoader和RecursiveURLLoader加载Python文档和API参考。
  2. 使用RecursiveCharacterTextSplitter将文档分割成小块。
  3. 使用OpenAIEmbeddings生成文本嵌入。
  4. 将嵌入存储到Weaviate向量数据库中。
from langchain.document_loaders import SitemapLoader, RecursiveURLLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores import Weaviate

# 加载文档
docs = SitemapLoader("https://python.langchain.com/sitemap.xml").load()
api_ref = RecursiveUrlLoader("https://api.python.langchain.com/en/latest/").load()

# 文本分割
text_splitter = RecursiveCharacterTextSplitter(chunk_size=4000, chunk_overlap=200)
splits = text_splitter.split_documents(docs + api_ref)

# 生成嵌入并存储
embeddings = OpenAIEmbeddings()
vectoREstore = Weaviate.from_documents(splits, embeddings)

2. 问答链构建

问答链是聊天机器人的核心,它负责处理用户输入、检索相关文档并生成回答。我们使用LangChain表达式语言(LCEL)来定义这个链:

from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.runnable import RunnablePassthrough

# 初始化语言模型
llm = ChatOpenAI(model="gpt-3.5-turbo")

# 定义提示模板
template = """根据以下上下文回答问题。如果你不知道答案,就说你不知道,不要试图编造答案。

上下文: {context}

问题: {question}

回答:"""
prompt = ChatPromptTemplate.from_template(template)

# 构建检索-问答链
retriever = vectorstore.as_retriever()
rag_chain = (
    {"context": retriever, "question": RunnablePassthrough()} 
    | prompt 
    | llm
)

3. Streamlit界面

使用Streamlit可以快速构建一个直观的Web界面:

import streamlit as st

st.title("LangChain聊天机器人")

# 初始化会话状态
if "messages" not in st.session_state:
    st.session_state.messages = []

# 显示聊天历史
for message in st.session_state.messages:
    with st.chat_message(message["role"]):
        st.markdown(message["content"])

# 接收用户输入
if prompt := st.chat_input("你的问题是?"):
    st.session_state.messages.append({"role": "user", "content": prompt})
    with st.chat_message("user"):
        st.markdown(prompt)
    
    # 生成回答
    with st.chat_message("assistant"):
        response = rag_chain.invoke(prompt)
        st.markdown(response)
    
    st.session_state.messages.append({"role": "assistant", "content": response})

部署与监控

将聊天机器人部署到生产环境后,我们可以使用LangSmith进行监控和分析。LangSmith提供了丰富的指标和可视化工具,帮助我们跟踪聊天机器人的性能:

  • 响应时间分析
  • 成功率监控
  • 用户反馈统计
  • Token使用量跟踪

LangSmith监控面板

通过这些指标,我们可以持续优化聊天机器人的性能和用户体验。

结语

本文详细介绍了如何使用LangChain和Streamlit构建一个智能聊天机器人系统。从数据摄取、核心组件实现到部署监控,我们覆盖了整个开发流程。这个项目不仅可以回答LangChain相关问题,还可以通过修改知识库来适应其他领域的应用需求。

随着大语言模型和相关技术的不断进步,类似的聊天机器人系统将在各行各业发挥越来越重要的作用。我们期待看到更多创新的应用场景和解决方案的出现。

如果你对本项目感兴趣,欢迎访问GitHub仓库获取完整代码,并根据自己的需求进行定制和扩展。让我们一起探索LangChain的无限可能!

相关项目

Project Cover
py-gpt
PyGPT是一款桌面AI助手,提供与OpenAI语言模型GPT-4、GPT-4 Vision和GPT-3.5的直接互动,并通过Langchain集成其他LLMs。支持对话、生成、辅助和图像处理等多种功能,使用DALL-E 3进行图像生成,利用GPT-4 Vision进行图像分析。支持文件系统操作、Python代码生成和执行、系统命令、电文语音合成和识别,集成微软Azure、Google、Eleven Labs和OpenAI的服务。多模态插件支持,适用于文本交互、系统自动化、日常辅助、视觉应用和代码生成。
Project Cover
local-rag-example
优化描述,以如何在本地机器上快速建立和运行ChatPDF为核心,突出其隐私保护和成本效益的特点。进一步细化技术栈的用途,即Langchain、Ollama和Streamlit如何具体提升操作效率和用户界面体验。
Project Cover
awesome-llm-agents
本列表收录了优秀的LLM代理资源,涵盖开源框架、实用应用、平台及重要论文和讲座。关键工具包括Langchain、Llama Index、Haystack等,旨在为开发者提供高效的NLP解决方案。用户还可以提交和建议更多资源,支持社区开发。
Project Cover
docGPT-langchain
docGPT项目允许用户无需API密钥即可查询文档内容,支持多种文件格式如PDF、Word和CSV。用户可以简单上传文件或直接输入文档URL进行交互。平台整合了两种模型:完全免费的gpt4free和需API密钥的openai模型。docGPT的易用性强,支持本地及Docker部署,是一个理想的文档交互工具。
Project Cover
awesome-ai-sdks
提供丰富的SDK、框架、库和工具,支持AI代理的创建、监控、调试和部署。由e2b团队提供,无论使用什么技术栈,开发者都能高效构建智能代理应用。加入社区,共同讨论和改进这个资源库,获取项目更新和支持。
Project Cover
private-chatbot-mpt30b-langchain
该项目使用量化版本的MPT-30B,允许在本地计算机上无需互联网连接与文档进行私密对话。项目提供了系统要求、安装步骤、文档导入过程及运行聊天脚本的详细说明。支持的文档格式包括CSV、Word和PDF等,用户可通过命令行输入问题并获取答案,全程数据保留在本地环境,保障隐私安全。
Project Cover
reverse-engineering-assistant
ReVA逆向工程助手项目提供了一个与特定反汇编器无关的AI助手,采用工具驱动的方法,帮助解决复杂的逆向工程任务。ReVA利用chain-of-reasoning技术与LLM配合完成任务,通过容错和减少LLM误差的方法提供更好的结果。支持多种模型和本地推理服务器,包括OpenAI和Ollama。项目集成Ghidra工具,提供高效的工作流程和操作日志记录功能,适合程序探索和详细分析。ReVA项目特点包括工具驱动的AI助手、多种模型支持、Ghidra工具集成、详细的操作日志和容错机制,确保在执行复杂逆向工程任务时提供准确的结果和顺畅的工作流程。
Project Cover
Delphic
Delphic是一个使用LlamaIndex构建和部署大型语言模型(LLM)代理的简单框架,可用于分析和处理文档中的文本数据。虽然框架基于OpenAI的API,但兼容其他LLM,例如Langchain,支持使用Postgres作为向量存储,并通过Docker Compose实现快速本地部署。虽然Delphic项目目前不再维护,但它作为构建流式响应应用的概念验证工具仍具有参考价值。
Project Cover
Chrome-GPT
Chrome-GPT是一个实验性项目,结合了Langchain和Selenium,允许AutoGPT代理全面控制Chrome浏览器。功能包括网页滚动、点击和表单填写,支持多种代理类型和记忆管理,并正在开发Chrome插件支持。请注意,该项目为实验性质,可能存在操作风险。

最新项目

Project Cover
豆包MarsCode
豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。
Project Cover
AI写歌
Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。
Project Cover
美间AI
美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。
Project Cover
商汤小浣熊
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
Project Cover
有言AI
有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。
Project Cover
Kimi
Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。
Project Cover
吐司
探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。
Project Cover
SubCat字幕猫
SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。
Project Cover
AIWritePaper论文写作
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号