LLMFlows简介
LLMFlows是一个用于构建简单、明确和透明的大语言模型(LLM)应用程序的框架。它提供了一套简约的抽象,允许开发者利用LLM和向量数据库构建结构良好的显式应用,而不存在隐藏的提示或LLM调用。LLMFlows确保每个组件的完全透明性,使监控、维护和调试变得容易。
官方资源
- 官方文档: https://llmflows.readthedocs.io/
- GitHub仓库: https://github.com/stoyan-stoyanov/llmflows
- PyPI页面: https://pypi.org/project/llmflows/
- Twitter: https://twitter.com/LLMFlows
- Substack: https://llmflows.substack.com/
快速入门
安装
使用pip安装LLMFlows:
pip install llmflows
基本用法
- LLM使用:
from llmflows.llms import OpenAI
llm = OpenAI(api_key="<your-openai-api-key>")
result, call_data, model_config = llm.generate(
prompt="Generate a cool title for an 80s rock song"
)
- 提示模板:
from llmflows.prompts import PromptTemplate
prompt_template = PromptTemplate(
prompt="Generate a title for a 90s hip-hop song about {topic}."
)
llm_prompt = prompt_template.get_prompt(topic="friendship")
- 流程和流程步骤:
from llmflows.flows import Flow, FlowStep
# 创建流程步骤
step1 = FlowStep(name="Step 1", llm=openai_llm, prompt_template=template1, output_key="output1")
step2 = FlowStep(name="Step 2", llm=openai_llm, prompt_template=template2, output_key="output2")
# 连接流程步骤
step1.connect(step2)
# 创建和运行流程
flow = Flow(step1)
results = flow.start(input_variable="value", verbose=True)
深入学习
- LLM Flows - 学习如何创建和管理LLM流程
- 异步流程 - 了解如何使用异步流程提高性能
- 向量存储 - 学习如何集成向量数据库
- 问答系统 - 构建问答应用
- 回调函数 - 使用回调函数自定义流程行为
示例项目
查看LLM-99 - 一个使用LLMFlows构建的演示应用,可以用简单的术语解释超导体。该应用使用LLMFlows和FastAPI构建,并使用Pinecone存储从Wikipedia文章创建的文档嵌入。
您可以在GitHub仓库的examples文件夹中找到这个演示应用和其他示例的源代码。
社区资源
- GitHub Issues: https://github.com/stoyan-stoyanov/llmflows/issues
- GitHub Discussions: https://github.com/stoyan-stoyanov/llmflows/discussions
贡献
如果您对LLMFlows感兴趣并考虑贡献,请查看CONTRIBUTING.md文件。
通过这些资源,您可以快速入门LLMFlows,并深入了解如何使用这个强大的框架构建简单、明确和透明的LLM应用。无论您是初学者还是有经验的开发者,LLMFlows都为您提供了构建下一代AI应用所需的工具和知识。