项目介绍:llm-chain 🚀
llm-chain
是一组基于 Rust 的软件库,用于帮助开发者创建高级的自然语言大型模型(LLM)应用程序,如聊天机器人和智能代理。作为一个全面的 LLM 操作平台,它强力支持在云端和本地部署的 LLM,同时还提供对提示模板的支持,通过将提示连接成多步骤链,使得 LLM 能处理更复杂的任务。此外,llm-chain
还提供了向量存储集成功能,使模型能够拥有长期记忆和领域知识,从而构建出功能强大的应用程序。
功能特性 🌟
- 提示模板:创建可重用且易于定制的提示模板,以保持与 LLM 的交互一致且结构化。
- 提示链:构建强大的提示链,使复杂任务能够逐步实现,充分利用 LLM 的潜力。
- ChatGPT 支持:目前支持 ChatGPT 模型,并计划未来加入对 OpenAI 其他模型的支持。
- LLaMa 支持:与 LLaMa 模型无缝集成,支持利用 Facebook 研究模型进行自然语言理解和生成任务。
- Alpaca 支持:支持斯坦福大学的 Alpaca 模型,扩展了可用于高级 AI 应用的语言模型范围。
llm.rs
支持:在不依赖 C++ 代码的情况下,在 Rust 里使用 LLM。- 工具集成:增强 AI 代理的能力,使之可以访问各种工具,如运行 Bash 命令、执行 Python 脚本或进行网络搜索,支持更复杂和强大的交互。
- 可扩展性:在设计上注重可扩展性,使得未来可以轻松集成其他 LLM。
- 社区驱动:我们欢迎并鼓励社区作出贡献,以帮助改善和扩展
llm-chain
的功能。
快速入门 🚀
要开始使用 llm-chain
,需要在你的 Cargo.toml
文件中将其添加为依赖项(需要 Rust 1.65.0 或更高版本):
[dependencies]
llm-chain = "0.12.0"
llm-chain-openai = "0.12.0"
使用 llm-chain-openai
的示例需要设置 OPENAI_API_KEY
环境变量,可以这样做:
export OPENAI_API_KEY="sk-YOUR_OPEN_AI_KEY_HERE"
接下来,可以参考 文档 以及示例,学习如何创建提示模板、提示链等。
贡献 🤝
我们热忱欢迎每个人的贡献! 如果您有兴趣帮助改进 llm-chain
,请查看我们的 贡献指南 以获取规范和最佳实践。
许可证 📄
llm-chain
采用 MIT 许可证。
联系我们 🌐
如果您有任何问题、建议或反馈,欢迎随时提交 issue 或加入我们的 社区 Discord。我们非常期待与用户交流,了解您使用 llm-chain
的体验。
希望您使用 llm-chain
来充分发掘大型语言模型在您的项目中的潜力。祝编程愉快!🎉