#LangChain
ControlFlow: 掌控AI代理的新型Python框架
DemoGPT
DemoGPT 通过 GPT-3.5 Turbo 和 LangChain 自动生成代码,只需一个提示即可创建交互式 Streamlit 应用。该平台简化了应用开发流程,并计划集成 Gorilla 以支持外部 API 调用,进一步提升开发效率和用户体验。
Lumos
Lumos是一款基于本地LLM的Chrome扩展,无需远程服务器即可浏览和解析网页内容。支持总结长篇内容、解析技术文档等多功能应用,依赖于Ollama服务器的本地运行,适用于技术文档、社交媒体、新闻等场景。
LangChain-ChatGLM-Webui
LangChain-ChatGLM-Webui 是一个利用LangChain和ChatGLM-6B系列模型的Web界面,支持txt、docx、md、pdf等格式文件上传,适用于本地知识驱动的大模型应用。项目支持HuggingFace、OpenXLab等多个平台的在线体验,适合开发者快速部署多种大语言模型和嵌入模型。
GenerativeAIExamples
NVIDIA提供的生成式AI示例,使用CUDA-X软件栈和NVIDIA GPU,展示快速部署、测试和扩展AI模型的方法。包括最新的RAG管道构建技巧、实验性示例和企业应用,支持本地和远程推理,集成流行LLM编程框架,并附有详细开发文档。
kor
Kor是一款原型工具,通过定义数据结构和提供示例,帮助从文本中提取结构化数据。该工具生成提示并发送给指定的LLM进行解析。兼容pydantic v1和v2,支持解析、函数调用和JSON模式等多种抽取方式。适用于精确理解用户请求并与API进行自然语言交互的场景。
langcorn
LangCorn利用FastAPI实现高效的LangChain模型和管道部署与管理。主要功能包括便捷的身份验证、高性能请求处理、可扩展的语言处理及异步处理支持。通过pip安装并使用详尽的RESTful API文档,用户可以快速启动。适合高效、可靠的语言处理应用。
Llama-2-Open-Source-LLM-CPU-Inference
详细介绍如何在本地CPU上使用Llama 2、C Transformers、GGML和LangChain运行量化开源LLM进行文档问答的指南。内容涵盖工具配置、模型下载和依赖管理,帮助团队实现自我管理或私有部署,满足数据隐私和合规要求,并节省GPU实例的高额费用。
ArXivChatGuru
ArXiv ChatGuru使用LangChain和Redis技术,使ArXiv庞大的科学论文库变得更加互动。该系统通过主题检索相关论文并生成嵌入向量,帮助用户以问答形式探索学术内容,提高科研文献的易接触性和理解度。
ctransformers
CTransformers提供Python接口,通过GGML库高效加载和运行C/C++实现的Transformer模型。支持多种模型类型,如GPT-2、GPT-J、LLaMA等,并可与Hugging Face和LangChain集成。提供CUDA、ROCm和Metal兼容的GPU加速选项,适合高性能自然语言处理任务。