什么是 GenerativeAIExamples 项目?
项目概述
GenerativeAIExamples 项目是一个专为开发者设计的起始点,帮助他们与 NVIDIA 软件生态系统集成,加速生成式人工智能系统的开发。不论开发者是在构建 RAG(检索-生成)流程、代理工作流,还是在微调模型,这个项目都能助他们一臂之力,通过无缝和本地的方式将 NVIDIA 的技术融入到他们的开发栈中。
最新动态
GenerativeAIExamples 项目持续更新,以下是一些引人注目的更新内容:
知识图谱 RAG
借助 NIM 微服务和 RAPIDS 生态系统实现的 GPU 加速管道,用于创建和查询知识图谱。即使是大型数据集也能够高效处理。
Llama 3.1 的代理工作流
通过结合 Llama 3.1 和 NVIDIA NeMo 检索器 NIM 微服务来构建代理 RAG 流水线。该流程集成了 NVIDIA Morpheus 和 NIM 微服务,打造基于大语言模型(LLM)的代理管道。
本地 NIM 部署和 LangChain 的 RAG
分享了一些构建 RAG 流水线的技巧以及集成 NVIDIA AI LangChain 的 AI 端点的方法。
立刻尝试!
体验 NVIDIA 的 RAG 流水线只需几个简单步骤:
- 获取 NVIDIA API 密钥,然后克隆仓库并构建运行基本的 RAG 流水线。
- 进行查询,探索示例的 RAG 操作。
- 使用 Docker Compose 管理容器的启停。
RAG 详细内容
RAG 笔记本
NVIDIA 为流行的生成式 AI 开发框架(如 LangChain、LlamaIndex、Haystack)提供了一流的支持。这些笔记本展示了如何使用开发者惯用的框架集成 NIM 微服务。
RAG 示例
这些端到端示例默认使用 NVIDIA API Catalog 中提供的预览 NIM 端点,同时也可以在本地运行:
- 基本 RAG 示例:包括 LangChain 和 LlamaIndex 的集成。
- 高级 RAG 示例:如多轮对话、支持多模态数据和结构化数据等。
RAG 工具
提供了一些示例工具和教程,旨在增强使用 NVIDIA RAG 流水线时的大语言模型(LLM)的开发和生产力。
文档与社区
起步指南与文档
GenerativeAIExamples 项目配有详细的文档,以指导用户如何开始、修改模型和配置 RAG 流水线的各个组成部分。
社区
该项目发布在 GitHub 上,旨在支持 NVIDIA LLM 社区,并欢迎各种贡献。开发者可以通过 GitHub 提出问题或提交拉取请求并参与贡献。