👩🏻🍳 Haystack食谱
使用Haystack的示例笔记本集合👇
你可以将这些例子作为指南,了解如何在Haystack中使用不同的模型提供商、向量数据库、检索技术等。大多数例子展示了一个特定的小型演示。
要更深入地了解如何使用Haystack,请访问我们的文档和官方教程。
欲获取更多示例,你可能还会发现我们的博客很有用。
**注意:**除非标题中提到"(Haystack 1.x)",否则所有这些示例都使用Haystack 2.0及以上版本。
名称 | Colab |
---|
使用AssemblyAI进行说话人分离 | |
Anthropic高级提示词定制 | |
使用TitanML Takeoff的本地LLM实现Techcrunch新闻摘要 | |
在Vertex AI中使用Gemini模型 | |
用于RAG的Gradient AI嵌入器和生成器 | |
使用Hugging Face TGI的Mixtral 8x7B进行网页问答 | |
使用Amazon Bedrock和OpenSearch进行PDF问答 | |
使用Hugging Face的Zephyr 7B Beta进行RAG | |
使用自定义组件的Hacker News RAG | |
使用Chroma进行RAG和索引 | |
在Haystack RAG管道中使用Jina-embeddings-v2-base-en模型进行法律文档分析 | |
使用Whisper、Qdrant和Mistral从播客进行多语言RAG | |
通过嵌入有意义的元数据来改进检索 | |
高级RAG:查询扩展 | |
通过LLMs进行信息提取(Gorilla OpenFunctions) | |
通过LLMs进行信息提取(NexusRaven) | |
在Haystack管道中使用AstraDB作为数据存储 | |
流式模型探索器:比较不同模型如何处理相同的提示 | |
使用OpenAIChatGenerator进行函数调用 | |
在Haystack 2.x中使用vLLM推理引擎 | |
使用Google Gemma构建:聊天和RAG | |
使用HyDE优化检索 | |
使用FastEmbed生成嵌入的RAG管道 | |
使用Qdrant和FastEmbed的稀疏嵌入检索 | |
混合检索:BM42 + 密集检索(使用Qdrant和FastEmbed) | |
使用NVIDIA NIMs的离线RAG管道 | |
使用Haystack-UpTrain集成评估RAG管道 | |
使用Llama 3.1模型对奥斯卡进行RAG | |
与SQL数据库聊天 | |
使用DeepEval集成评估RAG管道 | |
使用Ragas集成评估RAG管道 | |
从查询中提取元数据过滤器 | |
在自定义组件中并发运行任务 | |
使用DSPy进行提示优化 | |
使用Prometheus 2进行RAG评估 | |
使用Character Codex和llamafile构建测验和冒险 | |
使用OpenAPITool 调用API | |
使用Apify提取和利用网站内容进行RAG | |
Cohere用于多语言问答(Haystack 1.x) | |
GPT-4和Weaviate用于自定义文档问答(Haystack 1.x) | |
Whisper转录器和Weaviate用于YouTube视频问答(Haystack 1.x) | |
如何为此仓库做贡献
如果您有使用Haystack的示例,可以通过创建PR将其添加到此仓库。您也可以通过创建此仓库的分支并选择"保存副本到GitHub",从Colab创建PR。将示例添加到您的分支后,您可以创建一个PR到此仓库。
- 添加您的笔记本
- 为您的文件取一个描述性的名称,包括(如适用)您在示例中使用的模型提供商、数据库技术的名称,和/或您在示例中完成的任务。
- 确保在上面的表格中添加一行 🎉