项目简介:Awesome-LLM-RAG
Awesome-LLM-RAG 是一个专门记录在检索增强生成(Retrieval Augmented Generation,简称 RAG)方面的重要学术论文和资源的项目。在当前大规模语言模型(Large Language Models,简称 LLMs)的研究浪潮中,RAG技术因其在提高文本生成的准确性和相关性方面的潜力而备受关注。本项目鼓励研究者们通过提交拉取请求(pull request)来更新和分享自己在 LLM RAG 领域的最新研究工作。
资源列表
研讨会和教程
-
个性化生成式 AI:由 Zheng Chen 等人主持的研讨会,于 2023 年 10 月在 CIKM 会议中举办,旨在探讨如何通过 AI 技术进行个性化生成。
-
生成模型推荐系统首届研讨会:由 Wenjie Wang 等组织,于 2023 年 10 月的 CIKM 会议中举办,专注于生成模型在推荐系统中的应用。
-
生成信息检索第一届研讨会:Gabriel Bénédict 等人在 2023 年 7 月的 SIGIR 会议中组织,探讨生成式信息检索。
-
检索基础的语言模型及其应用:由 Akari Asai 等人在 2023 年 7 月的 ACL 会议中提供,涵盖了检索基础的语言模型相关的最新研究。
-
成为生成式 AI 开发者:由 DataCamp 提供的平台,帮助开发者学习生成式 AI 的基础和高级技术。
论文分类
调查与基准
这一类别聚焦于对LLM在RAG技术中的表现进行评估和比较的研究。这类研究为其他学者提供了重要的参考标准。
检索增强型LLM
这一部分的研究着重于如何通过检索策略来提升大型语言模型的生成能力。例如,探索如何在自然语言生成中利用外部知识库来增强生成质量。
RAG指令微调
此类研究关注如何通过指令微调来优化RAG模型,使其在特定任务中表现更加出色。
RAG上下文学习
研究如何在上下文中使用RAG模型,以提取和运用相关信息来增强生成过程的精度和连贯性。
RAG嵌入
这一领域涉及如何使用嵌入技术来支持RAG,实现更复杂和长期的语境执行。
RAG模拟器
此部分包括对用户模拟器的研究,这些模拟器被用于训练语言模型助手,以增强其交互能力。
RAG搜索、长文本与记忆
包括如何通过RAG来处理长文本的挑战,以及将神经生物学的长时记忆理论应用于语言模型的探索。
RAG评估
开发自动化评估框架,用于评估RAG系统的性能和效果。
RAG优化
研究如何通过优化策略来改善RAG模型的效率和准确性,避免生成时受无关上下文干扰。
RAG应用
探索RAG技术在各个领域中的实际应用,如金融和医疗领域中的语言模型优化。
通过Awesome-LLM-RAG项目,研究人员能够跟踪最新的研究进展,学习新的技术方法,并应用到自己的研究工作中。这一平台为研究者提供了集中展示和交互的机会,促进了RAG技术在学术界和工业界的发展。