#上下文学习
LMaaS-Papers - 介绍大型语言模型作为服务的适应技术与优势
LMaaSGPT-3文本提示上下文学习黑箱优化Github开源项目
本项目整理了有关无需访问模型参数和梯度的大型预训练语言模型(如GPT-3)作为服务的研究论文。通过文本提示、上下文学习、黑盒优化、特征学习和数据生成等方法,用户能够高效适应各种任务,提高部署和调优效率。旨在帮助NLP研究人员跟进最新动态,推进研究发展,欢迎贡献和更新论文。
ICL_PaperList - 上下文学习研究论文集,从预训练到应用
上下文学习语言模型提示工程预训练零样本学习Github开源项目
ICL_PaperList是一个收录上下文学习(In-context Learning)研究论文的开源项目。内容涵盖模型预训练、提示调优、分析评估等方面,并对Survey、Model Training、Prompt Tuning等领域进行了分类整理。该项目为研究人员提供了全面的上下文学习文献资源,有助于了解该领域的最新进展和发展方向。
Awesome_Multimodel_LLM - 多模态大语言模型资源集锦及研究动态
多模态大语言模型指令微调上下文学习思维链视觉推理Github开源项目
本项目汇集了多模态大语言模型(MLLM)相关资源,涵盖数据集、指令微调、上下文学习、思维链等多个方面。内容持续更新,跟踪MLLM领域最新进展。项目还将发布LLM和MLLM最新研究综述。这是研究人员和开发者了解MLLM前沿动态的重要参考。
xmc.dspy - Infer-Retrieve-Rank方法revolutionizing大规模多标签分类
Infer-Retrieve-Rank多标签分类极端多类别上下文学习语言模型Github开源项目
Infer-Retrieve-Rank (IReRa)是一种创新的多标签分类方法,专门针对具有大量类别的任务。这个通用且模块化的程序通过预训练语言模型和检索器的交互,高效处理复杂的分类问题。IReRa仅需少量标记示例即可优化性能,无需模型微调。该项目提供完整文档,包括安装、数据处理、运行指南等,方便研究人员在各种语言模型推理和检索任务中应用。
相关文章