#上下文学习
相关项目
LMaaS-Papers
本项目整理了有关无需访问模型参数和梯度的大型预训练语言模型(如GPT-3)作为服务的研究论文。通过文本提示、上下文学习、黑盒优化、特征学习和数据生成等方法,用户能够高效适应各种任务,提高部署和调优效率。旨在帮助NLP研究人员跟进最新动态,推进研究发展,欢迎贡献和更新论文。
ICL_PaperList
ICL_PaperList是一个收录上下文学习(In-context Learning)研究论文的开源项目。内容涵盖模型预训练、提示调优、分析评估等方面,并对Survey、Model Training、Prompt Tuning等领域进行了分类整理。该项目为研究人员提供了全面的上下文学习文献资源,有助于了解该领域的最新进展和发展方向。
Awesome_Multimodel_LLM
本项目汇集了多模态大语言模型(MLLM)相关资源,涵盖数据集、指令微调、上下文学习、思维链等多个方面。内容持续更新,跟踪MLLM领域最新进展。项目还将发布LLM和MLLM最新研究综述。这是研究人员和开发者了解MLLM前沿动态的重要参考。
xmc.dspy
Infer-Retrieve-Rank (IReRa)是一种创新的多标签分类方法,专门针对具有大量类别的任务。这个通用且模块化的程序通过预训练语言模型和检索器的交互,高效处理复杂的分类问题。IReRa仅需少量标记示例即可优化性能,无需模型微调。该项目提供完整文档,包括安装、数据处理、运行指南等,方便研究人员在各种语言模型推理和检索任务中应用。