#Large Language Models
ml-engineering - 大规模语言模型与多模态模型的训练方法
Github开源项目HuggingFaceLarge Language ModelsVLMBLOOM-176BContextual.AI
本指南系统介绍了方法、工具和逐步操作说明,帮助工程师成功训练大规模语言模型(LLM)和多模态模型(VLM)。内容涵盖丰富的脚本和命令,适合LLM/VLM训练工程师和操作员使用。基于作者在开源BLOOM-176B和IDEFICS-80B模型训练中的经验,提供有效解决方案,并持续更新,服务于ML社区。
spacy-llm - spaCy与大语言模型整合的NLP组件
Github开源项目OpenAIspaCyLarge Language ModelsNLPspacy-llm
该模块将大型语言模型(LLMs)集成到spaCy中,实现了快速原型设计和提示生成,无需训练数据即可输出可靠的NLP结果。支持OpenAI、Cohere、Anthropic、Google PaLM、Microsoft Azure AI等API,并兼容Hugging Face上的开源LLMs,如Falcon、Dolly、Llama 2等。还支持LangChain,提供命名实体识别、文本分类、情感分析等多种现成任务。用户可通过spaCy的注册表轻松实现自定义功能。该模块结合LLM的强大功能与spaCy的成熟基础,提供灵活高效的NLP解决方案。
chameleon-llm - 插件式组合推理框架增强LLMs功能
Github开源项目GPT-4Large Language ModelsChameleonScienceQATabMWP
Chameleon框架集成了多种工具,如视觉模型、Web搜索引擎和Python函数,提升了大型语言模型(LLMs)的推理能力。基于GPT-4的自然语言规划,Chameleon能够精准推理工具的组合和执行顺序。在ScienceQA任务中,Chameleon的准确率为86.54%,领先当前模型11.37%;在TabMWP任务中,整体准确率达98.78%。其模块化设计和灵活工具调用机制使其适用于各种复杂任务。
aws-genai-llm-chatbot - 在AWS上部署多模型和多RAG支持的聊天机器人
Github开源项目Large Language ModelsAWS CDKAmazon BedrockAmazon SageMaker多模态语言模型
该解决方案提供现成代码,允许在AWS账户中实验多种大型语言模型和多模态语言模型。支持的模型包括Amazon Bedrock、Amazon SageMaker自托管模型以及通过API的第三方模型,如Anthropic、Cohere、AI21 Labs和OpenAI。项目包含详细文档、部署指南和集成资源,加速生成式AI解决方案的开发。
tree-of-thought-prompting - 利用Tree-of-Thought Prompting提升ChatGPT推理能力
Github开源项目ChatGPTLarge Language ModelsTree-of-Thought PromptingChain-of-Thought promptingreasoning
Tree-of-Thought Prompting技术用新的思维树框架扩展和改进了Chain-of-Thought概念,提升了大型语言模型(如ChatGPT)的推理能力。此技术帮助模型自主纠错并逐步积累知识,在解决复杂问题中表现出色。
Awesome-Text2SQL - 针对大型语言模型、Text2SQL、Text2DSL、Text2API、Text2Vis 等的精选教程和资源
Github开源项目自然语言处理数据库Large Language ModelsText2SQL关系数据库
了解Awesome-Text2SQL项目如何提升文本到SQL转换的效率。平台整合了丰富的资源和教程,涵盖前沿研究、实战项目和多样数据库技巧,为专业人士或爱好者打造全方位的学习和应用环境。
awesome-llm-role-playing-with-persona - 大型语言模型角色扮演资源与学术论文目录
Github开源项目对话系统角色扮演个性化Large Language ModelsPersona
本项目专注于角色扮演语言模型,涵盖虚构角色、名人和历史人物的角色扮演。尽管项目涉及多代理系统和长上下文模型等研究,无法确保包含这些领域的所有论文。最近的更新包括重新组织资源库、关注角色扮演代理以及发布关于个性化角色扮演语言代理的综述论文。
open-llms - 开放源代码大型语言模型及其商业应用全景解析
Github开源项目开源Large Language Models模型发布商业使用许可Apache 2.0
Open-llms 项目展示了众多采用开源许可证的大型语言模型(LLMs),支持商业应用,涵盖如T5、GPT-NeoX、YaLM等模型。每款模型设有详细说明及许可信息,鼓励社区交流与贡献,是机器学习研究和应用的重要资源库。
Large-Language-Model-Notebooks-Course - 提供了实用的OpenAI与Hugging Face模型操作经验
Github开源项目OpenAIHugging FaceLarge Language ModelsLangChain项目
该课程为学习者提供了实用的OpenAI与Hugging Face模型操作经验。内容覆盖从聊天机器人、代码生成等基技术到结构化大型项目实操,适合企业技术人员和个人开发者。
Awesome-Efficient-LLM - 知识蒸馏、网络剪枝、量化和加速推理等针对大型语言模型优化的关键技术的汇总
Github开源项目知识蒸馏Large Language Models量化模型剪枝效率优化
Awesome-Efficient-LLM项目汇总了针对大型语言模型优化的关键技术,包括知识蒸馏、网络剪枝、量化和加速推理等,支持研究者和开发者获取最新的效率提升方法和学术文献。该平台定期更新,提供过去60天内的相关研究成果,便于用户系统地探索和应用这些高效技术。
Prompt4ReasoningPapers - 整合并分析语言模型推理相关的专业论文
人工智能Github开源项目Large Language ModelsPrompt工程知识增强推理链式推理
Prompt4ReasoningPapers项目整合并分析语言模型推理相关的专业论文,旨在为研究者和实践者提供全面的技术洞察和实用策略。内容涵盖前沿研究成果、高级推理方法及工具的应用指南,帮助用户系统性理解并应用于实际问题解决。
LM-reasoning - 大语言模型推理相关的论文和资源
Github开源项目Large Language ModelsReasoningSurveyTechniqueEvaluation
本页面收录了大语言模型推理相关的论文和资源,涵盖技术方法如完全监督微调、提示与上下文学习、混合方法,以及详细的评估和分析。用户可以浏览各类调查报告和技术论文,了解如何提升大模型的推理能力,并参考领域专家的讨论提供的重要见解。
Awesome-Knowledge-Distillation-of-LLMs - 大语言模型知识蒸馏技术综述与研究进展
Github开源项目Large Language ModelsKnowledge DistillationKD AlgorithmsSkill DistillationVerticalization Distillation
该综述介绍了大语言模型(LLMs)中的知识蒸馏(KD)技术,探讨如何将GPT-4等LLM的功能转移到LLaMA和Mistral等开源模型中,并深入分析数据增强在其中的作用。此外,文章分类讨论了知识抽取和蒸馏算法的重要性及其在各领域的应用。项目定期更新相关论文和研究进展,可通过关注仓库获取最新信息。
Recommendation-Systems-without-Explicit-ID-Features-A-Literature-Review - 推荐系统的基础模型论文列表
Github开源项目Large Language ModelsFoundation modelsRecommender SystemMultimodal Recommender SystemTransferable Recommendation
本综述探讨了在没有显式ID特征的情况下,推荐系统如何运用基础模型和大语言模型提升性能。内容涉及ID嵌入的必要性、推荐系统从匹配到生成的新模式、大语言模型的应用以及多模态推荐系统的未来趋势。通过详尽分析当前研究和案例,这些论文为推荐系统的发展提供了有价值的见解和前瞻性方向。
mlx-llm - 在Apple Silicon上实时运行的高级语言模型应用与工具
Github开源项目HuggingFaceLarge Language ModelsApple Siliconmlx-llmQuantization
mlx-llm支持用户在Apple Silicon设备上实时运行高级语言模型(LLMs)的应用和工具。该项目支持多种预训练模型,并提供简便的安装方法。用户可以加载新版预训练权重、进行模型量化及嵌入提取。此外,mlx-llm还覆盖了多种应用场景,包括命令行聊天、LoRA或QLoRA微调及检索增强生成(RAG)等。
Instruction-Tuning-Survey - 深入探讨大型语言模型的指令微调技术及应用
Github开源项目Large Language ModelsarXivInstruction TuningDatasetsModels
本文综述了大型语言模型的指令微调技术,包括方法学、数据集构建、模型训练及多模态和领域应用。探讨了影响指令微调效果的关键因素,如数据集规模和质量等,并指出了当前技术的局限性及未来改进方向。
llm-hub - 全面了解先进语言模型在各领域的应用
Github开源项目OpenAILarge Language ModelsGPT-3natural language processing
这个存储库展示了GPT-3等先进语言模型在文本生成、搜索和问答领域的应用,提供详尽的教程和资源,帮助开发者构建自己的应用。无论是语言爱好者、机器学习研究者还是AI爱好者,这里是探索自然语言处理的理想平台。
Awesome-Embodied-Agent-with-LLMs - 大语言模型在智能体研究与应用中的精选资源
Github开源项目Large Language ModelsEmbodied AISelf-Evolving AgentsMulti-Agent LearningInteractive Embodied Learning
该项目汇集了使用大语言模型(LLMs)进行智能体(Embodied AI)研究的精选资源,涵盖自适应智能体、社交智能体、复杂应用、模拟学习、规划与操作、多智能体协调等专题。项目主页提供丰富的论文资料和最新研究进展,适合相关领域研究者和开发者参考,不断更新。
AlignLLMHumanSurvey - 更好的理解和对齐大型语言模型与人类需求的方法综述
Github开源项目数据收集Large Language ModelsNLP模型评估培训方法
本综述探讨了大型语言模型(LLMs)与人类需求对齐的研究进展,包括数据收集、训练方法和模型评估。文章展示了如何改进LLMs在理解人类指令、避免偏见和减少虚假信息方面的表现,并为研究人员和从业者提供了有价值的参考,助力LLMs更好地满足人类任务和期望。
相关文章