#大语言模型

langchain-examples - LangChain框架多功能AI应用示例
LangChain大语言模型生成式AIStreamlit应用问答生成Github开源项目
该项目包含了一系列利用LangChain框架的应用示例,适用于聊天机器人、文本摘要、数据生成、代码理解和问答等场景。项目介绍了与LangChain、OpenAI、Chroma等服务的集成,并提供了代码示例和应用演示,帮助用户更好地掌握相关技术。
api-for-open-llm - 开源大模型的统一后端接口
OpenAI ChatGPT API大语言模型环境变量模型支持嵌入模型Github开源项目
api-for-open-llm提供多种开源大模型的后端统一接口,以OpenAI ChatGPT API格式调用支持,如LLaMA、Baichuan等。支持流式响应、文字嵌入等功能,适用于多种应用需求。环境配置简洁,便于快速部署。
GPTCache - 用于为 LLM 查询创建语义缓存的库
GPTCache缓存策略大语言模型API成本节约性能提升Github开源项目
GPTCache专为大型语言模型(LLM)设计,通过建立语义缓存库存储响应,以有效降低API调用费用并加快响应速度。项目兼容多种LLM,实现常见查询的缓存,简化重复请求,适合高效部署于生产环境。欢迎访问最新文档和发布通告。
large_language_model_training_playbook - 大规模语言模型训练指南与实用技巧
LLM Training Playbook大语言模型模型架构模型并行策略张量精度Github开源项目
此页面提供了大规模语言模型训练的实用指南和资源,涉及模型架构选择、并行策略、模型规模、张量精度、训练超参数设定、最大化吞吐量、稳定性问题、数据处理以及软件和硬件故障调试等主题。这些开放的技巧和工具可以帮助更高效地训练大规模语言模型,并提升其性能和稳定性。
llama-cpp-agent - 简化与大规模语言模型交互的开源工具框架
llama-cpp-agent大语言模型聊天界面函数调用结构化输出Github开源项目
llama-cpp-agent 是一个开源框架,提供与大型语言模型(LLMs)互动的多种接口,包括对话、函数调用、结构化输出和基于工具的文本处理。兼容多种服务器和工具,适用于从日常对话到特定功能执行的各种应用场景,具有简单聊天、结构化输出、RAG(检索增强生成)和代理链功能。
oatmeal - 终端用户界面聊天工具,支持多种大型语言模型
Oatmeal大语言模型终端用户界面聊天应用编辑器集成Github开源项目
Oatmeal是一款终端用户界面聊天应用,支持与多个大型语言模型(LLM)对话。通过集成不同的后端模型(如ChatGPT和Ollama),用户可以选择合适的语言模型或保持私密对话。Oatmeal还可与Neovim等编辑器无缝集成,提供更加流畅的使用体验。支持多种操作系统,包括MacOS、Linux和Windows,并提供详细的安装和配置指南,帮助用户轻松启动和管理对话。
OpenGPT - 医疗领域的大型对话模型框架与数据集生成工具
OpenGPTNHS-LLM医疗数据集大语言模型安装指南Github开源项目
OpenGPT框架助您创建数据集并训练医疗领域的大型对话模型。通过OpenGPT生成的NHS-LLM使用丰富的医疗数据集供下载。提供从数据收集到模型训练的完整教程,并兼容LLaMA模型。详细教程涵盖了使用预设提示词生成任务数据集及调整配置文件进行模型训练的方法。
xllm - 便捷微调大语言模型,集成最新优化技术
X—LLM大语言模型模型训练训练优化集成开发Github开源项目
X—LLM是一个便捷的微调大语言模型工具,集成了诸如QLoRA、DeepSpeed、GPTQ、Flash Attention 2和FSDP等最新优化方法,显著提升训练效率。用户可以专注于模型和数据的优化,而不需要繁琐的代码编写。该工具支持多种Transformer模型,并可无缝对接HuggingFace Hub,适用于生产环境和快速原型设计,有助于用户更好地掌控模型训练进度并降低开销。
web-llm - 浏览器语言模型推理引擎,完全支持OpenAI API
WebLLM大语言模型WebGPU浏览器内推理OpenAI API兼容性Github开源项目
WebLLM是一款借助WebGPU技术,实现硬件加速的浏览器内语言模型推理引擎,无需服务器即可直接在浏览器内运行。完全兼容OpenAI API,并具备流式输出和JSON模式生成功能,支持广泛的模型集成。通过NPM或CDN可以快速集成到各类AI交互应用中,同时确保用户隐私安全,并享受高效的GPU加速体验。
NeMo-Curator - 提供GPU加速的大型语言模型数据集优化与管理解决方案
NeMo CuratorGPU加速大语言模型数据集准备Python库Github开源项目
NeMo Curator 是一款专为大型语言模型(LLM)设计的开源Python库,通过结合Dask和RAPIDS等技术,实现GPU加速的数据集准备与管理。其功能包括数据下载、语言识别、文本清理、质量过滤、文档去重和个人信息保护等模块,为多种LLM任务提供快速、灵活和可扩展的解决方案,显著提升数据处理效率与模型质量。
Awesome-Chinese-LLM - 中文大语言模型开源项目与应用全览
中文LLM大语言模型开源项目多轮对话可商用Github
探索Awesome Chinese LLM——这是一个集中展示中文大语言模型的开源项目、应用和教程的平台。包括100+项经优化微调的资源,助力自然语言处理的学术与应用开发。
lagent - 一个专为高效构建基于大型语言模型(LLM)的代理而设计的开源轻量级框架,
Lagent大语言模型开源智能代理流式输出Github开源项目
Lagent是一个开源轻量级框架,专为高效构建基于大型语言模型(LLM)的代理而设计。该框架提供流式输出接口,统一的接口设计及完备的API文档,支持多种模型和代理的快速开发。了解Lagent的核心功能和技术架构,助力开发效率。
PowerInfer - 消费级GPU上大型语言模型高效推理引擎
PowerInfer大语言模型GPU加速混合CPU/GPU使用局部性设计Github开源项目
PowerInfer是一款在个人电脑上针对消费级GPU设计的高效大型语言模型(LLM)推理引擎。它结合激活局部性原理和CPU/GPU混合技术,通过优化热/冷激活神经元的处理方式,显著提高推理速度并降低资源消耗。软件还融入了适应性预测器和神经元感知技术,优化了推理效率和精度,支持快速、低延迟的本地模型部署。
Baichuan2 - 开源大语言模型
Baichuan 2大语言模型开源模型微调推理和部署Github开源项目
Baichuan 2,新一代开源大语言模型,拥有基于2.6万亿Tokens训练的7B与13B版本,展现卓越性能于多语言、法律及医疗领域。开发者经官方审核后,可免费商用。详情见技术报告《Baichuan 2: Open Large-scale Language Models》。
laser - 层选择低秩化技术提升语言模型推理能力
Layer-Selective Rank ReductionLASERtransformer低秩近似大语言模型Github开源项目
LASER技术通过选择性替换LLM权重矩阵的低秩近似值,在无需额外训练的情况下显著提升问答任务性能。本项目提供了多个LLM和基准支持的代码,并通过示例展示如何运行实验。最新更新包括结果表和讨论页面,2024年1月将进行代码重构,以提高灵活性和易用性。
xFasterTransformer - 高效的大规模语言模型推理优化方案
xFasterTransformer大语言模型Xeon高性能Python APIGithub开源项目
xFasterTransformer是一个为X86平台优化的大规模语言模型(LLM)推理解决方案,支持多插槽和节点的分布式运行,适用于大型模型推理。它提供C++和Python API,支持例如ChatGLM、Llama、Baichuan等流行的LLM模型,并可通过PyPI、Docker或从源代码进行安装。项目附带详细文档、API使用示例、基准测试代码和Web演示,确保用户能充分利用其高性能和高扩展性。
LLMAgentPapers - 大型语言模型代理领域的重要研究文献合集
LLM Agents Papers大语言模型知识编辑智能代理Prompt4ReasoningPapersGithub开源项目
LLMAgentPapers集中展示了有关大型语言模型代理的核心研究和重要论文,内容涵盖互动处理、个性化代理以及记忆机制等重要议题。本资源库对学术研究者和技术开发者皆有价值,助力深刻了解并实际应用语言模型技术。我们邀请全球学者和工程师深入探讨,共享知识,推动该领域的持续进步。
EdgeChains - 为大型语言模型打造的开源链式思维框架
EdgeChainsjsonnet生成式AI大语言模型Kubernetes配置管理Github开源项目
EdgeChains是一个专为大型语言模型(如OpenAI GPT、LLama2、Falcon等)设计的开源链式思维框架,聚焦于企业级的部署和扩展。它基于jsonnet和honojs,提供单一脚本文件、提示版本管理、自动并行化、容错性以及高可扩展性,让用户能更简便地编写和管理复杂的生成式AI应用程序。
agentlego - 多模态工具扩展及集成的开源库
AgentLego大语言模型视觉感知图像生成语音处理Github开源项目
AgentLego是一个提供多种工具API的开源库,旨在增强基于大语言模型的代理功能。它支持多模态工具,如视觉感知、图像生成与编辑、语音处理等,且易于集成到LangChain、Transformers Agents和Lagent等框架中。同时,AgentLego支持远程访问和工具服务,适用于需要大型机器学习模型或特定环境的应用。
LLM-Agent-Paper-List - 基于LLM的代理进行了系统而全面的调查,并列出了一些必读的论文
大语言模型人工智能AgentGymR3GitHub TrendingsGithub开源项目
该项目研究基于大型语言模型的智能代理,从核心构建到多模态输入及行动扩展提供全面分析。研究重点包括单代理和多代理的协作场景及与人类互动,探讨智能代理在多种应用领域的潜力及面临的挑战,旨在开拓通用人工智能(AGI)建设的新途径。
LLMDataHub - 大语言模型训练数据集合
LLMDataHub数据集大语言模型开源社区聊天机器人Github开源项目
LLMDataHub汇聚高品质大语言模型训练数据,为研究人员和从业者提供丰富的数据资源。该平台涵盖多种数据集,适合提升聊天机器人对话质量、应答生成及语言理解。同时,平台更新最新数据集,助您获取行业前沿资源。
LISA - 通过大型语言模型进行推理分割的技术
LISA分割掩码大语言模型推理分割多模态Github开源项目
LISA凭借其多模态大型语言模型,开创推理分割任务,能够将复杂文本问题转化为精准的图像分割结果。该项目不仅包含超千个图像指令对、综合推理及世界知识评估,还展示出在无需推理的数据集训练下的强大零样本能力。推理训练图片指令对的引入进一步强化了其性能。详情请参阅相关论文。
SqueezeLLM - 硬件资源优化下的大语言模型量化服务
SqueezeLLM量化大语言模型内存优化模型压缩Github开源项目
SqueezeLLM通过密集与稀疏量化方法降低大语言模型的内存占用并提升性能,将权重矩阵拆分为易量化的密集组件和保留关键部分的稀疏组件,实现更小内存占用、相同延迟和更高精度。支持包括LLaMA、Vicuna和XGen在内的多个热门模型,提供3位和4位量化选项,适用于不同稀疏度水平。最新更新涵盖Mistral模型支持和自定义模型量化代码发布。
torchchat - 使用Python和C/C++运行大型语言模型的轻量化实现
torchchatPython大语言模型PyTorch模型部署Github开源项目
torchchat可以通过Python和C/C++应用程序无缝运行大型语言模型(LLMs),支持桌面、服务器以及iOS和Android设备。该项目特点包括PyTorch原生执行、高效运行、支持多种硬件和操作系统、多种数据类型和量化方案。其安装步骤简便,并提供多种运行模式,如命令行、浏览器界面和REST API,适用于各类开发环境。
ModelCache - 优化大型语言模型响应的语义缓存工具
Codefuse-ModelCache语义缓存大语言模型多租户嵌入模型Github开源项目
ModelCache 是一种优化大型语言模型(LLMs)响应的语义缓存工具,通过缓存预计算的模型结果,迅速响应相似请求,提升用户体验。它支持多租户,并通过 Redis Search 将缓存与向量数据库的交互时间减至 10ms。该项目整合了多种嵌入框架及本地存储选项如 sqlite 和 faiss,便于用户迅速测试。其目标是降低推理部署成本、提升模型性能和提供可扩展的大型模型服务。
MobiLlama - 为资源受限设备提供高效的小型语言模型
MobiLlama大语言模型小语言模型模型下载生成模型Github开源项目
MobiLlama项目提供一个高效的开源小型语言模型,适用于设备上处理、节能和低内存占用的需求。通过参数共享技术,MobiLlama从较大模型简化而来,降低了预训练和部署成本,实现了资源受限设备上高效处理语言任务。
Awesome-LLM-Reasoning - 探索语言模型与多模态大型语言模型的推理能力汇编
大语言模型推理能力技术进展Awesome LLM Reasoning多模态推理Github开源项目
Awesome-LLM-Reasoning是一个精选的资源和论文集合,旨在深入探索LLMs与MLLMs的推理能力。覆盖方法论、技术研究和实证分析等多个领域,提供最新的研究动态和技术解析,助力学术和技术人员加深对这些模型的理解。
phasellm - 探索和评估大型语言模型的框架
PhaseLLM大语言模型性能评估API集成开源Github开源项目
PhaseLLM是一个创新的框架,旨在帮助用户管理和测试由大型语言模型(LLM)驱动的体验,如ChatGPT及其变种。该框架提供标准化API,兼容OpenAI、Cohere、Anthropic等多家服务提供商,构建评估体系,并新增自动化功能,使开发者和数据科学家能更容易地启动新的产品。适合各类品牌和产品经理,简化和加速大型语言模型的集成与评估过程。
rtp-llm - 大型语言模型推理加速引擎
rtp-llm大语言模型CUDA量化多模态输入Github开源项目
rtp-llm是阿里巴巴基础模型推理团队开发的大型语言模型推理加速引擎,广泛应用于支持淘宝问答、天猫、菜鸟网络等业务,并显著提升处理效率。该项目基于高性能CUDA技术,支持多种权重格式和多模态输入处理,跨多个硬件后端。新版本增强了GPU内存管理和设备后端,优化了动态批处理功能,提高了用户的使用和体验效率。
OmniQuant - 简便高效的大型语言模型量化技术
OmniQuant量化大语言模型LLaMA高效QATGithub开源项目
OmniQuant是一种高效的量化技术,支持多种大型语言模型(LLM)的权重和激活量化,包括LLaMa和OPT等。其实现了4位及更低精度的权重量化,并通过MLC-LLM优化在多种硬件设备上的推理性能和内存占用。此外,项目还支持Mixtral和Falcon模型的压缩应用,大幅降低内存需求,提高运行效率。
ontogpt - 基于大语言模型的结构化信息提取Python包
OntoGPT信息提取Python包大语言模型本体论Github开源项目
OntoGPT是一款Python包,通过大语言模型、指令提示和本体定位从文本中提取结构化信息。OntoGPT支持命令行和基本的网络应用接口,并可以与多种API(如OpenAI)进行交互。该工具适用于多种环境,只需设置相关API密钥即可使用多种模型进行信息提取。详细信息请参阅完整文档,提供高效的信息处理解决方案。
ML-Bench - 评测大型语言模型和代理在代码库级机器学习任务上的效果
ML-Bench机器学习任务大语言模型GitHub仓库代码评估Github开源项目
本文详细说明了如何在代码库级别评估大型语言模型和代理的表现,包括环境设置、数据准备、模型微调和API调用等内容。提供了相关脚本和工具,帮助研究者复现实验结果,适用于机器学习和模型评估领域的专业人员和研究者。
TransnormerLLM - 使用线性注意力机制的大规模语言模型
TransNormerLLM大语言模型线性注意力机制高质量语料库模型权重Github开源项目
TransNormerLLM是一种高效的大规模语言模型,使用线性注意力机制,优于传统的软注意力模型。该模型训练于高质量语料库,包含1.4万亿个词元,支持中文、英语和多语言基准测试,在多领域表现出色。提供385M、1B和7B参数版本,开放给学术研究,商用需申请许可。
ai-research-assistant - AI Zotero插件,实现文献管理与智能分析
AriaZoteroGPT-4AI助手大语言模型Github开源项目
Aria插件将大型语言模型(LLMs)与Zotero融合,实现高效的文献管理与智能分析。支持引用拖放、自动补全、视觉分析和聊天笔记保存。兼容OpenAI GPT-4,并提供详尽的安装与配置指南。用户通过简单交互提升研究效率,开发团队持续改进以应对已知问题。
awesome-recommend-system-pretraining-papers - 推荐系统预训练及大型语言模型论文资源
Recommend System预训练模型大语言模型数据集用户表示预训练Github开源项目
此资源汇总了预训练推荐系统和大型语言模型相关的论文,涵盖用户表示预训练、序列推荐、图预训练等子领域,并提供丰富的数据集和代码链接。研究人员可以通过该列表了解如何利用预训练和大型语言模型提升推荐系统性能,获得最新研究成果和实用工具。
FlexGen - 单GPU高效运行大语言模型的生成引擎
FlexGen高吞吐量大语言模型GPU内存优化批处理Github开源项目
FlexGen通过高效的IO卸载、压缩和大批量处理,实现了在单GPU上高吞吐量运行大语言模型。该系统专为高吞吐量任务设计,如信息提取和数据处理,特别适合成本敏感的环境。虽然FlexGen在小批量任务上速度较慢,但在批量处理和低成本硬件上具有显著优势。