#推理

onnx - 一个为 AI 开发人员提供支持的开放生态系统
ONNXAI模型深度学习机器学习推理Github开源项目
ONNX是一个开放生态系统,提供AI模型的开源格式,支持深度学习和传统机器学习。通过定义可扩展的计算图模型和内置操作符及标准数据类型,ONNX增强了不同框架间的互操作性,加速了从研究到生产的转化。ONNX广泛支持各种工具和硬件,助力AI社区快速创新。了解ONNX的文档、教程和预训练模型,加入社区,共同推动ONNX的发展。
lmdeploy - 优化LLM推理的量化和部署工具
LMDeploy量化推理多模态模型部署Github开源项目
LMDeploy是由MMRazor和MMDeploy团队开发的工具包,专注于LLM的压缩、部署和服务。它提供高效的推理性能、有效的量化方法和便捷的分布式服务,显著提升请求吞吐量。支持多种量化方式和多模型服务,兼容性强。最新版本集成了TurboMind和PyTorch推理引擎,支持多种LLMs和VLMs模型,降低开发者的技术门槛。
RAG-Retrieval - 使用RAG-Retrieval全面提升信息检索效率与精度
RAG-Retrieval微调推理排序模型检索模型Github开源项目
RAG-Retrieval项目通过统一方式调用不同RAG排序模型,支持全链路微调与推理。其轻量级Python库扩展性强,适应多种应用场景,提升排序效率。更新内容包括基于LLM监督的微调及其Embedding模型的MRL loss性能提升。
llama.onnx - LLaMa和RWKV模型的ONNX实现及独立演示,支持多设备部署
LLaMaRWKVonnx模型量化推理Github开源项目
此项目提供LLaMa-7B和RWKV-400M的ONNX模型与独立演示,无需torch或transformers,适用于2GB内存设备。项目包括内存池支持、温度与topk logits调整,并提供导出混合精度和TVM转换的详细步骤,适用于嵌入式设备和分布式系统的大语言模型部署和推理。
PaddleNLP - 支持大语言模型开发与部署的开源套件
PaddleNLP大模型训练推理飞桨Github开源项目
PaddleNLP是基于飞桨框架开发的大语言模型套件,提供全面的训练、精调、压缩和部署功能。支持多硬件环境,包括4D并行配置和高效精调策略,适应多种硬件平台,有效降低开发门槛。兼容LLaMA、Bloom等多种主流模型,为大模型开发提供高效解决方案。
awesome-language-agents - 构建和优化语言代理的认知架构和实践
CoALA认知架构语言代理推理学习Github开源项目
该项目汇总了基于CoALA框架的语言代理,实现了动作空间、决策周期等功能。提供了相关核心论文、推特线程及300多篇文献,涵盖从推理到环境互动等多领域前沿研究,旨在优化语言代理的交互、检索和学习能力,有效管理短期和长期记忆。
max - 一套集成的AI库、工具和技术
MAXAI工具链推理硬件可移植性Github开源项目
MAX平台是一套集成的AI库、工具和技术,统一了分散的AI部署工作流。通过提供单一开发工具链,MAX显著缩短了创新产品的上市时间,同时具备完全编程能力、卓越的性能和顺畅的硬件兼容性。文档、代码示例和Jupyter笔记本等资源可帮助用户快速起步,并提供社区支持和交流。
ao - 优化PyTorch工作流,实现高性能和内存占用减少
torchaoPyTorch模型量化推理训练Github开源项目
torchao是一个用于PyTorch工作流的高性能库,能够创建并集成自定义数据类型和优化技术,实现推理速度提升至2倍,显存减少65%。无需大幅修改代码,保持准确度。支持量化、稀疏化及浮点数优化,适用于HuggingFace等模型。用户可以轻松优化模型,提高计算效率。支持int8、int4和float8等多种数据类型,兼容torch.compile()和FSDP。
chatglm_finetuning - ChatGLM模型微调教程
deep_trainingchatglm-6b训练推理微调Github开源项目
本项目提供详细的ChatGLM系列模型微调教程,支持全参数训练、Lora、AdaLora、IA3及P-Tuning-V2等方法。涵盖最新更新,如支持accelerator和colossalai训练,解除chatglm-6b-int4全参训练限制等。项目包含数据处理、推理脚本及多种训练参数设置,适合深度学习研究与应用。
EET - Transformer模型推理加速引擎
EETTransformer推理AI模型性能优化Github开源项目
EET是一个专注于Transformer模型的PyTorch推理加速引擎。它支持百川、LLaMA等大规模语言模型,提供int8量化功能,可在单GPU上高效运行超大模型。EET通过CUDA内核优化和量化算法显著提升多模态及NLP任务的推理性能,为Transformers和Fairseq提供开箱即用的加速方案。使用EET只需几行代码即可实现模型的高效部署与推理。
ggml - C语言开发的机器学习张量库 支持多种AI模型推理
ggml机器学习推理量化GPU加速Github开源项目
ggml是一个C语言编写的机器学习张量库,支持16位浮点和整数量化。该库提供自动微分、优化器和多架构优化,无第三方依赖。ggml可用于GPT、LLaMA、Whisper等多种AI模型的推理。它在CPU上表现高效,同时支持GPU加速,适用于多种设备和平台。
Awesome-Language-Model-on-Graphs - 图上大语言模型研究进展及资源汇总
LLM推理基准测试知识图谱Github开源项目
该资源列表汇总了图上大语言模型(LLMs on Graphs)领域的前沿研究成果。内容涵盖纯图、文本属性图和文本配对图等多个方面,包括数据集、直接回答、启发式推理和算法推理等关键主题。列表基于综述论文整理,并持续更新,为研究人员提供全面参考,推动图上大语言模型研究进展。
GPU-Benchmarks-on-LLM-Inference - GPU和Apple芯片在LLaMA 3推理性能基准对比
LLaMAGPU推理基准测试量化Github开源项目
项目对比测试了NVIDIA GPU和Apple芯片在LLaMA 3模型上的推理性能,涵盖从消费级到数据中心级的多种硬件。测试使用llama.cpp,展示了不同量化级别下8B和70B模型的推理速度。结果以表格形式呈现,包括生成速度和提示评估速度。此外,项目提供了编译指南、使用示例、VRAM需求估算和模型困惑度比较,为LLM硬件选型和部署提供全面参考。
Awesome-LLM-Robotics - 机器人和人工智能融合的前沿研究资源汇编
大语言模型机器人规划推理人工智能Github开源项目
该资源列表汇编了大型语言模型和多模态模型在机器人和强化学习领域的最新研究成果。内容涵盖推理、规划、操作、指令和导航等方面,并包括相关模拟框架。这一综合性参考资料有助于研究人员和开发者探索人工智能与机器人技术的融合前沿。
AGI-survey - 人工通用智能研究前沿及未来发展路线图概览
AGI人工智能大语言模型多模态推理Github开源项目
AGI-survey项目系统梳理了人工通用智能(AGI)研究的前沿进展。项目覆盖AGI内部机制、接口设计、系统实现、对齐问题及发展路线等核心领域,汇总分析了大量相关论文。内容涉及AGI的感知、推理、记忆能力,及其与数字世界、物理世界和其他智能体的交互。此外,项目还探讨了AGI的评估方法和伦理考量,为AGI的发展提供全面参考。
AQLM - 加性量化技术实现大型语言模型高效压缩
AQLM大语言模型量化推理PyTorchGithub开源项目
AQLM项目开发了一种名为加性量化的新技术,可将大型语言模型压缩至原规模的1/16左右,同时基本保持原始性能。该技术适用于LLaMA、Mistral和Mixtral等多种模型架构,并提供了预量化模型。项目包含PyTorch实现代码、使用教程和推理优化方案,为大规模语言模型的实际应用提供了新思路。
BLoRA - 批量处理多个LoRA模型以提升GPU利用率
LoRAGPU优化批处理语言模型推理Github开源项目
BLoRA项目开发了一种新技术,通过在同一批次中处理多个LoRA模型的推理来提高GPU利用率。该技术支持同时加载多个LoRA适配器,并在单一基础模型上进行并行推理。BLoRA不仅优化了计算效率,还为开发者提供了在不同任务间灵活切换模型行为的工具。这一简单而直观的实现为大规模语言模型的应用创造了新机会。
AutoAWQ - 面向大型语言模型的高效4位量化框架
AutoAWQ量化推理GPU加速大语言模型Github开源项目
AutoAWQ是一个专门针对大型语言模型的4位量化框架,通过实现激活感知权重量化算法,可将模型速度提升3倍,同时减少3倍内存需求。该框架支持Mistral、LLaVa、Mixtral等多种模型,具备多GPU支持、CUDA和ROCm兼容性以及PEFT兼容训练等特性。AutoAWQ为提升大型语言模型的推理效率提供了有力工具。
MarkovJunior - 基于重写规则的概率编程语言
MarkovJunior概率编程重写规则推理算法Github开源项目
MarkovJunior结合了马尔可夫算法和重写规则,创造了一种新型概率编程语言。它能够通过简单规则生成复杂模型,在迷宫生成、建筑设计和谜题创作等领域表现出色。该项目支持多维操作,采用XML语法,并融合了约束传播推理,为程序化内容生成提供了强大的工具。
llama2.c-for-dummies - 通俗易懂的大语言模型推理代码解析
Llama2.c推理Transformer架构前向传播权重矩阵Github开源项目
本项目对llama2.c推理文件进行了详细解析,帮助初学者理解大语言模型的推理过程。通过逐行注释,项目阐述了模型结构、权重加载和前向传播等核心概念,用简洁的C语言代码展示LLM推理的基本原理。对于希望深入学习Transformer架构和大语言模型工作机制的开发者而言,这是一个极具参考价值的学习资源。
awesome-LLM-resourses - 中文大语言模型全面资源汇总 数据处理到评估应有尽有
大语言模型LLM微调推理评估RAGGithub开源项目
该项目汇总了中文大语言模型(LLM)领域的全面资源,包含数据处理、微调、推理和评估等多个环节的开源工具。资源库涵盖最新LLM技术,并收录RAG系统和AI代理等前沿应用。项目为LLM研究者和开发者提供了丰富的工具和信息,有助于推进相关项目的开发与应用。
llama2.go - Go语言实现的LLaMA-2本地推理引擎
llama2.goGo语言大语言模型推理性能优化Github开源项目
llama2.go项目实现了LLaMA-2模型的本地推理。该引擎使用纯Go语言编写,源于llama2.c项目。它通过命令行界面实现模型加载和文本生成,并采用并行计算、循环展开等技术优化性能。在Apple M1芯片上,llama2.go能够达到39.28 tok/s的推理速度。作为一种轻量高效的方案,该项目为开发者提供了便捷的LLaMA-2本地部署选择。
buffer-of-thought-llm - 思维缓冲技术提升大语言模型推理效能
Buffer of Thoughts大语言模型推理性能提升思维模板Github开源项目
Buffer of Thoughts (BoT)是一种创新的思维增强推理方法,通过元缓冲区存储思维模板并动态更新,显著提升了大语言模型的推理能力。在10项复杂推理任务中,BoT表现优异,如在Game of 24、Geometric Shapes和Checkmate-in-One等任务上分别提升11%、20%和51%。研究发现,结合BoT的Llama3-8B模型在性能上有望超越Llama3-70B模型。
Mixtral-8x7B-v0.1-GGUF - Mixtral模型的多平台兼容量化文件
Github量化模型推理开源项目Mixtral 8X7BHuggingface模型格式Mistral AI
Mixtral GGUF模型文件采用新量化格式,支持2至8位模型,适用于多平台的CPU和GPU推理。文件兼容llama.cpp、KoboldCpp和LM Studio等平台。由Mistral AI创建,Apache-2.0协议许可,支持多语言,高效推理。
F5-TTS - 提高训练和推理速度的先进文本到语音转换系统
F5-TTSE2 TTS训练推理数据集Github开源项目
项目F5-TTS利用Diffusion Transformer和ConvNeXt V2技术,显著提升了训练和推理速度。支持生成最长30秒的音频,并通过Sway Sampling技术优化推理性能。用户可以自定义数据集,并使用多GPU和fp16配置加速训练。提供单次推理、语音编辑和批量推理功能,并支持通过Gradio App进行操作。多种测试数据集和评估工具确保模型表现稳定高效。
Llama3-8B-1.58-100B-tokens-GGUF - Llama 3模型的GGUF格式优化版本
模型Llama3推理llama.cppGithub命令行界面模型转换Huggingface开源项目
本项目提供Llama3-8B-1.58模型的GGUF格式版本,基于Meta-Llama-3-8B-Instruct模型转换而来。支持通过llama.cpp进行快速部署和推理,包括命令行界面和服务器模式。项目详细介绍了llama.cpp的安装、使用方法,以及从GitHub克隆和构建的步骤,方便开发者进行硬件优化和自定义配置。这一优化版本旨在提高模型的部署效率和推理性能。
Mistral-7B-Instruct-v0.2 - 开源大语言模型支持32K上下文窗口的指令微调版本
Huggingface模型指令微调大语言模型Github开源项目自然语言处理推理Mistral-7B-Instruct-v0.2
Mistral-7B-Instruct-v0.2是基于Mistral-7B-v0.2进行指令微调的语言模型。该版本扩展了上下文窗口至32K,采用Rope-theta=1e6,并移除了滑动窗口注意力机制。模型提供了简化的指令格式和聊天模板,便于用户交互。作为一个快速演示,它展示了基础模型通过微调可以达到的性能水平。但需注意,该模型尚未包含内容审核功能,在特定场景下使用时应当谨慎。
Mixtral-8x22B-Instruct-v0.1 - 多语言指令微调大型语言模型
Huggingface模型大语言模型Github开源项目标记器推理Mixtral-8x22B-Instruct-v0.1函数调用
Mixtral-8x22B-Instruct-v0.1是基于Mixtral-8x22B-v0.1的指令微调版大型语言模型。该模型支持多语言处理,具备出色的自然语言理解和生成能力。它适用于对话、问答和函数调用等多种任务。模型采用先进的分词器和推理技术,开发者可通过mistral_common和transformers库方便使用。Mixtral-8x22B-Instruct-v0.1为AI应用开发提供了可靠的基础。
Meta-Llama-3.1-8B-Instruct-GPTQ-INT4 - Meta-Llama-3.1-8B-Instruct模型的INT4量化版本
模型量化推理GPTQMeta Llama 3.1Github大语言模型Huggingface开源项目
Meta-Llama-3.1-8B-Instruct模型的INT4量化版本,由社区开发。该版本将原FP16模型量化为INT4,支持多语言对话,在行业基准测试中表现优异。模型仅需约4GB显存即可加载,兼容多种推理框架。项目提供详细使用指南和量化复现方法,适用于资源受限环境下的高效部署。
Meta-Llama-3.1-8B-Instruct-AWQ-INT4 - 高性能4比特量化优化版本
Meta-Llama-3.1AutoAWQHuggingface模型大语言模型Github开源项目推理量化
Meta-Llama-3.1-8B-Instruct模型的社区驱动4比特量化版本,采用AutoAWQ技术从FP16量化到INT4。该版本仅需4GB显存即可加载,大幅降低内存占用。支持Transformers、AutoAWQ、TGI和vLLM等多种推理方式,适用于不同部署场景。量化模型在保持原始性能的同时,为资源受限环境提供了高效的大语言模型方案。
Mixtral-8x7B-Instruct-v0.1-GPTQ - Mixtral-8x7B多语言推理模型的GPTQ量化版本
模型量化推理GPTQGithub大语言模型Mixtral 8X7BHuggingface开源项目
本项目提供Mistral AI的Mixtral-8x7B-Instruct-v0.1模型的GPTQ量化版本,支持法语、意大利语、德语、西班牙语和英语多语言推理。模型采用Mixtral架构,提示模板为'[INST] {prompt} [/INST]'。项目提供多种量化参数选项,可适应不同硬件和需求,在保证性能的同时降低资源消耗。该模型使用Apache 2.0许可发布。
Meta-Llama-3.1-70B-Instruct-AWQ-INT4 - Llama 3.1 70B指令模型INT4量化版 多语言对话优化
AutoAWQHuggingface模型大语言模型Meta Llama 3.1Github开源项目推理量化
Meta AI的Llama 3.1 70B指令模型经社区量化为INT4精度,显著降低内存需求。这一多语言模型针对对话场景优化,在行业基准测试中表现优异。支持通过Transformers、AutoAWQ、TGI和vLLM等多种方式部署使用,为开发者提供灵活选择。
DeepSeek-V2.5 - 集成通用与编程能力的先进语言模型
Huggingface模型大语言模型代码生成Github开源项目推理DeepSeek-V2.5函数调用
DeepSeek-V2.5是一款整合了DeepSeek-V2-Chat和DeepSeek-Coder-V2-Instruct优势的语言模型。它在写作和指令执行等方面进行了全面优化,并在AlpacaEval、ArenaHard等多项评估中展现出卓越性能。该模型具备函数调用、JSON输出和FIM补全等实用功能,可广泛应用于推理和商业领域。通过创新架构设计,DeepSeek-V2.5在保证训练经济性的同时实现了高效推理,为用户提供了一个功能强大的语言模型解决方案。
Meta-Llama-3.1-70B-Instruct-GPTQ-INT4 - INT4量化版提升多语言对话效率
模型量化开源项目HuggingfaceMeta-Llama-3.1-70B-InstructGithub大语言模型推理GPTQ
本项目展示了Meta Llama 3.1 70B Instruct模型的INT4量化版本。通过AutoGPTQ技术,将原FP16模型压缩至INT4精度,在维持性能的同时显著减少内存使用,仅需约35GB显存即可运行。该项目兼容多个推理框架,如Transformers、AutoGPTQ、TGI和vLLM,便于根据不同需求进行选择。项目还附有详细的量化复现指南,方便用户独立完成模型量化过程。
bge-large-en-v1.5-quant - 量化ONNX模型增强句子编码效率和性能
推理Github开源项目嵌入量化DeepSparseHuggingfaceSparsify模型
该量化ONNX模型旨在利用DeepSparse加速bge-large-en-v1.5嵌入模型,提升句子编码效率。通过Sparsify实现的INT8量化和深度稀疏技术,在标准笔记本和AWS实例上分别实现了4.8倍和3.5倍的延迟性能改善。在多个数据集的测试中,该模型在分类和STS任务中展现出较高的编码效率。结合DeepSparse和ONNX技术栈,该模型适用于需要高效自然语言处理的应用场景。
meditron-7B-AWQ - 通过低比特量化方法优化变换器模型性能
医疗Github开源项目量化开源HuggingfaceMeditron 7B推理模型
此项目提供EPFL LLM团队的Meditron 7B模型的AWQ量化文件,采用高效的4位低比特量化方法,在提升变换器推理速度的同时保证质量。兼容多种平台和工具,如Text Generation Webui、vLLM、Hugging Face Text Generation Inference及Transformers。