#大语言模型

Qwen2.5-7B-bnb-4bit - 采用4bit量化技术加速Qwen2.5-7B模型并降低70%内存占用
大语言模型Qwen2.5开源项目Unsloth模型模型微调Huggingface深度学习Github
基于Qwen2.5-7B的量化优化版本,通过4bit量化技术将内存占用降低70%。模型拥有76亿参数,具备128K上下文长度和29种语言处理能力,支持编码、数学运算和长文本生成等功能。该版本在保持原有性能的同时实现轻量化部署,可用于后续的模型微调与定制开发。
LiteLlama-460M-1T - 轻量级高性能语言模型精简参数实现大模型能力
数据集机器学习大语言模型Github开源项目LiteLlamaHuggingface模型训练模型
LiteLlama是基于LLaMA 2的开源复现项目,将模型参数优化至460M,并使用1T规模tokens训练。采用RedPajama数据集和GPT2分词器,在MMLU等基准测试中表现良好。支持HuggingFace Transformers加载,是一款轻量级但性能优异的语言模型。该项目遵循MIT许可证开源。
CodeLlama-7b-Python-hf - Meta推出的Python专用代码生成与理解模型
大语言模型Github开源项目模型Code LlamaPython编程Huggingface人工智能代码生成
CodeLlama-7b-Python-hf作为Code Llama系列的Python特化版本,搭载70亿参数规模的优化Transformer架构。这款由Meta开发的模型通过预训练和精调,具备出色的Python代码补全和理解能力。模型支持商业及研究领域应用,使用需遵循Meta许可协议。
TinyLlama-1.1B-Chat-v0.3 - 轻量级高性能AI聊天助手 基于3万亿token训练
大语言模型Github开源项目TinyLlamaHuggingface对话模型预训练模型
TinyLlama-1.1B-Chat-v0.3是一个基于Llama 2架构的轻量级开源语言模型,使用1.1B参数在3万亿tokens上预训练。模型采用OpenAssistant数据集微调,支持chatml格式,具有部署灵活、资源占用少等特点。TinyLlama保持了与Llama生态系统的兼容性,同时适用于计算资源受限的场景,为AI聊天应用提供了一个高效实用的解决方案。
Llama-2-13B-chat-GGUF - Llama 2聊天模型的量化压缩版本
大语言模型Github开源项目量化模型GGUFHuggingfaceLlama 2人工智能
Llama 2 13B聊天模型的GGUF格式优化版本,采用2-bit到8-bit不等的量化方案,实现模型体积的大幅压缩。支持CPU和GPU环境下的高效推理,适配主流框架如llama.cpp、text-generation-webui等。通过不同量化级别的选择,可在推理性能与资源占用间实现灵活平衡。
gemma-2-27b-it-GGUF - Gemma-2-27b-it模型的多精度GGUF量化版本
大语言模型Github开源项目推理服务LlamaEdgeHuggingfaceGemma模型量化模型
Gemma-2-27b-it模型的GGUF量化版本提供2至16比特的多种精度选项。基于LlamaEdge框架,支持8192上下文窗口,可通过WasmEdge以服务或命令行方式运行。Q4_K_M和Q5_K_M版本在模型大小和性能间取得平衡,适合多数应用场景。
Qwen2.5-Coder-7B-Instruct-GGUF - 基于Qwen2.5的7B参数代码专用模型支持超长文本输入与代码生成
GGUF格式大语言模型Github开源项目指令微调模型HuggingfaceQwen2.5-Coder代码生成
Qwen2.5-Coder-7B-Instruct-GGUF是一款开源的代码专用大语言模型,通过5.5万亿token的训练提升了代码生成和推理能力。模型采用transformers架构,参数规模为7.61B,具备32K-128K的长文本处理能力。该模型在保持通用能力的同时优化了编程相关任务,支持GGUF格式并可通过llama.cpp部署,适用于代码智能体等实际应用场景。
Llama-3.1-Storm-8B - 多任务智能的高性能开源语言模型
大语言模型Llama-3.1-Storm-8BGithub开源项目模型模型微调人工智能Huggingface机器学习
Llama-3.1-Storm-8B是基于Llama-3.1-8B-Instruct改进的开源语言模型。通过自主数据筛选、定向微调和模型合并,它在10个基准测试中显著超越原始模型,包括指令遵循、知识问答、推理能力、真实性和函数调用。GPQA提升7.21%,TruthfulQA提升9%,函数调用准确率提升7.92%。支持Transformers、vLLM和Ollama等多种部署方式,为AI开发者提供高性能的通用型语言模型选择。
stablelm-3b-4e1t - StableLM开源语言模型在1万亿token数据上训练达到30亿参数规模
大语言模型开源模型开源项目StableLM-3B-4E1T模型人工智能Huggingface文本生成Github
StableLM-3B-4E1T是一个开源语言模型,通过在Falcon RefinedWeb和RedPajama-Data等数据集上训练4轮获得,总计处理1万亿tokens数据。模型采用LayerNorm归一化和Rotary位置编码技术,支持Flash Attention 2优化。在HellaSwag和Winogrande任务评测中分别达到75.94%和71.19%的准确率,展现出良好的语言理解能力。
WizardMath-7B-V1.1 - 新一代数学推理模型优化Mistral-7B架构实现卓越性能提升
机器学习大语言模型AI训练Github开源项目Huggingface数学推理WizardMath模型
WizardMath-7B-V1.1基于Mistral-7B架构开发,通过强化进化指令训练方法提升数学推理能力。在GSM8k和MATH基准测试中分别达到83.2和33.0的评分,达到7B规模模型中的最佳水平。这一开源数学推理模型展现出与商业大模型相当的解题表现,为数学问题求解提供了新的解决方案。
Qwen2.5-7B-Instruct-GGUF - 开源大语言模型GGUF量化版支持多语言和128K长文本处理
大语言模型Github开源项目模型多语言支持Huggingface深度学习Qwen2.5人工智能
Qwen2.5-7B指令模型GGUF量化版是Qwen2.5系列的一部分,采用transformers架构,拥有7.61B参数。该模型支持29种语言,可处理128K文本上下文,并提供q2至q8多种量化精度选项。相比前代,模型在知识储备、代码、数学能力、指令执行、长文本生成和结构化数据理解等方面均有显著提升。
Meta-Llama-3.1-8B - 开源支持128K上下文的多语言大规模语言模型
大语言模型Github开源项目Llama 3.1多语言支持人工智能模型Huggingface机器学习模型
Meta Llama 3.1是新一代多语言大规模语言模型系列,提供8B、70B和405B三种参数规模。模型采用优化的Transformer架构,通过SFT和RLHF提升对话能力。支持8种语言,具有128K上下文窗口,基于15T+训练数据。采用GQA技术优化推理性能,适用于商业和研究领域的文本生成任务,知识截至2023年12月。
Meta-Llama-3.1-70B-Instruct-GGUF - LLaMA 3.1模型量化版本集合及性能参数对比
大语言模型Github开源项目模型人工智能Huggingface模型量化机器学习Llama 3.1
Meta-Llama-3.1-70B-Instruct模型量化版本集合采用llama.cpp的imatrix压缩方式,包含从Q8_0到IQ3_M共13种量化等级选择。模型文件大小范围为74.98GB至31.94GB,适配LM Studio运行环境。Q6_K、Q5_K系列及IQ4_XS等中等压缩比版本在性能与资源占用方面达到较好平衡。
jais-family-13b-chat - Jais系列模型助力阿拉伯语与英语双语处理
大语言模型开源项目自然语言处理模型Huggingface双语机器翻译Jais FamilyGithub
Jais项目发布双语大模型系列,旨在提升阿拉伯语与英语的语言处理能力。该项目包括20个模型,参数规模从590M到70B,利用海量阿拉伯语、英语和代码数据进行训练,具备增强的对话功能,有助于推进阿拉伯语自然语言处理的研究与应用。Jais模型在Llama-2的基础上进行适应性预训练,显著提高计算效率,适用于低资源语言环境,专注于提升模型的上下文理解与推理能力。
Qwen2.5-3B-Instruct-GGUF - 高性能3B参数量GGUF格式大语言模型,支持多语言、长文本理解与结构化输出
大语言模型Qwen2.5开源项目自然语言处理模型人工智能HuggingfaceGGUF格式Github
Qwen2.5-3B-Instruct-GGUF是一款基于Qwen2.5系列的指令微调模型,参数量为3B。该模型支持29种语言,具备出色的代码和数学处理能力。它可处理128K tokens的上下文,生成长度达8K tokens的文本。模型采用transformers架构,整合了RoPE和SwiGLU等技术,并提供多种量化版本。其优势在于强大的指令跟随能力、结构化数据理解和JSON输出能力,适用于多样化的系统提示词场景。
Llama-3.2-11B-Vision-Instruct-bnb-4bit - Llama 3.2视觉语言模型的4bit优化版实现快速低资源微调
大语言模型Github开源项目模型模型微调MetaHuggingface深度学习Llama 3.2
Llama 3.2系列模型的4bit优化版专注多语言对话和视觉语言处理。Unsloth优化提升训练速度2.4倍,节省58%内存。支持8种官方语言,适用对话生成、检索和总结任务。采用优化Transformer架构,通过SFT和RLHF实现人类偏好对齐,保证高效性能和安全性。该版本为开源社区提供了更易于部署和微调的Llama 3.2模型选择。
Qwen2-57B-A14B-Instruct - 新一代指令优化语言模型Qwen2的潜力
大语言模型Github开源项目长文本处理模型模型评价Qwen2Huggingface多语言能力
Qwen2-57B-A14B-Instruct是Qwen2系列中采用指令优化的语言模型,包含57亿参数。作为Mixture-of-Experts模型之一,它在多个基准测试中超越了多数开源和私有模型,包括语言理解、生成、多语言处理、编程、数学和推理能力。此模型支持处理长达65,536个tokens,适合解析长文本,依托先进的Transformer架构,并具备多语种适应能力的改进tokenizer。
granite-20b-code-base-8k - IBM开源代码生成模型多语言支持与准确性提升
代码生成大语言模型训练数据IBM研究开源项目Granite-20B-Code-Base-8K模型HuggingfaceGithub
Granite-20B-Code-Base-8K是IBM推出的开源代码生成模型,旨在提升软件开发效率。模型通过3万亿标记的训练数据,支持116种编程语言,具备代码生成和修复等功能。在多个数据集的测试中表现良好,通过两阶段训练策略提高逻辑和指令执行能力,适合处理技术债务及漏洞检测等任务,广泛适用于企业应用。
opt-66b - Meta AI推出OPT系列开源预训练语言模型促进NLP研究
预训练模型OPTGithub模型开源项目自然语言模型Huggingface大语言模型文本生成
OPT是Meta AI开发的开源预训练Transformer语言模型系列,参数规模从125M到175B不等。该系列模型主要基于英语文本训练,性能可媲美GPT-3。OPT旨在促进大型语言模型的可复现研究,使更多研究者能够参与探讨其影响。这些模型可用于文本生成和下游任务评估,但也存在偏见等局限性。通过开放OPT,Meta AI期望推动自然语言处理技术的整体进步。
Baichuan2-7B-Chat - 2.6万亿Tokens训练的双语开源大模型
Github模型模型训练开源项目Huggingface大语言模型人工智能开源许可Baichuan2
Baichuan2-7B-Chat是百川智能发布的开源大语言模型,基于2.6万亿Tokens高质量语料训练。模型在中英文基准测试中表现优异,提供Base和Chat版本,支持4bits量化。它完全开放学术研究,经许可可免费商用。模型采用PyTorch 2.0优化推理速度,在通用、法律、医疗、数学、编程和多语言翻译等领域表现出色。
Qwen2.5-Coder-1.5B-Instruct - 支持超长文本处理的智能代码生成模型
长文本处理Qwen2.5-CoderGithub模型指令微调开源项目代码生成Huggingface大语言模型
基于Qwen2.5架构开发的代码特化大语言模型,通过5.5万亿token训练提升了代码生成、推理和修复能力。模型支持长文本处理,具备代码智能体和数学推理功能,采用transformers架构并集成多项先进技术,为代码开发提供全面的辅助支持
vicuna-7b-v1.5-16k - 高性能开源聊天助手模型 支持16K长文本输入
开源项目人工智能模型GithubLlama 2机器学习HuggingfaceVicuna大语言模型
vicuna-7b-v1.5-16k是LMSYS开发的开源聊天模型,通过ShareGPT收集的12.5万条对话数据对Llama 2进行微调。模型支持16K上下文长度,采用线性RoPE缩放技术,主要应用于语言模型和聊天机器人研究。该项目提供完整的命令行界面和API接口,方便研究人员和开发者快速部署使用。
Meta-Llama-3.1-405B-Instruct-GPTQ-INT4 - Meta Llama 3.1模型的INT4量化版本实现多语言对话
开源项目模型GithubHuggingfaceLlama 3.1大语言模型模型量化深度学习推理部署
Meta-Llama-3.1-405B-Instruct量化模型通过AutoGPTQ技术将FP16压缩至INT4格式,实现了更高效的多语言对话能力。模型集成了transformers、AutoGPTQ、TGI和vLLM等多种推理框架,方便灵活部署。经过基准测试验证,该社区驱动的量化版本在降低内存占用的同时保持了原有性能水平。
open_llama_7b_v2 - Meta AI LLaMA开源复刻
OpenLLaMA开源项目模型Github开源Huggingface模型评估Meta AI大语言模型
OpenLLaMA项目发布了开放许可的LLaMA模型复刻,包括3B、7B和13B模型,使用多种数据集进行训练。项目提供了PyTorch和JAX格式的模型权重,能替代原始LLaMA模型,适用于多种应用场景。模型在多任务测试中表现优异,部分任务超过原始模型。用户可通过Hugging Face平台加载模型,建议暂时避免使用快速分词器。项目旨在提升高效语言模型研究,为AI社区提供共享资源。
ShieldLM-7B-internlm2 - 中英双语AI内容安全检测模型 支持自定义规则审核
Github模型开源项目安全检测ShieldLMHuggingface大语言模型人工智能双语模型
ShieldLM-7B-internlm2是基于internlm2-chat-7b开发的内容安全检测模型,主要用于识别大语言模型输出内容中的安全风险。模型支持中英双语检测,遵循通用安全标准,可根据需求自定义检测规则并提供判断依据。经测试,其检测性能在多个测试集上优于GPT-4等主流安全检测模型。
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored - 多语言大规模生成模型,专注角色扮演对话
Huggingface开源项目模型多语言支持MetaGithub训练数据大语言模型Llama 3.1
该项目提供多语言对话生成,模型规模从8B到405B,特别适合角色扮演场景。基于优化的Transformer架构,并结合强化学习技术,适用于商业和研究用途,遵循Llama 3.1 Community License开放授权。
MGM-7B - 基于LLaMA的开源多模态图文理解生成模型
HuggingfaceMGM-7B人工智能开源项目模型Github图像理解多模态模型大语言模型
MGM-7B是基于LLaMA架构开发的多模态语言模型,通过Vicuna模型微调实现高清图像理解和生成能力。作为MGM系列的组成部分,该开源项目提供了从2B到34B多个参数规模版本,支持密集模型和MoE模型架构。模型使用多模态指令数据集训练,适用于计算机视觉和自然语言处理研究。
MAmmoTH2-8B-Plus - 基于网络数据的大规模指令微调方法
MAmmoTH2算法评估大语言模型Huggingface语言模型训练Github开源项目推理能力模型
MAmmoTH2项目通过从网络预训练语料中高效收集1000万条指令-回答对来提升大语言模型的推理能力。该方法显著改善了模型在多个推理基准测试上的表现,如MAmmoTH2-7B (Mistral)在MATH和GSM8K测试中的得分大幅提升。这种方法不仅无需特定领域数据训练,还为获取大规模高质量指令数据提供了一种高效的途径,为增强大语言模型的推理能力提供了新的研究方向。
L3-8B-Stheno-v3.2-GGUF-IQ-Imatrix - 基于Llama 3的低资源角色扮演大语言模型
大语言模型开源项目量化模型角色扮演Stheno模型HuggingfaceSillyTavernGithub
L3-8B-Stheno-v3.2-GGUF-IQ-Imatrix是一个经过优化量化的Llama 3大语言模型。该模型针对角色扮演场景进行了特别优化,支持故事创作和多轮对话。通过多种量化版本实现了低资源运行,8GB显存即可部署使用。模型在保持创造力的同时,具备出色的对话连贯性和指令遵循能力。
Qwen2.5-32B-Instruct-abliterated-v2-GGUF - 基于Qwen2.5的无道德限制大语言模型
GGUFHuggingface人工智能模型微调开源项目模型Qwen2.5-32BGithub大语言模型
该项目是Qwen2.5-32B-Instruct模型的优化版本,通过特定技术移除了模型的道德限制和约束性回应,实现了更开放的对话能力。项目采用轻量级格式,便于灵活部署和实际应用。
Llava-v1.5-7B-GGUF - 轻量级多模态图文处理模型 支持多种精度量化
模型量化模型Github开源项目LLaVA大语言模型图文理解LlamaEdgeHuggingface
Llava-v1.5-7B-GGUF是Llava 1.5 7B模型的GGUF量化版本,提供2位至8位多种精度选择,可根据性能和质量需求灵活使用。项目支持通过LlamaEdge快速部署,适用于多模态AI应用场景。该模型具备图像理解和文本生成能力,在保持性能的同时实现了模型体积的压缩。
recoilme-gemma-2-9B-v0.3 - recoilme-gemma-2-9B-v0.3模型的应用与操作指南
AI绘图recoilme-gemma-2-9B-v0.3Huggingfacetransformers模型Github开源项目大语言模型模型使用
本文介绍recoilme-gemma-2-9B-v0.3模型在Python中的使用方法,涵盖安装步骤、模板应用及文本生成过程,旨在帮助开发者更好地理解和应用该语言模型。
zephyr-7B-beta-AWQ - 基于Mistral模型优化的高性能7B开源对话模型,支持AWQ量化部署
Zephyr 7B Beta大语言模型性能评估HuggingfaceGithub开源项目模型AI模型微调
Zephyr-7B-beta是基于Mistral-7B-v0.1模型的开源对话助手,采用DPO技术训练,在多项基准测试中表现优异。模型支持AWQ 4-bit量化,文件大小仅4.15GB,可通过多种框架高效部署。该项目使用MIT许可证,主要支持英语,适合研究和教育用途。
Qwen-7B - 70亿参数规模的多语言开源预训练语言模型
评测Qwen-7B大语言模型HuggingfaceGithub开源项目模型预训练多语言
Qwen-7B是一个70亿参数规模的开源预训练语言模型,基于超过2.4万亿tokens的多语言语料训练而成。该模型支持15万规模的多语言词表,在常识推理、代码生成、数学计算、机器翻译等多个评测任务中表现优异。通过采用RoPE位置编码、SwiGLU激活函数等技术,Qwen-7B具备强大的多语言理解和处理能力,同时支持长文本输入和高效推理。
Qwen2.5-Coder-7B-Instruct-AWQ - AWQ量化7B参数代码模型支持128K长文本处理
Qwen2.5-Coder人工智能代码生成Github模型开源项目大语言模型AWQ量化Huggingface
Qwen2.5-Coder-7B-Instruct-AWQ是一个AWQ量化的4比特指令微调模型,具有7B参数。该模型在代码生成、推理和修复方面表现出色,支持处理长达128K tokens的上下文。它采用28层、28个注意力头的因果语言模型架构,并应用RoPE、SwiGLU等技术。这一模型在提升编码能力的同时,保持了数学和通用领域的性能,为代码智能助手等应用提供了坚实基础。
Mistral-Nemo-Instruct-2407-bnb-4bit - 高效LLM微调框架提速2-5倍并减少70%内存使用
微调开源项目模型GithubHuggingface大语言模型加速训练Unsloth节省内存
该项目为Mistral、Gemma、Llama等大语言模型提供高效微调框架。利用Unsloth技术,训练速度提升2-5倍,内存使用减少70%。项目提供多个免费Google Colab笔记本,支持Llama-3 8b、Gemma 7b、Mistral 7b等模型训练。框架操作简单,适合初学者使用,支持将微调模型导出为GGUF、vLLM格式或上传至Hugging Face平台。