#文本生成

Llama-3-8B-Instruct-DPO-v0.1-GGUF - Llama-3指令型语言模型的GGUF量化版本
文本生成Llama-3量化模型Huggingface模型人工智能Github开源项目GGUF
该项目提供Llama-3-8B-Instruct-DPO-v0.1模型的GGUF格式量化版本,支持2至8位多种位宽。模型采用ChatML提示模板,兼容多种GGUF客户端和库,如llama.cpp和LM Studio。作为文本生成模型,它为本地部署提供了高性能和灵活的选择。
opt-6.7b - Meta AI推出开源预训练语言模型促进AI研究
语言模型模型OPT预训练人工智能Github文本生成Huggingface开源项目
OPT-6.7B是Meta AI推出的开源预训练语言模型,采用因果语言建模方法训练。该模型具有67亿参数,在800GB多样化数据集上训练,性能接近GPT-3。OPT-6.7B可用于文本生成和下游任务微调,旨在促进大型语言模型的可重复研究,让更多研究者参与探讨语言模型的影响。
gemma-2-9b-it - Google开源轻量级语言模型支持多种文本生成
文本生成Huggingface模型大语言模型机器学习人工智能Github开源项目Gemma
Gemma 2-9b-it是Google推出的轻量级开源大语言模型,基于Gemini技术开发。这款英语文本生成模型提供预训练和指令微调版本,适用于问答、摘要和推理等任务。其轻量级设计支持在资源受限环境部署,让更多人能够使用先进AI技术,促进创新发展。
Llama-3.2-1B-Instruct-GGUF - 高效量化的指令微调语言模型GGUF版本
文本生成Huggingface模型Llama大语言模型Github开源项目GGUF量化
该项目提供Llama-3.2-1B-Instruct模型的GGUF格式量化版本,支持2至8位量化。GGUF是llama.cpp团队推出的新格式,取代了旧有的GGML。这一版本兼容多种支持GGUF的工具和库,如llama.cpp、LM Studio等,便于高效本地部署和推理。对于需要在资源受限环境中使用大型语言模型的开发者来说,此项目提供了实用的解决方案。
Yi-Coder-1.5B-Chat-GGUF - 高性能编程助手模型的GGUF量化版本
文本生成模型格式Huggingface模型Yi-Coder人工智能Github开源项目GGUF
Yi-Coder-1.5B-Chat-GGUF是01-ai/Yi-Coder-1.5B-Chat模型的GGUF格式量化版本,支持2-bit至8-bit多种精度。该模型适用于多种GGUF兼容框架,专注代码生成和编程辅助。它可在本地设备高效运行,为开发者提供AI编程支持。
gpt-neo-1.3B - EleutherAI开发的13亿参数语言模型GPT-Neo 1.3B
文本生成神经网络Huggingface模型GPT-Neo机器学习Github开源项目自然语言处理
GPT-Neo 1.3B是EleutherAI团队开发的大规模语言模型,基于GPT-3架构,拥有13亿参数。该模型在The Pile数据集上训练,适用于文本生成、问答等自然语言处理任务,并在多项基准测试中表现出色。模型采用MIT开源许可证,但使用时需注意可能存在的偏见和不当内容。
gpt-neo-125m - 轻量级自然语言生成模型
文本生成EleutherAIHuggingface模型深度学习GPT-NeoGithub开源项目自然语言处理
GPT-Neo 125M是EleutherAI团队基于GPT-3架构开发的轻量级自然语言处理模型,拥有1.25亿参数。该模型在Pile数据集上经过3000亿token的训练,能够生成连贯文本,适用于多种NLP任务。尽管规模较小,但性能优异。值得注意的是,由于训练数据的多样性,使用时需谨慎筛选输出内容,以避免潜在的偏见或不当表述。
Llama-3-8B-Instruct-v0.9-GGUF - 高效量化Llama-3-8B-Instruct模型支持多种位宽
文本生成Llama-3量化模型Huggingface模型人工智能Github开源项目GGUF
Llama-3-8B-Instruct-v0.9模型的GGUF格式量化版本提供2-bit至8-bit多种位宽选择。GGUF作为llama.cpp团队推出的新格式取代了GGML。该模型兼容多种GGUF支持的客户端和库,如llama.cpp和LM Studio,支持GPU加速,适合本地部署文本生成任务。
Llama-3-Groq-8B-Tool-Use-GGUF - 高性能文本生成模型的GGUF格式优化版
文本生成量化模型Huggingface模型Llama-3-Groq-8B-Tool-Use人工智能Github开源项目GGUF
Llama-3-Groq-8B-Tool-Use模型的GGUF格式版本由MaziyarPanahi量化优化。GGUF作为llama.cpp团队推出的新格式,取代了旧有的GGML。该模型兼容多种客户端和库,如llama.cpp、LM Studio等,支持GPU加速和跨平台运行。GGUF格式优化后的模型能够提供高效的本地文本生成功能,适用于多种应用场景。
Meta-Llama-3.1-70B-Instruct-GGUF - 多语言支持的70B参数GGUF量化指令模型
模型量化Github开源项目HuggingfaceGGUF模型文本生成本地运行Meta-Llama
Meta-Llama-3.1-70B-Instruct模型的GGUF格式量化版本,提供2-bit至8-bit多种精度选择。这个70B参数模型支持英语、德语、法语等多种语言,适用于文本生成任务。GGUF格式优化了本地部署和推理效率,适合在本地环境运行大型语言模型。该模型兼容多种支持GGUF的推理工具,为用户提供灵活的应用选择。
Mistral-7B-v0.3 - 扩展词汇量提升语言模型能力
模型Github开源项目Huggingface文本生成transformers扩展词汇表Mistral-7B-v0.3大语言模型
Mistral-7B-v0.3是Mistral-7B-v0.2的升级版本,词汇量扩展至32768。该模型保持原有性能,提供更广泛的语言理解能力。支持mistral-inference和Hugging Face transformers等多种安装使用方式。目前尚无审核机制,Mistral AI团队正与社区合作,探索在保证输出质量的同时实现精细保护措施的方法。
Mistral-Nemo-Instruct-2407-GGUF - Mistral指令模型的GGUF格式文件 支持多位宽量化
模型量化GGUF开源项目语言模型Huggingface文本生成Mistral-Nemo-Instruct-2407Github
该项目为Mistral-Nemo-Instruct-2407模型提供GGUF格式文件。GGUF是llama.cpp团队开发的新格式,取代了旧有的GGML。模型支持2-bit至8-bit多种量化级别,适用于文本生成。兼容多种支持GGUF的工具,如llama.cpp和LM Studio,可实现本地运行和GPU加速。这些GGUF文件使得Mistral模型能在各种平台上高效运行,为开发者和研究者提供了灵活的应用选择。
stablelm-2-12b-chat-GGUF - 多样化质量需求的文本生成解决方案
Github模型stablelm-2-12b-chat开源项目HuggingfaceLlamaEdge文本生成稳定性AI模型量化
Stablelm-2-12b-chat-GGUF项目提供多种量化策略,支持多样化文本生成需求。项目由Second State Inc.完成量化,优化性能同时缩小模型体积。推荐Q5_K_M和Q5_K_S版本,以其低损失特性适合高精度文本生成。集成LlamaEdge服务和命令行应用,支持灵活的上下文配置,助力优化文本处理。
mathstral-7B-v0.1-GGUF - Mistral 7B衍生的量化数学推理模型
模型开源项目HuggingfaceGGUF格式mistralai文本生成Github人工智能数学模型
mathstral-7B-v0.1-GGUF是基于Mistral 7B开发的数学和科学任务专用模型。项目提供GGUF格式的2-8位量化版本,兼容多种推理框架。在MATH、GSM8K等数学推理基准测试中表现优异,体现了其卓越的数学推理能力。该模型支持多种开源工具,如llama.cpp、text-generation-webui等,方便用户在不同环境中部署和使用。
solar-pro-preview-instruct-GGUF - 高效量化的GGUF格式Solar-Pro-Instruct模型
solar-pro-preview-instruct模型llama.cppGithub文本生成量化模型Huggingface开源项目GGUF
该项目提供Solar-Pro-Preview-Instruct模型的GGUF格式文件,支持2-8位量化。GGUF是llama.cpp团队开发的新格式,替代了旧有的GGML。这一格式广泛应用于llama.cpp、LM Studio等多个流行的本地部署工具和库中,为高效的本地文本生成任务提供支持。
Meta-Llama-3.1-8B-Instruct-GGUF - 高性能量化模型支持多语言文本生成
模型GGUFGithub开源项目Huggingface文本生成Meta-Llama-3.1大语言模型多语言
Meta-Llama-3.1-8B-Instruct模型的GGUF格式文件集支持高效推理和多语言文本生成。GGUF是llama.cpp团队推出的新格式,替代了原有的GGML。该模型适用于英语、德语、法语等8种语言的助手式对话和自然语言生成任务。项目还介绍了多种支持GGUF的客户端和库,为用户提供了灵活的使用选择。
Llama-3-8B-Instruct-64k-GGUF - 指令调优型64k上下文窗口大语言模型
模型GGUF开源项目Huggingface文本生成Github本地部署量化模型Llama
Llama-3-8B-Instruct-64k-GGUF 是一款采用 GGUF 格式量化的指令调优大语言模型。该模型支持 2 至 8 位多种量化精度,具有 64k 上下文窗口,适用于长文本处理任务。它可通过多种开源工具使用,如命令行接口、Python 库和 Web 界面等,在各类硬件上实现高效运行。
Mistral-7B-Instruct-v0.3-GGUF - 高性能量化版指令调优大语言模型
模型开源项目语言模型HuggingfaceGGUF格式文本生成Github本地部署Mistral-7B-Instruct
本项目提供Mistral-7B-Instruct-v0.3模型的GGUF格式量化版本。GGUF是llama.cpp团队开发的新格式,兼容多种客户端和库。模型支持2-8位量化,可在不同平台上实现GPU加速,适合文本生成和对话应用。这为在本地设备部署高性能大语言模型提供了便捷解决方案。
Llama-3.1-WhiteRabbitNeo-2-8B-GGUF - Llama-3.1量化模型实现优化文本生成
RAM量化Llama-3.1-WhiteRabbitNeo-2-8B模型Github开源项目数据集文本生成Huggingface
Llama-3.1-WhiteRabbitNeo-2-8B使用llama.cpp进行量化,以优化文本生成功能。项目提供多种量化方案,如Q6_K_L和Q5_K_L,适应不同内存条件,特别推荐Q6_K_L用于嵌入及输出权重以获取优异表现。用户可以使用huggingface-cli快捷下载所需文件,并通过Q4_0_X_X对ARM芯片进行性能优化。此项目提供详细决策指南,帮助选择合适的量化版本。
idefics-9b-instruct - 多模态生成模型提升图像与文本的交互性
图像文本生成Hugging Face多模态模型HuggingfaceGithub开源项目模型IDEFICS文本生成
IDEFICS是基于开源数据开发的多模态文本生成模型,处理图像和文本输入并生成文字。模型可描述视觉内容、回答图像相关问题,性能接近于原闭源模型Flamingo。IDEFICS有80亿和9亿参数版本,通过微调增强在对话中的表现,建议优先使用增强版。
Llama-3-Smaug-8B-GGUF - Llama-3-Smaug-8B模型的GGUF格式文件 支持多级量化
文本生成Huggingface模型Github开源项目Llama-3-Smaug-8BGGUF模型人工智能助手量化
Llama-3-Smaug-8B-GGUF项目提供abacusai/Llama-3-Smaug-8B模型的GGUF格式文件,支持2-bit至8-bit多级量化。项目介绍了使用llama.cpp加载模型的方法,并概述了GGUF格式及其兼容工具。该资源有助于用户了解GGUF格式,选择适合的工具进行本地部署和文本生成应用。
Phi-3.5-mini-instruct-GGUF - Microsoft Phi-3.5-mini模型的GGUF格式多位宽量化版本
本地部署模型Github文本生成量化模型Phi-3.5Huggingface开源项目GGUF
此项目提供Microsoft Phi-3.5-mini-instruct模型的GGUF格式量化版本。GGUF是llama.cpp团队推出的新格式,取代了GGML。支持2-bit至8-bit多种量化位宽,兼容多个GGUF支持工具,如llama.cpp和LM Studio。这些工具具备GPU加速和Web界面,便于本地部署和使用大型语言模型。
japanese-gpt-neox-small - 日本GPT-NeoX小型模型,兼容Huggingface加载
前缀微调NVIDIA日语HuggingfaceGithub开源项目模型GPT-NeoX文本生成
本项目提供了一个小型的日本GPT-NeoX模型,基于EleutherAI/gpt-neox代码进行训练。该模型使用Japanese CC-100、Japanese C4和Japanese Wikipedia数据集进行训练,优化语言模型目标。可通过Huggingface的GPT-NeoX无缝加载,模型结构包括12层、768隐藏单元,支持基于sentencepiece的分词。此外,还提供前缀调优权重文件,可以用于后接表情符号的句子生成。经过验证,该模型兼容NVIDIA FasterTransformer 5.1进行推理。
Qwen1.5-7B - 多语言大规模预训练模型支持32K上下文
语言模型模型多语言支持人工智能Github文本生成Qwen1.5Huggingface开源项目
Qwen1.5-7B是基于Transformer架构的大规模预训练语言模型,作为Qwen2的beta版本,在多个方面实现了显著改进。该模型提供多种规模选择,支持多语言处理,并稳定支持32K上下文长度。相比前代产品,Qwen1.5-7B在Chat模型性能、技术创新和分词器优化等方面都有提升,为自然语言处理和代码生成任务提供了更强大的基础模型。
Phi-3-medium-128k-instruct-quantized.w8a16 - 优化为INT8的14亿参数开源模型,提升计算效率
vLLMGithubPhi-3-medium-128k-instruct文本生成开源项目量化模型优化Huggingface模型
Phi-3模型的量化版本,通过将权重量化为INT8,将参数位数从16减少至8,约减少50%的磁盘和GPU使用,仍保有高性能。专为英语商业与研究用设计,不适用于违法行为。支持在vLLM和Transformers中高效部署,平均分数74.04逼近未量化版本。在OpenLLM基准中展现优异准确性与恢复能力。
h2ogpt-4096-llama2-70b-chat - Llama 2 70B模型的对比和私密交互特性
对比测试开源项目h2oGPT模型架构GithubLlama 2Huggingface模型文本生成
h2ogpt-4096-llama2-70b-chat项目是Meta的Llama 2 70B Chat模型的克隆,用户可以在h2oGPT平台上直接测试和比较不同大语言模型的性能。此项目包含私密文档对话功能,强调数据隐私保护,并以高效的模型架构和优化特性为主要优势。更多关于该项目的更新信息,用户可以访问H2O.ai了解最新的自然语言处理技术。
Mythalion-13B-AWQ - 利用高效的低比特量化提升Transformer推理速度
Huggingface文本生成Mythalion 13B量化开源项目模型模型整合Github伪人AI
该项目提供高效的AWQ模型文件,支持4比特量化在多用户环境中实现快速Transformer推理。虽然未量化模型的整体吞吐量更高,但通过使用更小的GPU,AWQ模型显著降低了部署成本,例如仅需1台48GB GPU即可运行70B模型。该模型适合需要高吞吐量并行推理的场景,用户可借助vLLM或AutoAWQ轻松调用以降低成本并简化部署。
granite-3.0-2b-instruct - 提供多语言支持的文本生成模型,适用于构建智能助手
Huggingface文本生成模型架构Granite-3.0-2B-Instruct开源项目模型多语言支持Github训练数据
Granite-3.0-2B-Instruct是由IBM开发的文本生成模型,支持十二种语言,包括中文。模型在基础模型Granite-3.0-2B-Base的基础上经过细调优化,结合开放源码和内部合成数据集。它能够执行文本分类、提取、问答及代码相关任务,采用decoder-only架构。适用于多领域的人工智能助手构建,但在非英语任务的性能可能不如英语任务。
Upstage-Llama-2-70B-instruct-v2-AWQ - 先进的低比特量化技术优化文本生成模型
Huggingface文本生成量化模型开源项目GithubUpstageLlama 2 70B Instruct v2
Upstage通过AWQ模型实现高效的4比特量化,相较于GPTQ提供更快的推理速度。AWQ支持高吞吐量的多用户服务器环境,可在更小的GPU上运行,从而降低部署成本。此外,模型在多项基准测试中表现卓越,能够在单个48GB GPU上运行70B模型,便于快速部署。了解更多关于该模型的性能和应用场景。
NeuralSynthesis-7B-v0.1 - NeuralSynthesis-7B-v0.1在多个基准数据集上展示出卓越的文本生成性能
Huggingface文本生成开源项目模型模型合并GithubNeuralSynthesis-7B-v0.1语言模型Leaderboard
NeuralSynthesis-7B-v0.1展示了强大的文本生成能力,结合多种模型优势并通过LazyMergekit合并。在AI2 Reasoning Challenge、HellaSwag、MMLU等任务中取得优异成绩,其在AI2 Reasoning Challenge上的标准化准确率为73.04%、HellaSwag验证集上为89.18%,在TruthfulQA 0-shot任务中达到78.15%的精确度。详细性能及排名可在Open LLM Leaderboard查看。
Llama-3-8B-Instruct-v0.10-GGUF - Llama-3指令模型的GGUF格式量化版本 支持2-8比特精度
模型Llama-3开源项目HuggingfaceGGUF格式文本生成Github本地部署量化模型
这是Llama-3-8B-Instruct-v0.10模型的GGUF格式量化版本,提供2-bit至8-bit的精度选项。GGUF是llama.cpp团队开发的新格式,取代了GGML,支持多种客户端和库。该项目使用户能够在本地设备上高效运行大型语言模型,适用于文本生成任务。
Llama-3-8B-Instruct-DPO-v0.2-GGUF - Llama-3-8B的GGUF格式量化模型
模型大型语言模型量化GGUFLlama-3开源项目Huggingface文本生成Github
Llama-3-8B-Instruct-DPO-v0.2模型的GGUF格式量化版本,提供2-bit至8-bit多级量化选项。该版本显著减小模型体积和内存需求,同时维持性能。采用ChatML提示模板,兼容多种GGUF格式支持工具,如llama.cpp和LM Studio。此轻量化版本使大型语言模型能在更多设备上本地运行,扩展了应用范围。
Yi-1.5-6B-Chat-GGUF - 多精度量化的高效中文对话模型
模型GGUF开源项目Huggingface对话系统文本生成量化模型GithubYi-1.5-6B-Chat
Yi-1.5-6B-Chat-GGUF是01-ai开发的中文大语言模型Yi-1.5-6B-Chat的GGUF格式量化版本。该模型支持2-bit至8-bit的多种量化精度,适用于文本生成和对话任务。兼容多种GGUF格式推理框架,如llama.cpp、LM Studio等,可在CPU或GPU上高效运行。Yi-1.5-6B-Chat-GGUF为开发者和研究者提供了一个性能优异的中文语言模型选项,在保持模型能力的同时大幅降低了硬件需求。
biogpt - 生物医学领域的预训练生成式语言模型
模型Github预训练模型开源项目Huggingface文本生成BioGPT自然语言处理生物医学
BioGPT是一种针对生物医学领域的预训练生成式语言模型。该模型在大规模生物医学文献上训练,在多项自然语言处理任务中表现出色,尤其在关系抽取和问答任务上取得了显著成果。除了擅长分类任务外,BioGPT还具备强大的文本生成能力,能为生物医学术语提供流畅的描述。这些特性使得BioGPT在生物医学领域有广泛的应用前景。
bart-large - 用于自然语言生成和理解的预训练序列到序列模型
模型seq2seqGithubBART文本生成预训练模型Huggingface开源项目自然语言处理
BART是基于Transformer架构的预训练语言模型,结合了双向编码器和自回归解码器。通过去噪任务预训练,BART在文本生成(如摘要、翻译)和理解任务(如分类、问答)中均表现优异。该模型适用于多种自然语言处理任务,尤其在有监督数据集上进行微调后效果显著。BART为研究人员和开发者提供了强大的工具,推动了自然语言处理技术的发展。
gemma-2-9b-it-GGUF - Gemma轻量级语言模型提供多种文本生成功能
语言模型文本生成Huggingface模型人工智能Github开源项目Gemma量化
gemma-2-9b-it-GGUF是Gemma系列轻量级开源语言模型的GGUF格式版本。这个由Google开发的模型适用于问答、摘要和推理等多种文本生成任务。其体积小巧,易于在资源有限的环境中部署,使先进AI技术更加普及。项目提供多种量化版本,可满足不同硬件配置需求。