#文本生成
sqlcoder-7b-2 - 开源自然语言到SQL转换模型
模型SQLCoder-7B-2数据库分析自然语言转SQLGithub文本生成模型评估Huggingface开源项目
SQLCoder-7B-2是一个开源的自然语言到SQL转换模型。该模型基于CodeLlama-7B微调,旨在帮助非技术用户理解SQL数据库数据。在SQLEval测试中表现优异,尤其擅长处理复杂连接查询。模型适用于具有只读权限的用户,项目提供了使用说明和评估数据。
llama-160m-accelerator - 基于多阶段MLP的LLaMA-160M模型推理加速器
模型开源项目HuggingfaceDocker文本生成深度学习Github模型加速vLLM
这是一个为JackFram/llama-160m模型设计的加速器项目,借鉴了Medusa推测解码架构的思想。该加速器通过改造MLP为多阶段结构,实现了基于状态向量和先前采样令牌的单token预测,有效提升了模型推理速度。项目支持与vLLM和Hugging Face TGI等工具集成,为大型语言模型的高效部署提供了实用解决方案。加速器的训练过程轻量化,能够在短时间内完成,适用于各种规模的生成式模型。
Violet_Twilight-v0.2-GGUF - SLERP技术融合的多语言AI文本生成模型
模型ChatML多语言支持Github文本生成抽样设置模型合并Huggingface开源项目
Violet_Twilight-v0.2-GGUF是一个融合Azure_Dusk-v0.2和Crimson_Dawn-v0.2的AI语言模型。它采用SLERP技术合并两个基础模型,支持包括中文在内的多种语言处理。该模型使用ChatML格式训练,具备强大的文本生成能力。Violet_Twilight-v0.2-GGUF提供多种采样设置,可根据需求调整输出效果,为AI文本生成应用提供灵活高效的解决方案。
polyglot-ko-12.8b-safetensors - Polyglot-ko 12.8B韩语模型的SafeTensors优化版
Polyglot-ko韩语模型文本生成EleutherAIHuggingface模型Github开源项目safetensors
该项目提供EleutherAI开发的Polyglot-ko 12.8B韩语模型的SafeTensors格式优化版。优化版采用1GB的较小分片大小,提高了模型的易用性和部署便捷性。在保持原始性能的同时,优化版显著提升了加载速度和存储效率。这一资源对于从事韩语自然语言处理的研究人员和开发者具有重要价值,可用于各类韩语NLP任务。
opt-2.7b - Meta AI开发的开放预训练Transformer语言模型
预训练语言模型模型OPT人工智能Github文本生成Huggingface开源项目自然语言处理
OPT是Meta AI开发的开放预训练Transformer语言模型系列,参数规模125M至175B。采用先进数据收集和训练方法,性能与GPT-3相当。旨在促进大规模语言模型的可重复研究,扩大研究群体。主要基于英语语料预训练,使用因果语言建模,适用于文本生成和下游任务微调。OPT开放了完整模型访问权限,有助于研究大语言模型的工作原理、影响及相关挑战。
T5_Paraphrase_Paws - T5模型驱动的英语句子改写工具
文本生成Huggingface模型句子改写GithubT5开源项目自然语言处理模型训练
项目利用Google PAWS数据集训练T5模型,提供英语句子改写功能。支持PyTorch和TensorFlow框架,通过Python接口易于集成。模型可生成多个改写版本,增强输出多样性。适用于文本复述、数据增强等自然语言处理任务,为相关研究和应用提供实用工具。
Mistral-7B-Instruct-v0.2-AWQ - Mistral-7B-Instruct-v0.2改进版指令微调大语言模型
模型AI推理AWQ模型量化Mistral-7B-Instruct-v0.2Github文本生成Huggingface开源项目
Mistral-7B-Instruct-v0.2是Mistral AI团队开发的改进版指令微调大语言模型。基于Mistral-7B-v0.1架构,采用分组查询注意力和滑动窗口注意力技术。支持[INST]和[/INST]标记的指令格式,提供聊天模板功能。模型性能出色,但缺乏审核机制。适用于需要无限制输出的应用场景,展示了基础模型易于微调并获得优秀性能。
stable-code-3b - 支持多编程语言的FIM功能语言模型
模型训练transformer开源项目模型GithubHuggingfacestabilityai/stable-code-3b文本生成编程语言
这款2.7B参数的语言模型具备Fill in Middle功能,可支持18种编程语言及长上下文处理,适合广泛的应用场景。
Breeze-7B-Instruct-v1_0 - 增强繁体中文处理能力,提高语言模型性能
开源项目模型GithubHuggingface文本生成MediaTek传统中文Breeze-7B语言模型
Breeze-7B-Instruct-v1_0 是MediaTek Research开发的语言模型,专为繁体中文应用而设计。基于Breeze-7B-Base的演进,支持问答、多轮对话和文本摘要等任务。其在繁体中文及英语的测试中表现优越,相较于同类开源模型有显著提升。Breeze-7B通过词汇扩展和高效推理性能,在繁体中文任务中展现优势。v1.0版本经过精细化训练,提供高效准确的语言处理。
Meta-Llama-3.1-8B-Instruct-quantized.w8a8 - 量化优化的多语言文本生成模型
多语言Github量化模型开源项目Meta-Llama-3vLLMHuggingface文本生成
该模型通过INT8量化优化,实现了GPU内存效率和计算吞吐量的提升,支持多语言文本生成,适用于商业和研究中的辅助聊天任务。在多个基准测试中,该模型实现了超越未量化模型的恢复率,尤其在OpenLLM和HumanEval测试中表现突出。使用GPTQ算法进行量化,有效降低了内存和磁盘的占用。可通过vLLM后端快速部署,并支持OpenAI兼容服务。
Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic - 多语种量化优化模型,显著降低内存占用
开源项目Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic模型模型优化Huggingface文本生成多语言支持量化Github
通过将权重和激活量化为FP8格式,该项目优化了Llama-3.1-Nemotron模型,显著降低了GPU内存与磁盘的占用。模型适用于商业与研究,支持多语言开发和会话助手的构建。利用vLLM,可以实现高效部署并具有OpenAI兼容性。Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic在诸多测试中表现优良,在Arena-Hard评估中达99.41%的恢复率。
japanese-gpt2-medium - 中型日语GPT-2模型为自然语言处理提供强大支持
模型Github开源项目Huggingfacetransformer日语模型文本生成自然语言处理GPT-2
rinna公司开发的中型日语GPT-2模型基于CC-100和维基百科数据集训练。该模型采用24层1024隐藏单元的Transformer架构,使用sentencepiece分词器。通过Hugging Face可轻松调用,适用于多种日语自然语言处理任务。这个开源项目遵循MIT许可证,为日语NLP研究和应用奠定了坚实基础。
leo-hessianai-7b-chat - 德语对话模型,适用于多种自然语言处理任务
超算自由软件LeoLMGithub开源项目文本生成德语语言模型Huggingface模型
本项目提供基于LeoLM/leo-hessianai-7b的德语对话模型,经过德语指令数据集的微调,适用于写作、解释及讨论,数学和高级推理仍具挑战。支持英语和德语,并拥有8k上下文长度,为德国开源和商业语言模型的研究发展助力。
Hebrew-Gemma-11B-V2 - 多语言处理的希伯来语-英语大规模生成模型
大语言模型Github开源项目文本生成Hebrew-Gemma-11B-V211亿参数自然语言处理Huggingface模型
Hebrew-Gemma-11B-V2是一个以开源形式发布的大规模语言模型,扩展自Google的Gemma-7B架构。通过增量3B的英语和希伯来语文本数据进行扩展训练。模型专注于多项自然语言处理任务,尤其擅长希伯来语的理解和生成。使用者需遵循Google的使用条款,提供的代码示例可以帮助快速在CPU和GPU上运行,同时支持4位精度量化。
codegemma-1.1-7b-it-GGUF - 文本生成的多样化量化模型选择
模型下载Hugging Face量化HuggingfaceGithub开源项目模型transformers文本生成
项目使用llama.cpp进行模型量化,提供多种模型版本以优化文本生成性能。用户可以依据硬件配置选择合适的模型版本,推荐选用Q6_K等高质量量化格式。多样化的模型版本在内存占用和性能表现之间提供灵活选择,适用于多种硬件平台。I-quant模型在较低量化级别上表现优异,适合需要高效运行的场景。
h2ogpt-4096-llama2-13b-chat - Meta Llama 2 13B Chat克隆模型架构与性能比较
MetaGithub开源项目文本生成h2oGPT模型架构HuggingfaceLlama 2模型
h2oGPT提供了Meta Llama 2 13B Chat的克隆版本,展示其模型架构及功能。在h2oGPT的演示中,可以进行模型对比及私聊文档,了解其与其他模型的差异。通过LLM排行榜,可以查看其性能表现。这一项目基于Llama模型的结构特征,如多层感知机制、嵌入技术和注意力机制,增强了文本生成能力。更多信息请访问H2O.ai。
Configurable-Yi-1.5-9B-Chat - 提升语言模型安全性和灵活性的方法
安全调优数据集准确率GithubConfigurable-Yi-1.5-9B文本生成开源项目Huggingface模型
该项目应用Configurable Safety Tuning (CST)技术对语言模型进行微调,以提升其在各种任务场景中的表现与安全性。项目支持多种系统提示,能够适应不同需求,比如无偏见助手或完全开放的助手。在AI2 Reasoning Challenge、HellaSwag、MMLU等多项任务中,该模型展示了卓越的准确性。针对需要调整AI助手安全性和行为的应用场景,该项目提供了一种理想的框架,使模型既能保持有用性又能避免生成非法内容。
TowerBase-7B-v0.1 - 增强翻译及多语种任务的多语言模型性能
GithubUnbabel文本生成开源项目翻译模型TowerBase-7B多语言Huggingface模型
TowerBase-7B-v0.1是一个多语言模型,通过继续在Llama 2的基础上对20亿条多语种数据进行预训练,在10种主要语言中表现出色。非常适合用于翻译和相关应用任务,在AI2 Reasoning Challenge和HellaSwag等测试中展现出优异的归一化准确率。该模型支持快速无监督调优,为相应语言的研究提供支持。技术报告将提供详细信息。
rwkv-4-169m-pile - RNN与Transformer的高性能结合:高效文本生成
RWKVGithub开源项目文本生成转换脚本人工神经网络GPUHuggingface模型
RWKV项目由Bo Peng主导,结合RNN和Transformer的优势,提供强大的LLM性能,支持“无限”上下文长度、快速推理和节省显存。该模型支持并行训练,如GPT,可用于高效文本生成,并提供详细的使用和部署指南。项目中提供的多种硬件运行方案,使得用户能够轻松部署在不同环境中,享有快速且节能的文本生成体验,符合现代AI开发需求。
japanese-gpt2-small - rinna开发的轻量级日语自然语言处理模型
日语模型模型GPT-2Github文本生成开源项目Huggingface机器学习自然语言处理
japanese-gpt2-small是rinna公司开发的轻量级日语GPT-2模型。该模型基于CC-100和日语维基百科数据集训练,采用12层768隐藏单元的Transformer架构。它使用SentencePiece分词器,适用于文本生成等多种自然语言处理任务。模型在V100 GPU上训练约15天,验证集困惑度达到21左右。作为日语NLP的预训练基础模型,japanese-gpt2-small为相关研究和应用提供了有力支持。
sarashina2-7b - 该语言模型支持多语言文本生成,涵盖日语与英语
Sarashina2-7B语言模型句子分割器训练数据模型Github开源项目文本生成Huggingface
该项目的语言模型由SB Intuitions开发,支持日语和英语文本生成。训练数据来自清理后的Common Crawl和SlimPajama语料库,结合了Llama2架构和RoPE位置编码。尽管模型尚未经过指令微调,存在生成不准确或有偏见内容的可能性,但模型的基础能力为开发者提供了进一步优化和安全改进的空间。
Tiny-Vicuna-1B-GGUF - 量化的Tiny Vicuna 1B GGUF模型文件优化文本生成效率
量化开源项目模型GithubHuggingface文本生成Tiny-Vicuna-1B文件
此项目提供了afrideva量化的Tiny Vicuna 1B GGUF模型文件,涵盖q2_k、q3_k_m、q4_k_m、q5_k_m、q6_k和q8_0等量化方法,文件大小从482.14 MB到1.17 GB不等。模型由Jiayi-Pan在TinyLLama 1.1B基础上创建,利用WizardVicuna数据集进行微调,适合早期的实验迭代。模型旨在提升文本生成任务的效率,具备高效性能和简便操作,适合紧凑存储需求的应用。
c4ai-command-r-plus - 多语言高级模型实现复杂任务自动化
C4AI Command R+生成增强检索Huggingface文本生成非商业用途开源项目模型多语言支持Github
C4AI Command R+ 是拥有104B参数的多语言高级模型,适用于复杂任务自动化。支持多步工具使用和检索增强生成(RAG),优化推理、总结及问答等功能。在包括简体中文等10种语言中表现良好。可通过Hugging Face Space试用,需安装特定transformers库。非量化版本支持与bitsandbytes结合实现量化。此外,在开放LLM排行榜中表现优异,具备先进的多语言和工具化能力。
Arabic-Orpo-Llama-3-8B-Instruct - 优化Meta-Llama-3模型在阿拉伯语文本生成中的表现
Huggingface阿拉伯语文本生成llama3开源项目模型Github语言模型评估结果
本项目利用ORPO技术对Meta-Llama-3-8B-Instruct模型进行了微调,旨在提升其生成阿拉伯语文本的准确性和连贯性。虽然基准测试结果显示基模型略有优势,但经过微调的模型在实际应用中生成的阿拉伯语文本质量更高。训练数据来自2A2I/argilla-dpo-mix-7k-arabic数据集,并通过lighteval工具进行评估,旨在增强英文模型在阿拉伯语言环境下的适应能力。
Llama-3.2-3B-Instruct-uncensored-GGUF - 量化的语言模型版本,促进文本生成与信息获取
Llama-3.2-3B-Instruct-uncensoredHuggingface文本生成量化开源项目模型Hugging FaceGithub内幕交易
Llama-3.2-3B-Instruct-uncensored-GGUF项目是一个未过滤的量化语言模型版本,增强了文本生成的多样性和信息获取效率。通过llama.cpp的量化处理,该模型在保持高效性能的同时输出高质量响应。其特点包括在敏感话题上的信息提供更全面,响应拒绝次数少。支持研究和开发中的多场景应用,用户可以在相关平台上进行交互,实现从文本生成到信息提取的多领域应用。
speechless-code-mistral-7b-v1.0 - 全面支持多语言的代码生成与推理模型
SpeechlessCoderHuggingface模型优化文本生成开源项目模型GPTQGithubPython
该项目展示了一款专注于代码生成和推理的模型,具备提升推理和规划能力的特点。其多种量化选项支持8位以下的CPU+GPU推断,使其在多种编程语言上均表现不俗。模型经过微调,覆盖了201,981个样本的数据集,包括编码、推理和规划样本,支持Alpaca指令格式。在HumanEval基准测试中通过率达51.22%,适用于多种编程语言的验证,如Python、Java、C++等,为编程助手和代码验证提供支持。
chatgpt_paraphraser_on_T5_base - 开源模型实现ChatGPT级文本改写功能
ChatGPTGithub文本生成模型文本改写自然语言处理T5模型Huggingface开源项目
该项目基于开源T5模型构建,通过Quora、SQUAD 2.0和CNN新闻数据集训练,实现文本改写功能。模型提供多个参数设置选项,可生成多个版本的改写结果。项目部署简单,适用于内容创作和文本优化等应用场景。
openbuddy-mixtral-7bx8-v18.1-32k - 高效实现多语言文本生成
Huggingface文本生成多语言聊天机器人AI2推理挑战OpenBuddy开源项目模型Github模型评估
OpenBuddy Mixtral-7bx8-v18.1-32k 是一个多语言文本生成模型,在多项性能测试中表现出色,尤其是在HellaSwag测试中,实现了84.30%的准确率。该模型支持多种语言,广泛应用于内容创造和AI交互领域。同时,用户需注意适当使用,避免在高风险场景中应用,以确保安全可靠。
Llama-3-Instruct-8B-SPPO-Iter3 - 改进文本生成的创新模型及其在多任务中的性能评估
Apache-2.0Llama-3-Instruct-8B-SPPO-Iter3开源LLM排行榜开源项目自我游戏偏好优化模型GithubHuggingface文本生成
Llama-3-Instruct-8B-SPPO-Iter3模型采用自我对弈偏好优化技术进行第三次迭代微调,具备强大的文本生成能力。模型通过IFEval、BBH、MATH、GPQA、MuSR等多个数据集进行多任务性能评估,其中IFEval (0-Shot)的严格准确率为68.28。该模型基于meta-llama/Meta-Llama-3-8B-Instruct,使用openbmb/UltraFeedback数据集训练,拥有8B参数,专注于英文文本生成,为语言模型的优化提供了全新视角和实用的性能测试结果。
aya-23-8B-GGUF - 更精细的文本生成量化选项分析
开源项目质心模型文本生成Huggingfacetransformers量化Github
项目使用最先进的llama.cpp imatrix量化技术,支持多语言文本生成。多种量化格式,例如Q8_0和紧凑型IQ系列,提供应用的灵活性。用户依据硬件选择文件,以优化性能。创新量化处理为多语言文本生成提供了更高效的实现路径。
Phind-CodeLlama-34B-v2-GGUF - 利用GGUF格式提升模型性能,兼容多平台GPU加速
Github开源项目文本生成CodeLlamaGPU加速格式转换Huggingface模型量化模型
Phind's CodeLlama 34B v2采用GGUF格式,由llama.cpp团队在2023年8月21日推出替代GGML。GGUF实现了更优的标记化及特殊标记支持,并且具有可扩展性。兼容多种第三方界面与库(如text-generation-webui和KoboldCpp),并支持GPU加速。量化模型在保持高质量的同时降低了资源占用,适用多种场景,建议使用Q4_K_M与Q5_K_M模型以实现最佳性能及质量平衡。
NeuralLLaMa-3-8b-DT-v0.1 - 结合多模型优势的文本生成解决方案,增强任务表现
LazyMergekitGithub模型准确率开源项目模型合并Huggingface文本生成NeuralLLaMa-3-8b-DT-v0.1
NeuralLLaMa-3-8b-DT-v0.1 是一种通过融合ChimeraLlama-3-8B-v2、llama-3-stella-8B和llama-3-merged-linear等模型,借助LazyMergekit技术,提升了文本生成任务精确度的开源项目。适用于0-Shot和多次尝试测试,表现出出色的任务表现,严格准确率达43.71%。项目易于集成,支持多种量化配置,适合多种平台应用。
TinyStories-1M - 基于百万量级数据训练的儿童故事生成语言模型
Github人工智能自然语言处理Huggingface模型训练TinyStories开源项目模型文本生成
TinyStories-1M是基于Transformers架构开发的儿童故事生成模型,搭载GPT-Neo-125M分词器,通过百万级简单故事数据集训练而成。模型能够根据输入提示自动生成结构完整、内容连贯的儿童故事,支持开发者自定义生成参数,主要应用于儿童教育和阅读领域的智能内容创作。
Llama-3.2-3B-Instruct-uncensored-GGUF - 高效文本生成的前沿模型格式
GPU加速量化模型格式Llama-3.2-3B-Instruct-uncensored-GGUF模型Github开源项目文本生成Huggingface
Llama-3.2-3B-Instruct-uncensored-GGUF采用了最新的GGUF格式,替代了不再支持的GGML,提升了大规模文本生成的性能。它兼容多种客户端与库,从llama.cpp到进阶GPU工具,包括Python库和用户友好的图形界面,如LM Studio和text-generation-webui,以及适用于故事创作的KoboldCpp。此更新提升了模型推理效率,具有广泛的兼容性,适用于多种系统平台,实现快速响应与多功能扩展。
MicroLlama - 预算内的大规模语言模型构建:300M Llama模型的探索
开源项目huggingface模型Github开源Huggingface文本生成MicroLlama语言模型
该项目在有限预算内,通过全面开源的方法构建了一个300M Llama语言模型。尽管性能不及更大型的模型,但以不到500美元的投入,在多数据集上表现出色,并在与类似参数的BERT模型比较时展现优势。项目使用Vast.ai的计算资源和AWS S3存储,对TinyLlama模型进行了调整,重点优化Slimpajama数据集。这一项目展示了低成本大规模模型开发的潜力,并为细化应用如轻量级聊天机器人提供了坚实基础。
llama2.c-stories15M - 轻量级智能故事生成模型
JavaScript库Github开源项目文本生成代码示例NPMHuggingfaceTransformers.js模型
这是一个基于Llama2架构的轻量级故事生成模型,模型体积仅15M,通过NPM包方式集成到Web应用中。该模型支持灵活的文本长度控制,能生成连贯的故事内容,适合对部署性能和资源消耗有要求的应用场景。开发者可以通过Transformers.js轻松安装并使用pipeline进行文本生成,特别适合需要快速部署的Web应用。
相关文章
funNLP: 中文自然语言处理工具和资源大全
2024年08月29日
ModelFusion: 构建AI应用的TypeScript库
2024年08月30日
Awesome-ChatGPT-Prompts-CN: 探索ChatGPT的无限可能
2024年08月30日
Text2Text: 革命性的跨语言自然语言处理工具包
2024年08月31日
GPT-J API: 构建强大的自然语言处理应用
2024年08月31日
GPT-2模型在TensorFlow 2.0中的实现与应用
2024年08月31日
GPT-2客户端:一个强大易用的自然语言生成工具
2024年08月31日
ai.vim: 智能化你的Neovim编辑体验
2024年08月31日
MemGPT:9.2k星星!创建具有长期记忆和自定义工具的大模型Agent,完全开源!
2024年08月03日