#文本生成
bart-paraphrase - BART大型语言模型文本释义转换工具
开源项目自然语言处理模型文本生成模型微调HuggingfaceBART机器翻译Github
BART文本释义模型基于序列到序列架构开发,整合了BERT双向编码器与GPT单向解码器技术,通过Quora、PAWS和MSR数据集训练,实现文本的变换与释义功能。模型提供简洁的API接口,便于集成到自然语言处理应用中。
Mistral-Ita-7b - 基于Mistral架构的意大利语自然语言处理模型
意大利语言模型开源项目自然语言处理模型Mistral-7BHuggingface文本生成模型量化Github
Mistral-Ita-7b是基于Mistral-7B-v0.1架构开发的意大利语言模型,在hellaswag_it、arc_it和m_mmlu_it测试中平均准确率为58.66%。模型支持4位量化,可降低资源占用并提升处理效率。通过Python接口可实现意大利语文本生成及其他自然语言处理功能。
Gemma-The-Writer-N-Restless-Quill-10B-Uncensored-GGUF - Gemma2驱动的多功能创意写作模型
Github开源项目文本生成创意写作模型HuggingfaceGemma情节生成小说写作
Gemma2创意写作模型融合四大顶级写作算法,针对小说和故事创作优化。Brainstorm 5x适配器增强指令遵循能力,生成更长篇幅和丰富内容。支持多种写作风格,上下文窗口8k可扩展至32k。通过参数和预提示调节,实现精确输出控制。
alias-gpt2-small-x21 - 文本生成工具,提高自然语言处理效果
语言模型偏见与公平Github开源项目文本生成alias-gpt2-small-x21HuggingfaceApache 2.0模型
alias-gpt2-small-x21是由Stanford CRFM开发的文本生成模型,延续了GPT-2的能力,适用于多种自然语言处理任务。需注意模型中的偏见和风险,不应用于产生敌意环境,并需考虑其碳排放的环境影响。
Mistral-Nemo-Instruct-2407-GGUF - 多语言与编程语言支持的先进文本生成模型
LM StudioGithub开源项目Mistral Nemo模型Huggingface文本生成多语言支持GGUF量化
Mistral Nemo由Mistral AI和NVIDIA联合训练,拥有超过一百万的上下文窗口,支持多种语言如法语、德语、中文及逾80种编程语言,包括Python和Java。模型性能卓越,通过GGUF量化适合复杂任务场景。它可在LM Studio使用,并能处理特定格式的指令,广泛适用于文本生成任务。
Rocinante-12B-v1.1-GGUF - 基于12B参数的开源文本生成语言模型
Rocinante聊天模板语言模型Github开源项目文本生成模型Huggingface人工智能
Rocinante-12B-v1.1-GGUF是一个基于12B参数的开源语言模型,支持ChatML、Alpaca和Mistral等多种聊天模板。该模型具备丰富的词汇量和叙事能力,通过调整采样参数可实现不同风格的文本生成。项目开源并提供多种量化版本,适合用于文本创作和对话生成等场景。
granite-3.0-8b-instruct - 多领域AI助手构建的多语言文本生成模型
AI助手开源项目模型语言模型多语言HuggingfaceGranite-3.0-8B-Instruct文本生成Github
Granite-3.0-8B-Instruct是由Granite团队与IBM开发的8B参数文本生成模型,支持多种语言,适合构建应用于多领域的AI助手。其功能涵盖文本生成、分类、抽取、问答、检索增强生成(RAG)和代码任务。模型基于Decoder-Only Transformer架构,可通过开放源和内部合成数据集进行微调,支持多语言对话场景。
CarbonVillain-en-10.7B-v4 - CarbonVillain-en-10.7B-v4模型的文本生成能力及其评估表现
准确率GithubCarbonVillain开源项目文本生成合并模型模型Huggingface人工智能
CarbonVillain-en-10.7B-v4版模型展示出色的文本生成性能。其在AI2 Reasoning Challenge、HellaSwag等数据集上的表现优异,尤其在标准化准确率方面达到了新的指标。结合mergekit和slerp方法,这一实验性模型为应对碳排放挑战而生,现已成为Open LLM Leaderboard上的热门模型。
Daredevil-8B - 高性能文本生成模型
GithubMMLU开源项目文本生成Daredevil-8B模型模型合并Huggingface人工智能
Daredevil-8B通过合并多个Llama 3 8B模型,优化了MMLU性能,以卓越的表现位居Open LLM排行榜之首。该模型运用LazyMergekit合并工具,在AI2 Reasoning Challenge、HellaSwag等任务中展现了出色的文本生成能力,并量化为GGUF模型版本,以便于广泛应用于文本生成任务。
CrystalChat - 适用于编程任务的透明高效语言模型
性能指标CrystalChat开源项目机器学习模型模型Huggingface开源文本生成Github
CrystalChat是一个基于Llama 2进行指令微调的模型,运用各类公开数据集及自有的WebAlpaca输入,擅长处理语言和编程任务。该模型在多任务处理方面展现出色的表现,尤其在MMLU和HumanEval评测中取得高分。在未经RLHF安全调整的前提下,该开源模型依然保证高度透明和用户可理解性。
Reasoning-0.5b-GGUF - 量化推理模型优化文本生成效果
量化Reasoning-0.5b模型Github开源项目llama.cpp嵌入/输出权重文本生成Huggingface
页面介绍了Reasoning-0.5b模型的多种量化版本,优化了ARM及其他平台的推理速度与性能。在LM Studio运行模型有助于在低RAM环境下展现性能优势。内容包括量化文件的特性、推荐下载链接、使用建议,以及在不同计算平台上的应用效果。用户通过huggingface-cli可依据硬件资源选择合适模型,提升性能效率。
TinyStories-33M - 基于GPT-Neo架构的开源文本生成模型
模型训练开源项目GPT-NeoTinyStories模型Huggingface文本生成数据集Github
该模型以TinyStories数据集为基础,采用GPT-Neo架构进行训练,可通过API简便生成文本,广泛应用于自然语言处理任务。
Qwen2.5-14B_Uncensored_Instruct-GGUF - 高性能量化版本适用于多种设备和场景
Qwen2.5-14B开源项目GGUF模型Huggingface模型压缩文本生成量化Github
此项目为Qwen2.5-14B无审查指令模型提供多种量化版本,涵盖从29.55GB的F16到5.36GB的IQ2_M等不同规格。量化类型包括Q8_0、Q6_K、Q5_K、Q4_K、Q3_K和IQ系列,适应不同硬件配置需求。项目详细介绍了各版本特点、文件大小和适用场景,并提供选择指南和下载方法,方便用户根据设备性能选择合适版本。
Mistral-7B-v0.1-GGUF - 多平台支持的GGUF格式模型文件,提升推理效率
Github开源项目文本生成GPU加速Mistral 7B v0.1Huggingface量化方法开源模型模型
Mistral AI发布的Mistral 7B v0.1模型以GGUF格式支持多种文本生成任务。此格式由llama.cpp团队开发,替代旧的GGML格式,兼容多平台和库,包括支持GPU加速的text-generation-webui、KoboldCpp和LM Studio等。项目提供多样的量化模型文件,适配不同推理需求,保证了启发式使用中的高效性能。用户可通过简单的下载及命令行操作获取模型,并支持Python等语言的集成,为文本生成任务提供了高性能的解决方案。
opt-66b - Meta AI推出OPT系列开源预训练语言模型促进NLP研究
预训练模型OPTGithub模型开源项目自然语言模型Huggingface大语言模型文本生成
OPT是Meta AI开发的开源预训练Transformer语言模型系列,参数规模从125M到175B不等。该系列模型主要基于英语文本训练,性能可媲美GPT-3。OPT旨在促进大型语言模型的可复现研究,使更多研究者能够参与探讨其影响。这些模型可用于文本生成和下游任务评估,但也存在偏见等局限性。通过开放OPT,Meta AI期望推动自然语言处理技术的整体进步。
Delexa-7b - 多基准测试中展现出色表现的开源语言模型探索
评估结果开源项目模型GithubHuggingfaceAI推理Delexa-7b文本生成语言模型
Delexa-7b是开源的大型语言模型,在通用语言任务中表现优越。其在多项基准测试中,包括HellaSwag Challenge,获得了86.49%的准确率。该模型支持生成特定内容,并具备不生成非法内容的能力。在llm-judge平台上的初步评估中,Delexa-7b取得了8.143750的平均得分。其应用领域涵盖STEM推理和AI开发实验,需注意在使用时避免可能的有害生成内容。
OPT-6B-nerys-v2 - 基于多样数据集训练的文本生成模型
Huggingface文本生成开源项目模型许可证GithubOPT 6B-Nerys训练数据偏见与局限
OPT 6B-Nerys在Facebook的OPT模型基础上进行了微调,训练数据涵盖多类型电子书、CYOA数据集及数十部亚洲轻小说,标识为[Genre: <genre1>, <genre2>]格式。支持通过文本生成管道直接使用,适用于多种生成任务。需注意可能存在性别、职业、种族和宗教偏见,由OPT-175B许可协议保护。
GPT-JT-6B-v1 - 优化文本分类的先进语言模型
GPT-JTGithubUL2模型分类任务开源项目Huggingface文本生成开放数据集
GPT-JT-6B-v1采用去中心化训练和开放数据集,提升文本分类表现。结合UL2训练目标等先进技术,使其在计算效率上具有优势,优于大多数百亿参数模型。在多样化数据集如自然指令和P3上,GPT-JT利用标记和双向上下文学习,增强推断能力和语言处理功能。
notus-7b-v1 - 优化偏好响应的7B模型树立文本生成新标准
模型评估AI训练数据Notus-7b-v1模型Github开源项目算法优化文本生成Huggingface
此模型通过直接偏好优化技术增强文本生成能力,树立新基准。其使用更具代表性的偏好数据集,提高了准确性,并在与Zephyr和Claude 2的比较中表现出色,成为AlpacaEval评估中最具竞争力的7B模型之一,是聊天应用程序中的理想助手。
Llama-2-13B-fp16 - Llama 2模型的fp16格式转换提升推理性能
Llama 2量化参数预训练模型Github开源项目模型转换文本生成Huggingface
Llama 2模型的fp16格式文件提高了生成文本模型的推理效率和转换能力。该项目通过使用Hugging Face Transformers库,将Meta的原始PTH文件转换为HF格式,方便在GPU上进行推理和进一步转换。适用于多种自然语言生成任务,包括对话优化模型Llama-2-Chat。这些模型在评估中展示出色表现,适用于商业和研究。访问Discord获取支持或加入Patreon以获得更多权益。
Meta-Llama-3.1-8B-Instruct-128k-GGUF - 支持128k上下文长度的文本生成模型
量化开源项目模型GithubHuggingfaceHugging Face模型转换文本生成Meta-Llama-3.1
此文本生成模型具备高达128k的上下文支持,由3Simplex负责量化和转换。需在GPT4All v3.1.1环境下运行,适用于多种文本生成任务。该模型仍在测试中,建议用户提供反馈以优化其性能。
Yi-Coder-9B - 涵盖52种编程语言的高效代码生成模型
编程语言开源模型Yi-Coder代码性能模型Github开源项目文本生成Huggingface
Yi-Coder系列拥有高效的代码生成能力,支持52种编程语言,尤其在长文本上下文使用表现出色,最多128K tokens。Yi-Coder-9B-Chat在LiveCodeBench中达23%通过率,适用于代码生成与智能交互。详情参见Yi-Coder博客和README。
NSFW_DPO_Noromaid-7b-Mistral-7B-Instruct-v0.1-GGUF - 结合多模型的量化文本生成引擎
Huggingface文本生成NSFW_DPO_Noromaid-7b-Mistral-7B-Instruct-v0.1量化开源项目模型transformers模型合并Github
NSFW_DPO_Noromaid-7b-Mistral-7B-Instruct-v0.1-GGUF是利用llama.cpp开发的量化模型,整合了mistralai和athirdpath的两款7B模型。通过slerp合并法和bfloat16数据类型,该项目优化了文本生成任务的性能。用户可以通过Transformers和Accelerate库在Python中完成文本生成。该模型结合了多模型的优点,专为处理复杂文本生成任务而设计,提供了高效的运行性能。
ko-gemma-2-9b-it - 韩语大型语言模型,最新版本提升对话生成能力
大型语言模型Gemma谷歌模型Github韩国语开源项目文本生成Huggingface
Ko-Gemma-2-9B-IT 是基于 Google 技术的韩语对话生成模型,经过精心调整,优化人类反馈,适合各种文本生成任务。
NeuralDaredevil-8B-abliterated-GGUF - 在开放LLM排行榜中表现强劲的高性能8B未删节模型
Github模型开源项目AI2推理挑战NeuralDaredevil-8B-abliterated开放LLM排行榜模型评估Huggingface文本生成
NeuralDaredevil-8B通过DPO微调技术恢复性能损失,在各项基准测试中表现出色,尤其是在Open LLM排行榜中凭借其高MMLU得分排名靠前。适用于无需对齐且需要高准确度的应用场景,如角色扮演。
german-gpt2 - 开源的德语预训练语言模型
机器学习Github模型德语开源项目GPT-2Huggingface文本生成自然语言处理
German-GPT2是DBMDZ开发的德语预训练语言模型,基于GPT-2架构构建。模型通过大规模德语语料库训练,采用5万词汇量的字节级BPE编码。项目开源发布,提供便捷的API接口,支持文本生成等自然语言处理任务。作为基础模型,German-GPT2主要用于进一步针对特定任务的微调训练。
tamil-llama-7b-instruct-v0.1 - 改进泰米尔文本生成的高性能语言模型
机器学习Github模型开源项目NLP语言模型Huggingface文本生成Tamil LLaMA
Tamil LLaMA 7B Instruct v0.1在泰米尔语处理方面取得关键进展。作为优化后的GPT模型,它在文本生成中表现出色,并可通过微调适应特定的NLP任务。模型基于16,000个泰米尔词汇,并集成顶尖数据集,如AI2 Reasoning Challenge和HellaSwag,提供高精度的多领域能力。
SQL_Llama-3.2-3B-Instruct-uncensored_final-gguf - Llama模型驱动的高效SQL指令生成工具
Github模型模型训练开源项目Huggingface文本生成人工智能LlamaUnsloth
SQL_Llama-3.2-3B-Instruct-uncensored_final-gguf是PurpleAILAB基于Llama 3.2-3B模型开发的SQL指令生成工具。该项目利用Unsloth和Huggingface的TRL库进行优化,显著提升了训练效率。这一模型专门针对SQL相关任务进行了微调,旨在为开发者提供准确、高效的SQL指令生成和处理功能。
Qwen2.5-32B-AGI-GGUF - Qwen2.5-32B-AGI模型量化与性能优化概述
Github权重量化模型Qwen2.5-32B-AGI开源项目模型优化Huggingface文本生成
介绍Qwen2.5-32B-AGI在Llamacpp中的量化模型,强调文本生成性能的提升。多种量化格式(如Q8_0,Q6_K_L)满足不同需求,结合embed/output量化,适应低RAM环境。提供模型选择、下载与运行指南,含基于ARM芯片的性能优化方法。
ChimeraLlama-3-8B-v3 - 结合多项模型技术的高效文本生成能力
ChimeraLlama-3-8B-v3Huggingface文本生成模型融合Github模型准确率开源项目LLM排行榜
ChimeraLlama-3-8B-v3采用LazyMergekit技术,结合NousResearch、mlabonne、cognitivecomputations等7个模型,为使用者提供高效的文本生成服务。在多个数据集上的表现优异,在IFEval(0-shot)达到了44.08的严格准确率,在MMLU-PRO(5-shot)测试中获得29.65的准确率。其参数配置运用了int8_mask和float16的数据类型,保证高效运行和资源使用优化。利用transformers库可便捷调用和使用该模型,体验其创新文本生成能力。
Behemoth-123B-v1-GGUF - 多种量化策略优化文本生成模型效率
Github量化模型开源项目性能优化Huggingface模型下载文本生成Behemoth-123B-v1
Behemoth-123B-v1-GGUF 项目运用 Llamacpp imatrix 技术进行模型量化,支持从 Q8_0 到 IQ1_M 的多种格式,适应不同硬件环境。项目涵盖多种文件种类,量化质量和大小各异,从高质到低质,满足多样使用需求。用户可根据 RAM 和 VRAM 选择合适文件,平衡速度与质量的追求。Q8_0 格式在嵌入和输出权重方面的质量表现突出,而适用于 ARM 芯片的 Q4_0_X_X 格式则显著提升运算速度,尤其适合低内存硬件。
DeepSeek-Coder-V2-Lite-Instruct-FP8 - FP8量化模型优化提高大语言模型部署效率
vLLMGithub开源项目文本生成DeepSeek-Coder-V2-Lite-Instruct-FP8量化FP8Huggingface模型
DeepSeek-Coder-V2-Lite-Instruct-FP8是一种经过FP8量化优化的模型,旨在提升商业与研究中英文聊天助手的效率。此优化通过减少参数位数,有效降低内存和存储器需求,达到了79.60的HumanEval+基准测试得分。在vLLM 0.5.2及以上版本中实现高效部署。
Llama-3SOME-8B-v1-GGUF - 经过小说写作训练优化的轻量级语言模型
语言模型炼丹人工智能模型Github开源项目Llama 3SOME文本生成Huggingface
Llama-3SOME-8B-v1是基于Llama-3-Soliloquy-8B训练的语言模型,主要专注于小说创作。模型支持角色对话、场景叙述等多种写作形式,能保持长文本的连贯性和故事性。提供8bpw、6bpw、4bpw等多种量化版本,满足不同设备的运行需求。
ke-t5-base - 多语言能力的文本生成与统一NLP框架
Huggingface模型Github跨语言开源项目T5自然语言处理文本生成机器学习
KE-T5模型实现了NLP任务的文本到文本一致性处理,适用于翻译、摘要和问答等领域。通过英韩预训练,增强非英语对话模型表现。其220百万参数支持同一损失函数和超参数设定,可用于生成、分类及回归任务。建议用户在使用时留意潜在偏见和局限。
PlatVR-kto - 模型用于生成和优化虚拟现实背景图像
用户偏好开源项目模型GithubHuggingface图像生成EVIDENT框架文本生成虚拟现实
模型为EVIDENT框架的一部分,旨在生成和优化虚拟现实背景图像。通过解析用户指令,该模型能生成和调整文本提示,提升图像生成的多样性和准确性。经过合成偏好数据的微调,增强用户满意度和创意性表现。支持英语输出,并可输入多种语言,适用于直接使用和图像背景的自定义设计。
Replete-Coder-Llama3-8B-GGUF - 基于llama.cpp优化的高效量化方法提升文本生成性能
量化Replete-Coder-Llama3-8B开源项目模型Huggingface模型压缩文本生成数据集Github
该开源项目利用llama.cpp进行模型量化,适用于HumanEval和AI2推理挑战等任务,提供多种量化选项如Q8_0和Q6_K,适应不同内存要求,同时优化性能表现。I-quant量化在低于Q4时表现良好,用户可依据自己的设备内存和GPU VRAM选择合适的量化格式,通过huggingface-cli便捷获取所需文件。
相关文章
funNLP: 中文自然语言处理工具和资源大全
2024年08月29日
ModelFusion: 构建AI应用的TypeScript库
2024年08月30日
Awesome-ChatGPT-Prompts-CN: 探索ChatGPT的无限可能
2024年08月30日
Text2Text: 革命性的跨语言自然语言处理工具包
2024年08月31日
GPT-J API: 构建强大的自然语言处理应用
2024年08月31日
GPT-2模型在TensorFlow 2.0中的实现与应用
2024年08月31日
GPT-2客户端:一个强大易用的自然语言生成工具
2024年08月31日
ai.vim: 智能化你的Neovim编辑体验
2024年08月31日
MemGPT:9.2k星星!创建具有长期记忆和自定义工具的大模型Agent,完全开源!
2024年08月03日