#transformers
Chronos-Gold-12B-1.0-i1-GGUF - 多种量化版本适配通用语言模型
模型GGUFGithub开源项目HuggingfacetransformersChronos-Gold-12B自然语言处理量化模型
Chronos-Gold-12B-1.0-i1-GGUF是Chronos-Gold-12B通用语言模型的量化版本,提供多种量化类型,文件大小从3.1GB到10.2GB不等。该项目采用GGUF格式,便于在资源受限环境中部署。模型适用于角色扮演、故事写作等多种场景,可根据不同的性能和存储需求选择合适的版本。
best_2b - Hugging Face Transformers模型概述及应用指南
模型Github模型卡片开源项目Huggingface机器学习transformers自然语言处理模型评估
本文详细介绍了一个Hugging Face Transformers模型的关键特性。内容涵盖模型架构、应用场景、潜在局限性、训练过程、评估方法及环境影响等方面。文档不仅帮助读者全面了解模型性能,还提示了使用中需要注意的问题。对于想要深入探索或应用这一先进语言模型的研究人员和开发者来说,本文是一份极具参考价值的资料。
llama3 - 基于Transformers的开源预训练语言模型
模型Github模型卡片开源项目Huggingface机器学习transformers自然语言处理人工智能
Llama3是一个基于Hugging Face Transformers库开发的预训练语言模型,已上传至Hugging Face Hub。该模型可应用于多种自然语言处理任务,但目前缺乏具体的技术细节、训练数据和评估结果信息。模型卡片提供了基本信息和使用指南,同时提醒用户注意可能存在的偏见和局限性。
Llama-Guard-3-8B - 多语言内容安全分类器助力AI对话保护
transformersHuggingface内容安全分类模型Llama Guard 3Github开源项目多语言支持MLCommons
Llama Guard 3是基于Llama 3.1-8B模型微调的内容安全分类器,可审核AI系统的输入输出,识别14类有害内容。它支持8种语言,针对搜索和代码解释器等场景优化,提高了大型语言模型的安全性。该模型通过API调用即可进行内容审核,为AI应用提供安全保障。
mxbai-rerank-xsmall-v1 - 轻量级多语言搜索重排序模型
模型模型重排Github开源项目Huggingface机器学习transformers自然语言处理人工智能
mxbai-rerank-xsmall-v1是一个轻量级多语言搜索重排序模型(reranker)。该模型基于transformers.js实现,可在浏览器中运行,支持多种语言。它在保持小巧的同时,能有效提升搜索结果相关性。这个开源项目适用于需要快速、精准重排序的应用场景,为开发者提供了灵活的定制和集成选项。
Qwen2.5-7B-Instruct-bnb-4bit - 快速高效的大语言模型微调工具
transformersHuggingface模型大语言模型模型微调GithubQwen2.5开源项目自然语言处理
Qwen2.5-7B-Instruct是一款基于Qwen2.5系列的指令微调模型,具有131,072个token的上下文长度和8192个token的生成能力。该模型在指令遵循、长文本生成和结构化数据理解方面表现出色,支持29种以上语言。通过采用YaRN技术,它能高效处理超长文本,为用户提供更快速、更节省内存的大语言模型微调方案。
albert-kor-base - 为韩语自然语言处理优化的Albert基础模型
transformersAlbertHuggingface模型深度学习Github韩语开源项目自然语言处理
该项目提供了一个基于70GB韩语文本数据集训练的Albert基础模型,使用42000个小写子词。模型旨在为韩语自然语言处理任务提供高效的预训练表示。研究者可通过transformers库轻松加载模型和分词器。项目还包含模型性能评估及与其他韩语语言模型的比较信息,为相关研究提供参考。
kobert - 优化韩语自然语言处理的BERT预训练模型
模型韩语模型AutoTokenizerKoBERTGithubAutoModeltransformers开源项目Huggingface
KoBERT是一个针对韩语自然语言处理任务优化的BERT预训练模型。该项目基于SKTBrain的原始KoBERT进行改进,提供了简化的使用方法。开发者可通过transformers库的AutoModel和AutoTokenizer轻松加载模型和分词器。KoBERT为韩语文本处理提供了有力工具,可提升多种NLP任务的性能。该项目采用Apache-2.0许可证发布,专门支持韩语。
Llama-3.2-1B-bnb-4bit - Llama-3.2-1B模型训练加速与内存优化工具
模型Llama 3.2GithubUnsloth大语言模型微调transformers开源项目Huggingface
Unsloth是一个开源项目,旨在优化Llama-3.2-1B等多种语言模型的训练过程。该工具可将Llama-3.2-1B模型的训练速度提升2.4倍,同时减少58%的内存使用。项目提供免费的Google Colab notebook,支持Llama-3.2、Gemma 2和Mistral等模型,便于初学者进行模型微调。Unsloth通过提高训练效率和降低资源消耗,为AI模型开发提供了实用的优化方案。
xflux_text_encoders - Google T5模型文本编码器权重用于大规模NLP任务
模型Github文本编码器pytorchT5模型transformers开源项目Huggingface自然语言处理
xflux_text_encoders项目提供来自Google T5-v1_1-xxl模型的文本编码器权重。这些权重适用于大规模自然语言处理任务,支持英语。项目基于Apache 2.0许可,使用PyTorch和Transformers库实现。开发者可将其集成到现有NLP管道中,用于文本到文本的生成任务。
tiny-random-LlavaForConditionalGeneration - Transformers模型卡片自动生成框架
transformersHuggingface模型机器学习人工智能Github模型卡片开源项目自然语言处理
这是一个为Hugging Face Hub上的Transformers模型自动生成标准化文档的框架。它提供了模型的全面信息,包括开发者、许可证、用途、局限性、训练细节、评估结果和环境影响等。虽然当前模板中多数字段待填充,但它为用户提供了系统了解模型特性和适用场景的结构化方案,有助于提高模型文档的一致性和完整性。
mxbai-rerank-base-v1 - 跨语言重排序模型提升搜索结果相关性
transformersHuggingface模型深度学习机器学习人工智能Github开源项目自然语言处理
mxbai-rerank-base-v1是一个基于transformers库开发的跨语言重排序模型。该模型支持多语言处理,可在transformers.js中使用,有助于提升搜索结果的相关性。模型采用Apache-2.0开源协议发布,适用于搜索引擎、推荐系统和问答系统等场景,能够优化排序结果。
distil-large-v3 - 经过蒸馏的快速轻量级语音识别模型
模型压缩transformersHuggingface模型语音识别Github开源项目自然语言处理Distil-Whisper
distil-large-v3是一个经过知识蒸馏的语音识别模型,模型大小比Whisper large-v3减少44%,推理速度提升6.3倍,同时保持相近的识别准确率。支持短语音和长语音转录,兼容多种主流语音识别框架,为用户提供快速、轻量且准确的语音识别功能。
vram-8 - 显存优化工具提升视觉语言模型训练效率
transformersHuggingface模型深度学习机器学习人工智能Github开源项目自然语言处理
vram-8是一个为视觉语言模型设计的内存管理工具。该工具通过优化内存使用策略,提高模型训练和推理效率。它可以智能管理GPU显存,减少内存溢出问题,使用户能在有限硬件资源下处理较大规模模型。vram-8有助于提升模型处理速度和系统稳定性。
fugumt-ja-en - 高性能日英神经机器翻译模型
日英翻译transformers机器翻译Marian-NMTHuggingface模型FuguMTGithub开源项目
FuguMT是一个开源的日英神经机器翻译模型,基于Marian-NMT框架开发。该模型集成了transformers和sentencepiece技术,支持通过简洁的Python代码实现高效翻译。在Tatoeba测试集上,FuguMT展现出优秀的性能,BLEU评分达到39.1。这一成果表明,FuguMT在处理多样化的文本类型时,能够提供准确可靠的翻译结果。
koelectra-base-v3-generalized-sentiment-analysis - 基于ELECTRA的韩语情感分析模型实现商品评论智能分类
模型情感分析Github开源项目Huggingfacekoelectratransformers自然语言处理文本分类
这是一个基于ELECTRA的韩语情感分析模型,专门用于分析商品评论的情感倾向。模型采用Transformers库实现,可轻松集成到各种应用中。它能准确识别正面和负面评论,并提供置信度分数。该模型提供简单易用的API,方便开发人员快速部署情感分析功能,有助于企业更深入地理解客户反馈。
mamba-130m-hf - 轻量级Mamba模型为序列建模提供高效替代方案
模型开源项目生成模型HuggingfacetransformersMambaGithubPEFT微调模型部署
mamba-130m-hf是基于Mamba架构的轻量级语言模型,专为因果语言建模设计。该模型与Transformers库兼容,支持高效文本生成和序列建模。通过创新的状态空间模型结构,mamba-130m-hf在保持较小参数量的同时展现出卓越性能。模型可用于直接文本生成,也支持通过PEFT等技术进行微调以适应特定任务。其轻量级设计和强大功能使其成为序列建模任务的理想选择。
Phi-3.5-mini-instruct-bnb-4bit - 轻量级多语言模型支持高效微调和长文本理解
微调模型Phi-3.5长上下文开源项目HuggingfacetransformersGithub多语言
Phi-3.5-mini-instruct是一款轻量级开源语言模型,支持128K上下文长度。经过监督微调和优化,该模型在多语言能力和长文本理解方面表现出色。适用于内存受限环境、低延迟场景和推理任务,可作为AI系统的基础组件。在商业和研究领域都有广泛应用前景。
surya_tablerec - 基于transformers的高效表格识别模型 提升文档分析效率
transformersHuggingface模型表格识别Github开源项目surya
surya_tablerec是一个基于transformers库的开源表格识别模型,专为surya项目开发。该模型能够识别和提取文档中的表格结构,适用于处理各种复杂的表格布局。surya_tablerec可帮助研究人员和数据分析师从大量文档中快速提取表格信息,提高文档分析效率。该项目采用CC-BY-NC-SA-4.0许可证,可用于非商业用途。
ember-v1 - 多任务自然语言处理基准测试模型
模型开源项目Huggingface特征提取transformerssentence-transformersGithubMTEB句子相似度
ember-v1是一个在MTEB基准测试中表现出色的自然语言处理模型。该模型在分类、检索、聚类和语义相似度等多种NLP任务中取得了显著成果。在Amazon评论分类和问答检索等实际应用场景中,ember-v1展现出优异性能。这个多功能模型为文本分析和信息检索提供了有力支持,是研究人员和开发者的实用NLP工具。
Ministral-3b-instruct-GGUF - 更高效的量化语言模型,为文本生成带来显著性能提升
开源项目NLP模型语言模型Apache 2.0Huggingfacetransformers模型量化Github
Ministral-3b-instruct-GGUF是一个基于llama.cpp的高效量化模型,专为Ministral系列的3B参数设计优化,并从Mistral-7B进行微调。它使用混合数据集,主要用于英语文本生成。通过量化技术,该模型在保持精度的同时,显著减少了存储和计算需求,理想应用于高效文本生成场景。项目遵循Apache 2.0许可协议,以确保合规使用。
mamba-2.8b-hf - Mamba-2.8b-hf的transformers兼容性与使用指南
生成API开源项目fine-tuning模型语言模型HuggingfacetransformersMambaGithub
Mamba-2.8b-hf是一个与transformers框架兼容的大规模语言模型。为充分发挥模型功能,需安装特定版本的transformers库,并且安装causal-conv1d和mamba-ssm以利用优化的CUDA内核实现更高效的计算。Mamba支持经典的generate方法进行文本生成,并提供定制的PEFT微调示例,建议使用float32格式进行微调,以更好地支持复杂的自然语言处理任务。
codegemma-1.1-7b-it-GGUF - 文本生成的多样化量化模型选择
模型下载Hugging Face量化HuggingfaceGithub开源项目模型transformers文本生成
项目使用llama.cpp进行模型量化,提供多种模型版本以优化文本生成性能。用户可以依据硬件配置选择合适的模型版本,推荐选用Q6_K等高质量量化格式。多样化的模型版本在内存占用和性能表现之间提供灵活选择,适用于多种硬件平台。I-quant模型在较低量化级别上表现优异,适合需要高效运行的场景。
subnet9_2B4 - 探索模型特性与潜在应用
模型详情Huggingface训练细节Github开源项目评估模型用途transformers
探索模型的多样化应用与技术细节,重点关注模型在处理自然语言任务中的角色,帮助专业人士更好地理解并优化该模型,同时注意该模型的限制和偏见。
e5-v - 多模态嵌入优化框架与单模态训练策略
Github开源项目单模态训练模型E5-VtransformersHuggingface图像文本处理多模态嵌入
E5-V框架通过调整多模态大型语言模型,有效实现多模态嵌入,提高不同输入之间的连接能力,即便不进行微调。其提出的单模态训练方法,仅训练文本对,表现超过多模态训练。
Qwen2-7B-Instruct-abliterated - 权重正交化在文本生成模型性能中的应用
Qwen2-7B-Instruct-abliteratedHuggingface开源项目模型transformersGithub模型评估大语言模型权重正交化
本项目通过利用failspy的笔记本对Qwen2-7B-Instruct模型进行权重正交化优化,旨在削弱模型的强拒绝方向。尽管模型在优化后可能仍会出现拒绝请求或误解意图的情况,其在ARC、Winogrande等数据集上的性能仍保持高水平。使用lm-evaluation-harness 0.4.2进行评估,结果显示在ARC、GSM8K、HellaSwag等数据集上的表现优异,适合相关应用。
colpali-v12-random-testing - 开源AI模型卡全貌与操作指南
GithubNLP开源项目transformersHuggingface训练数据模型卡评估模型
本页面介绍了transformers库中的自动生成的模型卡,概述模型开发、应用场景、偏见与风险等。指南帮助理解如何开始使用和强调应用中的注意事项,即便细节信息缺失,链接资源与建议仍有助于有效利用。
llama-3.1-openhermes-tr - 高效训练和优化的Llama模型应用
模型训练llama开源项目模型GithubHuggingfacetransformersUnsloth
这个开源项目演示了如何利用Unsloth框架和Huggingface的TRL库,加速Llama模型的训练过程。该模型专为文本生成和问答优化,具备高效的执行能力。尤其适用于需快速处理大规模文本数据的场景,如自然语言处理和人工智能开发。通过Python,用户可以简单地加载并使用模型,以实现高效的内容生成。该项目为技术指导和内容创作提供了高效、高质量的解决方案。
subnet9_best2_competition1 - 介绍Hub上推出的transformers模型及其功能特性
Huggingface技术规格transformers环境影响模型Github开源项目模型共享偏见风险
本文介绍了一款发布在Hub上的transformers模型,涵盖其训练数据、用途和评估方法。尽管当前信息有限,读者可以了解模型的应用范围及其可能的偏差和限制,同时本文也涉及其环境影响和技术规格,旨在帮助读者有效理解和使用该模型。
Meta-Llama-3-8B-Instruct-GPTQ-4bit - 4位量化Llama 3指令模型实现轻量级高性能自然语言处理
模型评估transformersHuggingface模型机器学习Github模型卡片开源项目自然语言处理
Meta-Llama-3-8B-Instruct-GPTQ-4bit是基于Llama 3架构的4位量化大型语言模型。通过GPTQ量化技术,该模型显著减小了体积和内存占用,同时维持了良好性能。它特别适合在资源受限环境下运行,如移动设备和边缘计算设备。该模型可用于文本生成、问答和对话等多种自然语言处理任务。研究者和开发者可以利用Hugging Face Transformers库轻松部署该模型进行推理或进一步微调。
Hermes-3-Llama-3.1-70B-Uncensored-GGUF - 静态与多变量量化技术在Hermes-3-Llama模型中的应用
工作站Huggingface量化开源项目模型Hermes-3-Llama-3.1-70B-UncensoredtransformersHugging FaceGithub
Hermes-3-Llama-3.1-70B-Uncensored项目提供多种量化文件类型,包括更优的IQ-quants,适用于不同的性能需求。用户可参考TheBloke的材料了解GGUF文件的使用方法。不同的量化文件按大小排序,推荐使用性能较佳的Q4_K_S文件。项目特别感谢nethype GmbH提供的技术支持。
Halu-8B-Llama3-v0.35-GGUF - Halu-8B-Llama3-v0.35量化版本选择指南,助力性能优化
量化开源项目模型GithubHuggingface文本生成huggingface-cliHalu-8B-Llama3-v0.35transformers
项目Halu-8B-Llama3-v0.35提供多种量化版本,通过不同的量化类型优化模型性能,以适应各类RAM和VRAM的需求。可选择K-quants或I-quants,满足特定场景下的性能需求。高质量的I-quants适用于CPU和Apple Metal,性能优于传统K-quants但不兼容Vulcan,并附有详细的性能图表和量化指南,帮助选择适合的量化版本。
llama3-llava-next-8b-tokenizer - Transformers框架模型文档标准化指南
开源项目transformers模型模型评估模型训练机器学习GithubHuggingface环境影响
Transformers框架模型文档模板提供标准化的模型说明结构,涵盖模型详情、应用场景、风险评估、训练参数、性能评估等核心内容。该模板系统性地记录从技术架构到环境影响的关键信息,便于开发者规范化管理和共享模型资料。
optimized-gpt2-250m - 深入解析优化版GPT-2的模型特性与技术实现
transformers开源项目人工智能Github模型自然语言处理机器学习模型卡片Huggingface
optimized-gpt2-250m是一个基于GPT-2架构的优化模型,具备250M参数规模。模型文档涵盖核心技术参数、应用场景、训练方法、性能评估等技术细节,同时阐述了模型局限性与最佳实践。适合开发者了解模型性能并进行实际部署。
quantized-models - 提供多源量化模型以提升大语言模型推理效率
quantized-models大型语言模型文本生成推理开源项目模型transformersGithubHuggingface量化模型
quantized-models项目整合了多种来源的量化模型,旨在提高大语言模型的推理效率。模型支持者包括TheBloke、LoneStriker、Meta Llama等,提供gguf、exl2格式的支持。用户可通过transformers库便捷地进行文本生成,这些模型按现状发布,需遵循其各自的许可协议。
mamba-370m-hf - 兼容transformers库的高效语言模型
生成transformersMamba模型Github开源项目finetuningHuggingface
项目是一种与transformers库兼容的语言模型,整合了config.json和tokenizer,以提高文本生成的速度和准确性。建议安装transformers的最新主版本,以及causal_conv_1d和mamba-ssm,以充分利用优化的cuda内核。该项目支持经典的generate API和PEFT微调,使用float32格式进行微调可获得最佳性能表现,从而提升文本生成任务的效率和质量。项目形成了一种与transformers库兼容的模型环境,通过优化策略实现高效文本生成。
相关文章
Nous-Yarn-Mistral-7b-128k:处理长篇文本的先进语言模型,支持128k令牌的语境窗口
2024年08月03日
LCM:苹果Mac终于可以跑SD了,几秒一张XL,喂饭级教学!
2024年08月03日
NLP-recipes: 微软的自然语言处理最佳实践与示例
2024年08月30日
spacy-transformers: 在spaCy中使用预训练Transformer模型
2024年08月30日
Attention Sinks: 让大语言模型无限流畅生成文本的新技术
2024年08月30日
LongLM: 无需微调即可自我扩展LLM上下文窗口
2024年08月30日
Transformers: 深入探索人工智能的革命性技术
2024年08月31日
Chat Templates: 为大型语言模型打造对话模板的开源项目
2024年09月05日
PhoBERT: 越南语预训练语言模型的突破性进展
2024年09月05日