#Hugging Face

distilbert-base-cased-distilled-squad - 模型ONNX转换支持网页使用
WebMLHuggingfaceONNXdistilbert-base-cased-distilled-squad开源项目模型Hugging FaceGithubtransformers.js
该项目介绍了如何将distilbert-base-cased-distilled-squad模型转换为ONNX格式,支持Transformers.js库。此转换简化了模型在网页端的部署流程,以期推动WebML的广泛应用。建议使用🤗 Optimum工具进行转换,确保结构符合项目指引。该方法是促进WebML技术发展的过渡性方案。
idefics-9b-instruct - 多模态生成模型提升图像与文本的交互性
图像文本生成Hugging Face多模态模型HuggingfaceGithub开源项目模型IDEFICS文本生成
IDEFICS是基于开源数据开发的多模态文本生成模型,处理图像和文本输入并生成文字。模型可描述视觉内容、回答图像相关问题,性能接近于原闭源模型Flamingo。IDEFICS有80亿和9亿参数版本,通过微调增强在对话中的表现,建议优先使用增强版。
Mistral-7B-v0.3 - 词汇扩展提升语言模型性能
Mistral-7B-v0.3Hugging Face大语言模型HuggingfaceGithub开源项目模型transformers词汇扩展
Mistral-7B-v0.3版本引入了32768项扩展词汇,提升了语言模型的表现能力。结合mistral-inference使用,支持灵活的文本生成和定制处理。该版本尚未具备完善的安全机制,计划通过与社区合作,探索在输出需调节的环境中实现安全部署。
AI-infinity-V1-fp16 - 采用稳定扩散的真实感图像生成模型
AI InfinityHugging Face稳定扩散模型GithubDiffusers开源项目文本生成图像Huggingface
AI-infinity-V1-fp16项目展示了稳定扩散技术在生成真实感图像中的应用。通过Huggingface API及原创作者的示例,该模型清晰呈现文本到图像的转换能力,特别是在生成自然手部细节方面有卓越表现。了解该项目的主要特性和优势,有助于提升图像处理的创造性。
segformer-b2-finetuned-ade-512-512 - SegFormer模型实现高效语义分割的新方法
视觉TransformerHugging Face图像分割SegFormerGithub模型开源项目Huggingface
SegFormer模型在ADE20K数据集上微调,支持512x512分辨率图像的语义分割,由层次Transformer编码器和轻量级MLP解码头构成,适用于ADE20K和Cityscapes等基准。模型先在ImageNet-1k上预训练,再在下游任务上微调,适合多种分割任务。
bert-large-uncased-whole-word-masking - BERT大模型在Habana HPU上的性能优化配置
模型BERT开源项目HuggingfaceHugging Face混合精度训练Optimum HabanaHabana GaudiGithub
此项目为bert-large-uncased-whole-word-masking模型提供Habana Gaudi处理器(HPU)优化配置。通过GaudiConfig文件设置关键参数,如fused Adam优化器和混合精度训练,实现HPU上高效的模型操作。支持单HPU和多HPU环境,适用于多种下游任务。开发者可使用简单的命令行参数,轻松部署BERT大模型到Habana硬件上,获得显著的性能提升。
nb-wav2vec2-1b-bokmaal - 基于XLS-R的挪威语Bokmål语音识别模型实现高精度转录
Huggingface模型语音识别Github开源项目Wav2Vec2挪威语NPSCHugging Face
nb-wav2vec2-1b-bokmaal是一个基于XLS-R的挪威语Bokmål语音识别模型,在NPSC测试集上达到6.33%词错误率和2.48%字符错误率。该模型由NbAiLab团队使用挪威议会语音语料库(NPSC)训练,并开源了完整代码和参数配置,便于研究者复现和优化。模型在Hugging Face平台发布,支持挪威语自动语音识别任务。
bert-base-turkish-cased - 巴伐利亚州立图书馆开发的土耳其语BERT预训练模型
土耳其语Huggingface模型机器学习BERTGithub开源项目自然语言处理Hugging Face
巴伐利亚州立图书馆MDZ数字图书馆团队开发的土耳其语BERT模型,使用多种语料库进行预训练。该模型基于35GB、44亿token的语料库,经过200万步训练,可通过Hugging Face Transformers库加载。它为土耳其语自然语言处理任务如词性标注和命名实体识别提供了基础支持。模型采用了OSCAR语料库、Wikipedia、OPUS语料库等多种资源,旨在提升土耳其语NLP任务的性能。
dev-author-em-clf - DeBERTa-v3微调的开发者身份识别模型
模型模型微调Github开源项目Huggingface机器学习Hugging Face自然语言处理DeBERTa
dev-author-em-clf是一个基于微软DeBERTa-v3-base模型微调的开发者身份识别工具。该模型使用Adam优化器和线性学习率调度器,经过单轮训练。虽然旨在提升开发者身份识别准确度,但目前缺乏具体用途、局限性和训练数据等关键信息。模型采用Transformers 4.44.2、PyTorch 2.4.1等框架开发,适用于需要开发者身份识别功能的应用场景。
sbert-uncased-finnish-paraphrase - 芬兰语句子BERT模型用于句子相似度分析
模型芬兰语GithubHugging Face句子相似度Huggingface开源项目SBERT自然语言处理
sbert-uncased-finnish-paraphrase是基于FinBERT训练的芬兰语句子BERT模型,专用于句子相似度分析。该模型使用平均池化方法,通过二元预测判断句子间的复述关系。兼容SentenceTransformer和HuggingFace Transformers库,为芬兰语自然语言处理提供高质量的句子嵌入。模型支持大规模相似句子检索,适用于多种芬兰语文本分析任务。
Qwen2-Math-7B-Instruct - 专注数学推理的大型语言模型
指令模型Huggingface开源项目推理能力模型GithubHugging Face数学语言模型Qwen2-Math
Qwen2-Math-7B-Instruct是一款专注于数学和算术问题推理的大型语言模型。它在处理复杂多步逻辑推理方面表现优异,性能超越多数开源及部分闭源模型。该模型基于Qwen2系列开发,目前主要支持英语输入。研究人员和开发者可借助此模型解决高级数学问题,为数学和科学研究领域提供有力支持。
mxbai-colbert-large-v1 - ColBERT大型双编码器模型实现快速信息检索和语义匹配
AI绘图模型人工智能GithubHugging Face深度学习开源项目Huggingface机器学习
mxbai-colbert-large-v1是基于ColBERT架构的双编码器模型,专注于高效信息检索和语义匹配。该模型在保持高精度的同时显著提升了检索速度,支持多语言处理。其预训练赋予了强大的语义理解能力,适用于问答系统、文档检索等多种搜索和匹配任务场景。
bert-base-multilingual-cased-ner-hrl - 基于mBERT的多语言命名实体识别模型覆盖10种主要语言
bert-base-multilingual-cased模型命名实体识别GithubHugging Face多语言模型Huggingface开源项目自然语言处理
bert-base-multilingual-cased-ner-hrl是一个多语言命名实体识别模型,基于mBERT微调而来。该模型支持阿拉伯语、德语等10种主要语言,能够识别地点、组织和人名。模型通过聚合多语种新闻数据集训练,适用于广泛的NER任务,但在特定领域可能存在局限性。使用简单,可通过Transformers库快速部署。模型可通过Hugging Face的Transformers库轻松集成到各种NLP项目中,适用于多语言文本分析、信息提取等任务。然而,由于训练数据限制,在非新闻领域的表现可能需要进一步评估。
my_awesome_model - DistilBERT微调的高效文本分类模型
Huggingface模型机器学习模型微调GithubDistilBERT开源项目自然语言处理Hugging Face
my_awesome_model是一个基于distilbert-base-uncased微调的文本分类模型。该模型在未知数据集上训练,经过3轮迭代后,训练损失降至0.0632,验证损失为0.2355,训练准确率达92.95%。模型采用Adam优化器和多项式衰减学习率。虽然缺乏具体任务信息,但其性能表现显示了良好的文本分类潜力。
distilbert-base-uncased-emotion - DistilBERT情感分析模型:小巧快速且准确
Huggingface情感分析模型GithubDistilBERT开源项目自然语言处理文本分类Hugging Face
这是一个基于DistilBERT的情感分析模型,体积比BERT小40%,速度更快,同时保持93.8%的准确率。模型可将文本分类为6种情感,每秒处理398.69个样本,性能优于BERT、RoBERTa和ALBERT同类模型。该模型采用情感数据集微调,通过简单pipeline即可快速部署使用。
bert-base-italian-xxl-cased - 基于大规模语料库的意大利语BERT预训练模型
模型意大利语模型BERTGithub开源项目HuggingfaceHugging FaceELECTRA自然语言处理
bert-base-italian-xxl-cased是巴伐利亚州立图书馆MDZ数字图书馆团队开发的意大利语BERT模型。该模型基于81GB语料库训练,包含131亿个标记,适用于命名实体识别、词性标注等多种意大利语自然语言处理任务。研究人员可通过Hugging Face Transformers库轻松使用此模型进行相关研究。
arabic-ner - 阿拉伯语BERT命名实体识别模型支持九大类型
模型阿拉伯语命名实体识别BERTGithubHugging FaceHuggingface开源项目自然语言处理
该阿拉伯语命名实体识别模型基于BERT预训练,可识别9种实体类型,包括人名、组织、地点等。模型使用37.8万标记的语料训练,在3万标记验证集上F1分数达87%。项目提供完整示例,适用于多种阿拉伯语自然语言处理任务。
t5 - Optimum Habana为Transformer模型提供Gaudi处理器加速支持
模型Github开源项目HuggingfaceHugging FaceOptimum HabanaHPUT5自然语言处理
Optimum Habana是一个开源项目,旨在连接Hugging Face Transformers和Diffusers库与Habana Gaudi处理器(HPU)。该项目提供了工具集,支持在单个或多个HPU上高效加载、训练和推理各类下游任务模型。其中包含了T5模型的GaudiConfig配置文件,实现了在Gaudi处理器上的优化运行。用户可以通过配置来使用Habana定制的AdamW实现和融合梯度裁剪等HPU专属功能,从而提升模型性能。
MiniCPM-V-2_6-int4 - 精简高效的多语言视觉AI对话模型
模型MiniCPM-V开源项目HuggingfaceHugging Face图像识别多模态Github量化模型
MiniCPM-V-2_6-int4是一款经过int4量化的多语言视觉对话模型,GPU内存占用仅约7GB。该模型支持图像理解、OCR、多图像处理和视频分析等视觉任务,可通过Python代码实现流式输出。作为一个资源友好型视觉AI工具,MiniCPM-V-2_6-int4在保持性能的同时提高了部署效率,适合开发者进行各类视觉AI应用开发。
mbart-large-50-many-to-one-mmt - 支持50种语言直接互译的多语言机器翻译模型
多语言机器翻译模型mBART-50神经网络模型GithubHugging FaceHuggingface开源项目自然语言处理
mbart-large-50-many-to-one-mmt是一个基于mBART-large-50微调的多语言机器翻译模型,支持50种语言之间的直接互译。该模型无需中间语言,使用简单,只需几行代码即可实现翻译。它在处理低资源语言和长文本方面表现优异,适用于跨语言交流和全球化业务场景。模型覆盖多个语系,包括印欧、亚非和阿尔泰语系等,为用户提供全面的多语言翻译解决方案。
bert-base-german-cased - 高性能德语BERT模型助力自然语言处理应用
Huggingface模型深度学习BERTGithub开源项目自然语言处理德语模型Hugging Face
此德语BERT模型由巴伐利亚州立图书馆MDZ团队开发,基于维基百科、EU Bookshop等多源语料库训练而成。模型包含23.5亿个词元,提供大小写敏感和不敏感版本,支持PyTorch-Transformers框架。它适用于各类德语自然语言处理任务,在Hugging Face模型库开源,并获得Google TensorFlow Research Cloud支持。
vit-base-cats-vs-dogs - 基于Vision Transformer的猫狗图像分类模型
Huggingface图像分类模型迁移学习猫狗数据集Github开源项目ViT模型Hugging Face
该模型是基于google/vit-base-patch16-224-in21k在cats_vs_dogs数据集上微调的图像分类模型。采用Vision Transformer架构,在评估集上实现98.83%的准确率。模型可用于宠物识别、动物摄影分类等猫狗图像分类任务。开发者可以方便地将其集成到各种应用中,实现高效的猫狗识别功能。
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF-IQ-Imatrix-Request - 基于Llama 3.1的无审查8B参数指令型语言模型
非审查Github开源项目LLaMAHugging FaceAI模型Huggingface模型开源
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF-IQ-Imatrix-Request是一个基于Llama 3.1架构的8B参数无审查指令型语言模型。采用GGUF格式,该模型具有高性能和灵活性,适用于多种应用场景。作为无审查模型,它在内容生成、问答和复杂任务执行方面提供了更大的自由度。使用时需注意遵守相关法律法规和伦理准则。
Mixtral-8x7B-v0.1 - 多语言预训练大语言模型 超越Llama 2 70B性能
模型优化Mixtral-8x7BHuggingface模型大语言模型稀疏混合专家Github开源项目Hugging Face
Mixtral-8x7B是一款预训练的生成式稀疏专家混合大语言模型,在多数基准测试中性能优于Llama 2 70B。该模型支持法语、意大利语、德语、西班牙语和英语等多语言处理。开发者可通过Hugging Face transformers库或vLLM部署使用,并可采用半精度、8位和4位量化等方法降低内存占用。作为基础模型,Mixtral-8x7B不含内置审核机制,使用时需注意。
mit-b4 - 使用SegFormer预训练模型提升语义分割效率
Hugging FaceImageNetTransformer开源项目模型Huggingface语义分割GithubSegFormer
此项目提供SegFormer的b4-sized预训练模型,具有分层Transformer和轻量级MLP解码头,在ADE20K和Cityscapes等基准上展现出色性能。经过ImageNet-1k预训练的SegFormer可用于下游任务微调,满足多种应用需求。用户可在[模型库](https://huggingface.co/models?other=segformer)中根据任务需求选择合适版本,优化图像分割效果。
Mistral-7B-v0.1-sharded - 模型带来更高效的文本生成性能
Hugging Face大语言模型预训练开源项目Mistral 7B模型HuggingfaceGithubtransformer模型
Mistral-7B-v0.1是一个预训练的生成文本模型,拥有70亿参数,采用先进的变压器架构,并在多项基准测试中表现优于Llama 2 13B。该模型分片为2GB,以减少RAM需求,适合在资源有限的环境中应用,但不包含内容监管功能。若遇到'mistral'错误,通过安装transformers源代码可解决。
bert-base-french-europeana-cased - 基于欧洲数字图书馆的法语BERT模型
模型法语BERTEuropeanaHugging FaceGithubHuggingface开源项目自然语言处理
bert-base-french-europeana-cased是基于欧洲数字图书馆法语语料库训练的BERT模型。该模型使用63GB数据,包含110亿个标记,主要涵盖18-20世纪文本。在历史命名实体识别等任务中表现优异,可通过Hugging Face加载使用。此模型为处理历史法语文本提供了有力的语言理解支持。
distilbert-base-multilingual-cased-ner-hrl - DistilBERT微调的10语种命名实体识别模型
模型Github多语言模型开源项目HuggingfaceHugging Face命名实体识别自然语言处理DistilBERT
这是一个基于DistilBERT微调的多语言命名实体识别模型,支持10种高资源语言。模型能够识别位置、组织和人名实体,适用于阿拉伯语、德语、英语等多种语言。它使用各语言的标准数据集训练,可通过Transformers库轻松调用。尽管在多语言NER任务中表现优秀,但在特定领域应用时可能存在局限性。
codegemma-1.1-7b-it-GGUF - 文本生成的多样化量化模型选择
模型下载Hugging Face量化HuggingfaceGithub开源项目模型transformers文本生成
项目使用llama.cpp进行模型量化,提供多种模型版本以优化文本生成性能。用户可以依据硬件配置选择合适的模型版本,推荐选用Q6_K等高质量量化格式。多样化的模型版本在内存占用和性能表现之间提供灵活选择,适用于多种硬件平台。I-quant模型在较低量化级别上表现优异,适合需要高效运行的场景。
text_summarization - 基于T5 Small的文本摘要模型
模型开源项目GithubHugging Face文本摘要Huggingface机器学习T5自然语言处理
该项目是基于T5 Small模型的文本摘要工具,经过针对性微调后能生成简洁连贯的摘要。模型采用优化的超参数设置,适用于文档摘要和内容浓缩等场景。通过简单的Python代码即可调用,为NLP应用提供了便捷的文本摘要功能。模型使用批量大小为8,学习率为2e-5的超参数进行微调,在评估中实现了0.95的Rouge F1分数。它可以处理长文本输入,生成30到1000字之间的摘要。该工具为研究人员和开发者提供了一个易用的文本摘要解决方案。
MadMix-Unleashed-12B-i1-GGUF - MadMix-Unleashed-12B模型量化文件的使用与性能分析
MadMix-Unleashed-12BHuggingface服务器量化模型开源项目Hugging FaceGithub
项目MadMix-Unleashed-12B提供多种量化文件,适用于不同应用需求。量化文件如i1-IQ1_S和i1-IQ1_M等,可以根据性能和质量要求进行选择。文档中详细阐述了GGUF文件的使用方法,并提供了使用说明和质量比较。感谢nethype GmbH和@nicoboss的技术支持,他们的贡献提升了量化模型的质量。
AingDiffusion9.2 - 通过文本生成高清晰度图像
开源项目模型Githubstable-diffusionAI绘图图像生成HuggingfaceHugging Face高质量图像
该项目利用稳定扩散原理和先进的扩散器技术,以生成超逼真的高细节图像。产生图像具备锐利的焦点和鲜艳的色彩,从而流畅映射文本描述。探索AI与视觉创意的交汇,体验创新与实践在生成3D电影级图像中的应用。
MoritzLaurer-roberta-base-zeroshot-v2.0-c-onnx - ONNX格式的零样本分类基础模型
转换Hugging Face模型GithubONNX开源项目Huggingface
该项目将MoritzLaurer/roberta-base-zeroshot-v2.0-c模型转成ONNX格式,旨在增强推理性能和部署灵活性,借助Hugging Face的Optimum库进行转换。适用于多任务快速处理的应用场景,在零样本分类中,无需大量手动标注数据,便可实现有效的文本分类,适合各类语言处理任务。
Qwen1.5-110B-Chat - 多语言模型与人类偏好优化的显著提升
HuggingfaceQwen1.5开源项目模型多语言支持Hugging FaceGithub语言模型Transformer架构
Qwen1.5是Qwen2的测试版,提供多语言支持和32K上下文长度的稳定性,并通过大规模数据预训练和偏好优化,大幅提高了对话模型的人类偏好表现。项目涵盖多种模型尺寸,包括最大110B和MoE架构的14B模型,基于Transformer技术,使用SwiGLU激活和组查询注意,提供强大的文本生成与灵活定制功能。
Qwen2.5-Coder-7B-Instruct-GPTQ-Int4 - Qwen2.5-Coder高效代码生成与长文本处理
HuggingfaceQwen2.5-Coder长上下文支持量化开源项目代码生成模型Hugging FaceGithub
Qwen2.5-Coder项目通过5.5万亿训练令牌的使用,显著提升了代码生成、推理和修正能力。该模型支持长达128K的上下文长度,采用GPTQ 4位量化,并保持数学与通用能力优势。搭载transformers架构,具备RoPE和SwiGLU等技术,优化代码生成和处理过程。
Hermes-3-Llama-3.1-70B-Uncensored-GGUF - 静态与多变量量化技术在Hermes-3-Llama模型中的应用
工作站Huggingface量化开源项目模型Hermes-3-Llama-3.1-70B-UncensoredtransformersHugging FaceGithub
Hermes-3-Llama-3.1-70B-Uncensored项目提供多种量化文件类型,包括更优的IQ-quants,适用于不同的性能需求。用户可参考TheBloke的材料了解GGUF文件的使用方法。不同的量化文件按大小排序,推荐使用性能较佳的Q4_K_S文件。项目特别感谢nethype GmbH提供的技术支持。