#机器学习

bert-base-japanese-char - 日语BERT模型采用字符级分词预训练
模型维基百科字符分词BERTGithub日语开源项目Huggingface机器学习
bert-base-japanese-char是一个基于日语维基百科训练的BERT模型,采用字符级分词。模型架构包括12层、768维隐藏状态和12个注意力头,词汇量4000。处理流程先用MeCab进行形态分析,再进行字符级分词。模型在约1700万个句子上训练100万步,每批次处理256个实例,每个实例包含512个标记。该模型适用于各种日语自然语言处理任务。
xlm-roberta-xl - 基于2.5TB数据训练的100语种自然语言处理模型
模型Github多语言模型预训练模型XLM-RoBERTa-XL开源项目Huggingface机器学习自然语言处理
XLM-RoBERTa-XL是基于2.5TB CommonCrawl数据训练的大规模多语言模型,支持100种语言的自然语言处理。该模型采用掩码语言建模进行自监督学习,适用于序列分类、标记分类和问答等需要理解整句上下文的任务。XLM-RoBERTa-XL为多语言NLP研究和应用提供了强大的基础,但不适合文本生成类任务。
dreamshaper-xl-lightning - 基于SDXL的高效艺术图像生成模型
模型生成式AI图像生成Stable DiffusionGithub深度学习开源项目Huggingface机器学习
Dreamshaper XL Lightning是基于Stable Diffusion XL的文本生成图像模型,经过优化以提升艺术和创意图像生成效果。该模型支持快速推理,通常只需4步即可生成图像。适用范围包括肖像、动漫和机械设计等多种艺术风格。开发者可通过Diffusers库集成该模型,实现自定义图像生成。
m2m100_1.2B - 先进的多语言机器翻译模型实现百种语言无障碍转换
模型多语言翻译Github深度学习M2M100开源项目Huggingface机器学习自然语言处理
m2m100_1.2B是一款革新性的多语言机器翻译模型,覆盖100种语言的9900个翻译方向。该模型采用编码器-解码器架构,能够实现高质量的直接语言转换,无需中间语言过渡。这一突破性技术为全球跨语言交流提供了高效便捷的解决方案,在机器翻译领域具有重要意义。
riffusion-model-v1 - 基于稳定扩散的实时音乐生成模型
模型开源项目Huggingface机器学习音频处理Riffusion音乐生成Github人工智能
Riffusion是一个基于稳定扩散技术的文本到音频模型,能够生成音频频谱图并转换为实时音乐。该模型通过微调Stable Diffusion v1.5实现,可根据文本提示生成和修改频谱图像。Riffusion主要应用于音乐创作、教育工具和生成模型研究。项目提供开源代码、模型文件和Web应用程序,使用户能够直接体验实时音乐生成。该开源项目包含完整的模型文件、推理代码和种子图像库,为研究人员和开发者提供了丰富的资源。
mMiniLMv2-L12-H384-distilled-from-XLMR-Large - 轻量级多语言自然语言处理模型
MiniLMv2Huggingface模型机器学习GithubMicrosoft开源项目自然语言处理多语言模型
mMiniLMv2-L12-H384-distilled-from-XLMR-Large是一个基于Microsoft UniLM项目的多语言自然语言处理模型。该模型通过知识蒸馏技术从XLM-R大型模型中提取知识,在维持高性能的同时大幅缩小了模型体积。作为一个轻量级模型,它能够适应文本分类、问答系统和序列标注等多种NLP任务,尤其适合在计算资源有限的环境中使用。
whisper-tiny-quiztest - 微型语音识别模型为Quiz测试场景提供精准解决方案
Huggingface模型数据集机器学习Whisper Tiny语音识别模型微调Github开源项目
Whisper Tiny Quiztest是一款基于openai/whisper-tiny模型优化的自动语音识别(ASR)系统,专注于提升quiz测试场景的识别效果。通过在quiztest数据集上的训练,该模型在评估集上实现了55.05%的词错误率(WER)。采用Adam优化器和余弦退火学习率策略,经过1000步训练后,模型性能得到显著提升。作为一个轻量级解决方案,Whisper Tiny Quiztest为Quiz应用提供了高效的语音识别支持。
bert-base-parsbert-ner-uncased - ParsBERT-NER:高性能波斯语命名实体识别模型
模型命名实体识别BERTGithub波斯语开源项目Huggingface机器学习自然语言处理
ParsBERT-NER是一个专门用于波斯语命名实体识别的预训练模型。该模型基于BERT架构,在ARMAN和PEYMA数据集上进行微调,支持识别组织、地点、人名等多种实体类型。在多个波斯语NER基准测试中,ParsBERT-NER展现出卓越性能,F1分数最高达98.79%。研究人员和开发者可通过Hugging Face Transformers库轻松使用这一模型进行波斯语自然语言处理任务。
bert-turkish-text-classification - BERT土耳其语文本分类模型支持7大类别
模型文本分类TurkishBERTGithub开源项目Huggingface机器学习自然语言处理
BERT土耳其语文本分类模型通过微调Turkish BERT预训练模型而来,利用TTc4900数据集训练出支持7个类别的分类能力。涵盖世界、经济、文化等领域,开发者可借助Transformers库快速部署,实现土耳其语文本的高效分类。
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 - mDeBERTa-v3模型实现多语言自然语言推理和零样本分类
零样本分类模型自然语言推理多语言mDeBERTa-v3Github开源项目Huggingface机器学习
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7是一个支持100种语言的自然语言推理和零样本分类模型。它基于mDeBERTa-v3-base架构,通过XNLI和multilingual-NLI-26lang-2mil7数据集微调,包含27种语言的270多万个文本对。该模型在XNLI和英语NLI测试中表现优异,展现出卓越的跨语言迁移能力,为多语言NLP任务提供了强大解决方案。
deberta-v2-xlarge-mnli - DeBERTa架构的大规模预训练语言模型用于自然语言推理
DeBERTa模型人工智能Github微软开源项目Huggingface机器学习自然语言处理
deberta-v2-xlarge-mnli是基于DeBERTa V2架构的大型预训练语言模型,经过MNLI任务微调。模型包含24层,1536隐藏单元,共9亿参数。它采用解耦注意力和增强掩码解码器,在GLUE等自然语言理解基准测试中表现优异,为相关研究与应用提供了新的可能。
gliner_multi - 灵活识别多语言实体的开源NER模型
模型命名实体识别GithubGLiNER多语言模型开源项目Huggingface机器学习自然语言处理
GLiNER-multi是一个基于双向Transformer架构的开源多语言命名实体识别模型。它能够灵活识别各种实体类型,填补了传统NER模型与大型语言模型之间的空白。该模型在Pile-NER数据集上训练,支持多语言处理,易于集成到不同的自然语言处理应用中。GLiNER-multi在保证性能的同时优化了模型规模,适用于计算资源有限的场景。
Codestral-22B-v0.1-GGUF - 针对80多种编程语言优化的开源代码助手模型
模型人工智能Github量化模型Codestral-22B开源项目Huggingface机器学习代码生成
Codestral-22B-v0.1-GGUF是一个支持80多种编程语言的开源代码助手模型。它能够回答代码问题、生成代码,并提供Fill in the Middle功能。该模型已被量化为多个版本,以适应不同的硬件配置,让开发者能够在本地设备上高效运行这一代码辅助工具。模型支持Python、Java、C++等主流编程语言,可用于代码文档编写、解释和重构等任务。
larger_clap_general - CLAP音频-文本预训练模型 实现零样本音频分类和特征提取
模型CLAP零样本分类开源项目Huggingface音频处理机器学习语音识别Github
larger_clap_general是一个优化的CLAP(对比语言-音频预训练)模型,针对通用音频、音乐和语音进行训练。该模型结合SWINTransformer和RoBERTa分别处理音频和文本信息,适用于零样本音频分类和音频/文本特征提取。它能够在不针对特定任务优化的情况下,预测与给定音频最相关的文本描述,广泛应用于音频分类等多个领域。
albert-base-v2-emotion - ALBERT架构情感分析模型:Twitter数据集微调与性能评估
模型情感分析Github开源项目AlbertHuggingface机器学习自然语言处理文本分类
albert-base-v2-emotion是一个基于ALBERT架构的情感分析模型,在Twitter情感数据集上进行了微调。该模型在准确率和F1分数方面分别达到93.6%和93.65,展现了优秀的性能。模型训练采用HuggingFace Trainer,使用2e-5学习率、64批量大小和8轮训练。与同类模型相比,albert-base-v2-emotion在性能和处理速度间取得了平衡。开发者可以通过简洁的Python代码集成此模型,轻松实现文本情感分类功能。
NemoMix-Unleashed-12B-GGUF - NemoMix-Unleashed-12B模型的多种量化版本
模型量化GGUF开源项目语言模型Huggingface机器学习NemoMix-Unleashed-12BGithub
NemoMix-Unleashed-12B-GGUF项目提供了多种NemoMix-Unleashed-12B模型的量化版本。这些版本采用llama.cpp进行处理,精度范围从F16到IQ2_M,文件大小在4.44GB至24.50GB之间。项目详细介绍了各量化类型、文件大小及使用建议,便于用户根据硬件选择合适版本。同时提供下载指南和性能比较资料,方便模型部署和评估。
IndicBERTv2-MLM-only - 支持23种印度语言和英语的大规模多语言预训练模型
模型Github多语言模型印度语言开源项目Huggingface机器学习IndicBERT自然语言处理
IndicBERTv2-MLM-only是一个支持23种印度语言和英语的大规模多语言预训练模型。该模型基于IndicCorp v2数据集训练,包含2.78亿参数,采用掩码语言模型(MLM)目标。在IndicXTREME基准测试中,模型展现出优秀的多语言和零样本迁移能力。作为印度语言自然语言处理的重要资源,IndicBERTv2-MLM-only有望推动相关研究,缩小印度语言在NLP领域的差距。
codesage-large - 多语言源代码理解的大规模嵌入模型
CodeSageHuggingface模型机器学习源代码理解代码嵌入模型Github开源项目自然语言处理
CodeSage-Large是一个基于编码器架构的开源代码嵌入模型,专为多种源代码理解任务而设计。该模型在涵盖9种主流编程语言的Stack数据集上预训练,采用掩码语言建模和双模态文本-代码对训练方法。它与AutoModel和Starcoder分词器兼容,便于集成使用。CodeSage-Large为代码分析和处理提供了高效的表示学习能力。
gemma-7b-it - 轻量级开源语言模型支持多种文本生成任务
语言模型Huggingface模型机器学习人工智能Github开源项目自然语言处理Gemma
Gemma-7b-it是一款7B参数的指令调优语言模型,属于Google推出的轻量级开源模型系列。该模型支持问答、摘要和推理等多种文本生成任务,体积小巧易部署,适合在资源受限环境中使用。Gemma-7b-it采用先进训练技术,在多项基准测试中表现优异,同时注重道德和安全性。这款模型为NLP开发者和研究人员提供了一个功能强大且灵活的工具。
wav2vec2-large-robust-ft-libri-960h - 多领域预训练的大规模语音识别模型
模型Librispeech自监督学习Github语音识别机器学习开源项目HuggingfaceWav2Vec2
wav2vec2-large-robust-ft-libri-960h是一个基于Wav2Vec2架构的大规模语音识别模型。该模型在多个领域的音频数据集上进行了预训练,包括Libri-Light、CommonVoice、Switchboard和Fisher,涵盖了有声读物、众包语音和电话交谈等多种音频类型。随后,模型在960小时的Librispeech数据集上进行了微调。这种多领域预训练和目标域微调的方法显著提高了模型在跨领域语音识别任务中的性能。模型支持16kHz采样率的语音输入,适用于需要处理多样化音频数据的应用场景。
SmolLM-135M - 小型高效语言模型的新标杆,性能出色,尺寸便携
SmolLM语言模型Huggingface模型机器学习人工智能Github开源项目自然语言处理
SmolLM-135M是SmolLM系列中的小型语言模型,基于Cosmo-Corpus数据集训练。该模型仅有135M参数,但在常识推理和世界知识等基准测试中表现优异。SmolLM-135M提供全精度、半精度和量化版本,可灵活部署于各种硬件环境。作为高效小型语言模型的代表,SmolLM-135M在保持小巧体积的同时,展现出强大的文本生成能力。
bias_identificaiton45 - 基于RoBERTa的10类偏见识别模型
Huggingface模型机器学习PriyaPatel/Bias_identificationGithub开源项目偏见识别文本分类RoBERTa
该偏见识别模型基于RoBERTa架构,通过微调实现对10种偏见类型的分类。涵盖范围包括种族、性别、年龄等多个维度,在测试集上准确率达98.32%。模型可应用于自然语言处理研究,特别是偏见分析领域。支持通过Hugging Face transformers库快速部署使用。
convtest2 - 基于Diffusers库的实验性文本到图像AI模型
模型AI模型diffusers开源项目Huggingface机器学习Github文本生成图像开源许可
convtest2是一个基于Diffusers库的实验性文本到图像生成模型。该项目采用FAIPL-1.0-SD许可证,支持英语输入。目前该模型处于测试阶段,旨在探索文本到图像生成技术的可能性。
epicrealism-xl-v8kiss-sdxl - Stable Diffusion XL基础的逼真图像生成模型
人工智能绘图模型逼真照片开源项目Huggingface机器学习Stable DiffusionGithub文字转图像
epicrealism-xl-v8kiss-sdxl是基于Stable Diffusion XL的写实图像生成模型。此模型专注于创建逼真图像,适用于需要高质量摄影级别输出的场景。在保持原始Stable Diffusion XL功能的基础上,该模型优化了真实感和细节表现,能够生成更加逼真的图像。
pos-english - 基于Flair框架的高精度英语词性标注模型
模型词性标注FlairGithub开源项目Huggingface机器学习序列标注自然语言处理
这是一个基于Flair框架的英语词性标注模型,在Ontonotes数据集上实现了98.19%的F1分数。模型采用Flair嵌入和LSTM-CRF架构,支持45种细粒度词性标签的准确预测。该模型易于集成到Flair库中,可应用于多种自然语言处理任务。
deberta-base-mnli - DeBERTa模型在MNLI任务上的微调版本
DeBERTa模型Github神经网络微软开源项目Huggingface机器学习自然语言处理
deberta-base-mnli是一个在MNLI任务上微调的DeBERTa基础模型。DeBERTa通过解耦注意力和增强掩码解码器改进了BERT和RoBERTa。该模型在SQuAD和MNLI等基准测试中表现优异,在大多数自然语言理解任务中超越了BERT和RoBERTa的性能。它为自然语言处理研究和应用提供了有力支持。
epicrealism_pureevolutionv5-inpainting - Stable Diffusion专用的高质量图像修复模型
模型开源项目HuggingfaceDiffusers机器学习Github深度学习人工智能开源许可
epicrealism_pureevolutionv5-inpainting是一个为Stable Diffusion开发的图像修复模型。该模型能够修复和增强图像中的缺失或损坏部分,提供逼真和自然的处理效果。通过先进的机器学习技术,模型可以理解图像上下文,生成与周围环境协调的修复内容。适用于多种图像编辑和修复任务,包括去除物体、修复老照片和填充缺失区域。模型支持多种常见图像格式,处理速度快,在图像修复质量上优于同类产品。
BERT-Tiny_L-2_H-128_A-2 - Google开发的压缩版BERT模型 2层128隐藏单元2注意力头
模型BERTGoogleGithub开源项目Huggingface机器学习自然语言处理人工智能
BERT-Tiny_L-2_H-128_A-2是Google研发的轻量级BERT模型。该模型采用2层结构、128个隐藏单元和2个注意力头,大幅降低了计算资源需求。它在保持BERT核心功能的同时,适用于资源受限环境,为快速部署和实时处理提供了高效解决方案。这一压缩版BERT模型在自然语言处理任务中平衡了性能和资源消耗。
EnvironmentalBERT-environmental - BERT模型在ESG环境文本分类领域的创新应用
模型环境文本分类Github开源项目Huggingface机器学习自然语言处理ESGEnvironmentalBERT
EnvironmentalBERT-environmental是一个针对ESG领域环境文本分类的优化BERT模型。通过2000条环境数据集的微调,该模型能有效识别环境相关文本。它为研究人员提供了ESG分析和环境行为研究的有力工具,支持文本分类pipeline,操作简便。这一创新为ESG评估带来了精确的NLP解决方案,推动了环境、社会和治理领域的量化分析。
bleurt-tiny-512 - 用于评估文本生成质量的轻量级模型
模型文本分类BLEURTBERT自然语言生成Github开源项目Huggingface机器学习
BLEURT-tiny-512是Google Research开发的轻量级文本评估模型,基于BERT架构。该模型经WMT Metrics共享任务数据训练,主要用于评估自然语言生成质量。它可应用于文本分类,在生成文本评估方面表现优异。BLEURT-tiny-512为需要准确衡量文本生成输出的场景提供了有效工具,但用户应注意模型可能存在的偏见和局限性。
bertin-roberta-base-spanish - 创新抽样技术实现高效西班牙语模型训练
模型西班牙语GithubRoBERTa开源项目BERTIN机器学习Huggingface自然语言处理
BERTIN项目采用创新的抽样技术从mC4数据集中提取高质量西班牙语语料,实现了以更少的步骤和数据量训练RoBERTa模型。该方法不仅提高了训练效率,还使模型在某些任务上超越了现有的最先进水平,为小团队在有限资源下开发大型语言模型提供了新思路。
bert-medium - BERT中型变体模型用于高效下游任务训练
模型BERTGithub预训练模型知识蒸馏开源项目Huggingface机器学习自然语言处理
bert-medium是Google BERT官方仓库发布的轻量级预训练模型变体。作为bert-tiny、bert-mini和bert-small系列中的一员,该模型在缩小规模的同时保持了良好性能。bert-medium采用8层结构,隐藏层大小为512,旨在为下游任务提供高效的训练基础。这一中型变体适合于需要在计算资源和模型表现之间寻求平衡的应用场景。
pythia-410m - 专为自然语言处理研究设计的中型预训练语言模型
语言模型模型Github深度学习Pythia开源项目Huggingface机器学习自然语言处理
Pythia-410M是EleutherAI开发的410M参数预训练语言模型,在Pile数据集上训练。该模型提供143个检查点,便于研究人员进行解释性分析。Pythia-410M在多项NLP基准测试中表现优异,可应用于各种自然语言处理任务。模型采用Apache 2.0许可证开源,为语言模型行为研究提供了可控的实验环境。
Llama-3.2-3B-Instruct-GGUF - Meta Llama-3.2-3B模型的GGUF文件和高效微调工具
语言模型Huggingface模型开源机器学习Github开源项目Llama 3.2微调
本项目提供Meta Llama-3.2-3B语言模型的GGUF格式文件,支持2至16位量化。集成的Unsloth工具可大幅提升Llama 3.2、Gemma 2和Mistral等模型的微调效率,速度提升2-5倍,内存减少70%。项目支持在Google Colab上使用Tesla T4 GPU免费微调模型,并可将结果导出为GGUF、vLLM格式或上传至Hugging Face平台。
tiny_random_llama2 - 精简版Llama 2模型助力CI测试效率提升
Huggingface模型机器学习CI测试人工智能Github开源项目Llama 2
tiny_random_llama2是一个专为持续集成(CI)测试设计的精简版Llama 2模型。该模型保留了Llama 2的核心架构,但显著降低了规模,实现了快速加载和执行。它主要用于CI环境中高效测试Llama 2相关功能,无需消耗大量计算资源。这个轻量级版本使开发团队能够更快速、经济地进行回归测试和性能评估,提高了CI流程的整体效率。
politicalBiasBERT - BERT微调模型实现政治倾向文本自动分类
Huggingface模型机器学习BERTGithub开源项目自然语言处理政治偏见文本分类
politicalBiasBERT是一个基于BERT模型微调的政治倾向分析工具。该模型通过大量政治文本训练,能够自动将输入文本分类为左派、中立或右派。研究人员和开发者可使用简单的Python代码调用此模型,快速分析文本的政治倾向。这一工具为政治文本分析和舆情研究提供了有力支持。