#机器学习

food-category-classification-v2.0 - 12类食品图像分类模型 准确率达96%
模型开源项目Huggingface食品分类机器学习Gradio图像识别Github深度学习
food-category-classification-v2.0是一个食品类别图像分类模型,可识别12种食品类别,包括面包、乳制品、甜点、蛋类、油炸食品、水果、肉类、面条、米饭、海鲜、汤和蔬菜。模型通过分析图像视觉特征进行分类,适用于食品博客、餐厅和食谱网站的图片管理。准确率达96%,可提高内容分类效率。
llava-interleave-qwen-0.5b-hf - 多模态模型中的图像到文本生成的应用与研究
机器学习Github模型图像文本转换开源项目多模态模型HuggingfaceLLaVA Interleave自然语言处理
LLaVA Interleave是基于变换器架构进行优化的开源自回归语言模型,专注于多模态大模型和聊天机器人的研究,支持多图像和多提示生成,适用于计算机视觉和自然语言处理领域的研究人员和爱好者。在遵循开放许可证要求的前提下,模型提升了图像到文本的生成能力。通过4比特量化和Flash Attention 2优化策略,显著提高了生成效率。
granite-8b-code-base-4k - 多语言代码处理和优化的开源模型
机器学习Github模型编程语言Granite-8B-Code-Base-4K开源项目代码生成HuggingfaceIBM Research
Granite-8B-Code-Base-4K是IBM Research推出的开源代码生成模型,旨在跨多种编程语言执行代码生成、解释与修复任务。采用两阶段训练策略处理海量数据以提升模型的理解能力和任务执行效率,适用于软件开发中的多种应用场景。
wangchanberta-base-att-spm-uncased - 基于RoBERTa架构的泰语预训练模型
模型预训练Github泰语模型开源项目WangchanBERTa机器学习Huggingface自然语言处理
WangchanBERTa是一个基于RoBERTa架构的泰语预训练模型,在78.5GB的泰语文本上进行了训练。模型采用SentencePiece分词器,词汇量为25,000个子词。它可用于掩码语言建模、文本分类和标记分类等任务,为泰语自然语言处理提供了基础,适用于情感分析、评分预测、主题分类和命名实体识别等多种应用场景。
sam2-hiera-large - SAM2模型实现图像和视频智能分割
模型视频分割计算机视觉Github图像分割开源项目Huggingface机器学习SAM 2
SAM2-hiera-large是FAIR开发的图像和视频分割基础模型,支持可提示的视觉分割任务。模型提供简单API,适用于图像和视频预测。通过添加提示点或边界框,用户可实时获取分割结果,并在视频中传播提示。该模型为计算机视觉研究和应用提供了新的可能性。
pythia-70m - 促进语言模型可解释性研究的小型模型
模型Github开源项目语言模型EleutherAI机器学习Huggingface自然语言处理Pythia
Pythia-70m是一个由EleutherAI开发的70M参数小型开源语言模型,旨在促进语言模型可解释性研究。作为Pythia Scaling Suite系列中最小的模型,它使用The Pile数据集训练,提供了大量训练中间检查点。这些检查点有助于研究模型在训练过程中的行为变化。尽管规模较小,Pythia-70m的性能仍可与同等规模的模型相媲美。研究人员可利用该模型探索大型语言模型的内部机制,深化对其工作原理的理解。
chronos-t5-base - T5架构驱动的时间序列预测基础模型
模型开源项目Github时间序列预测预训练模型ChronosHuggingface机器学习T5架构
Chronos-T5-Base是一款基于T5架构的时间序列预测基础模型,具有2亿参数规模。该模型将时间序列转换为token序列,通过交叉熵损失训练,能够生成多样化的概率性预测。Chronos-T5-Base在大量公开时间序列数据和合成数据上进行了预训练,适用于广泛的时间序列预测场景。研究人员和开发者可以通过Python接口轻松调用该模型,实现高效的时间序列分析和预测。
sdxl-turbo - 基于Stable Diffusion的快速AI图像生成模型
模型图像生成开源库GithubApache许可证diffusers开源项目Huggingface机器学习
SDXL-Turbo是基于Stable Diffusion技术开发的AI图像生成模型。该模型能快速生成高质量图像,适用于实时应用和大规模图像生成任务。SDXL-Turbo在保持图像质量的同时提高了生成速度,可在Diffusers库中使用。模型采用Apache-2.0许可证,为AI图像生成领域提供了新的工具选择。
vram-40 - 优化Transformer模型的内存和性能实现
模型Transformers人工智能Github深度学习开源项目Huggingface机器学习自然语言处理
vram-40项目专注于优化Transformer模型的内存使用和计算性能。通过改进的技术和算法,该项目旨在使大规模语言模型能在有限硬件资源上高效运行。这一实现方案可能有助于提高Transformer模型在各种应用场景中的实用性。
question-vs-statement-classifier - 神经网络问句陈述句分类器提升搜索准确性
查询分类Huggingface模型机器学习HaystackGithub神经搜索开源项目自然语言处理
该项目是一个基于神经网络的问句与陈述句分类器,专为提升搜索系统性能而设计。它能准确区分用户输入的查询类型,有效提高搜索准确度。基于Transformers架构开发,易于集成到Haystack等搜索框架中,为开发者提供了实用的查询分类工具。
pythia-410m-deduped - 专为语言模型可解释性研究设计的先进工具
模型Github开源项目语言模型Huggingface机器学习自然语言处理人工智能Pythia
Pythia-410M-deduped是EleutherAI开发的语言模型系列之一,旨在推动可解释性研究。该模型在去重后的Pile数据集上训练,拥有3亿多参数,24层结构和1024维度。它提供多个训练检查点,便于研究模型行为和局限性。Pythia-410M-deduped使用Apache 2.0许可,主要面向科学研究,不适合直接部署应用。
bert-large-NER - BERT大型版命名实体识别模型实现最先进性能
Huggingface模型机器学习BERT命名实体识别Github开源项目CoNLL-2003自然语言处理
bert-large-NER是一个基于BERT大型模型的命名实体识别(NER)工具。该模型在CoNLL-2003数据集上训练,可准确识别地点、组织、人名和其他杂项四类实体。模型支持通过Transformers pipeline轻松集成,适用于多种NER应用场景。在测试集上,bert-large-NER的F1分数达到91.7%,展现了卓越的实体识别能力。
low-law-emb - 高维度句子嵌入模型实现精准语义搜索和文本聚类
模型Github开源项目Huggingface机器学习语义相似度自然语言处理sentence-transformers嵌入模型
iMEmbeddings是基于sentence-transformers框架开发的句子嵌入模型,将文本映射至384维向量空间。该模型适用于语义搜索、文本聚类等任务,具有使用简便、评估详尽的特点。模型采用MultipleNegativesRankingLoss损失函数和AdamW优化器,通过Transformer、Pooling和Normalize层构建,可高效处理多种自然语言处理需求。
pegasus_paraphrase - PEGASUS基于文本改写和释义模型
模型Github文本改写开源项目HuggingfacePEGASUS机器学习自然语言处理深度学习
pegasus_paraphrase是基于PEGASUS模型微调的文本改写工具,可生成多个保持原意的高质量释义版本。该模型支持自定义生成数量和beam搜索参数,满足不同场景需求。作为文本重写工具,pegasus_paraphrase适用于内容创作、学习辅助和自然语言处理研究等领域。它使用PyTorch框架实现,可通过简单的Python代码调用。这是一个开源项目,欢迎查看其License信息并参与贡献。
gibberish-text-detector - AutoNLP训练的多分类模型实现精准检测无意义文本
模型Github开源项目Huggingface机器学习AutoNLP自然语言处理模型评估文本分类
gibberish-text-detector是基于AutoNLP训练的多分类模型,专注于无意义文本检测。模型在验证集上达到97.36%的准确率和F1分数,性能卓越。开发者可通过CURL或Python API便捷使用,实现高效的文本质量评估。该工具不仅识别无意义文本,还有助于优化内容质量,提升整体用户体验。
best_2b - Hugging Face Transformers模型概述及应用指南
模型Github模型卡片开源项目Huggingface机器学习transformers自然语言处理模型评估
本文详细介绍了一个Hugging Face Transformers模型的关键特性。内容涵盖模型架构、应用场景、潜在局限性、训练过程、评估方法及环境影响等方面。文档不仅帮助读者全面了解模型性能,还提示了使用中需要注意的问题。对于想要深入探索或应用这一先进语言模型的研究人员和开发者来说,本文是一份极具参考价值的资料。
t5-base-tag-generation - T5模型微调实现自动文章标签生成
模型Github开源项目Huggingface标签生成机器学习t5-base自然语言处理文本分类
t5-base-tag-generation是基于T5模型微调的文本生成工具,专门用于从文章内容自动生成标签。该模型利用190k Medium文章数据集训练,采用1000个标签的分类体系进行数据清洗和标签增强。它将多标签分类转化为文本生成任务,可为各类文本高效生成相关标签,提升内容分类和检索效率。模型在50000篇文章上训练一个epoch,展现出良好的标签生成能力。
sentence_similarity_spanish_es - 基于sentence-transformers的西班牙语句子相似度模型
模型Github开源项目Huggingface机器学习语义相似度sentence-transformers自然语言处理西班牙语模型
该模型基于sentence-transformers框架开发,能够将西班牙语句子和段落转换为768维向量。主要应用于句子相似度计算、聚类分析和语义搜索等任务。模型在STS基准测试中表现优异,提供简洁的Python接口。它以dccuchile/bert-base-spanish-wwm-cased为基础模型,针对西班牙语自然语言处理进行了优化。
llama3 - 基于Transformers的开源预训练语言模型
模型Github模型卡片开源项目Huggingface机器学习transformers自然语言处理人工智能
Llama3是一个基于Hugging Face Transformers库开发的预训练语言模型,已上传至Hugging Face Hub。该模型可应用于多种自然语言处理任务,但目前缺乏具体的技术细节、训练数据和评估结果信息。模型卡片提供了基本信息和使用指南,同时提醒用户注意可能存在的偏见和局限性。
Depth-Anything-V2-Small - 先进高效的开源深度估计工具
模型GithubDepth-Anything-V2开源项目Huggingface机器学习图像处理计算机视觉深度估计
Depth-Anything-V2-Small是一个开源的单目深度估计模型,基于大规模合成和真实图像数据训练。相比前代产品,该模型提供更精细的深度细节和更强的鲁棒性。它比同类基于稳定扩散的模型运行速度快10倍,且更加轻量化。模型支持高效的图像深度推断,可用于各种计算机视觉应用场景。
deepseek-coder-6.7b-instruct - 多语言代码生成与补全的开源AI模型
模型DeepSeek CoderGithub开源项目Huggingface代码模型机器学习自然语言处理人工智能
deepseek-coder-6.7b-instruct是一个基于2T代码和自然语言数据训练的开源AI代码模型。该模型支持多种编程语言,提供1.3B至33B不同规模版本,在HumanEval等多个基准测试中表现优异。它具有16K窗口大小和填空任务能力,支持项目级代码补全和插入。这个模型适用于各种代码生成和补全任务,为开发者提供了强大的编程辅助工具。
pythia-70m-deduped - 促进语言模型可解释性的研究工具
模型Github开源项目语言模型Huggingface机器学习自然语言处理人工智能Pythia
Pythia-70m-deduped是Pythia模型套件中的一个7000万参数的语言模型,由EleutherAI开发。该模型在去重的Pile数据集上训练,提供154个训练检查点,便于研究模型在不同阶段的行为。尽管主要用于可解释性研究,Pythia-70m-deduped在下游任务上的表现也与同等规模模型相当。基于Transformer架构,这个模型为语言建模实验和分析提供了理想的研究平台。
eccobert-base-cased-v1 - 专为18世纪英国文献分析打造的ECCO-BERT模型
模型BERTGithub开源项目Huggingface机器学习历史文献自然语言处理ECCO
ECCO-BERT base model (cased)是一款基于18世纪英国出版物数字化数据集ECCO训练的BERT模型。该模型与bert-base-cased规模相当,适用于ECCO数据集相关的多种任务微调。作为一种专门的自然语言处理工具,ECCO-BERT能够帮助研究人员更深入地分析18世纪英国文献,为历史文本研究和文化探索提供有力支持。
mxbai-rerank-xsmall-v1 - 轻量级多语言搜索重排序模型
模型模型重排Github开源项目Huggingface机器学习transformers自然语言处理人工智能
mxbai-rerank-xsmall-v1是一个轻量级多语言搜索重排序模型(reranker)。该模型基于transformers.js实现,可在浏览器中运行,支持多种语言。它在保持小巧的同时,能有效提升搜索结果相关性。这个开源项目适用于需要快速、精准重排序的应用场景,为开发者提供了灵活的定制和集成选项。
specter2_aug2023refresh_base - 基于引用关系的科学文献嵌入模型
模型SPECTER2文本分类Github科学文献嵌入开源项目Huggingface机器学习自然语言处理
SPECTER2是一种先进的科学文献嵌入模型系列,专门用于生成特定任务的嵌入表示。该模型利用超过600万对科学论文引用关系进行训练,能够处理论文标题、摘要以及短文本查询,为下游应用生成高效的嵌入。在SciRepEval和MDCR等权威基准测试中,SPECTER2展现出卓越性能,成为科学文献表示学习领域的重要工具。
bert-base-turkish-cased - 巴伐利亚州立图书馆开发的土耳其语BERT预训练模型
土耳其语Huggingface模型机器学习BERTGithub开源项目自然语言处理Hugging Face
巴伐利亚州立图书馆MDZ数字图书馆团队开发的土耳其语BERT模型,使用多种语料库进行预训练。该模型基于35GB、44亿token的语料库,经过200万步训练,可通过Hugging Face Transformers库加载。它为土耳其语自然语言处理任务如词性标注和命名实体识别提供了基础支持。模型采用了OSCAR语料库、Wikipedia、OPUS语料库等多种资源,旨在提升土耳其语NLP任务的性能。
t5-one-line-summary - 基于T5模型的研究论文摘要生成工具
Huggingface模型机器学习Github开源项目自然语言处理T5模型SimpleT5一行摘要
T5-one-line-summary是一个基于T5模型的开源工具,旨在从研究论文描述或摘要中生成简洁的一行总结。该模型经37万篇论文训练,可快速提取关键信息,提高文献审阅效率。项目基于simpleT5库开发,支持Transformers和SimpleT5接口,便于集成到现有工作流程。这一工具为研究人员提供了快速获取论文核心内容的便捷方式。
dev-author-em-clf - DeBERTa-v3微调的开发者身份识别模型
模型模型微调Github开源项目Huggingface机器学习Hugging Face自然语言处理DeBERTa
dev-author-em-clf是一个基于微软DeBERTa-v3-base模型微调的开发者身份识别工具。该模型使用Adam优化器和线性学习率调度器,经过单轮训练。虽然旨在提升开发者身份识别准确度,但目前缺乏具体用途、局限性和训练数据等关键信息。模型采用Transformers 4.44.2、PyTorch 2.4.1等框架开发,适用于需要开发者身份识别功能的应用场景。
Starling-LM-7B-alpha - 开源模型在 MT Bench 测试中接近 GPT-4 水平
Starling-LM-7B-alpha模型Github开源项目语言模型Huggingface机器学习自然语言处理人工智能
Starling-LM-7B-alpha 是一个基于人工智能反馈强化学习(RLAIF)训练的开源大语言模型。该模型利用 GPT-4 标注的 Nectar 数据集和创新的奖励训练策略,在 MT Bench 测试中获得 8.09 分,性能仅次于 GPT-4 和 GPT-4 Turbo。研究团队已开源相关数据集、模型和在线演示。Starling-LM-7B-alpha 在多项基准测试中展现出优异性能,显示了其作为开源模型的巨大潜力。
deepseek-coder-1.3b-base - 基于深度学习的多语言代码生成模型
DeepSeek CoderHuggingface模型机器学习代码生成人工智能Github开源项目自然语言处理
deepseek-coder-1.3b-base是一个由DeepSeek开发的开源代码生成模型。它基于1.3B参数和2T训练数据,支持多种编程语言的代码补全、插入和项目级生成。模型采用16K窗口大小和填空任务训练,在HumanEval等多个基准测试中表现优异。这一工具为开发者提供了灵活、高效的编程辅助解决方案。
sentiment-roberta-large-english - RoBERTa微调的通用英文情感分析模型
模型情感分析GithubRoBERTaSiEBERT开源项目Huggingface机器学习自然语言处理
sentiment-roberta-large-english是一个基于RoBERTa-large的微调模型,用于英文文本的二元情感分析。该模型在15个不同来源的数据集上进行了训练和评估,提高了对各种文本类型的泛化能力。在新数据上,其表现优于仅在单一类型文本上训练的模型,平均准确率为93.2%。模型可通过Hugging Face pipeline快速部署,也可作为进一步微调的基础。
DeBERTa-v3-xsmall-mnli-fever-anli-ling-binary - 基于DeBERTa-v3的高性能自然语言推理模型
零样本分类DeBERTa自然语言推理模型文本分类Github开源项目Huggingface机器学习
DeBERTa-v3-xsmall-mnli-fever-anli-ling-binary是一个专为零样本分类优化的自然语言推理模型。该模型基于DeBERTa-v3-xsmall架构,通过78万多个假设-前提对进行训练,在多个NLI数据集上展现出优异性能,最高准确率达92.5%。模型不仅推理速度快,还易于使用Hugging Face Transformers库部署,适用于需要高效文本分类的各种应用场景。
suicidality - ELECTRA架构自杀倾向检测模型实现高精度文本分类
模型文本分类GithubNLPELECTRA开源项目自杀倾向检测机器学习Huggingface
该项目基于ELECTRA架构开发了自杀倾向检测AI模型,通过多样化数据集微调实现高精度文本分类。模型可区分自杀倾向和非自杀倾向文本,验证数据集性能优异。项目提供简便使用方法,强调处理敏感话题的伦理考量,并欢迎社区贡献以持续改进性能和确保负责任部署。
pythia-1.4b - 促进可解释性研究的大型语言模型工具集 提供多个训练阶段检查点
模型大型语言模型GithubPythia开源项目Huggingface机器学习GPT-NeoX自然语言处理
Pythia-1.4B是EleutherAI开发的大型语言模型,作为Pythia模型套件的一部分,拥有12亿参数规模。该模型在Pile数据集上训练,提供143个中间检查点,便于研究模型训练过程中的行为变化。Pythia-1.4B基于GPT-NeoX框架,采用Apache 2.0许可证。这个模型主要用于语言模型可解释性研究,不适合直接用作商业产品。研究人员可利用Pythia-1.4B及其检查点进行科学实验,探索大型语言模型的功能和局限性。
controlnet_qrcode-control_v1p_sd15 - ControlNet模型实现二维码艺术化生成
模型QR码图像生成Stable DiffusionGithubControlNet开源项目Huggingface机器学习
这是一个基于ControlNet的开源AI模型,专门用于将普通二维码转化为艺术图像。该模型支持Stable Diffusion 1.5,在保持二维码可扫描性的同时,赋予其独特的视觉效果。通过调整参数,用户可以平衡二维码的功能性和艺术性。此模型适用于创意营销和艺术设计等领域,能够显著提升二维码的视觉吸引力。
camembert-keyword-extractor - 基于CamemBERT的法语关键词提取模型
模型CamemBERT关键词提取Github开源项目模型微调机器学习Huggingface自然语言处理
camembert-keyword-extractor是一个基于CamemBERT-base模型微调的法语关键词提取工具。该模型在评估集上表现出色,精确率为67.43%,召回率69.79%,准确率93.46%,F1值68.59%。这些指标显示了模型在法语关键词提取任务中的高效性能。尽管缺乏具体的训练和评估数据信息,但模型的表现证明了其在法语文本分析领域的实用价值。该工具可用于快速识别和提取法语文本中的关键信息,为文本摘要和内容分析提供支持。