#机器学习
t5-one-line-summary - 基于T5模型的研究论文摘要生成工具
Github开源项目自然语言处理机器学习模型HuggingfaceT5模型SimpleT5一行摘要
T5-one-line-summary是一个基于T5模型的开源工具,旨在从研究论文描述或摘要中生成简洁的一行总结。该模型经37万篇论文训练,可快速提取关键信息,提高文献审阅效率。项目基于simpleT5库开发,支持Transformers和SimpleT5接口,便于集成到现有工作流程。这一工具为研究人员提供了快速获取论文核心内容的便捷方式。
bert-base-turkish-cased - 巴伐利亚州立图书馆开发的土耳其语BERT预训练模型
Github开源项目自然语言处理机器学习Hugging FaceBERT模型Huggingface土耳其语
巴伐利亚州立图书馆MDZ数字图书馆团队开发的土耳其语BERT模型,使用多种语料库进行预训练。该模型基于35GB、44亿token的语料库,经过200万步训练,可通过Hugging Face Transformers库加载。它为土耳其语自然语言处理任务如词性标注和命名实体识别提供了基础支持。模型采用了OSCAR语料库、Wikipedia、OPUS语料库等多种资源,旨在提升土耳其语NLP任务的性能。
specter2_aug2023refresh_base - 基于引用关系的科学文献嵌入模型
Github开源项目自然语言处理机器学习模型Huggingface文本分类SPECTER2科学文献嵌入
SPECTER2是一种先进的科学文献嵌入模型系列,专门用于生成特定任务的嵌入表示。该模型利用超过600万对科学论文引用关系进行训练,能够处理论文标题、摘要以及短文本查询,为下游应用生成高效的嵌入。在SciRepEval和MDCR等权威基准测试中,SPECTER2展现出卓越性能,成为科学文献表示学习领域的重要工具。
mxbai-rerank-xsmall-v1 - 轻量级多语言搜索重排序模型
人工智能Github开源项目自然语言处理机器学习模型transformersHuggingface模型重排
mxbai-rerank-xsmall-v1是一个轻量级多语言搜索重排序模型(reranker)。该模型基于transformers.js实现,可在浏览器中运行,支持多种语言。它在保持小巧的同时,能有效提升搜索结果相关性。这个开源项目适用于需要快速、精准重排序的应用场景,为开发者提供了灵活的定制和集成选项。
eccobert-base-cased-v1 - 专为18世纪英国文献分析打造的ECCO-BERT模型
Github开源项目自然语言处理机器学习BERT模型Huggingface历史文献ECCO
ECCO-BERT base model (cased)是一款基于18世纪英国出版物数字化数据集ECCO训练的BERT模型。该模型与bert-base-cased规模相当,适用于ECCO数据集相关的多种任务微调。作为一种专门的自然语言处理工具,ECCO-BERT能够帮助研究人员更深入地分析18世纪英国文献,为历史文本研究和文化探索提供有力支持。
pythia-70m-deduped - 促进语言模型可解释性的研究工具
人工智能Github开源项目自然语言处理机器学习语言模型模型HuggingfacePythia
Pythia-70m-deduped是Pythia模型套件中的一个7000万参数的语言模型,由EleutherAI开发。该模型在去重的Pile数据集上训练,提供154个训练检查点,便于研究模型在不同阶段的行为。尽管主要用于可解释性研究,Pythia-70m-deduped在下游任务上的表现也与同等规模模型相当。基于Transformer架构,这个模型为语言建模实验和分析提供了理想的研究平台。
deepseek-coder-6.7b-instruct - 多语言代码生成与补全的开源AI模型
人工智能Github开源项目自然语言处理机器学习模型HuggingfaceDeepSeek Coder代码模型
deepseek-coder-6.7b-instruct是一个基于2T代码和自然语言数据训练的开源AI代码模型。该模型支持多种编程语言,提供1.3B至33B不同规模版本,在HumanEval等多个基准测试中表现优异。它具有16K窗口大小和填空任务能力,支持项目级代码补全和插入。这个模型适用于各种代码生成和补全任务,为开发者提供了强大的编程辅助工具。
Depth-Anything-V2-Small - 先进高效的开源深度估计工具
Github开源项目机器学习图像处理计算机视觉模型深度估计HuggingfaceDepth-Anything-V2
Depth-Anything-V2-Small是一个开源的单目深度估计模型,基于大规模合成和真实图像数据训练。相比前代产品,该模型提供更精细的深度细节和更强的鲁棒性。它比同类基于稳定扩散的模型运行速度快10倍,且更加轻量化。模型支持高效的图像深度推断,可用于各种计算机视觉应用场景。
llama3 - 基于Transformers的开源预训练语言模型
人工智能Github开源项目自然语言处理机器学习模型transformersHuggingface模型卡片
Llama3是一个基于Hugging Face Transformers库开发的预训练语言模型,已上传至Hugging Face Hub。该模型可应用于多种自然语言处理任务,但目前缺乏具体的技术细节、训练数据和评估结果信息。模型卡片提供了基本信息和使用指南,同时提醒用户注意可能存在的偏见和局限性。
sentence_similarity_spanish_es - 基于sentence-transformers的西班牙语句子相似度模型
Github开源项目自然语言处理机器学习模型Huggingfacesentence-transformers语义相似度西班牙语模型
该模型基于sentence-transformers框架开发,能够将西班牙语句子和段落转换为768维向量。主要应用于句子相似度计算、聚类分析和语义搜索等任务。模型在STS基准测试中表现优异,提供简洁的Python接口。它以dccuchile/bert-base-spanish-wwm-cased为基础模型,针对西班牙语自然语言处理进行了优化。
t5-base-tag-generation - T5模型微调实现自动文章标签生成
Github开源项目自然语言处理机器学习模型Huggingface文本分类标签生成t5-base
t5-base-tag-generation是基于T5模型微调的文本生成工具,专门用于从文章内容自动生成标签。该模型利用190k Medium文章数据集训练,采用1000个标签的分类体系进行数据清洗和标签增强。它将多标签分类转化为文本生成任务,可为各类文本高效生成相关标签,提升内容分类和检索效率。模型在50000篇文章上训练一个epoch,展现出良好的标签生成能力。
best_2b - Hugging Face Transformers模型概述及应用指南
Github开源项目自然语言处理机器学习模型transformers模型评估Huggingface模型卡片
本文详细介绍了一个Hugging Face Transformers模型的关键特性。内容涵盖模型架构、应用场景、潜在局限性、训练过程、评估方法及环境影响等方面。文档不仅帮助读者全面了解模型性能,还提示了使用中需要注意的问题。对于想要深入探索或应用这一先进语言模型的研究人员和开发者来说,本文是一份极具参考价值的资料。
gibberish-text-detector - AutoNLP训练的多分类模型实现精准检测无意义文本
Github开源项目自然语言处理机器学习模型模型评估Huggingface文本分类AutoNLP
gibberish-text-detector是基于AutoNLP训练的多分类模型,专注于无意义文本检测。模型在验证集上达到97.36%的准确率和F1分数,性能卓越。开发者可通过CURL或Python API便捷使用,实现高效的文本质量评估。该工具不仅识别无意义文本,还有助于优化内容质量,提升整体用户体验。
pegasus_paraphrase - PEGASUS基于文本改写和释义模型
Github开源项目深度学习自然语言处理机器学习模型文本改写HuggingfacePEGASUS
pegasus_paraphrase是基于PEGASUS模型微调的文本改写工具,可生成多个保持原意的高质量释义版本。该模型支持自定义生成数量和beam搜索参数,满足不同场景需求。作为文本重写工具,pegasus_paraphrase适用于内容创作、学习辅助和自然语言处理研究等领域。它使用PyTorch框架实现,可通过简单的Python代码调用。这是一个开源项目,欢迎查看其License信息并参与贡献。
low-law-emb - 高维度句子嵌入模型实现精准语义搜索和文本聚类
Github开源项目自然语言处理机器学习模型Huggingface嵌入模型sentence-transformers语义相似度
iMEmbeddings是基于sentence-transformers框架开发的句子嵌入模型,将文本映射至384维向量空间。该模型适用于语义搜索、文本聚类等任务,具有使用简便、评估详尽的特点。模型采用MultipleNegativesRankingLoss损失函数和AdamW优化器,通过Transformer、Pooling和Normalize层构建,可高效处理多种自然语言处理需求。
bert-large-NER - BERT大型版命名实体识别模型实现最先进性能
Github开源项目自然语言处理机器学习BERT模型命名实体识别HuggingfaceCoNLL-2003
bert-large-NER是一个基于BERT大型模型的命名实体识别(NER)工具。该模型在CoNLL-2003数据集上训练,可准确识别地点、组织、人名和其他杂项四类实体。模型支持通过Transformers pipeline轻松集成,适用于多种NER应用场景。在测试集上,bert-large-NER的F1分数达到91.7%,展现了卓越的实体识别能力。
pythia-410m-deduped - 专为语言模型可解释性研究设计的先进工具
人工智能Github开源项目自然语言处理机器学习语言模型模型HuggingfacePythia
Pythia-410M-deduped是EleutherAI开发的语言模型系列之一,旨在推动可解释性研究。该模型在去重后的Pile数据集上训练,拥有3亿多参数,24层结构和1024维度。它提供多个训练检查点,便于研究模型行为和局限性。Pythia-410M-deduped使用Apache 2.0许可,主要面向科学研究,不适合直接部署应用。
question-vs-statement-classifier - 神经网络问句陈述句分类器提升搜索准确性
Github开源项目自然语言处理机器学习Haystack模型Huggingface神经搜索查询分类
该项目是一个基于神经网络的问句与陈述句分类器,专为提升搜索系统性能而设计。它能准确区分用户输入的查询类型,有效提高搜索准确度。基于Transformers架构开发,易于集成到Haystack等搜索框架中,为开发者提供了实用的查询分类工具。
vram-40 - 优化Transformer模型的内存和性能实现
人工智能Github开源项目深度学习自然语言处理机器学习模型TransformersHuggingface
vram-40项目专注于优化Transformer模型的内存使用和计算性能。通过改进的技术和算法,该项目旨在使大规模语言模型能在有限硬件资源上高效运行。这一实现方案可能有助于提高Transformer模型在各种应用场景中的实用性。
sdxl-turbo - 基于Stable Diffusion的快速AI图像生成模型
Github开源项目机器学习图像生成模型开源库HuggingfaceApache许可证diffusers
SDXL-Turbo是基于Stable Diffusion技术开发的AI图像生成模型。该模型能快速生成高质量图像,适用于实时应用和大规模图像生成任务。SDXL-Turbo在保持图像质量的同时提高了生成速度,可在Diffusers库中使用。模型采用Apache-2.0许可证,为AI图像生成领域提供了新的工具选择。
chronos-t5-base - T5架构驱动的时间序列预测基础模型
Github开源项目预训练模型机器学习模型时间序列预测HuggingfaceChronosT5架构
Chronos-T5-Base是一款基于T5架构的时间序列预测基础模型,具有2亿参数规模。该模型将时间序列转换为token序列,通过交叉熵损失训练,能够生成多样化的概率性预测。Chronos-T5-Base在大量公开时间序列数据和合成数据上进行了预训练,适用于广泛的时间序列预测场景。研究人员和开发者可以通过Python接口轻松调用该模型,实现高效的时间序列分析和预测。
pythia-70m - 促进语言模型可解释性研究的小型模型
Github开源项目自然语言处理机器学习语言模型模型HuggingfaceEleutherAIPythia
Pythia-70m是一个由EleutherAI开发的70M参数小型开源语言模型,旨在促进语言模型可解释性研究。作为Pythia Scaling Suite系列中最小的模型,它使用The Pile数据集训练,提供了大量训练中间检查点。这些检查点有助于研究模型在训练过程中的行为变化。尽管规模较小,Pythia-70m的性能仍可与同等规模的模型相媲美。研究人员可利用该模型探索大型语言模型的内部机制,深化对其工作原理的理解。
granite-8b-code-base-4k - 多语言代码处理和优化的开源模型
Github开源项目代码生成机器学习编程语言模型HuggingfaceGranite-8B-Code-Base-4KIBM Research
Granite-8B-Code-Base-4K是IBM Research推出的开源代码生成模型,旨在跨多种编程语言执行代码生成、解释与修复任务。采用两阶段训练策略处理海量数据以提升模型的理解能力和任务执行效率,适用于软件开发中的多种应用场景。
llava-interleave-qwen-0.5b-hf - 多模态模型中的图像到文本生成的应用与研究
Github开源项目自然语言处理机器学习多模态模型模型Huggingface图像文本转换LLaVA Interleave
LLaVA Interleave是基于变换器架构进行优化的开源自回归语言模型,专注于多模态大模型和聊天机器人的研究,支持多图像和多提示生成,适用于计算机视觉和自然语言处理领域的研究人员和爱好者。在遵循开放许可证要求的前提下,模型提升了图像到文本的生成能力。通过4比特量化和Flash Attention 2优化策略,显著提高了生成效率。
Qwen2.5-3B - 新一代多语言模型提升代码数学和长文本处理能力
人工智能Github开源项目大语言模型自然语言处理机器学习模型HuggingfaceQwen2.5
Qwen2.5-3B是一款拥有30亿参数的大语言模型,支持32768个token的上下文长度。该模型在代码、数学等领域表现出色,并改进了长文本生成、结构化数据理解和JSON输出能力。它支持128K长文本处理和29种语言,为进一步微调和应用奠定了基础。作为预训练模型,Qwen2.5-3B不建议直接用于对话,但可进行指令微调等后续训练。
deberta-v2-xlarge - 强大的NLU模型在多项任务中表现优异
人工智能Github开源项目自然语言处理机器学习模型DeBERTaHuggingface模型性能
DeBERTa-v2-xlarge是一个基于解缠注意力机制和增强型掩码解码器的自然语言理解模型。该模型拥有24层结构、1536隐藏层大小,总参数量为900M,经160GB原始数据训练。在SQuAD、GLUE等多项NLU基准测试中,DeBERTa-v2-xlarge的表现超越了BERT和RoBERTa。模型在问答、文本分类等任务中展现出优异性能,为自然语言处理领域提供了新的研究方向。
jailbreak-classifier - 提示分类工具,增强系统安全与内容审核
Github开源项目机器学习安全模型Huggingface文本分类Jailbreak Classifier规范化
项目基于BERT模型微调,专用于识别破解与无害提示信息。利用jailbreak-classification数据集进行训练,可应用于安全和内容审核场景,提升系统安全性与审核能力,是一个多平台适用的解决方案。
xlnet-base-cased - 创新的广义排列语言建模与自回归预训练技术
Github开源项目预训练模型自然语言处理机器学习Transformer模型XLNetHuggingface
XLNet是一种创新的无监督语言表示学习方法,采用广义排列语言建模目标和Transformer-XL架构。这使得它在处理长上下文语言任务时表现卓越,并在多个下游任务中取得了领先成果。作为一个预训练模型,XLNet主要用于微调特定任务,尤其适合需要理解完整句子的应用场景,如序列分类、标记分类和问答系统等。
tiny-random-LlamaForCausalLM - 轻量级随机初始化Llama模型框架
人工智能Github开源项目机器学习语言模型模型HuggingFaceHuggingfaceLlamaForCausalLM
tiny-random-LlamaForCausalLM是一个轻量级的随机初始化Llama模型框架,为快速实验和测试而设计。这个简单框架使开发者能够迅速探索Llama架构,无需进行复杂的预训练。该项目主要面向研究人员和开发者,适用于了解Llama模型结构和进行快速原型设计。
wmt19-de-en - 德英翻译新突破,基于WMT19模型的精准与高效
Github开源项目机器学习翻译模型性能评估HuggingfaceFacebookFSMT
wmt19-de-en项目是基于FairSeq的WMT19模型的德英翻译工具,旨在提高翻译的准确性和效率。项目提供预训练模型,可快速部署于多种翻译场景。尽管在处理重复短语时存在一定限制,但整体表现出色,获得了高BLEU评分。未来的改进方向包括加强模型集成和重新排序功能,以增强对复杂输入的翻译能力。
sbert-base-cased-pl - 波兰语言语义相似度高效模型
Github开源项目自然语言处理机器学习模型Huggingface句子相似性HerBERTSHerbert
sbert-base-cased-pl是SentenceBERT的改进版,利用siamese与triplet网络结构生成语义嵌入,以余弦相似度进行判断。该模型基于波兰语HerBERT,专注于语义文本相似性优化,训练数据来源于Wikipedia,并通过字节对编码进行分词,准确率达82.31%。适用于波兰语相关环境与分词器场景。
llavanext-qwen-siglip-tokenizer - 整合多模态模型的开源项目探索图像与文本处理新方向
人工智能Github开源项目自然语言处理机器学习模型transformersHuggingface模型卡片
该项目整合了LLaVA、Qwen和SIGLIP等先进多模态模型的功能,基于Transformers库开发高效tokenizer。它支持视觉问答和图像描述等跨模态任务,为计算机视觉和自然语言处理的交叉研究提供了实用工具。该项目旨在提供一个强大的图像-文本处理框架,为研究人员和开发者探索和应用多模态AI提供便捷途径,有望在相关领域带来突破性进展。
gemma-2b-it - Google开源轻量级语言模型 适用于资源受限环境
人工智能大型语言模型Github开源项目自然语言处理机器学习模型GemmaHuggingface
Gemma-2b-it是Google开源的轻量级指令调优语言模型,采用2B参数设计。该模型支持问答、摘要和推理等多种文本生成任务,适用于笔记本电脑等资源受限环境。Gemma-2b-it在英语环境下表现出色,开放权重为AI创新提供更多可能。该模型基于Gemini技术,是Google推动AI民主化的重要举措。
deberta-v3-large-mnli - DeBERTa-v3-large模型在MNLI数据集上的文本蕴含分类应用
Github开源项目自然语言处理机器学习模型Huggingface文本蕴含DeBERTa-v3Multi-NLI
此开源项目提供了一个基于DeBERTa-v3-large模型在MNLI数据集上微调的文本蕴含分类模型。模型能够预测两段文本之间的蕴含关系,输出蕴含和矛盾的概率。它适用于需要判断文本语义关系的多种场景,如问答系统、信息检索等。开发者可以将此模型集成到项目中,以增强文本理解和分析能力。
baidu-ultr_uva-bert_ips-pointwise - 基于逆向倾向评分的Baidu-ULTR排序模型
Github开源项目机器学习模型Huggingface信息检索排序模型Baidu-ULTR点击数据
该项目是基于Baidu-ULTR数据集训练的MonoBERT交叉编码器,采用逆向倾向评分(IPS)方法缓解点击数据中的位置偏差。模型在专家注释和用户点击测试集上评估了排序和点击预测性能,并提供了使用示例。这一开源模型可应用于信息检索领域的研究和实践。
Llama-3.2-11B-Vision - Meta开发的多模态大语言模型 支持视觉识别和图像推理
Github开源项目自然语言处理机器学习多模态模型计算机视觉模型HuggingfaceLLAMA 3.2
Llama-3.2-11B-Vision是Meta开发的多模态大语言模型,支持图像和文本输入、文本输出。该模型在视觉识别、图像推理、图像描述和通用图像问答方面表现出色。它基于Llama 3.1文本模型构建,采用优化的Transformer架构,通过监督微调和人类反馈强化学习进行对齐。模型支持128K上下文长度,经过60亿(图像,文本)对训练,知识截止到2023年12月。Llama-3.2-11B-Vision为商业和研究用途提供视觉语言处理能力。
相关文章
智能对话,语言飞跃
8 天前
Superlinked学习资料汇总 - 企业级AI应用的计算框架
2 个月前
sagify学习资料汇总 - 简化AWS SageMaker上的机器学习工作流程
2 个月前
Otto入门指南 - 智能机器学习助手让ML变得简单直观
2 个月前
VectorHub学习资料汇总 - 向量检索技术的开源学习平台
2 个月前
Open-Interface 入门学习资料 - 用 LLM 控制任何计算机的自动化工具
2 个月前
Neptune-client 入门指南 - 为基础模型训练打造的实验追踪工具
2 个月前
awesome-chatgpt学习资源汇总 - AI聊天机器人开发者必备工具箱
2 个月前
langup-ai学习资料汇总 - AGI社交网络Bot开发框架
2 个月前