#命名实体识别
ner-english-ontonotes-large - Flair框架的大规模英语命名实体识别模型支持18种实体类型
模型文本分类命名实体识别GithubFlair开源项目Huggingface机器学习自然语言处理
ner-english-ontonotes-large是Flair框架中的大规模英语命名实体识别模型。该模型可识别18种实体类型,包括人名、地点和组织等,在Ontonotes数据集上F1分数达90.93%。模型基于文档级XLM-R嵌入和FLERT技术,通过简洁的Python代码即可调用。这一工具为各类自然语言处理任务提供了精准的命名实体识别功能。
bert-base-parsbert-ner-uncased - ParsBERT-NER:高性能波斯语命名实体识别模型
模型命名实体识别BERTGithub波斯语开源项目Huggingface机器学习自然语言处理
ParsBERT-NER是一个专门用于波斯语命名实体识别的预训练模型。该模型基于BERT架构,在ARMAN和PEYMA数据集上进行微调,支持识别组织、地点、人名等多种实体类型。在多个波斯语NER基准测试中,ParsBERT-NER展现出卓越性能,F1分数最高达98.79%。研究人员和开发者可通过Hugging Face Transformers库轻松使用这一模型进行波斯语自然语言处理任务。
xlm-roberta-base-ner-silvanus - 基于XLM-RoBERTa的多语言命名实体识别模型
模型命名实体识别XLM-RoBERTaGithub零样本迁移学习NERHuggingface开源项目多语言模型
该模型基于xlm-roberta-base在印尼NER数据集上微调而来,可从社交媒体文本中提取位置、日期和时间信息。虽然训练数据为印尼语,但通过零样本迁移学习,模型支持英语、西班牙语、意大利语和斯洛伐克语的信息提取。在验证集上,模型展现出91.89%的精确率、92.73%的召回率和92.31%的F1分数,显示了其在多语言命名实体识别任务中的有效性。
ner-vietnamese-electra-base - ELECTRA基础越南语命名实体识别模型
模型越南语命名实体识别Github深度学习ELECTRAHuggingface开源项目自然语言处理
该越南语命名实体识别模型利用ELECTRA预训练架构,并在VLSP 2018数据集上进行了微调。模型在评估集上展现出优秀性能,F1分数达92.14%。它能够有效识别越南语文本中的位置、组织和人名等实体类型。模型通过Transformers库提供,便于集成到各类越南语自然语言处理应用中。
hubert-base-cc - 先进的匈牙利语BERT模型在自然语言处理任务中表现卓越
Huggingface模型命名实体识别匈牙利语Github开源项目自然语言处理huBERTBERT模型
huBERT-base-cc是专为匈牙利语设计的BERT模型,基于Common Crawl和匈牙利维基百科数据训练而成。该模型在分块和命名实体识别等任务中表现优异,超越了多语言BERT的性能。作为一个通用的自然语言处理工具,huBERT-base-cc为匈牙利语研究和应用提供了强大支持,在多个领域树立了新的基准。
bert-base-multilingual-cased-ner-hrl - 基于mBERT的多语言命名实体识别模型覆盖10种主要语言
bert-base-multilingual-cased模型命名实体识别GithubHugging Face多语言模型Huggingface开源项目自然语言处理
bert-base-multilingual-cased-ner-hrl是一个多语言命名实体识别模型,基于mBERT微调而来。该模型支持阿拉伯语、德语等10种主要语言,能够识别地点、组织和人名。模型通过聚合多语种新闻数据集训练,适用于广泛的NER任务,但在特定领域可能存在局限性。使用简单,可通过Transformers库快速部署。模型可通过Hugging Face的Transformers库轻松集成到各种NLP项目中,适用于多语言文本分析、信息提取等任务。然而,由于训练数据限制,在非新闻领域的表现可能需要进一步评估。
FastPDN - 开源波兰语命名实体识别模型
CLARIN-PLFastPDNHuggingface模型深度学习命名实体识别Github开源项目自然语言处理
FastPDN是一个开源的波兰语命名实体识别模型,基于PolDeepNer2项目开发。它采用hydra、PyTorch、PyTorch Lightning和Transformers库构建了完整的数据处理和模型训练流程。FastPDN在kpwr和cen数据集上训练,支持82种实体类别识别,并利用herbert-base-case和distiluse-base-multilingual-cased-v1模型进行了预训练。该项目提供简洁的API接口,方便用户进行波兰语文本的命名实体识别任务。
bert-finetuned-ner - BERT微调模型实现高精度命名实体识别
Huggingface模型BERT命名实体识别模型微调conll2003Github开源项目自然语言处理
该项目基于BERT模型,在conll2003数据集上进行微调,专注于命名实体识别任务。模型在评估集上展现出优异性能,精确率达0.9355,召回率为0.9514,F1分数为0.9433。经过3轮训练,采用Adam优化器和线性学习率调度器,模型在命名实体识别领域表现卓越。
indobert-model-ner - IndobertNER:基于BERT的印度尼西亚语命名实体识别模型
模型模型微调Github开源项目Huggingface命名实体识别自然语言处理深度学习IndoBERT
IndobertNER是基于indolem/indobert-base-uncased模型微调的印度尼西亚语命名实体识别模型。在评估集上,该模型展现出优秀性能,精确率达0.8307,召回率为0.8454,F1分数为0.8380。模型训练采用Adam优化器,使用线性学习率调度器,经过10轮迭代。虽然目前缺乏具体应用指南,但IndobertNER在印度尼西亚语自然语言处理领域具有广阔应用前景。
arabic-ner - 阿拉伯语BERT命名实体识别模型支持九大类型
模型阿拉伯语命名实体识别BERTGithubHugging FaceHuggingface开源项目自然语言处理
该阿拉伯语命名实体识别模型基于BERT预训练,可识别9种实体类型,包括人名、组织、地点等。模型使用37.8万标记的语料训练,在3万标记验证集上F1分数达87%。项目提供完整示例,适用于多种阿拉伯语自然语言处理任务。
camembert-ner-with-dates - 基于camemBERT的法语命名实体识别模型集成日期标记功能
模型命名实体识别CamemBERTGithub自然语言处理HuggingFaceHuggingface开源项目日期标注
camembert-ner-with-dates是一个增强版的法语命名实体识别模型,基于camemBERT架构,新增日期标记功能。该模型在扩展的wikiner-fr数据集(约17万句)上训练,支持识别组织、人名、地点、杂项和日期等实体。在混合测试数据上,模型达到83%的F1分数,优于传统日期解析方法。用户可通过Hugging Face平台轻松使用该模型,总体精确度、召回率和F1分数均达到0.928。
gliner_multi - 灵活识别多语言实体的开源NER模型
模型命名实体识别GithubGLiNER多语言模型开源项目Huggingface机器学习自然语言处理
GLiNER-multi是一个基于双向Transformer架构的开源多语言命名实体识别模型。它能够灵活识别各种实体类型,填补了传统NER模型与大型语言模型之间的空白。该模型在Pile-NER数据集上训练,支持多语言处理,易于集成到不同的自然语言处理应用中。GLiNER-multi在保证性能的同时优化了模型规模,适用于计算资源有限的场景。
IndicNER - 面向11种印度语言的多语言命名实体识别模型
模型IndicNERGithub多语言模型印度语言开源项目Huggingface命名实体识别自然语言处理
IndicNER是一个针对11种印度语言开发的命名实体识别模型。该模型通过数百万句子的微调训练,并在人工标注测试集和多个公开数据集上进行了性能评估。IndicNER支持阿萨姆语、孟加拉语、古吉拉特语等多种印度语言,能够有效识别句子中的命名实体。作为一个基于最新深度学习技术的工具,IndicNER为印度语言的自然语言处理研究和应用提供了有力支持。
bert-base-uncased-conll2003 - 基于BERT的CoNLL-2003数据集命名实体识别模型
Huggingface模型BERT命名实体识别模型微调Github开源项目CoNLL-2003自然语言处理
此模型是基于bert-base-uncased在CoNLL-2003数据集上微调的命名实体识别模型。经过2轮训练,模型在测试集上展现出优秀性能:精确率达0.8885,召回率为0.9046,F1分数为0.8965,准确率高达0.9781。模型采用Adam优化器和线性学习率调度器,为NLP领域提供了一个高效的命名实体识别解决方案。
roberta-base-finetuned-abbr - RoBERTa微调模型实现高精度缩写检测
模型PLOD数据集命名实体识别GithubRoBERTa微调模型Huggingface开源项目自然语言处理
这是一个基于roberta-base在PLOD-filtered数据集上微调的模型,专门用于缩写检测。模型在评估中表现优异,精确率0.9645,召回率0.9583,F1值0.9614。采用掩码语言建模预训练,学习双向语言表示,适用于序列标注特别是缩写检测任务,为NLP应用提供有力支持。
bcms-bertic-ner - BERTić微调模型实现BCMS语言的高效命名实体识别
Huggingface模型机器学习命名实体识别Github开源项目自然语言处理BERTić巴尔干语言
bcms-bertic-ner是一个针对波斯尼亚语、克罗地亚语、黑山语和塞尔维亚语(BCMS)的命名实体识别模型。该模型基于BERTić架构,通过多个标准和社交媒体数据集进行微调,可识别人名、地点、组织和其他实体。在开发数据上,模型达到91.38的F1分数,为BCMS语言的自然语言处理任务提供了有力工具。
ZeroShotBioNER - 高效生物医学命名实体识别的突破性方法
零样本学习Huggingface少样本学习模型生物医学文本识别BERT命名实体识别Github开源项目
ZeroShotBioNER是一种创新的生物医学命名实体识别模型,基于Transformer架构,支持零样本和少样本学习。该模型在25多个生物医学NER类别上训练,可识别疾病、化学物质、基因等多种实体。其突出优势在于能进行零样本推理,并仅需少量样本即可针对新类别进行微调。模型采用BioBERT架构,提供详细的使用说明和丰富的实体类别列表,为生物医学文本分析提供了强大工具。
GLiNER_ITA_LARGE - GLiNER框架驱动的意大利语命名实体识别模型
模型模型加载命名实体识别GithubGLiNER开源项目HuggingfacePython库实体预测
GLiNER_ITA_LARGE是一个基于GLiNER框架的意大利语命名实体识别模型。该模型采用双向Transformer技术,支持自定义标签,适用于多种自然语言处理任务。通过简单安装GLiNER库,研究人员和开发者可以轻松应用此模型进行意大利语文本分析。可用于新闻文本、社交媒体内容等意大利语语料的实体识别分析。
distilbert-base-multilingual-cased-ner-hrl - DistilBERT微调的10语种命名实体识别模型
模型Github多语言模型开源项目HuggingfaceHugging Face命名实体识别自然语言处理DistilBERT
这是一个基于DistilBERT微调的多语言命名实体识别模型,支持10种高资源语言。模型能够识别位置、组织和人名实体,适用于阿拉伯语、德语、英语等多种语言。它使用各语言的标准数据集训练,可通过Transformers库轻松调用。尽管在多语言NER任务中表现优秀,但在特定领域应用时可能存在局限性。
distilbert-base-cased-finetuned-conll03-english - 基于DistilBERT的英语命名实体识别模型
Huggingface模型迁移学习命名实体识别GithubDistilBERT开源项目CoNLL-2003自然语言处理
这是一个基于distilbert-base-cased模型微调的英语命名实体识别(NER)工具。该模型在conll2003英语数据集上训练,对大小写敏感,在验证集上达到98.7%的F1分数。它能够有效识别和分类文本中的人名、地名和组织名等命名实体,为各种自然语言处理任务提供支持。
luke-base - 语言理解与知识嵌入相结合的LUKE模型
实体类型化问题解答开源项目模型GithubHuggingface命名实体识别关系分类LUKE
LUKE-base是一个基于Transformer的预训练模型,专注于语言和实体理解,利用实体感知的自注意力机制,在多项NLP任务中表现优异。该模型具有12个隐藏层、253M参数,并以2018年Wikipedia数据训练。如需更多信息,请参阅官方库。
bert-base-dutch-cased - BERTje 格罗宁根大学开发的荷兰语BERT模型
模型Github词性标注开源项目Huggingface命名实体识别荷兰语模型自然语言处理BERTje
BERTje是格罗宁根大学开发的荷兰语预训练BERT模型。在命名实体识别和词性标注等任务中,它的表现优于多语言BERT等基准模型。BERTje支持PyTorch和TensorFlow,可通过Hugging Face使用。该模型为荷兰语自然语言处理研究和应用提供了有力支持。
ner-german - 德语命名实体识别模型 集成Flair嵌入和LSTM-CRF技术
模型命名实体识别德语GithubFlairHuggingface开源项目序列标注自然语言处理
这是一个德语命名实体识别(NER)模型,基于Flair框架开发。模型可识别文本中的人名、地名、组织名和其他专有名词,在CoNLL-03德语修订版数据集上F1分数达87.94%。采用Flair嵌入和LSTM-CRF技术,提供高精度的德语NER功能。该模型易于使用,只需几行Python代码即可集成到NLP项目中。
robertuito-ner - 基于RoBERTuito的双语命名实体识别模型
RoBERTuitoGithub命名实体识别自然语言处理机器学习模型HuggingfaceLinCE开源项目模型
robertuito-ner是一个基于RoBERTuito的命名实体识别模型,用于处理西班牙语和英语混合文本。该模型在LinCE NER语料库训练,支持识别人名、地名等实体,在NER任务上达到68.5%的性能指标。通过pysentimiento库集成,可用于社交媒体文本分析和代码切换研究。
flair-arabic-multi-ner - 阿拉伯语命名实体识别模型实现86%准确率
Huggingface命名实体识别开源项目阿拉伯语模型机器学习Github自然语言处理Flair
这个阿拉伯语命名实体识别模型能够自动识别文本中的地点、组织机构和人名等实体信息。模型采用深度学习方法训练,识别准确率达到86%,已开源并支持Python环境使用。适合于阿拉伯语自然语言处理、信息提取等应用场景。
ner-dutch-large - 荷兰语命名实体识别模型,支持4类实体标签
命名实体识别XLM-R荷兰语模型Github开源项目FlairNERHuggingface
该项目提供一个荷兰语命名实体识别模型,应用于Flair和XLM-R嵌入,支持识别地点、人物等四类标签,F1得分为95.25。通过Python代码示例,展示实际文本的实体识别过程;同时,项目包含完整的训练脚本,帮助用户创建定制化识别任务。
gliner_multi-v2.1 - 多语言命名实体识别模型兼顾灵活性与资源效率
多语言模型Huggingface开源项目模型Github机器学习GLiNER自然语言处理命名实体识别
GLiNER是一种基于双向Transformer编码器的多语言命名实体识别模型,能够识别任意类型的实体。与传统NER模型和大型语言模型相比,GLiNER在保持性能的同时提高了资源效率。该模型提供多个版本,参数量介于166M至459M之间,支持英语和多语言处理,并采用Apache-2.0开源许可。GLiNER为资源受限的应用场景提供了一个实用的NER解决方案。
ner-english-ontonotes-fast - 基于Flair框架的英文命名实体识别模型
Github命名实体识别自然语言处理深度学习Huggingface开源项目模型FlairOntonotes
基于Flair框架开发的英文命名实体识别模型,支持识别人名、地点、组织机构等18类实体。模型在Ontonotes数据集上F1分数达到89.3%,通过Python API可快速集成使用。适用于各类英文文本的命名实体识别任务。
bert-base-turkish-cased-ner - 土耳其语BERT命名实体识别模型实现99.61%准确率
土耳其语言模型Github命名实体识别BERT自然语言处理Huggingface模型训练开源项目模型
该项目提供了一个基于BERT的土耳其语命名实体识别模型。通过使用精选的土耳其NER数据集进行微调,模型能够识别人名、组织机构和地点等实体。在多个测试集上,模型展现出优异性能,总体F1分数为96.17%,准确率达99.61%。项目还提供了简洁的使用接口,便于集成到各种土耳其语自然语言处理任务中。
gliner_multi_pii-v1 - 多语言支持的高效个人隐私信息识别模型
身份验证Github命名实体识别模型Huggingface开源项目隐私信息识别GLiNER数据安全
GLiNER是一个基于BERT的命名实体识别模型,专门用于识别个人身份信息(PII)。该模型支持60多种PII实体类型,包括姓名、组织、电话、地址和护照号码等,并可在多语言环境中使用。与传统NER模型和大型语言模型相比,GLiNER在保持灵活性的同时大幅降低了资源消耗,特别适合在资源受限的场景中进行PII检测。
MedNER-CR-JA - 日语医疗文档命名实体识别模型
Huggingface开源项目模型MedTxt-CR-JA模型训练日语Github医疗文档命名实体识别
MedNER-CR-JA是一个面向日语医疗文档的命名实体识别模型,基于NTCIR-16 Real-MedNLP标准开发。模型可识别医疗文本中的疾病诊断、用药信息及时序表达,输出XML格式的标准化标注结果。通过Python实现,支持批量处理医疗文档,适用于医疗信息提取和文本分析等应用场景。
gliner_medium-v2.1 - 多功能通用型命名实体识别模型GLiNER
Github开源项目命名实体识别GLiNER模型自然语言处理Huggingface机器学习人工智能
GLiNER是一种基于双向Transformer编码器的命名实体识别模型,可识别任意类型的实体。该模型为资源受限场景提供了实用的替代方案,克服了传统NER模型仅限预定义实体的局限性,同时避免了大型语言模型的高成本问题。GLiNER支持多语言,提供不同规模的版本,安装使用简便。在NER基准测试中表现优异,适用于多种应用场景。
gliner_large-v1 - 资源友好的多实体识别模型,为多种应用场合提供灵活解决方案
GLiNER双向变压器编码器模型训练开源项目命名实体识别模型HuggingfacePile-NER数据集Github
GLiNER是通过双向转换器编码器实现的命名实体识别模型,可识别多种实体类型。它是传统NER模型和大型语言模型这两者的高效替代,特别适合资源有限的场合。GLiNER在Pile-NER数据集上经过训练,具备灵活性且不受实体类型限制。用户可通过安装并导入GLiNER库轻松进行实体识别。
umberto-commoncrawl-cased-v1 - 高性能意大利语预训练语言模型 支持全词遮蔽技术
意大利语言模型开源项目预训练模型命名实体识别UmBERTo自然语言处理模型HuggingfaceGithub
该模型是一个意大利语预训练语言模型,基于OSCAR语料库训练,支持命名实体识别和词性标注等自然语言处理任务。模型采用全词遮蔽技术,在多个基准测试中准确率达到98%以上。开发者可通过Hugging Face平台快速部署和使用该模型。
UniNER-7B-all - 跨多数据集的命名实体识别开源模型
自然语言处理研究开源项目模型Github大模型Huggingface命名实体识别UniNER
UniNER-7B-all模型结合ChatGPT生成的Pile-NER-type和Pile-NER-definition数据及Universal NER基准中40个数据集进行训练,适合多数据集的命名实体识别研究。模型在排除CrossNER和MIT数据集的情况下进行OOD评估。详细的使用指南和模型信息可以通过相关论文及GitHub仓库获得,模型适用于研究目的,遵循CC BY-NC 4.0许可协议。
bert-base-romanian-ner - 罗马尼亚语命名实体识别的高级BERT模型
模型性能文本预处理开源项目命名实体识别模型RONECHuggingfacebert-base-romanian-nerGithub
此项目提供了一款经过微调的BERT模型,专注于罗马尼亚语命名实体识别,以优异的性能而著称。模型识别15种实体,如人物、地缘政治实体、地点、组织等,并基于RONEC v2.0数据集训练,拥有超过50万标记及80,283个独特实体。生成的标签采用BIO2格式,使其在命名实体识别任务中表现卓越。用户可通过Transformers库的NER管道或Python包便捷使用该模型。
相关文章