#中文自然语言处理
ltp
LTP(Language Technology Platform)提供中文分词、词性标注、句法分析和命名实体识别等自然语言处理功能。通过多任务框架和共享预训练模型进行优化,显著提升性能。LTP支持快速的感知机算法推理和高精度的深度学习分析,并在Huggingface Hub上提供预训练模型下载。最新版LTP v4.2.0优化了结构,并支持用户自定义模型训练和上传,提高了灵活性和实用性。
nlp_chinese_corpus
该中文自然语言处理项目提供丰富的高质量语料,包括维基百科条目、新闻、百科问答等,目标是解决中文大规模语料匮乏的问题。项目支持10大任务和9个模型的基准测试,并提供一键运行和详细性能比较,旨在提升中文NLP标准。适用于多种实际应用场景,如词向量训练、关键词生成和标题生成,方便研究人员和从业者获取和利用中文语料。
fastHan
fastHan是一个基于BERT的多任务中文NLP工具包,支持分词、词性标注、依存分析和命名实体识别等任务。它能处理现代汉语和古汉语,还可进行中文AMR解析。fastHan采用联合训练模型,在多个数据集上表现优异。该工具使用方便,支持GPU加速,并提供模型微调功能,适用于各种中文NLP应用场景。
Rasa_NLU_Chi
Rasa_NLU_Chi是基于Rasa NLU的中文自然语言理解框架。该项目提供意图分类和实体识别功能,集成MITIE和Jieba进行中文处理。框架包含预训练中文词向量模型,支持自定义NLU系统的配置和训练。通过REST API服务,Rasa_NLU_Chi可轻松集成到各类应用中,为开发者提供构建中文对话系统的基础工具。
chinese-roberta-wwm-ext
chinese-roberta-wwm-ext是哈工大讯飞联合实验室(HFL)开发的中文BERT预训练模型,采用全词掩码技术。该技术相较于字级掩码,能更有效地学习词级语义,从而提升中文自然语言处理效果。模型在多项中文NLP任务中展现出优秀性能,为相关研究和应用提供了重要基础。
chinese-roberta-wwm-ext-large
中文BERT全词掩码预训练模型加速中文自然语言处理,提升精准语义理解。基于Google BERT并结合全词掩码策略,其在文本分类、情感分析以及问答系统等多种NLP应用中表现优异,是探索中文语言理解的有力工具。
chinese-bert-wwm
chinese-bert-wwm 是一个采用全词掩码技术的中文 BERT 预训练模型。该模型由哈工大讯飞联合实验室(HFL)开发,基于 Google BERT 架构,通过全词掩码方式优化中文语言理解能力。模型支持文本分类、命名实体识别等自然语言处理任务,是 MacBERT、ELECTRA 等中文预训练模型系列的重要组成部分。