#中文自然语言处理

ltp - 中文自然语言处理平台,多任务和高效推理支持
LTP中文自然语言处理分词深度学习模型预训练模型Github开源项目
LTP(Language Technology Platform)提供中文分词、词性标注、句法分析和命名实体识别等自然语言处理功能。通过多任务框架和共享预训练模型进行优化,显著提升性能。LTP支持快速的感知机算法推理和高精度的深度学习分析,并在Huggingface Hub上提供预训练模型下载。最新版LTP v4.2.0优化了结构,并支持用户自定义模型训练和上传,提高了灵活性和实用性。
nlp_chinese_corpus - 中文自然语言处理高质量多任务语料库
中文自然语言处理语料预训练数据集词向量Github开源项目
该中文自然语言处理项目提供丰富的高质量语料,包括维基百科条目、新闻、百科问答等,目标是解决中文大规模语料匮乏的问题。项目支持10大任务和9个模型的基准测试,并提供一键运行和详细性能比较,旨在提升中文NLP标准。适用于多种实际应用场景,如词向量训练、关键词生成和标题生成,方便研究人员和从业者获取和利用中文语料。
fastHan - 多任务中文NLP工具包
fastHan中文自然语言处理BERT多任务模型微调Github开源项目
fastHan是一个基于BERT的多任务中文NLP工具包,支持分词、词性标注、依存分析和命名实体识别等任务。它能处理现代汉语和古汉语,还可进行中文AMR解析。fastHan采用联合训练模型,在多个数据集上表现优异。该工具使用方便,支持GPU加速,并提供模型微调功能,适用于各种中文NLP应用场景。
Rasa_NLU_Chi - 基于Rasa NLU的中文自然语言理解框架
Rasa NLU中文自然语言处理MITIEJieba分词机器学习Github开源项目
Rasa_NLU_Chi是基于Rasa NLU的中文自然语言理解框架。该项目提供意图分类和实体识别功能,集成MITIE和Jieba进行中文处理。框架包含预训练中文词向量模型,支持自定义NLU系统的配置和训练。通过REST API服务,Rasa_NLU_Chi可轻松集成到各类应用中,为开发者提供构建中文对话系统的基础工具。
chinese-roberta-wwm-ext-large - 中文自然语言处理的全词掩码预训练模型
BERT开源项目预训练模型模型GithubHuggingface全词掩码知识蒸馏中文自然语言处理
中文BERT全词掩码预训练模型加速中文自然语言处理,提升精准语义理解。基于Google BERT并结合全词掩码策略,其在文本分类、情感分析以及问答系统等多种NLP应用中表现优异,是探索中文语言理解的有力工具。
chinese-bert-wwm - 基于全词掩码技术的中文自然语言处理模型
BERT全词掩码Github开源项目中文自然语言处理Huggingface机器学习预训练模型模型
chinese-bert-wwm 是一个采用全词掩码技术的中文 BERT 预训练模型。该模型由哈工大讯飞联合实验室(HFL)开发,基于 Google BERT 架构,通过全词掩码方式优化中文语言理解能力。模型支持文本分类、命名实体识别等自然语言处理任务,是 MacBERT、ELECTRA 等中文预训练模型系列的重要组成部分。