#UER-py
UER-py - 自然语言处理的开源预训练工具包
Github开源项目预训练模型模型微调BERTUER-pyNLP任务
UER-py是一个为自然语言处理任务设计的预训练和微调工具包,支持多种预训练模型以优化下游任务表现。项目强调模块化设计,并提供可扩展接口,支持单GPU及多GPU配置。
gpt2-chinese-cluecorpussmall - 中文GPT2预训练模型与多模态扩展简介
Github开源项目文本生成预训练模型HuggingfaceUER-pyGPT2TencentPretrain
项目涵盖了使用UER-py和TencentPretrain的中文GPT2模型的预训练过程,从GPT2-distil到GPT2-xlarge的多个版本。借助CLUECorpusSmall数据集,这些模型有效支持中文文本生成,并扩展至多模态预训练。模型可通过UER-py Modelzoo或HuggingFace下载,用于实际文本生成应用。
roberta-base-finetuned-dianping-chinese - 中文RoBERTa模型用于多领域文本情感和主题分类
Github开源项目模型微调模型RoBERTaHuggingface文本分类UER-pyTencentPretrain
该项目包含利用UER-py和TencentPretrain微调的中文RoBERTa-Base模型,用于用户评论和新闻数据的情感及主题分类。模型可通过HuggingFace获取,适用于多种文本分类任务,具备高度的分类精准度。