roberta-base-finetuned-dianping-chinese

roberta-base-finetuned-dianping-chinese

中文RoBERTa模型用于多领域文本情感和主题分类

该项目包含利用UER-py和TencentPretrain微调的中文RoBERTa-Base模型,用于用户评论和新闻数据的情感及主题分类。模型可通过HuggingFace获取,适用于多种文本分类任务,具备高度的分类精准度。

TencentPretrain文本分类RoBERTa模型Github开源项目UER-py模型微调Huggingface

项目简介:roberta-base-finetuned-dianping-chinese

模型概述

roberta-base-finetuned-dianping-chinese是一个中文文本分类模型,该模型基于RoBERTa架构,并经过Fine-tuning以适应特定的数据集需求。这个项目由UER-py框架进行微调,UER-py是一种开源的预训练模型工具。除此之外,该模型还可以通过腾讯的TencentPretrain进行微调,后者支持更大规模的模型,并扩展支持多模态预训练。

模型下载

用户可以通过以下两种途径获取roberta-base-finetuned-dianping-chinese模型:

  1. UER-py Modelzoo页面
  2. 通过Hugging Face平台:roberta-base-finetuned-dianping-chinese

使用指南

如果想要使用该模型,可以通过Transformers库中的pipeline工具直接进行文本分类。以下是使用示例,该示例使用roberta-base-finetuned-chinanews-chinese模型进行情感分析:

from transformers import AutoModelForSequenceClassification, AutoTokenizer, pipeline model = AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-dianping-chinese') tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-dianping-chinese') text_classification = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer) result = text_classification("这本书真的很不错") print(result)

训练数据

该模型在五个中文文本分类数据集上进行微调,其中包含京东的两类不同情感极性用户评论数据集以及大众点评的评论数据集。此外,还有 Ifeng 和 Chinanews 两个数据集,分别包含不同类别的新闻文章的第一段文字。这些数据集由Glyph项目收集。

训练过程

在训练过程中,模型基于预训练的chinese_roberta_L-12_H-768进行微调。微调过程在腾讯云上进行,为期三次迭代,每次的文本序列长度为512。模型在每次迭代后,如果在开发集上取得最佳表现,则会进行保存。微调过程中所使用的超参数在不同的模型训练时保持一致。

以roberta-base-finetuned-chinanews-chinese为例,实际微调命令如下:

python3 finetune/run_classifier.py --pretrained_model_path models/cluecorpussmall_roberta_base_seq512_model.bin-250000 \ --vocab_path models/google_zh_vocab.txt \ --train_path datasets/glyph/dianping/train.tsv \ --dev_path datasets/glyph/dianping/dev.tsv \ --output_model_path models/dianping_classifier_model.bin \ --learning_rate 3e-5 --epochs_num 3 --batch_size 32 --seq_length 512

最终,将预训练模型转换为Huggingface的格式:

python3 scripts/convert_bert_text_classification_from_uer_to_huggingface.py --input_model_path models/dianping_classifier_model.bin \ --output_model_path pytorch_model.bin \ --layers_num 12

通过上述步骤,用户可以成功地下载、使用和理解roberta-base-finetuned-dianping-chinese模型,用于中文文本的情感分析和分类任务。

编辑推荐精选

Manus

Manus

全面超越基准的 AI Agent助手

Manus 是一款通用人工智能代理平台,能够将您的创意和想法迅速转化为实际成果。无论是定制旅行规划、深入的数据分析,还是教育支持与商业决策,Manus 都能高效整合信息,提供精准解决方案。它以直观的交互体验和领先的技术,为用户开启了一个智慧驱动、轻松高效的新时代,让每个灵感都能得到完美落地。

飞书知识问答

飞书知识问答

飞书官方推出的AI知识库 上传word pdf即可部署AI私有知识库

基于DeepSeek R1大模型构建的知识管理系统,支持PDF、Word、PPT等常见文档格式解析,实现云端与本地数据的双向同步。系统具备实时网络检索能力,可自动关联外部信息源,通过语义理解技术处理结构化与非结构化数据。免费版本提供基础知识库搭建功能,适用于企业文档管理和个人学习资料整理场景。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

TraeAI IDE协作生产力转型热门AI工具
酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

使用教程AI工具酷表ChatExcelAI智能客服AI营销产品
DeepEP

DeepEP

DeepSeek开源的专家并行通信优化框架

DeepEP是一个专为大规模分布式计算设计的通信库,重点解决专家并行模式中的通信瓶颈问题。其核心架构采用分层拓扑感知技术,能够自动识别节点间物理连接关系,优化数据传输路径。通过实现动态路由选择与负载均衡机制,系统在千卡级计算集群中维持稳定的低延迟特性,同时兼容主流深度学习框架的通信接口。

DeepSeek

DeepSeek

全球领先开源大模型,高效智能助手

DeepSeek是一家幻方量化创办的专注于通用人工智能的中国科技公司,主攻大模型研发与应用。DeepSeek-R1是开源的推理模型,擅长处理复杂任务且可免费商用。

KnowS

KnowS

AI医学搜索引擎 整合4000万+实时更新的全球医学文献

医学领域专用搜索引擎整合4000万+实时更新的全球医学文献,通过自主研发AI模型实现精准知识检索。系统每日更新指南、中英文文献及会议资料,搜索准确率较传统工具提升80%,同时将大模型幻觉率控制在8%以下。支持临床建议生成、文献深度解析、学术报告制作等全流程科研辅助,典型用户反馈显示每周可节省医疗工作者70%时间。

Windsurf Wave 3

Windsurf Wave 3

Windsurf Editor推出第三次重大更新Wave 3

新增模型上下文协议支持与智能编辑功能。本次更新包含五项核心改进:支持接入MCP协议扩展工具生态,Tab键智能跳转提升编码效率,Turbo模式实现自动化终端操作,图片拖拽功能优化多模态交互,以及面向付费用户的个性化图标定制。系统同步集成DeepSeek、Gemini等新模型,并通过信用点数机制实现差异化的资源调配。

AI IDE
腾讯元宝

腾讯元宝

腾讯自研的混元大模型AI助手

腾讯元宝是腾讯基于自研的混元大模型推出的一款多功能AI应用,旨在通过人工智能技术提升用户在写作、绘画、翻译、编程、搜索、阅读总结等多个领域的工作与生活效率。

AI 办公助手AI对话AI助手AI工具腾讯元宝智能体热门
Grok3

Grok3

埃隆·马斯克旗下的人工智能公司 xAI 推出的第三代大规模语言模型

Grok3 是由埃隆·马斯克旗下的人工智能公司 xAI 推出的第三代大规模语言模型,常被马斯克称为“地球上最聪明的 AI”。它不仅是在前代产品 Grok 1 和 Grok 2 基础上的一次飞跃,还在多个关键技术上实现了创新突破。

下拉加载更多