ChineseWebText:打造高质量中文语料库的新标杆
在大型语言模型(LLM)蓬勃发展的今天,高质量的训练数据至关重要。为了推动中文LLM的研究进展,中国科学院自动化研究所(CASIA)最近发布了一个重量级项目——ChineseWebText。这是迄今为止最大规模的高质量中文网络文本数据集,总容量达到惊人的1.42TB。更难能可贵的是,ChineseWebText不仅仅是一个静态的数据集,还配套了一整套从原始网页数据中提取高质量中文文本的工具链EvalWeb。这无疑将为中文NLP研究带来新的机遇和可能。
数据集概览:规模与质量并重
ChineseWebText的亮点不仅在于其庞大的体量,更在于其对数据质量的精益求精。研究团队为每条文本都赋予了一个质量评分,这为研究人员根据不同的质量阈值筛选数据提供了极大的灵活性。值得一提的是,研究者还特别筛选出了一个600GB的超高质量子集,其中所有文本的质量评分均超过90%。这样的设计充分考虑到了不同研究需求,既可以使用全量数据进行大规模预训练,也可以选用高质量子集进行精细调优。
数据样例:丰富多样的中文文本
为了让大家对ChineseWebText有更直观的认识,我们来看一个具体的数据样例:
{
"title": "潍坊银行2021年上半年净利润同比增长29.57% 不良率降至1.10%_财经_中国网",
"score": 0.95,
"text": "潍坊银行2021年上半年净利润同比增长29.57% 不良率降至1.10%\n中国网财经8月24日讯 潍坊银行昨日披露2021年二季度信息报告显示,截至2021年6月末,潍坊银行资产总额1920.44亿元,较上年末增长9.34%;负债总额1789.16亿元,较上年末增长10.54%。2021年上半年,潍坊银行实现净利润6.09亿元,同比增长29.57%。\n资产质量方面,截至2021年6月末,潍坊银行不良贷款率1.10%,较上年末下降0.13个百分点。\n资本金方面,截至2021年6月末,潍坊银行资本充足率、核心一级资本充足率、一级资本充足率分别为11.66%、7.89%、10.13%,分别较上年末下降1.89、0.89、1.15个百分点。",
"url": "http://finance.china.com.cn/news/special/2021bnb/20210824/5638343.shtml",
"source_domain": "finance.china.com.cn"
}
从这个样例可以看出,ChineseWebText的数据结构非常丰富,不仅包含了文本内容,还保留了标题、原始URL、来源域名等元信息。特别是"score"字段,直接反映了该条文本的质量评分,为后续的数据筛选和分析提供了便利。
EvalWeb:从海量网页中提炼精华
ChineseWebText的另一大亮点是其配套的工具链EvalWeb。这套工具链能够从原始的网页数据中提取出高质量的中文文本,其工作流程大致可分为三个阶段:
-
数据准备:使用CCNet工具进行去重和语言识别,初步筛选出中文文本。
-
预处理:运用一系列精心设计的规则,过滤掉低质量、不适合的文本。这些规则包括:
- 文本长度控制
- 中文字符比例要求
- 敏感词过滤
- 内部重复检测
-
质量评估:采用基于BERT的评估模型,为每条文本打分。研究者还开发了一个基于FastText的轻量级分类器,在保持性能的同时大幅提升了效率。
开放共享,推动研究
ChineseWebText项目的一大亮点是其开放共享的精神。研究团队不仅将数据集公开发布在了Hugging Face上(链接),还将整个EvalWeb工具链的代码开源在了GitHub上(项目地址)。这种开放态度无疑将极大促进中文NLP领域的研究进展。
对于有志于中文LLM研究的团队来说,ChineseWebText提供了一个绝佳的起点。你可以直接使用这个高质量的数据集来训练或微调模型,也可以利用EvalWeb工具链来处理自己收集的网页数据,打造专属的高质量语料库。
结语:开启中文NLP新纪元
ChineseWebText的发布,标志着中文NLP研究迈入了一个新的阶段。这个项目不仅提供了迄今为止最大规模、最高质量的中文网络文本数据集,更重要的是,它为整个社区提供了一套可复现、可扩展的数据处理方法论。我们有理由相信,在ChineseWebText的助力下,中文大语言模型的研究将会取得突飞猛进的发展。
无论你是NLP研究者、工程师,还是对中文语言处理感兴趣的爱好者,ChineseWebText都值得你深入探索。让我们一起期待,在这个数据集的滋养下,会诞生出怎样精彩的中文AI应用! 🚀📚🤖
引用信息:
@misc{chen2023chinesewebtext, title={ChineseWebText: Large-scale High-quality Chinese Web Text Extracted with Effective Evaluation Model}, author={Jianghao Chen and Pu Jian and Tengxiao Xi and Dongyi Yi and Qianlong Du and Chenglin Ding and Guibo Zhu and Chengqing Zong and Jinqiao Wang and Jiajun Zhang}, year={2023}, eprint={2311.01149}, archivePrefix={arXiv}, primaryClass={cs.CL} }