Project Icon

RedPajama-Data

开放大规模多语言数据集助力大型语言模型训练

RedPajama-Data-v2是一个包含30万亿tokens的开放数据集,用于训练大型语言模型。该数据集涵盖了超过100B的文本文档,来源于84个CommonCrawl快照。它包含英语、德语、法语、意大利语和西班牙语5种语言的内容,并提供多种质量信号和去重处理。项目提供完整的数据处理流程,包括准备工件、计算质量信号和去重等步骤,为语言模型研究提供高质量的大规模语料资源。

RedPajama-Data-v2:一个包含30万亿个标记的开放数据集,用于训练大型语言模型

本仓库包含RedPajama-V2数据集的代码。有关该数据集的更多信息,请查看我们的博客文章。该数据集也可在HuggingFace上获取。关于RedPajama-1T数据集使用的代码,请参考本仓库的rp_v1分支。

数据集

RedPajama-V2是一个用于训练大型语言模型的开放数据集。该数据集包含来自84个CommonCrawl快照的超过1000亿个文本文档,使用CCNet管道进行处理。其中,语料库中有300亿个文档附带质量信号,200亿个文档经过了去重处理。

数据集带注释和去重的head_middle部分的文档和标记数量

下表显示了数据集带注释和去重的head_middle部分的文档数量和标记数量。

文档数量估计标记数量(去重后)
英语145亿20.5万亿
德语19亿3.0万亿
法语16亿2.7万亿
西班牙语18亿2.8万亿
意大利语9亿1.5万亿
总计208亿30.4万亿

语言

英语、德语、法语、意大利语、西班牙语

设置

配置

configs/rp_v2.0.conf文件复制到如configs/default.conf,并配置环境变量。这些变量将在整个管道中使用。

构建Docker镜像

要使用docker运行,请使用以下命令构建docker镜像:

. configs/default.conf
cd app
docker build -t "${DOCKER_REPO}:" .

另外,请确保您已安装s5cmd并配置了S3配置文件,以便从S3存储桶拉取数据。

您可以在非容器化环境中运行管道的各个步骤。但是,运行脚本假定您已安装docker和apptainer。

运行管道

该管道由三个步骤组成,分别是1)准备制品,2)计算质量信号,以及3)去重。

**重要提示:**如果您不使用提供的脚本(即使用提供的Dockerfile构建的docker容器)运行步骤(1)和(2),请确保使用以下命令将PYTHONHASHSEED环境变量设置为一个一致的值(例如42):

export PYTHONHASHSEED=42

这是为了确保用于计算DSIR权重的哈希函数的一致性。

1. 创建制品

管道的这一部分创建后续步骤中使用的制品。这包括构建质量分类器、训练用于重要性权重计算的n-gram生成模型、从LDNOOBW仓库获取不良词列表,以及从UT1黑名单获取最新的黑名单URL列表。

首先,从这里下载英语维基百科参考分类器,并将其放在${DATA_ROOT}/wikiref-model/en/en-model.bin中。这与RedPajama-V1中使用的fasttext分类器相同。

要创建其余制品,请确保在配置文件中设置了环境变量。然后,从仓库的根目录运行:

bash scripts/run_prep_artifacts.sh \
  --config configs/rp_v2.0.conf \
  --listings /path/to/listings/file.txt\
  --max_workers 32

其中/path/to/listings/file.txt是包含要处理的ccnet数据键的文件(例如2023-06/0000/en_head.json.gz)。

您可以将max_workers标志设置为要使用的并行进程数。

此步骤将生成一个ID,您可以将其存储在环境变量ARTIFACTS_ID中,以供下一步使用。

2. 计算质量信号

管道的第二步计算质量信号,包括用于后续步骤中进行模糊去重的最小哈希签名。要运行此步骤,请确保在配置文件中设置了环境变量。然后,从仓库的根目录运行:

bash scripts/apptainer_run_quality_signals.sh \
  --config configs/rp_v2.0.conf \
  --dump_id "2022-49" \
  --input_base_uri "file:///path/to/data/root" \
  --output_base_uri "file:///path/to/outout/data/root" \
  --max_docs -1

3. 去重

管道的第三个组件包括去重步骤。这里我们提供代码来运行精确和模糊去重。

使用布隆过滤器进行精确去重

基于内容的去重在app/src/bloomfilter.py中实现。它可以独立于前一步骤运行,但数据需要存储在S3存储桶中。对于这一步骤,从app目录运行:

python3 app/src/bloomfilter.py \
  --listings /path/to/listings/file.txt \
  --input_base_uri "s3://path/to/ccnet/data" \
  --output_dir "/path/to/output" \
  --s3_profile "..." \
  --endpoint_url "..." \
  --parallel_readers 32 \
  --batch_size 10 \
  --capacity "..." \
  --error_rate "..."

选择正确的容量(即>文档数)很重要,否则无法保证error_rate,并且会出现更多假阳性。该实现基于pybloomfiltermmap3库。

使用局部敏感哈希进行模糊去重

在管道的第三步中,我们对第一步生成的最小哈希签名运行局部敏感哈希。要运行此步骤,请确保使用与质量信号步骤相同的配置。然后,从仓库的根目录运行:

bash scripts/apptainer_run_lsh.sh \
  --config configs/rp_v2.0.conf \
  --dump_id "2022-49" \
  --input_base_uri "file:///path/to/data/root" \
  --output_dir "/path/to/output" \
  --similarity "<similarity_threshold>" \
  --listings "/minhash/listings/file.txt" \
  --max_docs -1

该实现基于polars,并已在一台具有500G RAM的64核机器上使用2亿个文档进行了测试。

质量信号摘要

管道的第二步计算以下一组质量信号。我们希望随着更多信号的开发,这个列表会随时间不断增长。

质量注释

标注标签描述类别参考文献
ccnet_bucket困惑度分数的头部、中部或尾部桶CCNetCCNet
ccnet_language_score语言识别模型的分数CCNetCCNet
ccnet_length字符数CCNetCCNet
ccnet_nlines行数CCNetCCNet
ccnet_original_length文档内行去重前的字符数CCNetCCNet
ccnet_original_nlines文档内行去重前的行数CCNetCCNet
ccnet_perplexity在维基百科上训练的语言模型的困惑度CCNetCCNet
rps_doc_books_importance给定在图书上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_openwebtext_importance给定在OpenWebText上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_wikipedia_importance给定在维基百科文章上训练的{1,2}词组模型p和在源域上训练的模型q,这是p(doc)/q(doc)比率的对数机器学习启发式重要性重采样 (Xie et al.)
rps_doc_ml_wikiref_score文档为维基百科参考文献的Fasttext分类器预测。这是RedPajama-1T数据集中使用的相同Fasttext模型。仅适用于英语数据机器学习启发式LLaMA, RedPajama-1T
rps_doc_ml_palm_score文档为维基百科文章、OpenWebText样本或RedPajama-V1图书的Fasttext分类器预测。仅适用于英语数据机器学习启发式PALM, GLaM
rps_doc_ml_wikipedia_score文档为维基百科文章的Fasttext分类器预测。用于非英语数据机器学习启发式-
rps_doc_curly_bracket原始文本中'{'或'}'出现次数与字符数的比率自然语言C4
rps_doc_frac_all_caps_words内容中仅由大写字母组成的单词比例。基于原始内容自然语言预训练指南
rps_doc_frac_lines_end_with_ellipsis以省略号结尾的行比例,省略号定义为"..."或"…"自然语言RefinedWeb, Gopher
rps_doc_frac_no_alph_words不包含字母字符的单词比例自然语言RefinedWeb, Gopher
rps_doc_lorem_ipsum归一化后内容中"lorem ipsum"出现次数与字符数的比率自然语言C4
rps_doc_mean_word_length归一化后内容中单词的平均长度自然语言RefinedWeb, Gopher
rps_doc_stop_word_fraction文档中停用词数与单词总数的比率。停用词来自stopwords-json仓库自然语言RefinedWeb, Gopher
rps_doc_symbol_to_word_ratio内容中符号与单词的比率。符号定义为"#"、"..."和"…"自然语言RefinedWeb, Gopher
rps_doc_frac_unique_words内容中唯一单词的比例。也称为文本样本的退化度。基于归一化内容计算自然语言预训练指南
rps_doc_unigram_entropy内容的一元分布熵。衡量内容的多样性,使用sum(-x / total * log(x / total))计算,其中sum是在归一化内容中唯一单词计数上进行的自然语言-
rps_doc_word_count归一化后内容中的单词数自然语言RefinedWeb, Gopher
rps_lines_ending_with_terminal_punctution_mark指示一行是否以终止标点符号结尾。终止标点符号定义为以下之一:"."、"!"、"?"、"""自然语言C4
rps_lines_javascript_counts每行中"javascript"一词出现的次数自然语言C4
rps_lines_num_words每行的单词数。基于归一化文本计算自然语言C4 , RefinedWeb
rps_lines_numerical_chars_fraction每行数字字符数与总字符数的比率。基于归一化内容自然语言RefinedWeb
rps_lines_start_with_bulletpoint行是否以项目符号开始。以下Unicode被视为项目符号:\u2022(实心圆点)、\u2023(三角形项目符号)、\u25B6(黑色右指三角形)、\u25C0(黑色左指三角形)、\u25E6(白色圆点)、\u25A0(黑色方块)、\u25A1(白色方块)、\u25AA(小黑方块)、\u25AB(小白方块)、\u2013(短破折号)自然语言RefinedWeb, Gopher
rps_lines_uppercase_letter_fraction每行大写字母数与总字符数的比率。基于原始文本自然语言RefinedWeb
rps_doc_num_sentences内容中的句子数。使用正则表达式r'\b[^.!?]+[.!?]*'计算自然语言C4
rps_doc_frac_chars_dupe_10grams重复的10个单词词组中的字符比例。在小写、去除标点的内容上操作。确保重叠n-gram中的字符只计算一次重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_5grams重复五元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_6grams重复六元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_7grams重复七元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_8grams重复八元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_dupe_9grams重复九元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_2gram最常见二元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_3gram最常见三元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_frac_chars_top_4gram最常见四元词组中字符的比例。重复性RefinedWeb, Gopher
rps_doc_ldnoobw_words包含在"脏话、下流、淫秽和其他不良词汇列表"黑名单中的词序列数量。该黑名单来自LDNOOBW仓库。毒性C4
rps_doc_ut1_blacklist对应文档域名类别列表的分类ID。类别来自UT1黑名单。该列表来自UT-Capitole毒性RefinedWeb
minhash_signature_0.7文档的分段最小哈希签名,用于Jaccard相似度为0.7的模糊去重。该签名基于128个哈希函数,并分为14个段和9行用于LSH。去重
minhash_signature_0.8文档的分段最小哈希签名,用于Jaccard相似度为0.8的模糊去重。该签名基于128个哈希函数,并分为9个段和13行用于LSH。去重
minhash_signature_0.9文档的分段最小哈希签名,用于Jaccard相似度为0.9的模糊去重。该签名基于128个哈希函数,并分为5个段和25行用于LSH。去重
minhash_signature_1.0文档的分段最小哈希签名,用于Jaccard相似度为1.0的模糊去重。该签名基于128个哈希函数,并分为1个段和128行用于LSH。去重

致谢

我们感谢众多合作伙伴和协作者,他们共同推动了开放大语言模型的前沿发展。

  • 感谢AI2的OLMo团队和OpenGPT-X的朋友们就数据集和数据质量进行的富有洞察力的讨论!同时也感谢所有基于RedPajama数据集进行开发的人,包括Cerebras的SlimPajama项目,以及开源AI社区迄今为止基于RedPajama构建的500多个模型。
  • 我们感谢EleutherAI的优秀团队,他们在开放训练数据集方面开辟了道路,创建了The Pile数据集,并开源了我们用于训练部分RedPajama模型的代码。
  • 感谢我们RedPajama-v1的合作伙伴,包括Ontocord.ai、MILA魁北克AI研究所、ETH DS3Lab、蒙特利尔大学、斯坦福基础模型研究中心(CRFM)、斯坦福Hazy Research研究组和LAION。

许可证

版权所有 2023 Together Computer

根据Apache许可证2.0版("许可证")授权;
除非遵守许可证,否则您不得使用此文件。
您可以在以下网址获取许可证副本:

   http://www.apache.org/licenses/LICENSE-2.0

除非适用法律要求或书面同意,根据许可证分发的软件是基于
"按原样"分发的,不附带任何明示或暗示的担保或条件。
有关许可证下的特定语言管理权限和限制,请参阅许可证。

有关完整条款,请参阅LICENSE文件。如果您对许可有任何问题、意见或疑虑,请联系我们

对于数据集本身,请参阅Common Crawl基金会使用条款

引用RedPajama时,请使用:

@software{together2023redpajama,
  author = {Together Computer},
  title = {RedPajama: an Open Dataset for Training Large Language Models},
  month = October,
  year = 2023,
  url = {https://github.com/togethercomputer/RedPajama-Data}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号