Logo

HugeCTR: GPU加速的大规模推荐系统训练和推理框架

HugeCTR

HugeCTR简介

HugeCTR是NVIDIA开发的一个开源GPU加速推荐系统框架,专门用于大规模深度学习推荐模型的高效训练和推理。它是NVIDIA Merlin推荐系统套件的核心组件之一,旨在解决推荐系统面临的计算和存储挑战。

HugeCTR的设计目标主要包括:

  1. 快速 - 在包括MLPerf在内的各项推荐系统基准测试中表现出色。
  2. 易用 - 提供丰富的文档、示例和notebook,方便数据科学家和机器学习从业者使用。
  3. 领域专用 - 针对推荐系统的特点进行优化,支持超大规模嵌入。

HugeCTR的核心特性

HugeCTR支持多种推荐系统所需的关键功能:

  1. 高层次抽象的Python接口
  2. 模型并行训练
  3. 优化的GPU工作流
  4. 多节点训练
  5. 混合精度训练
  6. 嵌入训练缓存
  7. GPU嵌入缓存
  8. GPU/CPU内存共享机制
  9. HugeCTR到ONNX的转换器
  10. 分层参数服务器
  11. Sparse Operation Kit

HugeCTR架构

快速上手HugeCTR

要快速开始使用HugeCTR,可以按照以下步骤操作:

  1. 使用NVIDIA提供的Docker镜像启动容器:
docker run --gpus=all --rm -it --cap-add SYS_NICE -v /your/host/dir:/your/container/dir -w /your/container/dir -it -u $(id -u):$(id -g) nvcr.io/nvidia/merlin/merlin-hugectr:24.06
  1. 编写Python脚本生成合成数据集:
import hugectr
from hugectr.tools import DataGeneratorParams, DataGenerator

data_generator_params = DataGeneratorParams(
  format = hugectr.DataReaderType_t.Parquet,
  label_dim = 1,
  dense_dim = 13,
  num_slot = 26,
  i64_input_key = False,
  source = "./dcn_parquet/file_list.txt",
  eval_source = "./dcn_parquet/file_list_test.txt",
  slot_size_array = [39884, 39043, 17289, 7420, 20263, 3, 7120, 1543, 39884, 39043, 17289, 7420, 
                     20263, 3, 7120, 1543, 63, 63, 39884, 39043, 17289, 7420, 20263, 3, 7120,
                     1543 ],
  dist_type = hugectr.Distribution_t.PowerLaw,
  power_law_type = hugectr.PowerLaw_t.Short)
data_generator = DataGenerator(data_generator_params)
data_generator.generate()
  1. 编写训练脚本:
import hugectr
from mpi4py import MPI

solver = hugectr.CreateSolver(max_eval_batches = 1280,
                              batchsize_eval = 1024,
                              batchsize = 1024,
                              lr = 0.001,
                              vvgpu = [[0]],
                              repeat_dataset = True)
reader = hugectr.DataReaderParams(data_reader_type = hugectr.DataReaderType_t.Parquet,
                                 source = ["./dcn_parquet/file_list.txt"],
                                 eval_source = "./dcn_parquet/file_list_test.txt",
                                 slot_size_array = [39884, 39043, 17289, 7420, 20263, 3, 7120, 1543, 39884, 39043, 17289, 7420, 
                                                   20263, 3, 7120, 1543, 63, 63, 39884, 39043, 17289, 7420, 20263, 3, 7120, 1543 ])
optimizer = hugectr.CreateOptimizer(optimizer_type = hugectr.Optimizer_t.Adam,
                                    update_type = hugectr.Update_t.Global)
model = hugectr.Model(solver, reader, optimizer)
model.add(hugectr.Input(label_dim = 1, label_name = "label",
                        dense_dim = 13, dense_name = "dense",
                        data_reader_sparse_param_array =
                        [hugectr.DataReaderSparseParam("data1", 1, True, 26)]))
model.add(hugectr.SparseEmbedding(embedding_type = hugectr.Embedding_t.DistributedSlotSparseEmbeddingHash,
                           workspace_size_per_gpu_in_mb = 75,
                           embedding_vec_size = 16,
                           combiner = "sum",
                           sparse_embedding_name = "sparse_embedding1",
                           bottom_name = "data1",
                           optimizer = optimizer))
# 添加更多层...
model.compile()
model.summary()
model.fit(max_iter = 5120, display = 200, eval_interval = 1000, snapshot = 5000, snapshot_prefix = "dcn")
  1. 运行训练脚本:
python dcn_parquet_train.py

通过以上步骤,我们就可以快速上手HugeCTR,训练一个简单的推荐模型。

HugeCTR的高级功能

除了基本的模型训练,HugeCTR还提供了许多高级功能来优化推荐系统的性能:

1. 模型并行训练

HugeCTR支持在多个GPU上并行训练模型,可以有效处理超大规模的嵌入表。它提供了多种策略来在GPU之间分配嵌入表:

  • 模型并行嵌入表(Model-Parallel Embedding Table)
  • 数据并行嵌入表(Data-Parallel Embedding Table)
  • 本地化嵌入表(Localized Embedding Table)

2. 混合精度训练

HugeCTR支持FP32、FP16和TF32精度的混合使用,可以在保证精度的同时提高训练速度。

3. 嵌入训练缓存

对于超大规模的嵌入表,HugeCTR提供了嵌入训练缓存机制,可以将部分嵌入存储在CPU内存中,按需加载到GPU。

4. 分层参数服务器

HugeCTR的分层参数服务器架构可以有效管理大规模嵌入表,支持多GPU和多节点部署。

分层参数服务器

5. Sparse Operation Kit

Sparse Operation Kit (SOK)是HugeCTR的一个子项目,提供了GPU加速的稀疏操作,可以与TensorFlow等框架集成使用。

HugeCTR在工业界的应用

HugeCTR已经在多家科技公司得到了实际应用:

  • 腾讯广告系统: 使用HugeCTR将CTR预估模型的训练速度提升了7倍以上。
  • 美团机器学习平台: 利用HugeCTR优化了推荐模型的训练流程。

这些案例都证明了HugeCTR在处理大规模推荐系统时的优势。

总结

HugeCTR作为一个专门针对推荐系统优化的GPU加速框架,为构建高性能推荐系统提供了强大的工具。它不仅支持高效的模型训练,还提供了完整的推理解决方案。对于需要处理大规模数据和复杂模型的推荐系统开发者来说,HugeCTR无疑是一个值得尝试的选择。

随着推荐系统在各行各业的广泛应用,以及模型规模和数据量的不断增长,像HugeCTR这样的高性能框架将发挥越来越重要的作用。我们期待看到HugeCTR在未来能够支持更多新的模型结构和训练技术,为推荐系统的发展做出更大的贡献。

如果你对HugeCTR感兴趣,可以访问HugeCTR的GitHub仓库获取更多信息,或者加入HugeCTR的Slack频道与其他开发者交流讨论。让我们一起探索GPU加速推荐系统的无限可能吧!

最新项目

Project Cover
豆包MarsCode
豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。
Project Cover
AI写歌
Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。
Project Cover
美间AI
美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。
Project Cover
商汤小浣熊
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
Project Cover
有言AI
有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。
Project Cover
Kimi
Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。
Project Cover
吐司
探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。
Project Cover
SubCat字幕猫
SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。
Project Cover
AIWritePaper论文写作
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号