#zero_nlp
zero_nlp - 中文NLP训练与应用框架
zero_nlp模型训练中文NLP大模型pytorchGithub开源项目
zero_nlp是基于pytorch和transformers的中文NLP框架,支持从数据处理到模型部署的整个工作流程。它特别适用于处理大数据集、训练和部署多卡串联大模型,支持包括gpt2、clip在内的丰富模型类型,适用于文本分类、生成及多模态处理等多种任务。
gpt2_chinese - 使用15G中文语料和31亿tokens完成GPT2训练教程
zero_nlp开源项目中文模型Huggingfacegpt2训练transformersGithub
该项目使用15G中文语料和31亿个tokens,在单张3090显卡上运行60多小时,成功训练出中文版本的GPT2模型。项目提供教程指导如何使用transformers库实现中文文本生成。