#DistilRuBERT
distilrubert-base-cased-conversational - 经过蒸馏的俄语对话模型 提升速度减少参数
模型压缩知识蒸馏Huggingface模型俄语模型Github开源项目自然语言处理DistilRuBERT
distilrubert-base-cased-conversational是一个经过知识蒸馏的俄语对话模型,基于RuBERT开发。该模型在保持性能的同时,将参数量减少24%,显著提升了推理速度。它在多种俄语对话数据集上训练,适用于广泛的对话场景。与原始RuBERT相比,该模型在CPU和GPU上均实现了更快的处理速度,为需要高效俄语对话处理的应用提供了优秀选择。
distilrubert-small-cased-conversational - 小型化俄语对话模型提升推理速度
模型压缩知识蒸馏Huggingface模型俄语模型Github开源项目自然语言处理DistilRuBERT
distilrubert-small-cased-conversational是一个经过知识蒸馏的小型俄语对话模型。它基于OpenSubtitles、Dirty、Pikabu等多种语料库训练,在保持性能的同时显著提高了推理速度。该模型在分类、命名实体识别和问答等NLP任务中表现出色,同时大幅减小了模型体积,适用于需要高效处理俄语自然语言的应用场景。