#DistilBART
distilbart-xsum-12-6 - 优化轻量级文本摘要模型 提高效率降低资源消耗
HuggingfaceDistilBART模型压缩文本摘要开源项目模型推理性能Github自然语言处理
distilbart-xsum-12-6是一款经过优化的文本摘要模型。与BART基线模型相比,它在保持相似Rouge评分的同时,大幅减少了参数量和推理时间。模型仅使用306MM参数,推理速度提升1.68倍,Rouge-2和Rouge-L分数分别达到22.12和36.99。该模型基于CNN/DailyMail和XSum数据集训练,适合需要高效处理的文本摘要任务。
distilbart-cnn-12-3 - 精简高效的文本摘要模型
生成摘要计算效率HuggingfaceGithub开源项目模型模型性能DistilBARTRouge评分
distilbart-cnn-12-3项目提供了该模型的高效版本,通过减少参数数量来优化文本摘要的性能。该模型适用于cnn_dailymail和xsum数据集,与基准相比显著降低了推理时间和计算复杂度,使大规模文本数据处理变得更为高效。