#BART

lmppl - 使用预训练语言模型计算文本困惑度,提高语言模型评估
LM-PPLperplexityGPT3BARTsentiment analysisGithub开源项目
LM-PPL是一个Python库,用于计算文本困惑度,评估文本的流畅性和典型性。支持多种预训练语言模型,如GPT、BART、T5和BERT,简便安装,易于使用。用户可根据需求选择不同类型的语言模型并调整最大Token长度及批量大小,优化处理时间与准确性。
distilbart-mnli-12-1 - 压缩版BART模型用于自然语言推理
Huggingface模型机器学习BARTGithub开源项目自然语言处理模型蒸馏DistilBart-MNLI
distilbart-mnli-12-1是一个用于自然语言推理的压缩版BART模型。该模型采用No Teacher Distillation技术,通过复制bart-large-mnli的交替层并微调,在保持较高准确率的同时大幅减小模型规模。项目提供多个压缩版本,可根据需求选择。此外,项目还提供了详细的自行训练步骤。
distilbart-cnn-6-6 - 经过蒸馏的BART模型实现快速高质量文本摘要
模型压缩Huggingface模型BART摘要生成Github开源项目自然语言处理性能评估
distilbart-cnn-6-6是一个经过知识蒸馏的BART模型,专注于文本摘要任务。该模型在CNN/DailyMail和XSum数据集上训练,相较原始BART模型,推理速度提升2.09倍,同时保持了较高的Rouge-2和Rouge-L评分。distilbart-cnn-6-6在模型大小、处理速度和摘要质量之间达到平衡,适用于要求快速且高质量文本摘要的应用场景。
kobart-summarization - 基于BART架构的韩语新闻自动摘要模型
韩语Huggingface开源项目模型BARTNLP机器学习Github文本摘要
kobart-summarization是一个专门用于韩语新闻文本自动摘要的开源模型。该模型基于BART架构,通过Hugging Face transformers库实现,提供简洁的Python接口。它支持快速文本编码和摘要生成,适用于新闻处理、内容分析等场景。开发者可以轻松使用预训练的tokenizer和模型进行文本摘要任务。项目已在GitHub开源,并提供在线demo供用户体验。
bart-paraphrase - BART大型语言模型文本释义转换工具
开源项目自然语言处理模型文本生成模型微调HuggingfaceBART机器翻译Github
BART文本释义模型基于序列到序列架构开发,整合了BERT双向编码器与GPT单向解码器技术,通过Quora、PAWS和MSR数据集训练,实现文本的变换与释义功能。模型提供简洁的API接口,便于集成到自然语言处理应用中。
bart-large-xsum-samsum - 基于BART技术的高效对话文本自动摘要模型
BARTGithub开源项目文本摘要自然语言处理Huggingface机器学习对话总结模型
这是一个基于facebook/bart-large-xsum在Samsum数据集上微调的对话摘要模型。模型专注于对话文本自动摘要,在SAMSum Corpus测试集的ROUGE-1、ROUGE-2和ROUGE-L评估指标上分别达到53.31、28.36和44.10。开发者可通过Hugging Face Transformers框架快速部署使用此模型进行对话内容摘要。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号