#NLP任务

UER-py - 自然语言处理的开源预训练工具包
UER-py预训练模型NLP任务BERT模型微调Github开源项目
UER-py是一个为自然语言处理任务设计的预训练和微调工具包,支持多种预训练模型以优化下游任务表现。项目强调模块化设计,并提供可扩展接口,支持单GPU及多GPU配置。
pysentimiento - 社交NLP任务的高级Python工具包
pysentimiento情感分析NLP任务Transformer预处理Github开源项目
pysentimiento是一个Python工具包,专为情感分析和社交NLP任务设计。它支持多种语言,包括西班牙语、英语、意大利语和葡萄牙语,可以进行情感分析、仇恨言论检测、讽刺检测及情感分析等。使用简单,只需通过pip安装并调用预设模型即可。适用于研究者和开发者的强大开源工具。
libai - 支持多种并行训练的大规模模型训练工具
LiBaiOneFlow模型训练CV任务NLP任务Github开源项目
LiBai是基于OneFlow的大规模开源模型训练工具,支持数据并行、张量并行和流水线并行等多种训练组件。提供分布式训练、混合精度训练、激活检查点等多种技术,适用于计算机视觉和自然语言处理任务。LiBai易于使用,模块化设计便于研究项目的搭建,同时具备高效性能,支持CIFAR、ImageNet和BERT等数据集的处理。
TextPruner - 使用低成本且无需训练的方法优化预训练语言模型
TextPruner模型剪枝预训练语言模型PyTorchNLP任务Github开源项目
TextPruner提供低成本且无需训练的方法来优化预训练语言模型,通过减少模型尺寸加快推理速度。兼容多种NLU模型,提供用户友好的接口,支持词汇、Transformer和流水线剪枝。用户可以方便地根据需求自定义配置。详细文档和实验结果支持,帮助用户快速上手并验证性能提升。适用于Python 3.7及以上版本,依赖torch和transformers库。
NLP-progress - 追踪自然语言处理领域进展的开源项目
自然语言处理NLP任务数据集多语言SOTAGithub开源项目
这是一个开源项目,旨在追踪自然语言处理领域的最新进展。该项目涵盖了从词性标注到阅读理解等多种NLP任务,提供基准数据集和顶尖模型性能对比。它包含多语言NLP任务进展,为研究人员提供了解行业现状的重要参考。项目持续更新,反映了NLP技术的快速发展。
Selective_Context - 高效压缩上下文技术实现大语言模型处理能力倍增
Selective ContextLLM上下文压缩效率提升NLP任务Github开源项目
Selective Context是一种创新上下文压缩技术,能使大语言模型处理内容量提升一倍。该技术利用基础语言模型计算词句自信息,评估信息量,实现长文档和长对话的高效处理。项目提供完整代码实现、数据集和多项实验评估,已获EMNLP 2023会议认可。此上下文压缩技术适用于需要处理大量文本数据的场景,如智能客服、文档分析等。用户可通过pip安装,便捷集成到现有大语言模型项目中,显著提升处理效率。
gpt2-small-portuguese - 葡萄牙语NLP高效精调模型的详细解析
GPorTuguese-2葡萄牙语HuggingfaceGithubNLP任务开源项目模型微调语言模型
研究展示了如何在有限资源下使用Hugging Face和fastai v2对英语GPT-2进行精调,构建出葡萄牙语语言模型。该模型基于GPT-2 small,经过一天训练获得37.99%的准确率和23.76的困惑度,显示了其在葡萄牙语文本生成及其他NLP任务中的表现。研究指出,迁移学习可在任何语言的前沿语言模型开发中发挥作用。