#RoBERTa

LoRA - 大型语言模型的低秩适配方法与参数节省
LoRAGLUERoBERTaDeBERTaGPT-2Github开源项目
LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。
awesome-llms-fine-tuning - 大语言模型微调资源指南,包括教程、工具与最佳实践
GPTBERTRoBERTaLLMfine-tuningGithub开源项目
本页面汇总了微调大语言模型(如GPT、BERT、RoBERTa)的全面资源,适用于特定任务和领域的需求。包含教程、论文、工具、框架和最佳实践,为研究人员、数据科学家和机器学习从业者提供宝贵的指导,提升模型表现,优化工作流程。
SpanMarkerNER - 命名实体识别的高效训练框架
SpanMarkerNamed Entity RecognitionHugging FaceBERTRoBERTaGithub开源项目
SpanMarker是一个基于Transformer库的命名实体识别框架,支持BERT、RoBERTa和ELECTRA等编码器。框架提供模型加载、保存、超参数优化、日志记录、检查点、回调、混合精度训练和8位推理等功能。用户可以方便地使用预训练模型,并通过免费API进行快速原型开发和部署。
BERTweet - 专为英语推文预训练的大规模语言模型,助力自然语言处理
BERTweetRoBERTaCOVID-19语言模型英文推文Github开源项目
BERTweet是首个专为英语推文预训练的公共语言模型,基于RoBERTa预训练程序,使用850M条推文数据进行训练,包含普通推文和疫情相关推文。BERTweet提供多种预训练模型,能够无缝集成于transformers和fairseq框架,支持情感分析、命名实体识别等自然语言处理任务,为研究和应用提供有力支持。
lilt-roberta-en-base - 多语言文档理解的语言无关布局变换器
Github模型集成RoBERTa开源项目HuggingfaceLiLT文档理解布局转换器模型
LiLT-RoBERTa将预训练的RoBERTa模型与轻量级的布局变换器结合,适用于处理多语言的文档图像分类、解析及问答任务,适合在结构化文档理解中应用。用户可在模型库中寻找适合特定任务的微调版本。
roberta-base - RoBERTa预训练语言模型用于多种自然语言处理任务
人工智能机器学习GithubHuggingface模型开源项目RoBERTa预训练模型自然语言处理
RoBERTa是基于Transformer架构的预训练语言模型,在大规模英文语料上使用掩码语言建模进行训练。它采用动态掩码和大批量训练等优化策略,在GLUE基准测试中表现出色。RoBERTa适用于序列分类、命名实体识别等任务的微调,能学习双向上下文表示,为NLP应用提供强大的特征提取能力。
roberta-large-mnli - RoBERTa大型模型微调的零样本分类模型
语言模型模型文本分类GithubRoBERTa开源项目Huggingface机器学习自然语言处理
roberta-large-mnli是基于RoBERTa大型模型在MNLI语料库上微调的自然语言推理模型。该模型在零样本分类任务中表现优异,适用于句对分类和序列分类。它采用transformer架构,通过掩码语言建模进行预训练,在GLUE和XNLI基准测试中成绩卓越。然而,用户需注意模型可能存在偏见,不适合生成事实性内容或用于可能造成负面影响的场景。
stackoverflow-roberta-base-sentiment - 软件工程文本情感分析的RoBERTa模型
模型情感分析StackOverflowGithub软件工程开源项目HuggingfaceRoBERTa自然语言处理
stackoverflow-roberta-base-sentiment是一个专门用于软件工程文本情感分析的RoBERTa模型。它基于cardiffnlp/twitter-roberta-base-sentiment模型,使用StackOverflow4423数据集进行微调。该模型能够分析软件工程相关文本的正面、中性和负面情感倾向。通过简单的Python代码,开发者可以快速实现情感分析。这个开源项目为软件开发社区提供了一个分析开发者反馈和讨论的实用工具。
roberta-large - 大型英语预训练模型,适合多种任务优化
语言模型模型遮蔽语言建模GithubRoBERTaTransformer模型预训练模型Huggingface开源项目
RoBERTa是一个自监督学习的变压器模型,通过掩码语言建模(MLM)目标优化英语语言的表示。主要用于细调下游任务,如序列和标记分类以及问答。此模型预训练于包括BookCorpus和Wikipedia在内的五个大型语料库,使用BPE分词法和动态掩码训练,实现双向句子表示,并在GLUE测试中表现优异,适合在PyTorch和TensorFlow中应用。
longformer-base-4096 - 专为长文档设计的Longformer transformer模型
Huggingface注意力机制模型Github开源项目自然语言处理Longformer长文档处理RoBERTa
longformer-base-4096是一个专为处理长文档设计的transformer模型,基于RoBERTa checkpoint开发。该模型支持处理长达4,096个序列,创新性地结合了滑动窗口注意力和全局注意力机制。用户可根据具体任务配置全局注意力,从而学习特定任务的表示。这一开源项目由Allen Institute for Artificial Intelligence开发,旨在通过AI研究推动长文本处理技术的进步。
indonesian-roberta-base-posp-tagger - 基于RoBERTa的印尼语词性标注模型
印尼语RoBERTaindonluHuggingface词性标注模型Github开源项目自然语言处理
该模型是在indonlu数据集上微调的印尼语词性标注工具,基于indonesian-roberta-base架构。经过10轮训练后,模型在测试集上展现出优秀性能,精确率、召回率、F1值和准确率均达到0.9625。模型采用Adam优化器和线性学习率调度策略,为印尼语自然语言处理提供了可靠的词性标注支持。
roberta-base-go_emotions - RoBERTa模型实现28种情感多标签分类
Huggingface情感分析模型go_emotions数据集多标签分类Github开源项目RoBERTatext-classification
该模型基于roberta-base,利用go_emotions数据集训练而成,可对文本进行28种情感的多标签分类。模型在测试集上实现0.474的准确率和0.450的F1分数。为提升性能,还提供ONNX版本。研究者可通过Hugging Face Transformers框架便捷应用此模型。值得注意的是,某些情感标签如'gratitude'表现优异,F1值超过0.9,而'relief'等标签表现欠佳,可能与训练数据分布不均有关。通过优化每个标签的阈值,模型的整体F1分数可提升至0.541,显示出进一步改进的潜力。
stsb-roberta-base - RoBERTa基础句子转换模型用于语义分析和文本聚类
模型GithubRoBERTasentence-transformers开源项目特征提取语义相似度Huggingface自然语言处理
stsb-roberta-base是一个基于RoBERTa的句子转换模型,能将文本映射到768维向量空间。该模型支持语义搜索和文本聚类等任务,使用方便,可快速生成句子嵌入。尽管在某些基准测试中表现不错,但官方已将其标记为过时模型,不建议在生产环境中使用。
twitter-roberta-base-sentiment-latest - RoBERTa基础的推特情感分析模型 支持英文社交媒体文本
模型TwitterTweetEval情感分析GithubRoBERTaHuggingface开源项目自然语言处理
这是一个基于RoBERTa-base的推特情感分析模型,通过1.24亿条推文训练并针对情感分析任务微调。模型可将英文推文分类为积极、中性或消极,支持Transformers库集成。适用于社交媒体分析和舆情监测等场景,是TweetNLP项目的组成部分,体现了社交媒体自然语言处理的最新进展。
cross-en-de-roberta-sentence-transformer - RoBERTa跨语言句向量模型实现德英文本语义匹配
Sentence TransformersHuggingface模型RoBERTa句子嵌入Github语义相似度开源项目跨语言模型
cross-en-de-roberta-sentence-transformer是一个基于RoBERTa的跨语言句向量模型,专门针对德语和英语文本进行优化。该模型通过多语言微调和语言交叉训练,在语义相似度计算、语义搜索和释义挖掘等任务中表现优异。它不仅在德语和英语单语环境下表现出色,在跨语言场景中也展现了卓越性能,为双语自然语言处理应用提供了有力支持。
deid_roberta_i2b2 - RoBERTa模型用于医疗记录去标识化
I2B2RoBERTa模型GithubHIPAA开源项目Huggingface医疗记录去标识化自然语言处理
这是一个基于RoBERTa的序列标注模型,专门用于医疗记录去标识化。模型能识别11种受保护健康信息类型,采用BILOU标记方案。在I2B2 2014数据集上训练后,可自动从医疗记录中移除敏感信息。项目提供了使用说明、数据格式要求和示例代码,便于快速应用。
roberta-base-nli-mean-tokens - RoBERTa句子嵌入模型实现文本向量化映射
Huggingface模型Github语义相似度开源项目sentence-transformers自然语言处理向量嵌入RoBERTa
roberta-base-nli-mean-tokens是一个基于sentence-transformers的句子嵌入模型,可将文本映射至768维向量空间。该模型基于RoBERTa架构,采用平均池化策略,适用于聚类和语义搜索等任务。虽然已被更新的模型取代,但其实现方法仍有参考价值。开发者可通过sentence-transformers或Hugging Face Transformers库轻松使用该模型生成文本嵌入。
roberta-large-ontonotes5 - RoBERTa-large模型在OntoNotes 5数据集上的高性能命名实体识别微调版本
Huggingface模型T-NER命名实体识别模型微调Github开源项目自然语言处理RoBERTa
这是roberta-large在OntoNotes 5数据集上的微调模型,专门用于命名实体识别任务。在测试集上,该模型达到了0.909的F1分数(微观)、0.905的精确度和0.912的召回率。模型采用CRF层,最大序列长度128,经过15轮训练。用户可通过tner库轻松应用此模型。它在多种实体类型识别中表现优异,尤其擅长识别地缘政治区域、组织和人物。
roberta-base-squad2 - 使用SQuAD 2.0数据集微调的RoBERTa英文抽取式问答模型
模型问答系统GithubRoBERTaSQuADHaystackHuggingface开源项目自然语言处理
roberta-base-squad2是一个基于RoBERTa模型,在SQuAD 2.0数据集上微调的英文抽取式问答模型。它在SQuAD 2.0验证集上达到79.87%的精确匹配率和82.91%的F1分数。此模型能处理包括无答案问题在内的多种问答任务,适合构建高效问答系统。开发者可通过Haystack或Transformers库便捷地集成该模型进行问答应用开发。
roberta-large-openai-detector - RoBERTa大型模型微调的GPT-2文本检测工具
语言模型模型文本检测人工智能GithubRoBERTaHuggingface开源项目GPT-2
RoBERTa大型模型微调的GPT-2文本检测器是OpenAI开发的开源工具,专门用于识别GPT-2模型生成的文本。该模型对1.5B参数GPT-2生成的内容有约95%的检测准确率。它支持合成文本生成研究,但也可能被滥用于逃避检测。使用时应注意模型局限性,并与其他方法结合以提高检测效果。
phobert-base - 突破性的越南语预训练语言模型
语言模型模型越南语PhoBERTGithubRoBERTaHuggingface开源项目自然语言处理
PhoBERT作为针对越南语开发的预训练语言模型,提供base和large两个版本。该模型基于RoBERTa框架,优化了BERT的预训练方法。在词性标注、依存句法分析、命名实体识别和自然语言推理等多个越南语NLP任务中,PhoBERT均实现了性能突破,超越了现有的单语言和多语言模型。这一创新为越南语自然语言处理的研究与应用奠定了坚实基础。
Erlangshen-Roberta-330M-Sentiment - 基于RoBERTa的高性能中文情感分析模型
中文模型模型情感分析自然语言理解GithubRoBERTa微调Huggingface开源项目
Erlangshen-Roberta-330M-Sentiment是一个基于RoBERTa-wwm-ext-large的中文情感分析模型。该模型在8个中文情感分析数据集(共227347个样本)上进行微调,在ASAP-SENT、ASAP-ASPECT和ChnSentiCorp等多个任务中表现优异。这个模型为中文自然语言理解,尤其是情感分析领域提供了强大支持。研究人员和开发者可以通过简单的API调用,将其集成到各类NLP项目中,提升情感分析能力。
roberta_toxicity_classifier - RoBERTa模型提供准确的有害评论分类功能
平行语料库有毒评论分类JigsawRoBERTa自然语言处理模型Github开源项目Huggingface
本项目基于RoBERTa开发了一个有害评论分类模型。该模型在约200万条Jigsaw数据集样本上进行微调,测试集表现优异,AUC-ROC达0.98,F1分数为0.76。模型易于集成到Python项目中,可用于文本有害内容检测。项目提供使用说明和引用信息,便于研究人员和开发者在此领域深入探索。
sentiment-roberta-large-english - RoBERTa微调的通用英文情感分析模型
模型情感分析GithubRoBERTaSiEBERT开源项目Huggingface机器学习自然语言处理
sentiment-roberta-large-english是一个基于RoBERTa-large的微调模型,用于英文文本的二元情感分析。该模型在15个不同来源的数据集上进行了训练和评估,提高了对各种文本类型的泛化能力。在新数据上,其表现优于仅在单一类型文本上训练的模型,平均准确率为93.2%。模型可通过Hugging Face pipeline快速部署,也可作为进一步微调的基础。
indonesian-roberta-base-sentiment-classifier - 印尼语RoBERTa情感分类器:高精度的开源NLP工具
模型情感分析印尼语情感分类GithubRoBERTa深度学习Huggingface开源项目自然语言处理
这是一个基于RoBERTa架构的印尼语情感分类器,在indonlu的SmSA数据集上微调而成。模型在评估集上展现出卓越性能,准确率达94.36%,F1值达92.42%。它支持多种深度学习框架,易于集成到各类情感分析应用中。作为开源项目,该模型为印尼语自然语言处理领域提供了一个高效可靠的工具,推动了相关研究和应用的发展。模型采用了124M参数的RoBERTa Base架构,在印尼语评论和评论数据上训练。它不仅在评估集上表现优异,在基准测试集上也达到了93.2%的准确率和91.02%的F1值。该项目提供了详细的使用说明和评估结果,方便研究者和开发者快速上手和复现实验。
roberta-spam - RoBERTa垃圾短信检测系统提升组织安全防护能力
模型文本分类GithubRoBERTa机器学习垃圾信息检测开源项目Huggingface数据集
这个项目基于RoBERTa模型构建了一套垃圾短信检测系统。该系统能够精准识别和过滤垃圾信息,为组织安全增添一道防线,有助于规避财务风险、法律隐患和声誉受损。系统在准确率、精确度和召回率等指标上表现优异,可作为组织强化信息安全的有力工具。
RADAR-Vicuna-7B - 对抗学习训练的AI文本识别模型
语言模型Huggingface模型AI文本检测对抗学习GithubRADAR开源项目RoBERTa
RADAR-Vicuna-7B是一款基于RoBERTa架构的AI文本检测模型,通过检测器与改写器的对抗学习方式训练而成。该模型利用OpenWebText数据集,能够有效识别大型语言模型生成的文本。RADAR采用创新的对抗训练方法提升检测能力,但仅限非商业用途。研究人员和开发者可通过Google Colab或Hugging Face API轻松使用该模型进行AI文本识别。
robeczech-base - 专为捷克语开发的单语RoBERTa模型
模型Github开源项目语言模型HuggingfaceRoBERTaCzech自然语言处理RobeCzech
RobeCzech是布拉格查理大学开发的捷克语RoBERTa模型,在4900M个token的语料库上预训练。它采用52,000词汇量的字节级BPE分词器,在形态分析、依存句法分析、命名实体识别和语义解析等任务中表现优异。该模型为捷克语自然语言处理研究和应用提供了有力支持,可用于多种下游任务。
KoDiffCSE-RoBERTa - 新型韩语句子嵌入对比学习模型
模型Github开源项目对比学习HuggingfaceRoBERTa自然语言处理DiffCSE韩语句向量嵌入
KoDiffCSE-RoBERTa是一个基于差异化对比学习的韩语句子嵌入模型。通过无监督训练,该模型在KorSTS数据集上展现出优异性能。它提供简洁API以计算句子相似度,适用于多种自然语言处理任务。项目包含开源代码、训练脚本及详细文档,方便研究者和开发者使用和扩展。
biomed_roberta_base - RoBERTa衍生模型在生物医学NLP任务中展现优异性能
语言模型Huggingface模型预训练Github开源项目自然语言处理生物医学RoBERTa
BioMed-RoBERTa-base是一个针对生物医学领域优化的语言模型,基于RoBERTa-base架构,通过对268万篇科学论文全文的持续预训练而成。该模型在文本分类、关系提取和命名实体识别等多项生物医学NLP任务中表现出色,比基础RoBERTa模型有显著提升。这为生物医学领域的自然语言处理研究提供了一个强大的预训练工具。
bias_identificaiton45 - 基于RoBERTa的10类偏见识别模型
Huggingface模型机器学习PriyaPatel/Bias_identificationGithub开源项目偏见识别文本分类RoBERTa
该偏见识别模型基于RoBERTa架构,通过微调实现对10种偏见类型的分类。涵盖范围包括种族、性别、年龄等多个维度,在测试集上准确率达98.32%。模型可应用于自然语言处理研究,特别是偏见分析领域。支持通过Hugging Face transformers库快速部署使用。
bertin-roberta-base-spanish - 创新抽样技术实现高效西班牙语模型训练
模型西班牙语GithubRoBERTa开源项目BERTIN机器学习Huggingface自然语言处理
BERTIN项目采用创新的抽样技术从mC4数据集中提取高质量西班牙语语料,实现了以更少的步骤和数据量训练RoBERTa模型。该方法不仅提高了训练效率,还使模型在某些任务上超越了现有的最先进水平,为小团队在有限资源下开发大型语言模型提供了新思路。
bertweet-base - BERTweet为英文推文提供预训练大规模语言模型
Huggingface模型Github开源项目自然语言处理推特BERTweet预训练语言模型RoBERTa
BERTweet是针对英文推文预训练的开源大规模语言模型。该模型基于RoBERTa架构,使用8.5亿条英文推文进行训练,包括与COVID-19相关的推文。BERTweet在词性标注、命名实体识别、情感分析和讽刺检测等任务中表现出色。作为处理Twitter数据的基础工具,BERTweet可应用于多种自然语言处理任务,为研究人员提供了宝贵的资源。
roberta-base-finetuned-abbr - RoBERTa微调模型实现高精度缩写检测
模型PLOD数据集命名实体识别GithubRoBERTa微调模型Huggingface开源项目自然语言处理
这是一个基于roberta-base在PLOD-filtered数据集上微调的模型,专门用于缩写检测。模型在评估中表现优异,精确率0.9645,召回率0.9583,F1值0.9614。采用掩码语言建模预训练,学习双向语言表示,适用于序列标注特别是缩写检测任务,为NLP应用提供有力支持。
stsb-roberta-large - 已弃用的1024维句子嵌入模型
Huggingface模型句子嵌入Github语义相似度开源项目sentence-transformers自然语言处理RoBERTa
stsb-roberta-large是一个基于sentence-transformers的已弃用模型,可将句子和段落映射到1024维向量空间。虽不再推荐使用,但它仍可用于聚类和语义搜索任务,并为理解句子嵌入技术提供参考。该模型基于RoBERTa架构,使用平均池化生成句子嵌入,可通过sentence-transformers或HuggingFace Transformers库轻松实现。
roberta-base-finetuned-autext23 - RoBERTa模型微调版本实现高精度文本分类
模型评估Huggingface模型机器学习Github开源项目自然语言处理微调RoBERTa
roberta-base-finetuned-autext23是基于FacebookAI/roberta-base模型微调的文本分类模型。在评估集上,该模型达到了0.8974的准确率和0.8965的F1分数。模型采用Adam优化器,使用线性学习率调度器,经过5轮训练,批次大小为16。虽然性能优异,但模型的具体应用场景和数据集信息仍需补充。此模型适合需要高精度文本分类的任务,但使用时应注意其潜在限制。