#RoBERTa

LoRA - 大型语言模型的低秩适配方法与参数节省
Github开源项目RoBERTaLoRAGLUEDeBERTaGPT-2
LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。
awesome-llms-fine-tuning - 大语言模型微调资源指南,包括教程、工具与最佳实践
Github开源项目GPTLLMBERTRoBERTafine-tuning
本页面汇总了微调大语言模型(如GPT、BERT、RoBERTa)的全面资源,适用于特定任务和领域的需求。包含教程、论文、工具、框架和最佳实践,为研究人员、数据科学家和机器学习从业者提供宝贵的指导,提升模型表现,优化工作流程。
SpanMarkerNER - 命名实体识别的高效训练框架
Github开源项目Hugging FaceBERTRoBERTaNamed Entity RecognitionSpanMarker
SpanMarker是一个基于Transformer库的命名实体识别框架,支持BERT、RoBERTa和ELECTRA等编码器。框架提供模型加载、保存、超参数优化、日志记录、检查点、回调、混合精度训练和8位推理等功能。用户可以方便地使用预训练模型,并通过免费API进行快速原型开发和部署。
BERTweet - 专为英语推文预训练的大规模语言模型,助力自然语言处理
Github开源项目语言模型RoBERTaBERTweetCOVID-19英文推文
BERTweet是首个专为英语推文预训练的公共语言模型,基于RoBERTa预训练程序,使用850M条推文数据进行训练,包含普通推文和疫情相关推文。BERTweet提供多种预训练模型,能够无缝集成于transformers和fairseq框架,支持情感分析、命名实体识别等自然语言处理任务,为研究和应用提供有力支持。
lilt-roberta-en-base - 多语言文档理解的语言无关布局变换器
Github开源项目模型RoBERTaHuggingface模型集成文档理解布局转换器LiLT
LiLT-RoBERTa将预训练的RoBERTa模型与轻量级的布局变换器结合,适用于处理多语言的文档图像分类、解析及问答任务,适合在结构化文档理解中应用。用户可在模型库中寻找适合特定任务的微调版本。
roberta_toxicity_classifier - RoBERTa模型提供准确的有害评论分类功能
Github开源项目自然语言处理模型RoBERTaHuggingfaceJigsaw平行语料库有毒评论分类
本项目基于RoBERTa开发了一个有害评论分类模型。该模型在约200万条Jigsaw数据集样本上进行微调,测试集表现优异,AUC-ROC达0.98,F1分数为0.76。模型易于集成到Python项目中,可用于文本有害内容检测。项目提供使用说明和引用信息,便于研究人员和开发者在此领域深入探索。
sentiment-roberta-large-english - RoBERTa微调的通用英文情感分析模型
Github开源项目自然语言处理机器学习模型RoBERTa情感分析HuggingfaceSiEBERT
sentiment-roberta-large-english是一个基于RoBERTa-large的微调模型,用于英文文本的二元情感分析。该模型在15个不同来源的数据集上进行了训练和评估,提高了对各种文本类型的泛化能力。在新数据上,其表现优于仅在单一类型文本上训练的模型,平均准确率为93.2%。模型可通过Hugging Face pipeline快速部署,也可作为进一步微调的基础。
indonesian-roberta-base-sentiment-classifier - 印尼语RoBERTa情感分类器:高精度的开源NLP工具
Github开源项目深度学习自然语言处理模型RoBERTa情感分析Huggingface印尼语情感分类
这是一个基于RoBERTa架构的印尼语情感分类器,在indonlu的SmSA数据集上微调而成。模型在评估集上展现出卓越性能,准确率达94.36%,F1值达92.42%。它支持多种深度学习框架,易于集成到各类情感分析应用中。作为开源项目,该模型为印尼语自然语言处理领域提供了一个高效可靠的工具,推动了相关研究和应用的发展。模型采用了124M参数的RoBERTa Base架构,在印尼语评论和评论数据上训练。它不仅在评估集上表现优异,在基准测试集上也达到了93.2%的准确率和91.02%的F1值。该项目提供了详细的使用说明和评估结果,方便研究者和开发者快速上手和复现实验。
roberta-spam - RoBERTa垃圾短信检测系统提升组织安全防护能力
Github开源项目机器学习模型数据集RoBERTaHuggingface文本分类垃圾信息检测
这个项目基于RoBERTa模型构建了一套垃圾短信检测系统。该系统能够精准识别和过滤垃圾信息,为组织安全增添一道防线,有助于规避财务风险、法律隐患和声誉受损。系统在准确率、精确度和召回率等指标上表现优异,可作为组织强化信息安全的有力工具。
RADAR-Vicuna-7B - 对抗学习训练的AI文本识别模型
Github开源项目语言模型模型RoBERTa对抗学习HuggingfaceAI文本检测RADAR
RADAR-Vicuna-7B是一款基于RoBERTa架构的AI文本检测模型,通过检测器与改写器的对抗学习方式训练而成。该模型利用OpenWebText数据集,能够有效识别大型语言模型生成的文本。RADAR采用创新的对抗训练方法提升检测能力,但仅限非商业用途。研究人员和开发者可通过Google Colab或Hugging Face API轻松使用该模型进行AI文本识别。
robeczech-base - 专为捷克语开发的单语RoBERTa模型
Github开源项目自然语言处理语言模型模型RoBERTaHuggingfaceCzechRobeCzech
RobeCzech是布拉格查理大学开发的捷克语RoBERTa模型,在4900M个token的语料库上预训练。它采用52,000词汇量的字节级BPE分词器,在形态分析、依存句法分析、命名实体识别和语义解析等任务中表现优异。该模型为捷克语自然语言处理研究和应用提供了有力支持,可用于多种下游任务。
KoDiffCSE-RoBERTa - 新型韩语句子嵌入对比学习模型
Github开源项目自然语言处理模型RoBERTaHuggingface对比学习DiffCSE韩语句向量嵌入
KoDiffCSE-RoBERTa是一个基于差异化对比学习的韩语句子嵌入模型。通过无监督训练,该模型在KorSTS数据集上展现出优异性能。它提供简洁API以计算句子相似度,适用于多种自然语言处理任务。项目包含开源代码、训练脚本及详细文档,方便研究者和开发者使用和扩展。
biomed_roberta_base - RoBERTa衍生模型在生物医学NLP任务中展现优异性能
Github开源项目自然语言处理语言模型预训练模型RoBERTa生物医学Huggingface
BioMed-RoBERTa-base是一个针对生物医学领域优化的语言模型,基于RoBERTa-base架构,通过对268万篇科学论文全文的持续预训练而成。该模型在文本分类、关系提取和命名实体识别等多项生物医学NLP任务中表现出色,比基础RoBERTa模型有显著提升。这为生物医学领域的自然语言处理研究提供了一个强大的预训练工具。
bias_identificaiton45 - 基于RoBERTa的10类偏见识别模型
Github开源项目机器学习模型RoBERTaHuggingface文本分类PriyaPatel/Bias_identification偏见识别
该偏见识别模型基于RoBERTa架构,通过微调实现对10种偏见类型的分类。涵盖范围包括种族、性别、年龄等多个维度,在测试集上准确率达98.32%。模型可应用于自然语言处理研究,特别是偏见分析领域。支持通过Hugging Face transformers库快速部署使用。
bertin-roberta-base-spanish - 创新抽样技术实现高效西班牙语模型训练
Github开源项目自然语言处理机器学习模型RoBERTaHuggingface西班牙语BERTIN
BERTIN项目采用创新的抽样技术从mC4数据集中提取高质量西班牙语语料,实现了以更少的步骤和数据量训练RoBERTa模型。该方法不仅提高了训练效率,还使模型在某些任务上超越了现有的最先进水平,为小团队在有限资源下开发大型语言模型提供了新思路。
bertweet-base - BERTweet为英文推文提供预训练大规模语言模型
Github开源项目自然语言处理模型RoBERTaHuggingface推特预训练语言模型BERTweet
BERTweet是针对英文推文预训练的开源大规模语言模型。该模型基于RoBERTa架构,使用8.5亿条英文推文进行训练,包括与COVID-19相关的推文。BERTweet在词性标注、命名实体识别、情感分析和讽刺检测等任务中表现出色。作为处理Twitter数据的基础工具,BERTweet可应用于多种自然语言处理任务,为研究人员提供了宝贵的资源。
roberta-base-finetuned-abbr - RoBERTa微调模型实现高精度缩写检测
Github开源项目自然语言处理模型RoBERTa命名实体识别Huggingface微调模型PLOD数据集
这是一个基于roberta-base在PLOD-filtered数据集上微调的模型,专门用于缩写检测。模型在评估中表现优异,精确率0.9645,召回率0.9583,F1值0.9614。采用掩码语言建模预训练,学习双向语言表示,适用于序列标注特别是缩写检测任务,为NLP应用提供有力支持。
stsb-roberta-large - 已弃用的1024维句子嵌入模型
Github开源项目自然语言处理模型RoBERTaHuggingfacesentence-transformers句子嵌入语义相似度
stsb-roberta-large是一个基于sentence-transformers的已弃用模型,可将句子和段落映射到1024维向量空间。虽不再推荐使用,但它仍可用于聚类和语义搜索任务,并为理解句子嵌入技术提供参考。该模型基于RoBERTa架构,使用平均池化生成句子嵌入,可通过sentence-transformers或HuggingFace Transformers库轻松实现。
roberta-base-finetuned-autext23 - RoBERTa模型微调版本实现高精度文本分类
Github开源项目自然语言处理机器学习微调模型RoBERTa模型评估Huggingface
roberta-base-finetuned-autext23是基于FacebookAI/roberta-base模型微调的文本分类模型。在评估集上,该模型达到了0.8974的准确率和0.8965的F1分数。模型采用Adam优化器,使用线性学习率调度器,经过5轮训练,批次大小为16。虽然性能优异,但模型的具体应用场景和数据集信息仍需补充。此模型适合需要高精度文本分类的任务,但使用时应注意其潜在限制。
KoSimCSE-roberta-multitask - 韩语句子嵌入模型实现高效语义相似度计算
Github开源项目预训练模型模型RoBERTaHuggingfaceSimCSE语义相似度韩语句子嵌入
KoSimCSE-roberta-multitask是一款开源的韩语句子嵌入模型,主要用于计算句子间的语义相似度。在语义文本相似性测试中,该模型的平均得分达到85.77。项目提供预训练模型和推理代码,方便用户进行句子嵌入和相似度计算。同时,它还为个人训练模型提供环境支持,适用于各种自然语言处理和语义分析任务。
nli-distilroberta-base-v2 - sentence-transformers模型实现句子向量化和语义分析
Github开源项目自然语言处理语义搜索模型RoBERTaHuggingface向量嵌入sentence-transformers
nli-distilroberta-base-v2是一个基于sentence-transformers的句子嵌入模型,将文本映射到768维向量空间。该模型适用于聚类、语义搜索等任务,使用简单且效果出色。它支持通过几行代码生成句子嵌入,为自然语言处理提供了有力工具。
roberta-base-snli - 基于SNLI数据集训练且F1分值达0.9的自然语言推理模型
Github开源项目自然语言处理模型训练机器学习模型RoBERTaHuggingfaceSNLI
roberta-base-snli是一个经过SNLI数据集训练的自然语言推理模型。模型采用Adam优化器结合余弦学习率调度策略,以16的batch size和2e-05的学习率进行了4轮训练。在评估数据集上,模型达到了0.9004的F1得分。项目基于Transformers 4.21.1框架开发,能够有效完成自然语言推理相关任务。
ChemBERTa-zinc-base-v1 - 面向分子结构预测与化学特性分析的深度学习模型
Github开源项目深度学习模型RoBERTaHuggingfaceSMILESChemBERTa化学机器学习
ChemBERTa-zinc-base-v1是一个专注于化学分子结构分析的深度学习模型。通过对大规模分子数据的训练,该模型能够进行分子结构预测,并支持毒性、溶解度、药物相似性等化学特性分析。模型创新地将自然语言处理技术应用于化学领域,为研究人员提供了一个高效的分子结构分析工具。
financial-roberta-large-sentiment - RoBERTa架构优化的金融文本情感分析模型
Github开源项目模型RoBERTa机器学习模型情感分析HuggingfaceESG金融文本
Financial-RoBERTa是一个基于RoBERTa-Large架构优化的金融文本情感分析模型。它能分析财务报表、盈利公告、业绩电话会议记录等多种金融文本,输出积极、消极或中性的情感判断。模型经过大规模金融语料训练,并提供Hugging Face接口,便于企业和研究人员使用。该模型支持多种金融文档类型,包括10-K、10-Q、8-K报告、CSR报告和ESG新闻等。
twitter-roberta-large-hate-latest - 增强的多类别仇恨言论检测模型
Github开源项目模型RoBERTaHuggingface推特文本分类仇恨言论检测SuperTweetEval
此RoBERTa-large模型基于154M推文数据进行训练,并在SuperTweetEval数据集上进行微调,以实现仇恨言论的多类别分类检测。模型能够准确识别多种仇恨类型,包括性别、种族和宗教等,为社交媒体内容管理提供支持。
roberta-base-japanese-with-auto-jumanpp - 日语RoBERTa预训练语言模型
Github开源项目自然语言处理机器学习模型RoBERTaHuggingface日语模型文本预训练
RoBERTa日语基础模型通过日本维基百科和CC-100语料库训练而成,采用Juman++分词系统和32000规模词表,支持掩码语言建模与下游任务微调。模型经过A100 GPU集群训练,在JGLUE基准测试中展现出稳定性能,可作为日语自然语言处理的基础模型使用。
twitter-roberta-base-emotion - 基于RoBERTa的推特情绪识别与分析模型
Github开源项目深度学习自然语言处理模型RoBERTaHuggingface情感识别推特数据分析
twitter-roberta-base-emotion是一个基于RoBERTa架构的情绪识别模型,经过5800万条推特数据训练。模型可识别喜悦、乐观、愤怒和悲伤等情绪类型,并通过TweetEval基准进行了微调。支持Python接口调用,适用于文本情感分析任务。
password-model - 基于RoBERTa的密码误报过滤分类模型
Github开源项目机器学习模型RoBERTaHuggingface代码安全密码检测Credential Digger
这个基于RoBERTa的文本分类模型为Credential Digger工具提供密码扫描误报过滤功能。该模型由SAP OSS在泄漏检测数据集上完成微调,能有效识别和过滤代码扫描中的误报密码,提升了代码安全分析的准确度。集成在Credential Digger中的这个模型简化了开发者的安全审查工作流程。
roberta-base-openai-detector - RoBERTa实现的人工智能文本检测工具
人工智能Github开源项目机器学习模型RoBERTaGPT-2文本检测Huggingface
这是OpenAI开发的一款基于RoBERTa架构的AI文本检测工具。通过微调RoBERTa基础模型,它可准确识别GPT-2生成的文本内容。该工具主要面向研究人员,用于探索和研究人工智能文本生成技术。需要注意的是,此工具并不适用于ChatGPT文本检测,建议与其他检测方法配合使用。
phobert-large - 越南语PhoBERT模型优化实现多项NLP任务性能突破
Github开源项目自然语言处理语言模型模型RoBERTaHuggingfacePhoBERT越南语处理
PhoBERT是首个公开的大规模越南语单语预训练模型,基于RoBERTa优化BERT,超越以往多语言和单语方法,显著提升词类标注、依赖解析、命名实体识别和自然语言推理等越南语NLP任务效果。
KoSimCSE-roberta - 基于RoBERTa架构的韩语句子相似度预训练模型
Github开源项目预训练模型模型RoBERTaHuggingface语义相似度KoSimCSE韩语句嵌入
KoSimCSE-roberta是一个韩语句子向量嵌入预训练模型,基于RoBERTa架构和多任务学习方法构建。在语义文本相似度测试中,模型取得85.77%的评分。模型提供完整的预训练权重和推理环境,可用于计算韩语句子间的语义相似度,支持文本匹配等自然语言处理任务。
roberta-base-on-cuad - 智能合同审查模型基于CUAD数据集 提升法律文档分析效率
Github开源项目自然语言处理机器学习模型RoBERTa问答系统Huggingface法律合同审查
roberta-base-on-cuad是一个基于RoBERTa架构的法律文档问答模型,在CUAD数据集上训练。该模型支持数字化和扫描版合同的智能分析,可帮助法律从业者和非专业人士更高效地理解和审查合同。模型在RoBERTa-base基础上将AUPR评分提升至46.6%。项目采用MIT许可证,提供模型调用接口,便于集成到合同审查应用中。
roberta-base-finetuned-jd-binary-chinese - 精准中文文本分类的先进模型
Github开源项目预训练模型微调模型数据集RoBERTaHuggingface文本分类
本文介绍了5个中文RoBERTa-Base分类模型,这些模型由UER-py和TencentPretrain进行微调,基于用户评论与新闻文章的数据集实现精准分类。文章详细解释了模型的使用方法,并提供下载链接,同时概述了在腾讯云上进行的微调过程及优化参数,确保最佳性能。
roberta-large - 基于HPU的深度学习模型优化配置和训练方案
Github开源项目深度学习模型训练模型RoBERTa硬件加速HuggingfaceOptimum Habana
这是一个专门为roberta-large模型开发的HPU优化配置方案。项目基于Optimum Habana框架,集成了Hugging Face生态系统,提供GaudiConfig配置文件实现混合精度训练、AdamW优化和梯度裁剪等核心功能。支持单机及多机HPU环境下的模型训练和部署,可用于问答等自然语言处理任务。
Coderbert_finetuned_detect_vulnerability_on_MSR - RobertaForSequenceClassification微调的代码漏洞检测模型
Github开源项目机器学习模型RoBERTaHuggingface漏洞检测代码安全CodeBert
该项目基于CodeBert微调RobertaForSequenceClassification模型,用于检测代码漏洞。研究者从MSR数据集选取平衡样本进行训练和测试,使用'func_before'字段分类代码。模型在准确率、F1值、精确率和召回率方面表现良好,为代码安全分析提供了实用工具。测试结果显示准确率达70.23%,F1值为0.6482,精确率为79.21%,召回率为54.86%。
granite-guardian-hap-38m - IBM开源轻量级文本毒性检测模型实现大语言模型安全防护
Github开源项目性能优化模型RoBERTa文本检测Huggingface内容审核模型分类
Granite-Guardian-HAP-38m是一个用于检测英文文本有害内容的轻量级二分类模型。通过4层神经网络架构设计,模型参数量仅为3800万,较RoBERTa模型显著缩减规模。该模型支持CPU部署运行,具备低延迟推理能力,适用于大语言模型的安全防护以及批量文本处理场景。实测显示,模型在维持分类准确率的同时达到了理想的性能指标。