#BERT
网易有道速读 - AI论文阅读与信息提取
热门AI工具AI办公办公工具文档解析文档翻译文档QABERTDINOv2
网易有道速读使用先进AI技术,助力用户快速提取、定位和汇总文档信息,提供论文阅读、翻译和Q&A等一站式服务,以提高文档处理和学习效率。适用于学术研究与日常学习,帮助用户高效理解信息和积累知识。
contrastors - 对比学习工具包
Github开源项目BERTcontrastors对比学习Nomic EmbedFlash Attention
contrastors 是一个高效的对比学习工具包,支持多GPU和大批量训练优化。支持通过Huggingface快速加载常见模型如BERT和GPTNeoX,适用于处理复杂的语言和视觉嵌入任务。
AnglE - 基于BERT和LLM模型提升句子嵌入效果的方法
Github开源项目BERT文本嵌入AnglE语义文本相似性长句模型
AnglE框架可通过多样化的模型策略和损失函数,进行基于BERT和LLM模型的句子嵌入训练和推理,已在众多语义相似度任务中表现卓越。
spacy-transformers - 在 spaCy 中使用 BERT、XLNet 和 GPT-2 等预训练转换器
Github开源项目spaCyBERTtransformersGPT-2XLNet
spacy-transformers通过Hugging Face的transformers实现预训练模型如BERT、XLNet和GPT-2的集成,提升spaCy的功能。支持多任务学习、转换器输出自动对齐等,兼容Python 3.6以上版本,需要PyTorch v1.5+和spaCy v3.0+。
FasterTransformer - 基于NVIDIA平台的高性能Transformer编解码器实现与调优
Github开源项目GPTBERTNVIDIAFasterTransformerTensorRT-LLM
FasterTransformer不仅支持多框架集成,还针对NVIDIA新一代GPU优化了编解码性能,极大提升了操作效率和处理速度。包含模型支持、性能对比及API演示的详细文档,有助于用户深入了解并有效使用FasterTransformer。
text-embeddings-inference - 快速上手Ai理论及应用实战
Github开源项目模型部署BERTDockerAPI文档text-embeddings-inference
Text Embeddings Inference 为文本嵌入模型提供高效的推理服务,支持多种模型配置,适合AI及深度学习需求。快速部署和卓越的服务器级性能使其成为企业和研究机构面对大规模文本处理和复杂查询时的理想选择,支持包括 [BERT](https://link-to-bert) 和 [RoBERTa](https://link-to-roberta) 在内的多种模型,并兼容 Docker 和完备的 API 文档。
vits_chinese - 基于BERT和VITS技术的文本到语音合成系统
Github开源项目自然语言处理文本到语音BERTTTSVITS
vits_chinese项目引入了BERT和VITS技术,通过隐藏的韵律嵌入和自然语言特性,显著提高了文本到语音合成的音质和自然度。此项目不只适于高质量音频生成,也提供模块化蒸馏加速和在线演示,便利学习和开发人员的应用。
UER-py - 自然语言处理的开源预训练工具包
Github开源项目预训练模型模型微调BERTUER-pyNLP任务
UER-py是一个为自然语言处理任务设计的预训练和微调工具包,支持多种预训练模型以优化下游任务表现。项目强调模块化设计,并提供可扩展接口,支持单GPU及多GPU配置。
tensorflow-nlp-tutorial - Tensorflow 2.0 自然语言处理实用教程
Github开源项目BERTTensorflowNLP딥 러닝KoGPT-2
此项目包含一系列基于Tensorflow 2.0的自然语言处理教程。教程内容详细,基于e-Book中的理论,涵盖BERT、KoGPT-2、CTM等模型的文本分类、生成、关键词提取和话题建模实操。用户通过Colab链接即可在线练习,无需额外安装Python。该项目持续更新,提供最新的自然语言处理技术和代码示例。
mint - 从零构建Transformer模型的详细教程和实现
Github开源项目PyTorchTransformerBERTHuggingFaceMinT
该项目提供了一系列循序渐进的教程,指导从零开始构建常见的Transformer模型,如BERT、GPT、GPT2、BART和T5。教程不仅讲解基本架构的实现,还包括预训练和微调示例,并提供小型PyTorch库以便额外使用。项目依赖HuggingFace的tokenizers库进行子词标记,适用于不同规模数据集的训练需求,还涵盖了多工作节点的分布式训练示例,非常适合希望深入了解Transformer模型原理和应用的学习者。
vocab-coverage - 中文语言模型识字率与词向量分布分析
Github开源项目语言模型BERT中文认知ERNIE词向量
该项目分析了多种语言模型的中文识字率与词向量分布情况,通过字符集分类和词向量空间分布的研究,了解模型在处理中文字符时的认知能力。涵盖了BERT、ERNIE、roBERTa等模型的对比,以及不同字符集的识字判定,为后续的模型评估和改进提供了参考。
Awesome-LLM-Large-Language-Models-Notes - 大型语言模型的发展历程及关键技术解析
Github开源项目GPTLLMTransformerBERTchatGPT
本页面介绍了多个知名的大型语言模型(LLM)的发展历史,包括其发布年份、相关论文、核心功能和代码实现。从Transformer、GPT系列到最新的GPT-4和Claude,全面汇总了每个模型的关键信息及技术亮点,并提供了相关链接供深入了解。对于自然语言处理(NLP)领域的研究者、开发者和爱好者,这些信息具有重要的参考价值。
transformers - 免费开源的transformers课程,详解关键概念与实践操作
Github开源项目BERTtransformers自注意力机制课程多头注意力机制
该课程由软件工程师Peter发起,现正免费且开放源码。内容涵盖transformers的关键概念、实践练习和学术论文剖析。通过YouTube视频讲解和Jupyter笔记本实操,深入学习编码器-解码器架构、自注意力、多头注意力等核心概念,并从零开始构建简单的transformer模型。亦包含如何微调BERT和GPT-2等预训练模型及进行特定任务处理和文本生成。
awesome-llms-fine-tuning - 大语言模型微调资源指南,包括教程、工具与最佳实践
Github开源项目GPTLLMBERTRoBERTafine-tuning
本页面汇总了微调大语言模型(如GPT、BERT、RoBERTa)的全面资源,适用于特定任务和领域的需求。包含教程、论文、工具、框架和最佳实践,为研究人员、数据科学家和机器学习从业者提供宝贵的指导,提升模型表现,优化工作流程。
TransformerHub - 实现与参考多种Transformer模型
Github开源项目GPTTransformerBERTTransformerHubViT
此项目实现了多种Transformer架构,包括seq2seq、仅编码器、仅解码器和统一模型,旨在提高编程技能并提供深度学习参考。特色包括多种Attention模块、位置嵌入和采样方法,当前进展是实现DINO模型。项目受到多个开源项目的启发和支持。
Transformers-for-NLP-2nd-Edition - BERT到GPT-4的Transformer模型详解
Github开源项目OpenAI API机器学习GPT-4BERTTransformers-for-NLP-2nd-Edition
本项目涵盖了从BERT到GPT-4的Transformer模型,提供了在Hugging Face和OpenAI环境下的微调、训练及提示工程示例。还包括ChatGPT、GPT-3.5-turbo、GPT-4和DALL-E的使用示例,包括语音到文本、文本到语音、文本到图像生成等内容。详述了GPT-4 API提示工程和最新平台更新,提供实用的指导与教程。
commented-transformers - 精细注释的Transformer在PyTorch中的实现
Github开源项目PyTorchTransformerBERTGPT-2Attention机制
详细注释的Transformer实现,涵盖从头创建Transformer系列,包括注意力机制和整体Transformer的实现。提供双向注意力、因果注意力及因果交叉注意力的实现,以及GPT-2和BERT模型的单文件实现,兼容torch.compile(..., fullgraph=True)以提高性能。
How-to-use-Transformers - 介绍Transformers库的自然语言处理应用教程
Github开源项目自然语言处理Hugging FaceBERTPython库Transformers
该项目提供了由Hugging Face开发的Transformers库的快速入门教程,支持加载大部分预训练语言模型。教程涵盖自然语言处理背景知识、Transformers基础和实战案例,包括pipelines、模型与分词器使用、微调预训练模型及序列标注任务等。示例代码展示了句子对分类、命名实体识别、文本摘要等任务的实现,适合机器学习和NLP开发者参考。
contextualized-topic-models - 多语言支持的上下文话题模型工具,适用于零样本学习
Github开源项目BERTContextualized Topic ModelsZeroShotTMCombinedTMSBERT
提供先进的上下文字话题模型工具,支持BERT等预训练语言模型,适用于多语言和零样本学习。CTM包含CombinedTM和ZeroShotTM两大主要模型,能适应不同任务需求。通过结合上下文嵌入和词袋模型,CTM能够生成更具连贯性的主题。项目还提供Kitty子模块用于人机交互文档分类,并附有详细教程和文档,帮助用户快速上手,提升话题建模效果。
transformers-tutorials - Transformers模型在自然语言处理中的应用教程
Github开源项目PyTorchHugging FaceBERTNLPTransformers
本项目提供了关于如何使用Transformers模型在自然语言处理任务中进行精细调优的详细教程,包括文本分类、情感分析、命名实体识别和摘要生成等案例。教程旨在帮助用户掌握应用最新NLP技术的技巧,并提供配套的Python代码示例和工具指南。
BERT-Relation-Extraction - 改进BERT模型在关系抽取任务中的应用与效果分析
Github开源项目Python预训练BERT关系抽取ALBERT
该项目实现了ACL 2019论文《Matching the Blanks: Distributional Similarity for Relation Learning》的PyTorch开源版本,涵盖BERT、ALBERT和BioBERT三种模型。项目提供预训练和微调方法,并通过SemEval 2010任务8和FewRel数据集验证了模型在关系抽取任务中的表现。
BertWithPretrained - 基于PyTorch实现的BERT模型及相关下游任务
Github开源项目PyTorchTransformerBERT中文文本分类英文文本分类
该项目基于PyTorch实现了BERT模型及其相关下游任务,详细解释了BERT模型和每个任务的原理。项目支持分类、翻译、成对句子分类、多项选择、问答和命名实体识别等任务,涵盖中文和英语的自然语言处理。此外,项目还含有丰富的数据集和预训练模型配置文件。
DNABERT - DNABERT:用于基因组DNA语言处理的双向编码器模型
Github开源项目预训练模型GPUBERTDNABERT基因组
DNABERT提供完整的源码、使用示例、预训练和微调模型,适用于各类基因组DNA语言处理任务。该项目利用Huggingface的扩展工具,增添了多任务支持和高效的可视化功能。最新版DNABERT-2不仅提升了多物种基因组的处理能力,还发布了全面的Genome Understanding Evaluation (GUE)基准测试,涵盖28个数据集。
text2vec - 多模型文本向量化工具,支持多语言文本匹配分析
Github开源项目模型训练BERTText2vec文本向量化文本相似度
text2vec工具实现了多种文本向量表示和相似度计算模型,如Word2Vec、BERT、Sentence-BERT和CoSENT。最新版本增加了多卡推理和命令行工具,方便用户批量处理文本向量化。它在中英文测试集上的表现优秀,尤其新版中文匹配模型在短文本区分上有显著提升。该工具为中文和多语言文本匹配提供了丰富的支持,能够满足各种文本语义分析任务的需求。
awesome-bioie - 免费工具和方法助力提取非结构化生物医学数据中的信息
Github开源项目自然语言处理LLMsBERTBioIE生物医学数据
这个开源项目提供了一系列无需付费且许可要求低的资源,旨在从非结构化生物医学数据和文本中提取结构化信息。随着语言模型如BERT和GPT-4的引入,生物信息提取方法得到了显著优化。项目涵盖多个方面,包括研究概述、活跃群组、工具和数据集,所有资源均公开且积极维护。
pytorch-bert-crf-ner - PyTorch实现的BERT-CRF韩文命名实体识别器
Github开源项目BERTPytorchNERCRFKoBERT
该项目是一个用PyTorch实现的BERT和CRF结合的韩文命名实体识别器,适用于PyTorch v1.2及Python 3.x环境。通过实际案例和详细日志展示该识别器的使用方法及其高效的韩文命名实体识别能力。借助于SKTBrain的KoBERT模型,本项目实现了容易上手的BERT-CRF命名实体识别系统。
classifier-multi-label - 基于BERT的多标签文本分类算法实现
Github开源项目BERTSeq2Seq多标签分类tf.nn.softmax_cross_entropy_with_logitsTextCNN
本项目介绍了如何使用BERT结合TextCNN、Denses、Seq2Seq等多种算法实现多标签文本分类。涵盖了模型结构、损失函数和解码方法等细节,展示了不同方法在推理速度和分类效果上的表现,提供了实验数据和结论,帮助开发者选择最佳解决方案。
Few-NERD - 大规模精细标注的命名实体识别数据集
Github开源项目BERT监督学习实体识别Few-NERDfew-shot
Few-NERD是一个大规模精细标注的命名实体识别数据集,包含8种粗粒度类型、66种细粒度类型、188,200个句子、491,711个实体和4,601,223个标记。支持监督学习和少样本学习的三种基准任务。了解数据集的关键功能、最新更新,以及如何获取数据和运行模型的详细指南。
beto - 西班牙语BERT模型:BETO
Github开源项目BERT模型BETO西班牙语语料库
此页面介绍了一个基于大型西班牙语语料库训练的BERT模型BETO,提供无区分大小写和区分大小写的Tensorflow和Pytorch版本。BETO应用全词掩蔽技术,在多项西班牙语基准测试中表现优异,并与多语言BERT及其他模型进行了对比。用户可以在HuggingFace Model Repository下载BETO模型,并通过HuggingFace Transformers库轻松使用。此外,页面还包含示例代码和引用信息。
SpanMarkerNER - 命名实体识别的高效训练框架
Github开源项目Hugging FaceBERTRoBERTaNamed Entity RecognitionSpanMarker
SpanMarker是一个基于Transformer库的命名实体识别框架,支持BERT、RoBERTa和ELECTRA等编码器。框架提供模型加载、保存、超参数优化、日志记录、检查点、回调、混合精度训练和8位推理等功能。用户可以方便地使用预训练模型,并通过免费API进行快速原型开发和部署。
pixel - 像素编码语言模型,无需固定词汇表实现多语言处理
Github开源项目语言模型BERTVision TransformerPIXEL图像编码
PIXEL是一个将文本渲染为图像进行语言处理的模型,消除了固定词汇表的需求。在同样的数据上,PIXEL在非拉丁脚本的语法和语义处理上优于BERT。PIXEL由文本渲染器、编码器和解码器组成,采用ViT-MAE技术实现图像级语言模型。用户可以通过Gradio演示体验PIXEL,并查看预训练和微调指南。未来将提供渲染指南、优化模型及HuggingFace transformers的集成。
awesome-transformer-nlp - 精选Transformer和迁移学习在自然语言处理的资源
Github开源项目ChatGPTGPTTransformerBERTNLP
该资源库汇集了关于自然语言处理 (NLP) 的顶级深度学习资料,重点包括生成预训练Transformer(GPT)、双向编码器表示(BERT)、注意力机制、Transformer架构、ChatGPT及其在NLP中的迁移学习应用。包含大量研究论文、文章、教程及工具,为研究人员和开发人员提供最新的Transformer技术与应用。此系列资源帮助了解和掌握最新的NLP模型及实现方法,提高自然语言处理任务的性能与效率。
SwissArmyTransformer - 瑞士军刀式Transformer库,用于多样化模型的开发与优化
Github开源项目TransformerBERTDeepSpeedGLMsat
SwissArmyTransformer是一个灵活且强大的库,用于开发和优化各种Transformer变体模型,如BERT、GPT、T5等。该库通过轻量级混合组件支持多种用途,并结合DeepSpeed-ZeRO和模型并行技术,提供了大规模模型预训练和微调的最佳实践。只需几行代码即可实现前缀调优和缓存自动回归模型,适用于大规模分布式训练和高效推理。
cramming - 探索单GPU一天内训练BERT语言模型的极限
Github开源项目PyTorchBERTGLUECramming Language ModelTransformer-based language model
本项目探索在单GPU上用一天时间预训练BERT语言模型的性能表现,旨在挑战当前以高算力为核心的趋势。通过调整预训练流程,展示了在严格计算限制下依然接近BERT性能,并分析不同改进对性能的影响。最新版本框架需要PyTorch 2.0,改善了数据预处理并提升了1-2% GLUE性能,提供了详细的代码运行和数据处理指南供研究和应用参考。
ByteTransformer - 为BERT类Transformer优化的高性能推理库
Github开源项目TransformerBERT高性能NVIDIA GPUByteTransformer
ByteTransformer是一个为BERT类Transformer优化的高性能推理库,支持Python和C++ API,兼容固定长度和可变长度Transformer。通过对BERT例程中的QKV编码、软最大值、前馈网络、激活、层归一化和多头注意力机制进行优化,ByteTransformer为字节跳动的内部推理系统提升了性能。基准测试结果显示,相较于PyTorch、TensorFlow、FasterTransformer和DeepSpeed,ByteTransformer在A100 GPU上的推理速度更快。
nlp-recipes - 使用最新深度学习模型加速自然语言处理系统开发
Github开源项目深度学习BERTtransformersNLPAzure Machine Learning
该资源库提供构建NLP系统的示例和最佳实践,重点关注最新的深度学习方法和常见场景,如文本分类、命名实体识别和文本摘要。支持多语言,特别是利用预训练模型应对不同语言任务。内容基于与客户的合作经验,旨在简化开发过程,帮助数据科学家和工程师快速部署AI解决方案。
相关文章
Contrastors: 高效的对比学习工具包
3 个月前
AnglE:一个强大的句子嵌入训练和推理框架
3 个月前
FasterTransformer: 加速Transformer模型推理的高性能库
3 个月前
Text Embeddings Inference: 高性能文本嵌入推理解决方案
3 个月前
spacy-transformers: 在spaCy中使用预训练Transformer模型
3 个月前
VITS中文语音合成系统: 基于BERT和VITS的高质量TTS实践
3 个月前
TensorFlow自然语言处理教程:从基础到高级的NLP实践指南
3 个月前
语言模型中文认知能力分析:探索词汇覆盖率与阅读理解的关系
3 个月前
NLP-recipes: 微软的自然语言处理最佳实践与示例
3 个月前