Project Icon

compact-biobert

压缩优化的生物医学BERT模型

CompactBioBERT是BioBERT的压缩版本,通过结合DistilBioBERT和TinyBioBERT的蒸馏技术,在PubMed数据集上训练而成。该模型采用6层transformer结构,隐藏层和嵌入层维度为768,总参数约6500万。CompactBioBERT在保持生物医学自然语言处理性能的同时,有效缩小了模型规模,提升了计算效率。

DNABERT - DNABERT:用于基因组DNA语言处理的双向编码器模型
BERTDNABERTGPUGithub基因组开源项目预训练模型
DNABERT提供完整的源码、使用示例、预训练和微调模型,适用于各类基因组DNA语言处理任务。该项目利用Huggingface的扩展工具,增添了多任务支持和高效的可视化功能。最新版DNABERT-2不仅提升了多物种基因组的处理能力,还发布了全面的Genome Understanding Evaluation (GUE)基准测试,涵盖28个数据集。
fast-bert - 快速训练和部署BERT与XLNet文本分类模型的深度学习库
Fast-BertGithub开源项目文本分类深度学习自然语言处理预训练模型
fast-bert是一个深度学习库,用于训练和部署基于BERT和XLNet的文本分类模型。它支持多类和多标签分类,提供数据处理、模型训练、参数调优和部署功能。该库集成了LAMB优化器和学习率查找器,旨在简化最新自然语言处理技术的应用过程。fast-bert适用于各类文本分类任务,能够帮助开发者快速构建高性能模型。
academic-budget-bert - 学术预算下的BERT模型高效训练方案
BERTGithub开源项目微调深度学习自然语言处理预训练
该项目提供一套脚本,用于在有限计算资源和时间预算下预训练和微调BERT类模型。基于DeepSpeed和Transformers库,项目实现了时间感知学习率调度和混合精度训练等优化技术。此外,还包含数据预处理、检查点保存和验证调度等功能,并提供训练命令生成工具。这些方法使研究人员能在学术预算限制内高效训练大型语言模型。
ColBERT - 基于BERT的快速大规模文本检索模型
BERTColBERTGithub信息检索向量相似度开源项目自然语言处理
ColBERT是一种基于BERT的检索模型,能在数十毫秒内实现大规模文本集合的高效搜索。该模型采用细粒度的上下文后期交互技术,将段落编码为令牌级嵌入矩阵,在保持检索质量的同时提高效率。ColBERT具备索引、检索和训练功能,适用于多种信息检索任务。模型提供预训练checkpoint和Python API,方便研究人员和开发者在实际项目中快速应用。
BERTopic - 高效的Transformers主题建模,支持多种模式
BERTopicGithubPythonc-TF-IDFtransformers主题建模开源项目
BERTopic是一种利用Transformers和c-TF-IDF进行主题建模的技术,能够生成易于解释的密集主题聚类,同时保留关键词描述。该项目支持多种主题建模方法,如有监督、半监督和无监督模式,具有模块化和高扩展性。丰富的可视化功能和多种表示方法进一步支持深入分析。BERTopic还兼容多种嵌入模型,并支持多语言处理,适应不同应用场景。
scibert_scivocab_uncased-finetuned-ner - 采用SciBERT微调的药物和不良反应识别模型
GithubHuggingfaceSciBERT不良反应医学命名实体识别开源项目模型药物
此模型基于SciBERT进行微调,专门用于识别药物名称和其不良反应,能够有效分类输入文本中的药物和不良反应实体,提升医学文本的信息提取效率。通过简单设置NER流水线,该模型可快速部署并用于自动化识别,主要应用于处理与药物和不良反应相关的自然语言处理任务,是处理ade_corpus_v2数据集的有效工具。
UltraFastBERT - 指数级加速的BERT语言模型训练与推理方案
BERTGithubUltraFastBERT开源项目机器学习神经网络语言模型
UltraFastBERT是一个开源项目,旨在通过创新的快速前馈(FFF)层设计实现BERT语言模型的指数级加速。项目提供了完整的训练代码,以及在CPU、PyTorch和CUDA平台上的高效实现。包含训练文件夹、各平台基准测试代码,以及UltraFastBERT-1x11-long模型的配置和权重,可通过HuggingFace轻松加载使用。研究人员可以方便地复现结果,并进一步探索该突破性技术在自然语言处理领域的广泛应用潜力。
KR-BERT - 高效小型韩语预训练模型
BERTGithubKR-BERT开源项目深度学习自然语言处理韩语模型
KR-BERT是首尔国立大学开发的韩语特定BERT模型,采用双向WordPiece分词技术,支持字符和子字符级处理。该模型在词汇量和参数规模上经过优化,在多项下游任务中表现出色,为韩语自然语言处理提供高效准确的解决方案。
chinese-roberta-wwm-ext-large - 中文自然语言处理的全词掩码预训练模型
BERTGithubHuggingface中文自然语言处理全词掩码开源项目模型知识蒸馏预训练模型
中文BERT全词掩码预训练模型加速中文自然语言处理,提升精准语义理解。基于Google BERT并结合全词掩码策略,其在文本分类、情感分析以及问答系统等多种NLP应用中表现优异,是探索中文语言理解的有力工具。
DNABERT_2 - 多物种基因组理解基础模型
DNABERT-2Github人工智能基因组开源项目深度学习生物信息学
DNABERT-2是一个针对多物种基因组理解的高效基础模型。该模型在28个GUE基准任务中表现优异,采用BPE替代k-mer标记化,ALiBi代替位置嵌入,并整合多项技术提升效率。DNABERT-2为基因组分析提供了强大工具,可用于序列分类、元素识别和功能预测等多种任务。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号