#生物医学
stanza
Stanza是斯坦福NLP团队开发的Python自然语言处理库,支持60多种语言,提供高精度的自然语言处理工具,并可与Java Stanford CoreNLP软件集成。新推出的生物医学和临床英文模型包可以处理生物医学文献和临床笔记的句法分析和命名实体识别。Stanza可通过pip和Anaconda安装,适用于Python 3.6及以上版本,提供详细的文档和在线示例,帮助用户快速入门并高效使用。
KG_RAG
KG-RAG,一种融合生物医学知识图谱SPOKE与大型语言模型的检索增强生成系统,专为提升特定领域的语义理解而设计。了解其配置、运行方法及在生物医学应用中的实例。
LLaVA-Med
LLaVA-Med是一个针对生物医学领域的大规模语言和视觉模型。该模型通过课程学习方法对LLaVA进行了生物医学领域适应,在PathVQA和VQA-RAD等开放式生物医学问答任务中表现优异。LLaVA-Med支持多模态对话和视觉问答,为生物医学视觉语言处理研究提供了有力工具。需要注意的是,此模型仅供研究使用,不适用于临床决策。
visual-med-alpaca
Visual Med-Alpaca是一个参数高效的开源生物医学基础模型,集成了多模态能力。基于LLaMa-7B架构,该模型通过指令微调和视觉模块扩展,可执行放射影像解读和复杂临床问答等任务。仅需一张消费级GPU即可运行,为生物医学领域提供了灵活高效的AI研究工具。该项目仅供学术研究使用。
bluebert_pubmed_uncased_L-12_H-768_A-12
探索在PubMed文献上预训练的BERT模型,BlueBERT利用4000M词语料库支持生物医学自然语言处理,提升医学信息提取和文本分析精度,并通过多个基准数据集的评估。
biomedical-ner-all
该AI模型基于Maccrobat数据集训练,可以识别107种生物医学实体,适用于案例报告等文本工作。通过distilbert-base-uncased构建,拥有低碳排放(0.0279千克)和30.17分钟的训练时间。通过Huggingface API或transformers库,可便捷应用于生物医学领域;教程视频提供详细使用说明。
SapBERT-from-PubMedBERT-fulltext-mean-token
SapBERT是基于PubMedBERT开发的生物医学预训练模型,采用自对齐技术优化实体语义表示。该模型在医学实体链接任务中表现卓越,创下多项基准测试新纪录。它能有效捕捉精细语义关系,为实体链接等任务提供强大支持。研究人员可通过简单的代码实现实体嵌入提取,便于进行生物医学文本分析。
biomed_roberta_base
BioMed-RoBERTa-base是一个针对生物医学领域优化的语言模型,基于RoBERTa-base架构,通过对268万篇科学论文全文的持续预训练而成。该模型在文本分类、关系提取和命名实体识别等多项生物医学NLP任务中表现出色,比基础RoBERTa模型有显著提升。这为生物医学领域的自然语言处理研究提供了一个强大的预训练工具。
compact-biobert
CompactBioBERT是BioBERT的压缩版本,通过结合DistilBioBERT和TinyBioBERT的蒸馏技术,在PubMed数据集上训练而成。该模型采用6层transformer结构,隐藏层和嵌入层维度为768,总参数约6500万。CompactBioBERT在保持生物医学自然语言处理性能的同时,有效缩小了模型规模,提升了计算效率。