#生物医学

KG_RAG学习资料汇总 - 知识图谱增强的检索生成框架

2 个月前
Cover of KG_RAG学习资料汇总 - 知识图谱增强的检索生成框架

Visual Med-Alpaca:生物医学领域的开源多模态基础模型

3 个月前
Cover of Visual Med-Alpaca:生物医学领域的开源多模态基础模型

LLaVA-Med: 革命性的生物医学大规模语言与视觉助手

3 个月前
Cover of LLaVA-Med: 革命性的生物医学大规模语言与视觉助手

LLaVA-Med: 一日训练的生物医学大型语言与视觉助手

3 个月前
Cover of LLaVA-Med: 一日训练的生物医学大型语言与视觉助手

KG-RAG: 知识图谱增强的检索增强生成技术

3 个月前
Cover of KG-RAG: 知识图谱增强的检索增强生成技术

Stanza: 斯坦福大学开发的多语言自然语言处理工具库

3 个月前
Cover of Stanza: 斯坦福大学开发的多语言自然语言处理工具库
相关项目
Project Cover

stanza

Stanza是斯坦福NLP团队开发的Python自然语言处理库,支持60多种语言,提供高精度的自然语言处理工具,并可与Java Stanford CoreNLP软件集成。新推出的生物医学和临床英文模型包可以处理生物医学文献和临床笔记的句法分析和命名实体识别。Stanza可通过pip和Anaconda安装,适用于Python 3.6及以上版本,提供详细的文档和在线示例,帮助用户快速入门并高效使用。

Project Cover

KG_RAG

KG-RAG,一种融合生物医学知识图谱SPOKE与大型语言模型的检索增强生成系统,专为提升特定领域的语义理解而设计。了解其配置、运行方法及在生物医学应用中的实例。

Project Cover

LLaVA-Med

LLaVA-Med是一个针对生物医学领域的大规模语言和视觉模型。该模型通过课程学习方法对LLaVA进行了生物医学领域适应,在PathVQA和VQA-RAD等开放式生物医学问答任务中表现优异。LLaVA-Med支持多模态对话和视觉问答,为生物医学视觉语言处理研究提供了有力工具。需要注意的是,此模型仅供研究使用,不适用于临床决策。

Project Cover

visual-med-alpaca

Visual Med-Alpaca是一个参数高效的开源生物医学基础模型,集成了多模态能力。基于LLaMa-7B架构,该模型通过指令微调和视觉模块扩展,可执行放射影像解读和复杂临床问答等任务。仅需一张消费级GPU即可运行,为生物医学领域提供了灵活高效的AI研究工具。该项目仅供学术研究使用。

Project Cover

bluebert_pubmed_uncased_L-12_H-768_A-12

探索在PubMed文献上预训练的BERT模型,BlueBERT利用4000M词语料库支持生物医学自然语言处理,提升医学信息提取和文本分析精度,并通过多个基准数据集的评估。

Project Cover

biomedical-ner-all

该AI模型基于Maccrobat数据集训练,可以识别107种生物医学实体,适用于案例报告等文本工作。通过distilbert-base-uncased构建,拥有低碳排放(0.0279千克)和30.17分钟的训练时间。通过Huggingface API或transformers库,可便捷应用于生物医学领域;教程视频提供详细使用说明。

Project Cover

SapBERT-from-PubMedBERT-fulltext-mean-token

SapBERT是基于PubMedBERT开发的生物医学预训练模型,采用自对齐技术优化实体语义表示。该模型在医学实体链接任务中表现卓越,创下多项基准测试新纪录。它能有效捕捉精细语义关系,为实体链接等任务提供强大支持。研究人员可通过简单的代码实现实体嵌入提取,便于进行生物医学文本分析。

Project Cover

biomed_roberta_base

BioMed-RoBERTa-base是一个针对生物医学领域优化的语言模型,基于RoBERTa-base架构,通过对268万篇科学论文全文的持续预训练而成。该模型在文本分类、关系提取和命名实体识别等多项生物医学NLP任务中表现出色,比基础RoBERTa模型有显著提升。这为生物医学领域的自然语言处理研究提供了一个强大的预训练工具。

Project Cover

compact-biobert

CompactBioBERT是BioBERT的压缩版本,通过结合DistilBioBERT和TinyBioBERT的蒸馏技术,在PubMed数据集上训练而成。该模型采用6层transformer结构,隐藏层和嵌入层维度为768,总参数约6500万。CompactBioBERT在保持生物医学自然语言处理性能的同时,有效缩小了模型规模,提升了计算效率。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号