#生物医学

stanza - Python自然语言处理库,支持多种语言
StanzaNLPPythonStanford CoreNLP生物医学Github开源项目
Stanza是斯坦福NLP团队开发的Python自然语言处理库,支持60多种语言,提供高精度的自然语言处理工具,并可与Java Stanford CoreNLP软件集成。新推出的生物医学和临床英文模型包可以处理生物医学文献和临床笔记的句法分析和命名实体识别。Stanza可通过pip和Anaconda安装,适用于Python 3.6及以上版本,提供详细的文档和在线示例,帮助用户快速入门并高效使用。
KG_RAG - 解锁医学知识图谱的力量和KG-RAG框架概述
KG-RAG知识图谱大型语言模型生物医学GPTGithub开源项目
KG-RAG,一种融合生物医学知识图谱SPOKE与大型语言模型的检索增强生成系统,专为提升特定领域的语义理解而设计。了解其配置、运行方法及在生物医学应用中的实例。
LLaVA-Med - 生物医学视觉语言模型助力图像分析与智能问答
LLaVA-Med多模态生物医学大语言模型视觉问答Github开源项目
LLaVA-Med是一个针对生物医学领域的大规模语言和视觉模型。该模型通过课程学习方法对LLaVA进行了生物医学领域适应,在PathVQA和VQA-RAD等开放式生物医学问答任务中表现优异。LLaVA-Med支持多模态对话和视觉问答,为生物医学视觉语言处理研究提供了有力工具。需要注意的是,此模型仅供研究使用,不适用于临床决策。
visual-med-alpaca - 生物医学多模态AI模型实现图像理解和复杂问答
Visual Med-AlpacaLLM生物医学多模态AIGithub开源项目
Visual Med-Alpaca是一个参数高效的开源生物医学基础模型,集成了多模态能力。基于LLaMa-7B架构,该模型通过指令微调和视觉模块扩展,可执行放射影像解读和复杂临床问答等任务。仅需一张消费级GPU即可运行,为生物医学领域提供了灵活高效的AI研究工具。该项目仅供学术研究使用。
bluebert_pubmed_uncased_L-12_H-768_A-12 - 基于PubMed文本的BlueBERT模型及其应用
PubMedBERT模型BlueBert自然语言处理HuggingfaceGithub开源项目模型生物医学
探索在PubMed文献上预训练的BERT模型,BlueBERT利用4000M词语料库支持生物医学自然语言处理,提升医学信息提取和文本分析精度,并通过多个基准数据集的评估。
biomedical-ner-all - 基于英语的生物医学实体识别AI模型
生物医学Named Entity Recognition开源项目AI模型Huggingfacetransformers库MaccrobatGithub
该AI模型基于Maccrobat数据集训练,可以识别107种生物医学实体,适用于案例报告等文本工作。通过distilbert-base-uncased构建,拥有低碳排放(0.0279千克)和30.17分钟的训练时间。通过Huggingface API或transformers库,可便捷应用于生物医学领域;教程视频提供详细使用说明。
SapBERT-from-PubMedBERT-fulltext-mean-token - 生物医学实体表示自对齐预训练模型
SapBERT模型实体表示语义关系Github生物医学Huggingface开源项目自然语言处理
SapBERT是基于PubMedBERT开发的生物医学预训练模型,采用自对齐技术优化实体语义表示。该模型在医学实体链接任务中表现卓越,创下多项基准测试新纪录。它能有效捕捉精细语义关系,为实体链接等任务提供强大支持。研究人员可通过简单的代码实现实体嵌入提取,便于进行生物医学文本分析。
biomed_roberta_base - RoBERTa衍生模型在生物医学NLP任务中展现优异性能
语言模型Huggingface模型预训练Github开源项目自然语言处理生物医学RoBERTa
BioMed-RoBERTa-base是一个针对生物医学领域优化的语言模型,基于RoBERTa-base架构,通过对268万篇科学论文全文的持续预训练而成。该模型在文本分类、关系提取和命名实体识别等多项生物医学NLP任务中表现出色,比基础RoBERTa模型有显著提升。这为生物医学领域的自然语言处理研究提供了一个强大的预训练工具。
compact-biobert - 压缩优化的生物医学BERT模型
CompactBioBERTHuggingface模型深度学习Github开源项目自然语言处理模型蒸馏生物医学
CompactBioBERT是BioBERT的压缩版本,通过结合DistilBioBERT和TinyBioBERT的蒸馏技术,在PubMed数据集上训练而成。该模型采用6层transformer结构,隐藏层和嵌入层维度为768,总参数约6500万。CompactBioBERT在保持生物医学自然语言处理性能的同时,有效缩小了模型规模,提升了计算效率。
Llama3-OpenBioLLM-70B - 生物医学领域的开源大型语言模型
临床Huggingface医疗领域生物医学开源项目OpenBioLLM-70B模型Github模型训练
由Saama AI Labs开发的OpenBioLLM-70B是专为生物医学设计的开源语言模型。其在高质量数据集上进行微调,以70亿参数的性能在生物医学基准测试中表现优异,甚至超过了更大规模的模型。该模型基于Meta-Llama-3-70B-Instruct等架构,通过多样化的医疗数据集优化生物医学应用,为全球研究人员和开发者在医疗和生命科学领域提供支持。
Bio-Medical-Llama-3-8B - 适用于生物医学领域的精细化文本处理语言模型
医学生物医学模型GithubBio-Medical-Llama-3-8B开源项目大模型临床决策Huggingface
Bio-Medical-Llama-3-8B模型在定制的BioMedData数据集上进行微调,特别适用于生物医学应用。通过超过500,000条多样化的样本,这一模型在生物医学领域展现高质量的知识覆盖。它能够生成与生物医学相关的文本,为研究人员和临床医生提供有价值的支持,但在高风险场景中使用时需确保信息准确性并负责任地应用。
llava-med-v1.5-mistral-7b - Mistral-7B驱动的生物医学视觉语言模型 快速训练的开源研究工具
生物医学人工智能模型医学图像识别Github模型LLaVA-Med视觉语言处理Huggingface开源项目
LLaVA-Med-v1.5-Mistral-7b是一款专注生物医学领域的大型视觉语言模型。它基于PMC-15M数据集开发,采用课程学习方法训练,能处理多种医学图像类型,如显微镜、放射和组织学图像。该模型在PathVQA和VQA-RAD等基准测试中表现优异,为生物医学视觉语言研究提供了重要工具。值得注意的是,这是一个仅用于研究目的的开源项目,仅支持英语处理,不适用于临床环境。
WellcomeBertMesh - 基于PubMedBERT的生物医学文献主题分类模型
生物医学医学分类Github开源项目HuggingfacePubMedBert机器学习文本分析模型
WellcomeBertMesh是一款由WellcomeTrust开发的生物医学文本分类模型,基于最新的PubMedBERT架构,专门用于为生物医学文献和研究基金分配MeSH主题标签。该模型采用多标签注意力机制,在2.2百万篇PubMed文献上训练,实现了63%的微观F1分数。该模型可应用于研究基金申请审核和生物医学文献分类等领域的主题标注工作。
BioLinkBERT-base - 结合文献和引用关系的生物医学预训练模型
生物医学跨文档任务文本分类开源项目模型HuggingfaceBioLinkBERT特征提取Github
BioLinkBERT-base模型利用PubMed文献和引用信息进行预训练,在多项生物医学NLP基准测试中达到了出色表现。它在知识密集型及跨文档任务中尤为有效,并可用于问题回答、序列分类和特征提取的微调应用。
Llama3-OpenBioLLM-8B - 医疗领域的开源语言模型,助力创新与研究
临床问答OpenBioLLM-8B自然语言处理HuggingfaceGithub开源项目模型训练技术生物医学
OpenBioLLM-8B是一个由Saama AI Labs开发的开源生物医学语言模型。该模型通过先进技术和8亿参数的设计,实现了在生物医学任务中的高效表现,超过了同类模型的基准测试。其专注于满足医学和生命科学领域的语言需求,基于大量高质量的生物医学数据进行训练,能够高效生成和理解专业文本,为医疗创新提供支持。