Project Icon

gatortron-base

大规模临床语言模型GatorTron-Base助力医疗AI研究

GatorTron-Base是佛罗里达大学与NVIDIA合作开发的临床语言模型,基于BERT架构,拥有3.45亿参数。该模型利用820亿字的去标识化临床笔记等多源数据预训练,可应用于临床概念提取、关系抽取等多项自然语言处理任务。GatorTron-Base为研究人员提供了强大的开源工具,推动了医疗AI领域的发展,为临床文本分析开辟了新的可能性。

gliner_base - 灵活的命名实体识别模型,适用各种场景
BERTGLiNERGithubHuggingface命名实体识别多语言开源库开源项目模型
GLiNER是基于双向Transformer编码器的命名实体识别模型,能够识别多种实体类型,是传统NER模型的实用替代方案。与大型语言模型相比,GLiNER在资源受限场景中更高效且成本更低。该模型支持多语言并易于安装,用户可通过Python库轻松集成和使用。最新版本更新了多个模型参数,提升了性能,适合广泛的语言环境。该模型由Urchade Zaratiana等人开发,旨在提升科研和工业界的文本分析能力。
bigbird-roberta-base - 高性能长序列文本处理的稀疏注意力Transformer模型
BigBirdGithubHuggingfacetransformer模型开源项目模型深度学习自然语言处理长序列处理
BigBird-RoBERTa-base是一种基于块稀疏注意力机制的Transformer模型,可处理长达4096个token的序列。该模型在Books、CC-News、Stories和Wikipedia等大规模数据集上预训练,大幅降低了计算成本。在长文档摘要和长上下文问答等任务中,BigBird-RoBERTa-base展现出优秀性能。模型支持灵活配置注意力类型,可在默认的块稀疏模式和全注意力模式间切换,为超长序列文本处理提供了高效方案。
bert-kor-base - BERT韩语基础模型助力自然语言处理任务
BERTGithubHuggingfaceTransformers开源项目模型自然语言处理韩语模型预训练模型
bert-kor-base是一个韩语BERT基础模型,利用70GB韩语文本和42000个小写子词训练而成。该模型可应用于文本分类、命名实体识别、问答系统等韩语自然语言处理任务。研究者可通过Hugging Face的transformers库轻松使用。GitHub项目页面提供了详细的性能评估和与其他韩语模型的对比,为相关研究和应用开发提供参考。
git-base - 微软GIT-base模型 图像到文本的多功能视觉语言处理工具
GITGithubHuggingface图像到文本开源项目微软模型自然语言处理计算机视觉
GIT-base是微软开发的基于Transformer的图像到文本生成模型。该模型能够生成图像和视频的文本描述,支持视觉问答等多种应用。GIT-base采用CLIP图像tokens和文本tokens进行条件训练,基于1000万图文对数据集。作为一个灵活多功能的视觉语言处理工具,GIT-base为图像理解和跨模态任务提供了新的解决方案。
t5-3b - 统一多语言自然语言处理任务的创新模型
GithubHuggingfaceT5-3B多任务学习开源项目文本到文本转换模型自然语言处理预训练模型
T5-3B是一个拥有30亿参数的多语言自然语言处理模型。它采用创新的文本到文本框架,统一处理机器翻译、文档摘要、问答和分类等多种NLP任务。该模型在C4语料库上预训练,并在24个任务中进行评估,展现出优秀的多语言和多任务处理能力。T5-3B为NLP领域的迁移学习研究提供了新的思路和可能性。
MedLLMsPracticalGuide - 医疗大语言模型的发展现状与应用前景
Github人工智能医疗医学知识库医疗决策支持医疗大语言模型医疗应用开源项目
该项目提供了医疗大语言模型(Medical LLMs)的综合资源清单,基于一篇全面的综述论文。内容涵盖医疗LLMs的基本原理、构建方法、应用场景和面临的挑战,包括构建流程、医疗数据利用、生物医学任务、临床实践等多个方面。项目为医疗LLMs的研究与开发提供了宝贵的见解和实用指南,有助于推动这一前沿技术在医疗领域的创新应用。
gbert-base - 基于维基百科训练的高性能德语BERT预训练模型
BERTGithubHaystackHuggingface开源项目德语模型机器学习模型自然语言处理
gbert-base是一款德语BERT预训练模型,由原始German BERT与dbmdz BERT团队于2020年10月联合发布。模型使用维基百科、OPUS和OpenLegalData数据集进行训练,在GermEval18和GermEval14基准测试中取得了显著优于前代模型的性能表现。作为开源项目,该模型采用MIT许可证,可用于多种德语自然语言处理应用场景。
compact-biobert - 压缩优化的生物医学BERT模型
CompactBioBERTGithubHuggingface开源项目模型模型蒸馏深度学习生物医学自然语言处理
CompactBioBERT是BioBERT的压缩版本,通过结合DistilBioBERT和TinyBioBERT的蒸馏技术,在PubMed数据集上训练而成。该模型采用6层transformer结构,隐藏层和嵌入层维度为768,总参数约6500万。CompactBioBERT在保持生物医学自然语言处理性能的同时,有效缩小了模型规模,提升了计算效率。
bert-base-german-cased - 高性能德语BERT模型助力自然语言处理应用
BERTGithubHugging FaceHuggingface开源项目德语模型模型深度学习自然语言处理
此德语BERT模型由巴伐利亚州立图书馆MDZ团队开发,基于维基百科、EU Bookshop等多源语料库训练而成。模型包含23.5亿个词元,提供大小写敏感和不敏感版本,支持PyTorch-Transformers框架。它适用于各类德语自然语言处理任务,在Hugging Face模型库开源,并获得Google TensorFlow Research Cloud支持。
mGPT - 基于GPT架构的大规模多语种自然语言处理模型
GPTGithubHuggingfaceMegatron多语言模型开源项目模型深度学习自然语言处理
作为一个基于GPT-3架构的多语言处理模型,mGPT具备13亿参数量,覆盖25个语系的61种语言。模型采用Wikipedia和Colossal Clean Crawled Corpus作为训练数据,结合Deepspeed与Megatron框架实现并行计算,在低资源语言处理领域达到与XGLM相当的性能水平。模型训练过程中处理了488亿UTF字符,借助256个NVIDIA V100 GPU完成了为期14天的训练。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号