Project Icon

gatortron-base

大规模临床语言模型GatorTron-Base助力医疗AI研究

GatorTron-Base是佛罗里达大学与NVIDIA合作开发的临床语言模型,基于BERT架构,拥有3.45亿参数。该模型利用820亿字的去标识化临床笔记等多源数据预训练,可应用于临床概念提取、关系抽取等多项自然语言处理任务。GatorTron-Base为研究人员提供了强大的开源工具,推动了医疗AI领域的发展,为临床文本分析开辟了新的可能性。

gpt2-large - OpenAI开发的大规模语言模型,具有强大的文本生成能力
GPT-2GithubHuggingfaceOpenAItransformer开源项目模型自然语言处理语言模型
GPT-2 Large是OpenAI开发的大型语言模型,拥有7.74亿参数。基于Transformer架构,该模型在大规模英文语料上进行预训练,可用于文本生成、写作辅助等多种自然语言处理任务。GPT-2 Large展现出强大的语言理解和生成能力,但也存在一些偏见和局限性。研究人员可利用它探索大规模语言模型的行为、能力和约束,为自然语言处理领域提供重要研究工具。
albert-base-v1 - 共享层架构的轻量级语言模型
ALBERTGithubHuggingface开源项目掩码语言建模文本分类模型自然语言处理预训练模型
ALBERT Base v1是一个采用层共享架构的自然语言处理模型。通过12个重复层的设计,在保持11M小体积的同时实现了强大的语言理解能力。该模型在文本分类、问答等任务中表现优异,适用于需要理解完整句子语境的应用场景。其创新的架构设计既降低了内存占用,又保持了良好的处理性能。
gte-base - 多语言句子嵌入模型优化自然语言处理任务
GithubHuggingfaceSentence Transformers句子转换器开源项目机器学习模型自然语言处理语义相似度
gte-base是一个优化多语言句子相似度任务的句子转换器模型。在MTEB基准测试中,该模型在分类、检索、聚类和语义文本相似度等多个子任务上表现出色。支持多语言处理的特性使其适用于信息检索、问答系统和文本分析等多种自然语言处理应用场景。
gte-base-en-v1.5 - 英文文本嵌入模型在自然语言处理任务中的应用
GithubHuggingfaceMTEBsentence-transformerstransformers分类开源项目检索模型
gte-base-en-v1.5是一个英文文本嵌入模型,在MTEB基准测试中展现出优秀性能。该模型在句子相似度、文本分类和信息检索等自然语言处理任务中表现突出,能有效捕捉文本语义并为下游应用提供高质量的文本表示。测试结果显示,gte-base-en-v1.5在多个评估指标上取得了良好成绩,体现了其在不同应用场景中的实用价值。
BioMistral-7B - 多语言开源生物医学语言模型评估
BioMistralGithubHuggingface医学多语言开源开源项目模型量化
BioMistral是专为生物医学设计的开源大型语言模型,基于Mistral,经PubMed Central数据进一步训练,表现出色于多语言医学问答评估。其轻量化模型可通过量化和模型合并提升竞争力,为医学领域首次进行跨语言大规模评估。所有模型、评估基准和脚本免费开放供研究使用,建议避免在临床或专业医疗环境中应用,因存在潜在风险和偏见。
mdeberta-v3-base - DeBERTa V3架构多语言模型助力跨语言NLU任务
DeBERTaGithubHuggingface多语言模型开源项目模型深度学习自然语言处理预训练模型
mdeberta-v3-base是基于DeBERTa V3架构的多语言预训练模型,使用2.5T CC100数据训练。在XNLI跨语言迁移任务中,其平均准确率达79.8%,显著超越XLM-R。模型采用梯度解耦嵌入共享和ELECTRA式预训练,增强下游任务表现。结构包含12层transformer,768维隐藏层,共2.76亿参数。适用于多语言自然语言理解任务,尤其在低资源语言中表现出色。
bge-base-en-v1.5 - 增强文本处理能力的多任务学习模型
GithubHuggingfacesentence-transformers分类句子相似性句子聚类开源项目模型特征提取
bge-base-en-v1.5模型通过多任务学习优化自然语言处理技术,覆盖分类、检索、聚类和重排任务。在多个MTEB数据集上表现优异,例如在亚马逊情感分类任务中达到93.39%的准确率,在AskUbuntu重排任务中MRR达到74.28%。该模型具有MIT开源许可,适用于多种英语任务,为研究人员和开发者提供有效支持。
SapBERT-UMLS-2020AB-all-lang-from-XLMR - 跨语言生物医学实体表示学习框架
GithubHuggingfaceSapBERT实体链接开源项目模型生物医学自然语言处理跨语言模型
SapBERT-UMLS-2020AB-all-lang-from-XLMR是基于XLM-RoBERTa的跨语言生物医学实体表示学习框架。该模型利用UMLS 2020AB数据集训练,生成高质量的多语言生物医学实体嵌入。在ACL 2021和NAACL 2021会议上获得认可,为生物医学实体链接和语义相似度计算提供有力支持。研究人员可便捷提取实体表示,推动跨语言生物医学文本挖掘研究发展。
QiZhenGPT - 开源中文医学大语言模型
GithubQiZhen医学大模型中文医学语言模型开源项目疾病知识指令药品知识问答长尾关键词
利用QiZhenGPT,结合启真医学知识库,构建高效的中文医学语言模型,提升药品和疾病问答精确度。致力于持续优化该技术,支持医患交流,并助力医疗记录自动生成。
openai-gpt - 开创性语言模型推动自然语言处理发展
GPTGithubHuggingfaceOpenAI开源项目模型自然语言处理语言模型预训练
OpenAI GPT是基于Transformer架构的开创性语言模型,采用无监督预训练方法。它在文本推理、语义相似度和阅读理解等多项自然语言处理任务中表现优异,为后续GPT系列奠定了基础。该模型使用12层Transformer结构,在BooksCorpus数据集上进行预训练。尽管存在一些限制,OpenAI GPT仍是自然语言处理领域的重要里程碑。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号