#语言模型

KoGPT学习资料汇总 - 韩语生成预训练Transformer模型

2 个月前
Cover of KoGPT学习资料汇总 - 韩语生成预训练Transformer模型

Multimodal-GPT入门学习资料 - 训练视觉语言对话模型的开源项目

2 个月前
Cover of Multimodal-GPT入门学习资料 - 训练视觉语言对话模型的开源项目

Awesome-Prompt-Engineering学习资料汇总 - 提升大语言模型提示工程能力的一站式资源

2 个月前
Cover of Awesome-Prompt-Engineering学习资料汇总 - 提升大语言模型提示工程能力的一站式资源

keras-llm-robot学习资料汇总 - 一个用于学习大型语言模型的Web UI项目

2 个月前
Cover of keras-llm-robot学习资料汇总 - 一个用于学习大型语言模型的Web UI项目

Local-LLM-Comparison-Colab-UI入门指南 - 比较本地部署LLM性能的开源项目

2 个月前
Cover of Local-LLM-Comparison-Colab-UI入门指南 - 比较本地部署LLM性能的开源项目

NExT-GPT学习资料汇总 - 任意模态间的多模态大语言模型

2 个月前
Cover of NExT-GPT学习资料汇总 - 任意模态间的多模态大语言模型

lectures - 深度自然语言处理课程学习资料汇总 - 牛津大学计算机系开源课程

2 个月前
Cover of lectures - 深度自然语言处理课程学习资料汇总 - 牛津大学计算机系开源课程

AI笔记学习资料汇总 - 软件工程师的AI开发指南

2 个月前
Cover of AI笔记学习资料汇总 - 软件工程师的AI开发指南

femtoGPT学习资料汇总 - 纯Rust实现的极简生成式预训练Transformer

2 个月前
Cover of femtoGPT学习资料汇总 - 纯Rust实现的极简生成式预训练Transformer

RAPTOR入门指南 - 基于递归树结构的高效文本检索与问答系统

2 个月前
Cover of RAPTOR入门指南 - 基于递归树结构的高效文本检索与问答系统
相关项目
Project Cover

POLAR-14B-v0.2

POLAR-14B-v0.2由Plateer AI实验室开发,受启于SOLAR,致力于韩文语言模型的持续发展与贡献。

Project Cover

scibert_scivocab_cased

SciBERT是一款用于科学文本的预训练语言模型,基于Semantic Scholar的114万篇论文和31亿个标记进行训练。其专有的scivocab词汇表利于更好地匹配训练语料,支持cased和uncased模型版本,适合科学文献分析。

Project Cover

distilbert-base-uncased-go-emotions-student

该模型运用未标注GoEmotions数据集,利用零样本学习技术进行精炼。尽管其性能可能略逊于完全监督下的模型,但它展示了如何将复杂的自然语言推理模型简化为高效的模型,以便在未标注数据上进行分类器训练。

Project Cover

OLMo-1B-hf

OLMo是一个由Allen Institute for AI开发的开源语言模型,支持Hugging Face Transformers格式和Dolma数据集,具有自回归Transformer架构,适合多种语言处理任务,涵盖完整训练代码和检查点。

Project Cover

deepseek-llm-7b-chat

DeepSeek LLM 是一种含有7B参数的语言模型,在中英文数据上进行广泛训练,并开源以支持研究。模型经过指令优化,适用于自然语言处理任务,并通过示例展示了互动方式,如聊天功能。该模型支持商业用途,其使用需符合许可协议。

Project Cover

roberta-base-bne

roberta-base-bne是一种基于西班牙国家图书馆560GB文本进行大规模预训练的西班牙语掩码语言模型,适用于问答、文本分类和命名实体识别等。该模型可能存在偏见,建议为具体任务进行微调。如有问题,可联系巴塞罗那超级计算中心的文本挖掘团队。

Project Cover

Qwen1.5-MoE-A2.7B

Qwen1.5-MoE-A2.7B是一种基于Transformer架构和专家混合(MoE)的大规模预训练语言模型,通过重构密集模型来增强性能。它推理速度提高1.74倍,训练资源仅为类似模型的25%。建议在使用中结合SFT或RLHF等后训练技术,以进一步改进文本生成能力。详细信息及源码可在博客和GitHub仓库中查看。

Project Cover

flaubert_small_cased

FlauBERT是基于大型法语语料库进行预训练的无监督语言模型,提供多种尺寸选择。结合FLUE评估平台,增强法语自然语言处理的评估能力。该项目利用CNRS Jean Zay超算机,支持未来的可重复实验,并已集成于Hugging Face的Transformers库中,便于开发者应用。

Project Cover

bloom

BLOOM是一个自回归大规模语言模型,使用工业级计算资源训练,能够以46种语言和13种编程语言生成逼真的文本。该模型不仅胜任特定的任务,同时也能转换文本生成其他未明确训练的任务。BLOOM的设计强调多语言文本生成,对于公共研究提供了重要支持,其在法国的超级计算机上训练,以减少环境影响。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号