#Polyglot-Ko
awesome-korean-llm - 全面解析韩语开源大语言模型资源列表
Github开源项目开源LLMLlama韩语Polyglot-Ko
本资源列表全面汇总了韩语开源大语言模型(LLM)信息。内容涵盖Polyglot-Ko、KoAlpaca、KULLM等多种韩语LLM模型,提供模型规模、开发者、基础架构等核心数据。同时按基础模型对韩语LLM进行分类,包括基于Polyglot-Ko、Llama、Llama-2等的不同类型。该列表为韩语自然语言处理研究者提供了重要参考。
polyglot-ko-5.8b - EleutherAI开发的58亿参数韩语自然语言处理模型
Github开源项目模型模型评估Huggingface大规模语言模型Polyglot-Ko韩语模型自回归语言模型
Polyglot-Ko-5.8B是EleutherAI团队开发的韩语自然语言处理模型,拥有58亿参数。该模型在863GB韩语数据上训练,在KOBEST基准测试中表现出色。它可用于多种NLP任务,但可能存在偏见和不准确性。模型采用Apache 2.0许可开源,为韩语NLP研究提供了有力支持。
polyglot-ko-1.3b - EleutherAI推出13亿参数韩语自然语言处理模型
Github开源项目自然语言处理模型Huggingface大规模语言模型Polyglot-Ko韩语模型自回归语言模型
Polyglot-Ko-1.3B是EleutherAI团队开发的韩语自回归语言模型,拥有13亿参数。该模型在863GB韩语数据上训练,在KOBEST基准测试中表现优异。与同规模模型相比,Polyglot-Ko-1.3B在多个下游任务中展现出显著优势,可应用于多种韩语自然语言处理任务。
polyglot-ko-3.8b - 韩国大规模自回归语言模型的技术突破
Github开源项目模型HuggingfaceEleutherAIPolyglot-Ko自动回归模型韩国语言模型RoPE位置编码
Polyglot-Ko-3.8B是一个由EleutherAI开发的韩国大型自回归语言模型,具有3.8B参数和32个Transformer层,采用Rotary位置编码。模型在超过863GB的韩语数据集上训练,但不对公众开放,并在训练中屏蔽了个人信息,以防止生成个人识别数据。Polyglot-Ko-3.8B在COPA和HellaSwag任务中表现优异。此模型可在GPT-NeoX框架中使用,适合多种语言处理任务,但建议在使用时对潜在敏感内容进行人类审核。