#llm-jp
llm-jp-13b-v2.0 - 改进日本大型语言模型的开发与应用
Huggingfacellm-jp开源项目模型预训练Github自然语言处理大语言模型指令微调
由日本团队发起,项目提供基于Transformer架构的大型语言模型,支持多种编程语言和文本生成,专注于自然语言处理。模型经过大规模数据集的预训练和细化调试,展现出卓越的文本生成能力。
llm-jp-3-1.8b-instruct - 跨平台大规模语言模型的多语言开发与评估
大规模语言模型Github开源项目指令微调transformersHuggingface预训练llm-jp模型
项目由日本国家信息学研究所研发中心开发,提供支持多种编程语言的大型语言模型,如C、Python、Java。采用Transformer架构,模型经过大规模数据集的预训练与优化微调,适用于多语言环境。用户可通过Hugging Face Transformers库轻松集成与使用。项目提供模型技术细节、参数设置和语言标记器使用方法,以及多样化的数据集和评估方案,适用于中文、英文、日文等语言。