#日语能力
ELYZA-japanese-Llama-2-7b-fast-instruct - 提升日本语言处理与指令执行的创新模型
人工智能Github开源项目模型HuggingfaceLlama2日语能力ELYZA-japanese-Llama-2-7b追加事前学习
ELYZA-japanese-Llama-2-7b-fast-instruct基于Llama2,专注于提升日语处理能力,提供流畅的语言体验。通过针对日语的扩展训练,该模型在理解和生成日语方面表现优异,并支持GPU加速,以优化计算性能,适用于多种应用场景。欲了解更多使用案例和详细信息,请访问官方页面。
Llama-3.1-Swallow-8B-Instruct-v0.1 - 基于Llama 3.1的日英双语大语言模型
Github开源项目大语言模型模型Huggingface指令微调评估基准日语能力Llama 3.1 Swallow
Llama-3.1-Swallow-8B-Instruct是一个基于Meta Llama 3.1持续预训练的日英双语大语言模型。模型使用2000亿个来自日语网络语料库、维基百科、数学和编程领域的token进行训练,并通过日语合成数据进行指令微调。在日语能力显著提升的同时保持了原有的英语水平,各项基准测试表现优异。该模型适合需要高质量日英双语理解和生成的应用场景。
Llama-3-Swallow-8B-Instruct-v0.1 - 利用Meta Llama 3进行日语数据增强的持续预训练
Github开源项目语言模型预训练模型HuggingfaceLlama3日语能力Meta Llama
Llama-3-Swallow-8B-Instruct-v0.1是基于Meta Llama 3的语言模型,专注于日语的持续预训练和多项任务优化。通过监督微调和Chat Vector,模型在日语和英语任务中表现突出,包括选择题问答和代码生成。此模型由东京工业大学和合作机构开发,得到日本先进工业科学技术研究所的支持,旨在加强语言模型的生成、摘要及翻译能力。