#日语模型

japanese-gpt2-medium - 中型日语GPT-2模型为自然语言处理提供强大支持
模型Github开源项目Huggingfacetransformer日语模型文本生成自然语言处理GPT-2
rinna公司开发的中型日语GPT-2模型基于CC-100和维基百科数据集训练。该模型采用24层1024隐藏单元的Transformer架构,使用sentencepiece分词器。通过Hugging Face可轻松调用,适用于多种日语自然语言处理任务。这个开源项目遵循MIT许可证,为日语NLP研究和应用奠定了坚实基础。
japanese-gpt2-small - rinna开发的轻量级日语自然语言处理模型
日语模型模型GPT-2Github文本生成开源项目Huggingface机器学习自然语言处理
japanese-gpt2-small是rinna公司开发的轻量级日语GPT-2模型。该模型基于CC-100和日语维基百科数据集训练,采用12层768隐藏单元的Transformer架构。它使用SentencePiece分词器,适用于文本生成等多种自然语言处理任务。模型在V100 GPU上训练约15天,验证集困惑度达到21左右。作为日语NLP的预训练基础模型,japanese-gpt2-small为相关研究和应用提供了有力支持。
gemma-2-2b-jpn-it - Gemma 2系列日语大模型实现多任务自然语言处理
机器学习Github日语模型HuggingfaceGemma 2 JPN开源项目模型大语言模型人工智能模型
Gemma 2系列2B参数日语大语言模型从Gemini技术中汲取灵感,通过8万亿tokens数据训练而成。模型支持日语文本生成、问答和摘要等功能,采用TPUv5p硬件与JAX框架开发。在日语任务评测中准确率达98.24%,提供多种部署方案及精度配置选项。
roberta-base-japanese-with-auto-jumanpp - 日语RoBERTa预训练语言模型
开源项目日语模型模型文本预训练RoBERTa机器学习Github自然语言处理Huggingface
RoBERTa日语基础模型通过日本维基百科和CC-100语料库训练而成,采用Juman++分词系统和32000规模词表,支持掩码语言建模与下游任务微调。模型经过A100 GPU集群训练,在JGLUE基准测试中展现出稳定性能,可作为日语自然语言处理的基础模型使用。
tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.1-gguf - 基于Llama 3.1的日英双语指令模型GGUF版本 支持高效本地部署
语言模型GithubLlama-3.1开源项目模型Huggingface机器学习日语模型人工智能
该项目是tokyotech-llm团队开发的Llama-3.1-Swallow-8B-Instruct模型的GGUF格式版本。原模型基于Llama 3.1架构,使用imatrix日语数据集训练,支持日英双语交互。GGUF格式优化了模型的本地部署效率,特别适合在llama.cpp框架下运行。模型可用于日语对话、任务执行等多种场景,具有良好的指令理解能力。
shisa-gamma-7b-v1 - 英日双语优化的Japanese Stable LM语言模型
语言模型Github开源项目模型Huggingface机器学习日语模型Shisa-gamma-7b人工智能
shisa-gamma-7b-v1是基于Japanese Stable LM Base Gamma 7B的微调模型,经过数据集优化后在JA MT-Bench测试中取得了显著成果。该模型支持日语和英语双语处理,采用Apache-2.0许可证,适用于需要日英语言处理能力的开发场景。
EZO-gemma-2-2b-jpn-it-GGUF - GGUF格式优化的日语Gemma模型
开源项目iMatrix日语模型Github模型量子化HuggingfaceGemmaGGUF
EZO-gemma-2-2b-jpn-it-GGUF项目将AXCXEPT的日语Gemma模型转换为GGUF格式,提高了模型效率。项目采用K量子化技术,并利用TFMC提供的iMatrix数据集增强日语处理能力。这些优化使得模型在保持高性能的同时更加轻量化,适合需要高效日语语言模型的应用场景。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号