#日语模型
bert-base-japanese - 预训练于日语维基百科的BERT模型 结合IPA词典和WordPiece分词
日语模型模型维基百科BERTGithub开源项目Huggingface机器学习自然语言处理
该项目提供了一个基于日语维基百科预训练的BERT模型。模型采用IPA词典进行词级分词,并结合WordPiece算法进行子词处理。它保持了原始BERT base的架构设计,在2019年9月的日语维基百科数据上进行训练。模型使用MeCab配合IPA词典进行形态分析,词汇量达32000。遵循原始BERT的训练参数,该模型可广泛应用于日语自然语言处理领域。
xlm-roberta-ner-japanese - 基于XLM-RoBERTa的日语命名实体识别模型
模型GithubXLM-RoBERTa开源项目Huggingface固有表现抽出日语模型命名实体识别自然语言处理
xlm-roberta-ner-japanese是一个基于xlm-roberta-base的日语命名实体识别模型。该模型利用日本维基百科数据集进行训练,能够识别8种实体类型,包括人名、组织和地点等。模型在验证集上实现了0.9864的F1分数。它提供了简洁的使用方法,便于集成到各类自然语言处理应用中,适用于日语文本的实体提取任务。
bert-base-japanese-char-v2 - 基于日语维基百科的字符级BERT预训练模型
模型BERTGithub开源项目Huggingface机器学习日语模型维基百科数据集自然语言处理
本模型是基于日语维基百科训练的BERT预训练模型,采用字符级分词和全词掩码方法。它保持了原始BERT的12层结构和768维隐藏状态,使用MeCab和Unidic词典处理输入文本,词汇量为6144。训练在Cloud TPU上完成,遵循原始BERT的配置。该模型可广泛应用于日语自然语言处理领域,为研究和开发提供有力支持。
japanese-gpt2-medium - 中型日语GPT-2模型为自然语言处理提供强大支持
模型Github开源项目Huggingfacetransformer日语模型文本生成自然语言处理GPT-2
rinna公司开发的中型日语GPT-2模型基于CC-100和维基百科数据集训练。该模型采用24层1024隐藏单元的Transformer架构,使用sentencepiece分词器。通过Hugging Face可轻松调用,适用于多种日语自然语言处理任务。这个开源项目遵循MIT许可证,为日语NLP研究和应用奠定了坚实基础。
japanese-gpt2-small - rinna开发的轻量级日语自然语言处理模型
日语模型模型GPT-2Github文本生成开源项目Huggingface机器学习自然语言处理
japanese-gpt2-small是rinna公司开发的轻量级日语GPT-2模型。该模型基于CC-100和日语维基百科数据集训练,采用12层768隐藏单元的Transformer架构。它使用SentencePiece分词器,适用于文本生成等多种自然语言处理任务。模型在V100 GPU上训练约15天,验证集困惑度达到21左右。作为日语NLP的预训练基础模型,japanese-gpt2-small为相关研究和应用提供了有力支持。
gemma-2-2b-jpn-it - Gemma 2系列日语大模型实现多任务自然语言处理
机器学习Github日语模型HuggingfaceGemma 2 JPN开源项目模型大语言模型人工智能模型
Gemma 2系列2B参数日语大语言模型从Gemini技术中汲取灵感,通过8万亿tokens数据训练而成。模型支持日语文本生成、问答和摘要等功能,采用TPUv5p硬件与JAX框架开发。在日语任务评测中准确率达98.24%,提供多种部署方案及精度配置选项。
roberta-base-japanese-with-auto-jumanpp - 日语RoBERTa预训练语言模型
开源项目日语模型模型文本预训练RoBERTa机器学习Github自然语言处理Huggingface
RoBERTa日语基础模型通过日本维基百科和CC-100语料库训练而成,采用Juman++分词系统和32000规模词表,支持掩码语言建模与下游任务微调。模型经过A100 GPU集群训练,在JGLUE基准测试中展现出稳定性能,可作为日语自然语言处理的基础模型使用。
tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.1-gguf - 基于Llama 3.1的日英双语指令模型GGUF版本 支持高效本地部署
语言模型GithubLlama-3.1开源项目模型Huggingface机器学习日语模型人工智能
该项目是tokyotech-llm团队开发的Llama-3.1-Swallow-8B-Instruct模型的GGUF格式版本。原模型基于Llama 3.1架构,使用imatrix日语数据集训练,支持日英双语交互。GGUF格式优化了模型的本地部署效率,特别适合在llama.cpp框架下运行。模型可用于日语对话、任务执行等多种场景,具有良好的指令理解能力。
shisa-gamma-7b-v1 - 英日双语优化的Japanese Stable LM语言模型
语言模型Github开源项目模型Huggingface机器学习日语模型Shisa-gamma-7b人工智能
shisa-gamma-7b-v1是基于Japanese Stable LM Base Gamma 7B的微调模型,经过数据集优化后在JA MT-Bench测试中取得了显著成果。该模型支持日语和英语双语处理,采用Apache-2.0许可证,适用于需要日英语言处理能力的开发场景。
EZO-gemma-2-2b-jpn-it-GGUF - GGUF格式优化的日语Gemma模型
开源项目iMatrix日语模型Github模型量子化HuggingfaceGemmaGGUF
EZO-gemma-2-2b-jpn-it-GGUF项目将AXCXEPT的日语Gemma模型转换为GGUF格式,提高了模型效率。项目采用K量子化技术,并利用TFMC提供的iMatrix数据集增强日语处理能力。这些优化使得模型在保持高性能的同时更加轻量化,适合需要高效日语语言模型的应用场景。