热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#前缀微调
japanese-gpt-neox-small - 日本GPT-NeoX小型模型,兼容Huggingface加载
Github
开源项目
文本生成
模型
NVIDIA
Huggingface
GPT-NeoX
日语
前缀微调
本项目提供了一个小型的日本GPT-NeoX模型,基于EleutherAI/gpt-neox代码进行训练。该模型使用Japanese CC-100、Japanese C4和Japanese Wikipedia数据集进行训练,优化语言模型目标。可通过Huggingface的GPT-NeoX无缝加载,模型结构包括12层、768隐藏单元,支持基于sentencepiece的分词。此外,还提供前缀调优权重文件,可以用于后接表情符号的句子生成。经过验证,该模型兼容NVIDIA FasterTransformer 5.1进行推理。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号