热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#GPT-J 6B
gpt-j-6b - 基于The Pile数据集训练的60亿参数大规模语言模型
Github
开源项目
自然语言处理
语言模型
模型
Huggingface
transformer
EleutherAI
GPT-J 6B
GPT-J 6B是EleutherAI团队开发的60亿参数大规模语言模型,基于The Pile数据集训练。模型采用Mesh Transformer JAX架构,包含28层和4096维度结构。在多项自然语言处理任务中表现优异,但存在产生不当内容的风险。主要用途为文本生成,不适合直接部署于用户应用,需要人工审核和监督。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号