热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#GPT-NeoX-20B
gpt-neox-20b - EleutherAI开发的大规模开源语言模型
机器学习
人工智能
Github
自然语言处理
GPT-NeoX-20B
Huggingface
开源项目
模型
大规模语言模型
GPT-NeoX-20B是EleutherAI开发的200亿参数大规模语言模型。模型基于The Pile数据集训练,采用与GPT-3相似的架构,包含44层Transformer结构。作为研究导向的开源模型,支持下游任务开发和模型微调,但仅限于英语语言处理,且未经过人类反馈优化,不适合直接用于产品部署。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号