热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Falcon2-11B
falcon-11B - 11种语言支持的大规模语言模型,基于5000亿数据训练打造
Falcon2-11B
语言模型
人工智能
Github
模型
自然语言处理
机器学习
开源项目
Huggingface
Falcon2-11B是一个110亿参数的因果解码器模型,由TII开发并在5000亿个RefinedWeb tokens上训练。该模型支持11种语言,采用Flash-Attention 2技术,具有8192tokens的上下文长度。模型在多个基准测试中表现优异,适用于语言模型研究、文本生成、摘要和对话等任务的微调。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号