热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#混合SSM-Transformer
Jamba-v0.1 - 混合SSM-Transformer架构的高性能大语言模型
模型
开源项目
语言模型
Huggingface
Jamba
混合SSM-Transformer
人工智能模型
Github
深度学习
Jamba-v0.1是一款创新的混合SSM-Transformer大语言模型,拥有12B活跃参数和52B总参数。它不仅提供了更高的吞吐量,还在多数常见基准测试中表现优异。该模型支持256K上下文长度,单个80GB GPU可处理多达140K个标记。作为首个生产规模的Mamba实现,Jamba为AI研究和应用开辟了广阔前景。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号