热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#DARE_TIES_13B
DARE_TIES_13B - 通过合并多种预训练语言模型提升AI性能
配置文件
大模型
算法合并
Huggingface
Github
开源项目
模型
DARE_TIES_13B
语言模型
项目通过DARE TIES方法合并预训练语言模型,使用yunconglong的Truthful DPO TomGrc FusionNet 7Bx2 MoE 13B作为基础,结合了13B DPO及13B MATH DPO模型。通过密度和权重配置,采用bfloat16和int8掩码,在计算效率和文本覆盖上均有显著提升。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号