热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#超大规模语言模型
llama-3-2-1b-sft - 超大规模对话数据集的精细调优AI模型
Github
开源项目
微调
模型
Huggingface
训练数据集
超参数
超大规模语言模型
llama-3-2-1b-sft
该项目将NousResearch的Llama-3.2-1B模型进行精细调优,使用HuggingFaceH4/ultrachat_200k数据集以提高对话处理性能。在多GPU分布式训练中,使用Adam优化器和余弦学习率调度策略,该模型在验证集上的损失率降低至1.2759。适用于广泛的自然语言处理应用,特别是在对话生成和交互式AI领域中。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号