#训练效率
modded-nanogpt - 基于PyTorch的高效GPT-2训练器变体
NanoGPTPyTorchGPT-2训练效率模型优化Github开源项目
Modded-NanoGPT是一个基于Andrej Karpathy的llm.c项目的GPT-2训练器变体。该项目通过引入旋转嵌入等现代技术,将训练效率提高一倍,仅需5B tokens即可达到与原版相同的验证损失。代码简化至446行,实现了124M参数的transformer模型。在Fineweb验证集上,模型达到3.2818的验证损失。通过架构调整和超参数优化,该项目在保持性能的同时显著提升了训练速度。
mpt-7b-instruct - 短指令学习模型MPT-7B-Instruct优化人工智能响应
训练效率MosaicMLMPT-7B-Instruct模型架构模型Github开源项目短文本指令Huggingface
MPT-7B-Instruct模型基于MPT-7B,通过微调Dolly-15k和HH-RLHF数据集,提升人工智能在短指令执行上的效率与准确性。其采用修改后的Transformer架构,支持FlashAttention及ALiBi等高效训练选项,便利多种应用场景。MosaicML支持其在商业项目中的应用,但需注意可能存在的偏见或不准确信息,依据Apache 2.0许可使用。