Megatron-DeepSpeed
Megatron-DeepSpeed是一个集成DeepSpeed的大规模语言模型预训练框架。它支持多GPU和多节点分布式训练,提供数据预处理、预训练、微调和下游任务评估等完整流程。该框架针对BERT、GPT等模型优化,实现高效大规模训练。集成DeepSpeed的流水线并行和ZeRO-DP技术,进一步提升训练效率和灵活性。
meditron-7b
Meditron-7B是开源的医学大型语言模型,通过持久的预训练,结合选定的PubMed文献和国际医学指南数据,提高了医疗推理任务的能力。该模型在文本生成和医疗问答方面显示了潜力,但实际使用需经过更多测试和适应调整。