#LoRA微调
tevatron - 神经检索模型训练与推理工具
TevatronMistral-7BLLM神经检索模型LoRA微调HuggingFaceGithub开源项目
Tevatron提供高效工具包,支持在GPU和TPU上大规模训练和推理神经检索模型,集成DeepSpeed和LoRA等技术,可加载HuggingFace的预训练模型,适用于神经检索和开放域QA任务。
ALMA-13B-Pretrain - 改进大型语言模型的翻译性能与偏好优化技术
ALMALoRA微调对比偏好优化机器翻译HuggingfaceGithub开源项目模型数据集
ALMA基于新的翻译模型范式,初步在单语数据上进行精调,接着应用高质量的平行数据进行优化,从而显著提升大型语言模型的翻译效果。其最新版本ALMA-R采用了对比偏好优化(CPO),相较于传统监督精调,进一步提高了翻译的精度,可与GPT-4媲美。尤其是ALMA-13B-LoRA,通过过渡性精调和人类撰写的平行数据,确保了在专业翻译任务中的卓越表现。
ALMA-13B-R - 通过对比优化提升ALMA-13B-R翻译准确性
ALMA-R对比偏好优化模型Github数据集开源项目LoRA微调机器翻译Huggingface
ALMA-13B-R采用对比偏好优化技术在机器翻译方面表现优异。该模型使用三联偏好数据实现微调,能够在特定条件下达到甚至超越GPT-4和WMT冠军的水平。这一优化方法提升了翻译的准确性,适用于多种应用场景,为开发者提供了可靠的翻译支持。