#fine-tuning
SPIN: 自我对弈微调技术在人工智能领域的创新应用
LyCORIS: 一种革命性的Stable Diffusion微调方法
awesome-llms-fine-tuning
本页面汇总了微调大语言模型(如GPT、BERT、RoBERTa)的全面资源,适用于特定任务和领域的需求。包含教程、论文、工具、框架和最佳实践,为研究人员、数据科学家和机器学习从业者提供宝贵的指导,提升模型表现,优化工作流程。
LyCORIS
LyCORIS项目提供了一系列针对Stable Diffusion的高效参数调优算法,包括LoRA、LoHa、LoKr和DyLoRA等。项目支持多种接口(如ComfyUI和InvokeAI)和训练方案(如kohya-ss和Naifu-Diffusion),并能与PyTorch模块无缝整合。通过不同算法的比较,LyCORIS在保真度、灵活性和训练速度上表现出色。用户可以通过简便的pip安装,探索多样的网络配置和训练方式,实现图像生成的定制化。
SPIN
SPIN项目通过使用自对弈机制提升语言模型性能,无需额外的人类注释数据。模型通过生成自旋数据并与其先前版本对弈来优化策略。多项基准测试结果表明,SPIN显著提升模型表现,超过直接偏好优化方法。开源的完整代码和训练脚本提供了从数据生成到模型微调的全套流程。
mamba-2.8b-hf
Mamba-2.8b-hf是一个与transformers框架兼容的大规模语言模型。为充分发挥模型功能,需安装特定版本的transformers库,并且安装causal-conv1d和mamba-ssm以利用优化的CUDA内核实现更高效的计算。Mamba支持经典的generate方法进行文本生成,并提供定制的PEFT微调示例,建议使用float32格式进行微调,以更好地支持复杂的自然语言处理任务。
Ruqiya_-_Merge-Gemma-2b-it-with-a-Fine-Tuned-one-for-Arabic-gguf
项目旨在通过融合与微调Merge-Gemma-2b-it模型,提升阿拉伯语语言模型的精确性。借助LazyMergekit工具,将Ruqiya团队开发的微调模型与Google基准模型结合,并采用多个量化方法,提升模型的性能与存储效率。量化工作由Richard Erkhov完成,GitHub上提供了多种模型版本供用户使用。从数据配置到实际应用,项目提供全面的技术支持,以优化语言生成任务。
flan-t5-base-finetuned-QLoRA-v2
flan-t5-base-finetuned-QLoRA-v2模型经过cnn_dailymail数据集微调,聚焦新闻摘要生成。基于google的flan-t5-base,模型在评价集的Rouge1、Rouge2、Rougel指标分别为0.244、0.111和0.2032。利用PEFT库、Transformers与Pytorch进行训练,确保了高效兼容性。适合需要自动化理解和处理新闻内容的场景。