#peft
opt-125m-dummy-lora - 基于PEFT库的工具用于大型语言模型的优化与微调
环境影响Huggingface模型卡Github开源项目模型facebook/opt-125m训练过程peft
opt-125m-dummy-lora项目借助PEFT库优化大型语言模型,提供基本使用指导,并探讨模型在训练及评估中的偏见、风险、限制。低碳排放对环保友好,适用于关注高效环保的AI开发者。
task-13-google-gemma-2b - 提高模型性能和适配性以实现环境友好
peft碳排放Github开源项目使用方法Huggingface模型卡google/gemma-2b模型
该项目通过创新技术提升模型性能与适配性,更好地适应多种使用场景。采用精细化设计以降低环境影响,并结合PEFT技术实现高效能。项目着重于风险与偏见的意识,鼓励最佳实践,支持多样化的应用需求。
Zephyr-CAT - 使用Continuous Adversarial Training优化语言模型的对抗训练
连续对抗训练Huggingfacepeft开源项目模型Githubzephyr-7b-beta大语言模型高效对抗训练
该项目通过Continuous Adversarial Training (CAT) 算法,微调了zephyr-7b-beta模型的LoRa权重,旨在提升语言模型的鲁棒性。更多技术细节可参阅论文 "Efficient Adversarial Training in LLMs with Continuous Attacks",该论文深入介绍了CAT算法在对抗训练中的应用与效率提升。
Llama-2-7b-LoRA-alpaca-cleaned - 量化配置与训练过程的详细介绍
8bitbfloat16HuggingfaceGithub开源项目模型量化配置bitsandbytespeft
该项目客观描述了在PEFT框架下应用bitsandbytes量化配置进行模型训练的详细过程,尤其是4bit量化策略与bfloat16计算类型的使用。这些配置旨在提升模型效率,优化计算负载表现。
gpt2-lora-random - GPT2模型LoRA微调框架 提升语言模型性能的开源项目
peft机器学习Github开源项目Huggingface深度学习框架模型训练gpt2模型
gpt2-lora-random项目利用PEFT框架实现GPT2模型的LoRA微调。通过Low-Rank Adaptation技术,该项目降低了模型训练的资源需求和参数量。它为开发者提供了一个用于自然语言处理任务优化的灵活框架。项目文档涵盖了模型训练流程和环境影响评估指南,适合研究人员和工程师使用。