#参数高效微调

llm-action学习资料汇总 - 探索大型语言模型的训练与应用

2 个月前
Cover of llm-action学习资料汇总 - 探索大型语言模型的训练与应用

T-Few: 高效的少样本参数微调方法

3 个月前
Cover of T-Few: 高效的少样本参数微调方法

Awesome Matching, Pretraining and Transfering: 多模态学习的前沿进展与应用

3 个月前
Cover of Awesome Matching, Pretraining and Transfering: 多模态学习的前沿进展与应用

PiSSA: 大型语言模型的主成分奇异值和奇异向量自适应方法

3 个月前
Cover of PiSSA: 大型语言模型的主成分奇异值和奇异向量自适应方法

PiSSA: 大语言模型的主成分奇异值和奇异向量适应方法

3 个月前
Cover of PiSSA: 大语言模型的主成分奇异值和奇异向量适应方法

LLM-action: 大模型技术原理与实战经验分享

3 个月前
Cover of LLM-action: 大模型技术原理与实战经验分享
相关项目
Project Cover

llm-action

llm-action项目为NVIDIA GPU和Ascend NPU上的大模型训练提供简易工具,详细介绍了LLM训练技术的高效微调和分布式技术。深入探究LLM微调实战与技术原理,并提供实际代码示例以供学习和应用。涵盖普适性框架与多模态微调专项技术,适合开发者与研究人员优化和扩展其AI模型的能力。

Project Cover

OpenDelta

OpenDelta是一个高效的开源调优工具包,通过添加少量参数进行调整,可实现如前缀调优、适配器调优、Lora调优等多种方法。最新版本支持Python 3.8.13、PyTorch 1.12.1和transformers 4.22.2。

Project Cover

Awesome-Parameter-Efficient-Transfer-Learning

该项目提供了关于参数高效迁移学习的全面资源,包含多种调优方法和最新研究。研究人员和工程师可以参考这些资源,以提高预训练视觉模型的微调效率,并了解最新的项目更新,如视觉PEFT库和基准测试。

Project Cover

Awesome_Matching_Pretraining_Transfering

该项目汇总了多模态模型、参数高效微调、视觉语言预训练和图像-文本匹配领域的研究进展。内容涵盖大语言模型、视频多模态模型等多个方向,定期更新最新论文和资源。项目为相关领域的研究人员和开发者提供了系统的学习参考。

Project Cover

t-few

t-few项目提出一种少样本参数高效微调方法,在多个NLP任务中表现优于GPT-3的上下文学习。项目开源代码包含环境配置、实验运行等功能,并在RAFT基准测试中达到领先水平。这为NLP领域少样本学习提供了高效且低成本的解决方案,研究人员可基于此进行深入研究。

Project Cover

PiSSA

PiSSA是一种创新的参数高效微调方法,通过优化关键奇异值和向量来增强大语言模型性能。相较于LoRA,PiSSA展现出更快的收敛速度和更优的效果。在多个基准测试中,PiSSA的表现全面超越LoRA。这种方法不仅保留了LoRA的参数效率和量化兼容性优势,还大幅降低了4位量化误差。PiSSA初始化迅速,易于从LoRA转换。在多种模型和任务中,PiSSA均表现出色,为大语言模型的高效微调提供了新的可能性。

Project Cover

tiny-random-Llama-3-lora

本项目为tiny-random-Llama-3模型开发LoRA适配器。LoRA作为一种高效微调技术,能够大幅降低参数量和加速训练过程。研究人员和开发者可利用此适配器快速将tiny-random-Llama-3模型应用于特定任务,无需完整重训练。该工具为小型语言模型的应用研究提供了便利,有助于推动NLP领域的发展。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号