#微调

LLM-workshop-2024学习资料汇总 - 从零开始理解和实现大型语言模型

2 个月前
Cover of LLM-workshop-2024学习资料汇总 - 从零开始理解和实现大型语言模型

VisualGLM-6B 学习资料汇总 - 开源多模态中英双语对话模型

2 个月前
Cover of VisualGLM-6B 学习资料汇总 - 开源多模态中英双语对话模型

MedicalGPT入门指南-基于ChatGPT训练Pipeline的医疗大模型训练框架

2 个月前
Cover of MedicalGPT入门指南-基于ChatGPT训练Pipeline的医疗大模型训练框架

RAG-Retrieval入门学习资料-统一高效的RAG检索微调与推理框架

2 个月前
Cover of RAG-Retrieval入门学习资料-统一高效的RAG检索微调与推理框架

LLM面试宝典 - 大语言模型相关知识及面试题汇总

2 个月前
Cover of LLM面试宝典 - 大语言模型相关知识及面试题汇总

LLM-Finetuning入门学习资料汇总 - 大模型微调技术实践指南

2 个月前
Cover of LLM-Finetuning入门学习资料汇总 - 大模型微调技术实践指南

LLMs-from-scratch入门学习资料汇总 - 从零开始实现ChatGPT类LLM的完整教程

2 个月前
Cover of LLMs-from-scratch入门学习资料汇总 - 从零开始实现ChatGPT类LLM的完整教程

ChuanhuChatGPT学习资源汇总 - 为ChatGPT等多种LLM提供轻快好用的Web图形界面

2 个月前
Cover of ChuanhuChatGPT学习资源汇总 - 为ChatGPT等多种LLM提供轻快好用的Web图形界面

LitGPT学习资料汇总 - 高性能大语言模型预训练、微调和部署工具

2 个月前
Cover of LitGPT学习资料汇总 - 高性能大语言模型预训练、微调和部署工具

VisualRWKV: 基于RWKV的创新视觉语言模型

3 个月前
Cover of VisualRWKV: 基于RWKV的创新视觉语言模型
相关项目
Project Cover

LLMs-from-scratch

本书详细介绍了如何从零开始编码、构建和训练GPT类大语言模型。提供逐步指导、清晰图示和示例,适合教育用途的小型模型开发,并包含大模型预训练权重加载和微调的代码示例。

Project Cover

litgpt

LitGPT为开发者提供超过20种高性能的大型语言模型(LLMs),具备从头开始的实现、无抽象层和企业级的性能优化。适合于训练、微调和部署大规模应用,支持新手入门,简化企业级部署流程。提供全面的Python API文档和优化教程,使得部署AI模型更快速、更经济、更有效率。

Project Cover

ChuanhuChatGPT

川虎Chat是一个针对ChatGPT及其他大语言模型(LLM)设计的Web图形界面,提供了丰富的功能和灵活的扩展性。项目支持多种模型本地部署与API调用,包括新版GPT和其他主流LLM。新增特性如PWA应用程序安装、自动历史命名、美观的毛玻璃效果,为用户带来更流畅和亲切的操作体验。针对开发者和技术爱好者,川虎Chat还提供了丰富的自定义功能和详细的部署指导。

Project Cover

LLM-Finetuning

了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。

Project Cover

llm_interview_note

本仓库汇集了大语言模型(LLMs)的面试知识和实用资源,适合准备大模型面试的求职者。内容涵盖大模型基础、架构、训练数据、分布式训练、推理优化、强化学习、RAG技术、模型评估及应用案例。提供详细的知识点解析和操作指南,并附有项目示例和在线体验链接。定期更新,确保内容时效性和实用性。欢迎访问在线阅读页面,关注微信公众号获取更多相关信息。

Project Cover

RAG-Retrieval

RAG-Retrieval项目通过统一方式调用不同RAG排序模型,支持全链路微调与推理。其轻量级Python库扩展性强,适应多种应用场景,提升排序效率。更新内容包括基于LLM监督的微调及其Embedding模型的MRL loss性能提升。

Project Cover

LLM-workshop-2024

本教程为编码人员提供了对大型语言模型(LLMs)构建模块和工作原理的深入理解。从LLMs的基础概念和应用案例开始,涵盖了小型GPT模型的数据输入管道、核心架构组件和预训练代码的编写。教程还包括如何加载预训练权重和使用开源库进行微调的实战技能。

Project Cover

MedicalGPT

MedicalGPT项目采用多阶段方法如增量预训练、精细微调及奖励建模强化学习,优化医疗GPT模型,增强医疗对话与问答系统的性能。模型以人类反馈为基础,通过直接偏好优化和强化学习策略,调整生成对话的质量与人类偏好的契合度,提供科学准确的医疗咨询,项目持续接入先进的医疗语言处理技术,应对医疗领域的需求变化。

Project Cover

stanford_alpaca

Stanford Alpaca项目提供了一个基于52K指令数据微调的7B LLaMA模型。该项目包含数据生成代码、模型微调代码和从权重差异恢复Alpaca-7B权重的代码。模型基于Self-Instruct技术生成的数据进行微调,仅限于研究用途。注意模型尚未经过安全性微调,使用时需谨慎。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号