#HuggingFace
Transformers教程:使用HuggingFace库实现多模态AI模型
Chat Templates: 为大型语言模型打造对话模板的开源项目
One-2-3-45: 从单张图像到3D模型的革命性技术
LLM-Adapters:参数高效微调大语言模型的适配器家族
CycleDiffusion: 使用随机扩散模型实现零样本图像编辑的新方法
PicoMLXServer: 开启本地运行最快MLX-based LLMs的简易之门
MinT: 从零开始构建Transformer模型的极简教程与库
MLX-LLM: 在苹果芯片上运行大型语言模型的开源框架
ml-engineering
本指南系统介绍了方法、工具和逐步操作说明,帮助工程师成功训练大规模语言模型(LLM)和多模态模型(VLM)。内容涵盖丰富的脚本和命令,适合LLM/VLM训练工程师和操作员使用。基于作者在开源BLOOM-176B和IDEFICS-80B模型训练中的经验,提供有效解决方案,并持续更新,服务于ML社区。
LangChain-ChatGLM-Webui
LangChain-ChatGLM-Webui 是一个利用LangChain和ChatGLM-6B系列模型的Web界面,支持txt、docx、md、pdf等格式文件上传,适用于本地知识驱动的大模型应用。项目支持HuggingFace、OpenXLab等多个平台的在线体验,适合开发者快速部署多种大语言模型和嵌入模型。
Chinese-Llama-2-7b
项目提供开源且商用的中文Llama2模型及中英文SFT数据集,兼容llama-2-chat格式并支持优化。项目包含在线演示、多模态模型、Docker部署和API接口,支持多种硬件配置,用户可快速下载与测试。
flan-alpaca
本页面详细介绍了通过使用Flan集合微调Vicuna-13B以开发Flacuna模型的过程,及其在Flan-T5文本到音频生成中的应用。项目展示了扩展Stanford Alpaca指令微调到现有模型的方法,并提供了多种预训练模型,均可在HuggingFace上获取。用户可以在这里找到Flan-Alpaca系列模型的训练、使用和推理的详细指南,以优化各种任务性能。
LLM-groundedDiffusion
本项目通过将大型语言模型(LLM)与文本到图像扩散模型结合,提高了提示理解能力。LLM负责解析文本请求,生成中间表示如图像布局,最终通过稳定扩散模型生成高质量图像。项目支持多种生成方法和开源模型,用户可自行设置实现自托管,从而节约API调用成本。项目更新频繁,包括支持高分辨率生成和集成SDXL精炼器等功能。
transfer-learning-conv-ai
transfer-learning-conv-ai项目提供了一套完整的代码库,使用OpenAI GPT及GPT-2模型通过迁移学习技术培训对话型AI代理。用户可以在1小时内完成模型训练,还可以直接使用预训练模型。本代码库支持在单GPU或多GPU下训练,并兼容Docker环境。适合参与NeurIPS 2018对话竞赛。
mlx-llm
mlx-llm支持用户在Apple Silicon设备上实时运行高级语言模型(LLMs)的应用和工具。该项目支持多种预训练模型,并提供简便的安装方法。用户可以加载新版预训练权重、进行模型量化及嵌入提取。此外,mlx-llm还覆盖了多种应用场景,包括命令行聊天、LoRA或QLoRA微调及检索增强生成(RAG)等。
mint
该项目提供了一系列循序渐进的教程,指导从零开始构建常见的Transformer模型,如BERT、GPT、GPT2、BART和T5。教程不仅讲解基本架构的实现,还包括预训练和微调示例,并提供小型PyTorch库以便额外使用。项目依赖HuggingFace的tokenizers库进行子词标记,适用于不同规模数据集的训练需求,还涵盖了多工作节点的分布式训练示例,非常适合希望深入了解Transformer模型原理和应用的学习者。
diffusers
🤗 Diffusers 是一个生成图像、音频和3D结构的预训练扩散模型库,提供易用的推理管道和可定制的模型组件。它支持多种调度器和预训练模型,适用于多种任务和应用场景,并兼容 PyTorch 和 Flax 框架。用户可以简单生成内容或训练自定义扩散模型。