#HuggingFace

Transformers教程:使用HuggingFace库实现多模态AI模型

3 个月前
Cover of Transformers教程:使用HuggingFace库实现多模态AI模型

LangServe与Ollama: 本地部署和使用开源大语言模型

3 个月前
Cover of LangServe与Ollama: 本地部署和使用开源大语言模型

Chat Templates: 为大型语言模型打造对话模板的开源项目

3 个月前
Cover of Chat Templates: 为大型语言模型打造对话模板的开源项目

Lepton AI: 革新AI应用开发的云原生平台

3 个月前
Cover of Lepton AI: 革新AI应用开发的云原生平台

One-2-3-45: 从单张图像到3D模型的革命性技术

3 个月前
Cover of One-2-3-45: 从单张图像到3D模型的革命性技术

LLM-Adapters:参数高效微调大语言模型的适配器家族

3 个月前
Cover of LLM-Adapters:参数高效微调大语言模型的适配器家族

CycleDiffusion: 使用随机扩散模型实现零样本图像编辑的新方法

3 个月前
Cover of CycleDiffusion: 使用随机扩散模型实现零样本图像编辑的新方法

PicoMLXServer: 开启本地运行最快MLX-based LLMs的简易之门

3 个月前
Cover of PicoMLXServer: 开启本地运行最快MLX-based LLMs的简易之门

MinT: 从零开始构建Transformer模型的极简教程与库

3 个月前
Cover of MinT: 从零开始构建Transformer模型的极简教程与库

MLX-LLM: 在苹果芯片上运行大型语言模型的开源框架

3 个月前
Cover of MLX-LLM: 在苹果芯片上运行大型语言模型的开源框架
相关项目
Project Cover

ml-engineering

本指南系统介绍了方法、工具和逐步操作说明,帮助工程师成功训练大规模语言模型(LLM)和多模态模型(VLM)。内容涵盖丰富的脚本和命令,适合LLM/VLM训练工程师和操作员使用。基于作者在开源BLOOM-176B和IDEFICS-80B模型训练中的经验,提供有效解决方案,并持续更新,服务于ML社区。

Project Cover

LangChain-ChatGLM-Webui

LangChain-ChatGLM-Webui 是一个利用LangChain和ChatGLM-6B系列模型的Web界面,支持txt、docx、md、pdf等格式文件上传,适用于本地知识驱动的大模型应用。项目支持HuggingFace、OpenXLab等多个平台的在线体验,适合开发者快速部署多种大语言模型和嵌入模型。

Project Cover

Chinese-Llama-2-7b

项目提供开源且商用的中文Llama2模型及中英文SFT数据集,兼容llama-2-chat格式并支持优化。项目包含在线演示、多模态模型、Docker部署和API接口,支持多种硬件配置,用户可快速下载与测试。

Project Cover

flan-alpaca

本页面详细介绍了通过使用Flan集合微调Vicuna-13B以开发Flacuna模型的过程,及其在Flan-T5文本到音频生成中的应用。项目展示了扩展Stanford Alpaca指令微调到现有模型的方法,并提供了多种预训练模型,均可在HuggingFace上获取。用户可以在这里找到Flan-Alpaca系列模型的训练、使用和推理的详细指南,以优化各种任务性能。

Project Cover

LLM-groundedDiffusion

本项目通过将大型语言模型(LLM)与文本到图像扩散模型结合,提高了提示理解能力。LLM负责解析文本请求,生成中间表示如图像布局,最终通过稳定扩散模型生成高质量图像。项目支持多种生成方法和开源模型,用户可自行设置实现自托管,从而节约API调用成本。项目更新频繁,包括支持高分辨率生成和集成SDXL精炼器等功能。

Project Cover

transfer-learning-conv-ai

transfer-learning-conv-ai项目提供了一套完整的代码库,使用OpenAI GPT及GPT-2模型通过迁移学习技术培训对话型AI代理。用户可以在1小时内完成模型训练,还可以直接使用预训练模型。本代码库支持在单GPU或多GPU下训练,并兼容Docker环境。适合参与NeurIPS 2018对话竞赛。

Project Cover

mlx-llm

mlx-llm支持用户在Apple Silicon设备上实时运行高级语言模型(LLMs)的应用和工具。该项目支持多种预训练模型,并提供简便的安装方法。用户可以加载新版预训练权重、进行模型量化及嵌入提取。此外,mlx-llm还覆盖了多种应用场景,包括命令行聊天、LoRA或QLoRA微调及检索增强生成(RAG)等。

Project Cover

mint

该项目提供了一系列循序渐进的教程,指导从零开始构建常见的Transformer模型,如BERT、GPT、GPT2、BART和T5。教程不仅讲解基本架构的实现,还包括预训练和微调示例,并提供小型PyTorch库以便额外使用。项目依赖HuggingFace的tokenizers库进行子词标记,适用于不同规模数据集的训练需求,还涵盖了多工作节点的分布式训练示例,非常适合希望深入了解Transformer模型原理和应用的学习者。

Project Cover

diffusers

🤗 Diffusers 是一个生成图像、音频和3D结构的预训练扩散模型库,提供易用的推理管道和可定制的模型组件。它支持多种调度器和预训练模型,适用于多种任务和应用场景,并兼容 PyTorch 和 Flax 框架。用户可以简单生成内容或训练自定义扩散模型。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号