#HuggingFace

Flan-Alpaca:人类和机器共同打造的指令微调模型

3 个月前
Cover of Flan-Alpaca:人类和机器共同打造的指令微调模型

LLM-grounded Diffusion: 革新文本到图像生成的新方法

3 个月前
Cover of LLM-grounded Diffusion: 革新文本到图像生成的新方法

基于迁移学习的对话AI系统:构建先进的对话智能

3 个月前
Cover of 基于迁移学习的对话AI系统:构建先进的对话智能

Chinese-Llama-2-7b: 开源可商用的中文大语言模型

3 个月前
Cover of Chinese-Llama-2-7b: 开源可商用的中文大语言模型

LangChain-ChatGLM-Webui: 基于大语言模型的本地知识库问答系统

3 个月前
Cover of LangChain-ChatGLM-Webui: 基于大语言模型的本地知识库问答系统

Diffusers: 最先进的扩散模型库

3 个月前
Cover of Diffusers: 最先进的扩散模型库

机器学习工程师:AI时代的关键角色

3 个月前
Cover of 机器学习工程师:AI时代的关键角色

机器学习工程:从理论到实践的全面指南

3 个月前
Cover of 机器学习工程:从理论到实践的全面指南

机器学习工程师:人工智能时代的关键角色

3 个月前
Cover of 机器学习工程师:人工智能时代的关键角色

争气!通义千问Qwen2力压Llama-3登顶开源大模型榜单,OpenAI的API不用也罢

2024年08月03日
Cover of 争气!通义千问Qwen2力压Llama-3登顶开源大模型榜单,OpenAI的API不用也罢
相关项目
Project Cover

ml-engineering

本指南系统介绍了方法、工具和逐步操作说明,帮助工程师成功训练大规模语言模型(LLM)和多模态模型(VLM)。内容涵盖丰富的脚本和命令,适合LLM/VLM训练工程师和操作员使用。基于作者在开源BLOOM-176B和IDEFICS-80B模型训练中的经验,提供有效解决方案,并持续更新,服务于ML社区。

Project Cover

LangChain-ChatGLM-Webui

LangChain-ChatGLM-Webui 是一个利用LangChain和ChatGLM-6B系列模型的Web界面,支持txt、docx、md、pdf等格式文件上传,适用于本地知识驱动的大模型应用。项目支持HuggingFace、OpenXLab等多个平台的在线体验,适合开发者快速部署多种大语言模型和嵌入模型。

Project Cover

Chinese-Llama-2-7b

项目提供开源且商用的中文Llama2模型及中英文SFT数据集,兼容llama-2-chat格式并支持优化。项目包含在线演示、多模态模型、Docker部署和API接口,支持多种硬件配置,用户可快速下载与测试。

Project Cover

flan-alpaca

本页面详细介绍了通过使用Flan集合微调Vicuna-13B以开发Flacuna模型的过程,及其在Flan-T5文本到音频生成中的应用。项目展示了扩展Stanford Alpaca指令微调到现有模型的方法,并提供了多种预训练模型,均可在HuggingFace上获取。用户可以在这里找到Flan-Alpaca系列模型的训练、使用和推理的详细指南,以优化各种任务性能。

Project Cover

LLM-groundedDiffusion

本项目通过将大型语言模型(LLM)与文本到图像扩散模型结合,提高了提示理解能力。LLM负责解析文本请求,生成中间表示如图像布局,最终通过稳定扩散模型生成高质量图像。项目支持多种生成方法和开源模型,用户可自行设置实现自托管,从而节约API调用成本。项目更新频繁,包括支持高分辨率生成和集成SDXL精炼器等功能。

Project Cover

transfer-learning-conv-ai

transfer-learning-conv-ai项目提供了一套完整的代码库,使用OpenAI GPT及GPT-2模型通过迁移学习技术培训对话型AI代理。用户可以在1小时内完成模型训练,还可以直接使用预训练模型。本代码库支持在单GPU或多GPU下训练,并兼容Docker环境。适合参与NeurIPS 2018对话竞赛。

Project Cover

mlx-llm

mlx-llm支持用户在Apple Silicon设备上实时运行高级语言模型(LLMs)的应用和工具。该项目支持多种预训练模型,并提供简便的安装方法。用户可以加载新版预训练权重、进行模型量化及嵌入提取。此外,mlx-llm还覆盖了多种应用场景,包括命令行聊天、LoRA或QLoRA微调及检索增强生成(RAG)等。

Project Cover

mint

该项目提供了一系列循序渐进的教程,指导从零开始构建常见的Transformer模型,如BERT、GPT、GPT2、BART和T5。教程不仅讲解基本架构的实现,还包括预训练和微调示例,并提供小型PyTorch库以便额外使用。项目依赖HuggingFace的tokenizers库进行子词标记,适用于不同规模数据集的训练需求,还涵盖了多工作节点的分布式训练示例,非常适合希望深入了解Transformer模型原理和应用的学习者。

Project Cover

diffusers

🤗 Diffusers 是一个生成图像、音频和3D结构的预训练扩散模型库,提供易用的推理管道和可定制的模型组件。它支持多种调度器和预训练模型,适用于多种任务和应用场景,并兼容 PyTorch 和 Flax 框架。用户可以简单生成内容或训练自定义扩散模型。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号