Logo

#Huggingface

BitNet-Transformers 入门学习指南 - 1比特Transformer缩放大型语言模型

1 个月前
Cover of BitNet-Transformers 入门学习指南 - 1比特Transformer缩放大型语言模型

Online-RLHF入门指南 - 面向大型语言模型的在线强化学习项目

1 个月前
Cover of Online-RLHF入门指南 - 面向大型语言模型的在线强化学习项目

text-generation-webui-colab入门指南 - 在Colab上运行大型语言模型的Web UI工具

1 个月前
Cover of text-generation-webui-colab入门指南 - 在Colab上运行大型语言模型的Web UI工具

RAG聊天机器人:最新技术与实现细节深度解析

2 个月前
Cover of RAG聊天机器人:最新技术与实现细节深度解析

LoRA: 大型语言模型的低秩适应方法

2 个月前
Cover of LoRA: 大型语言模型的低秩适应方法

Magpie - 高效生成高质量对齐数据的开源项目 - 无需种子问题的指令数据合成方法

1 个月前
Cover of Magpie - 高效生成高质量对齐数据的开源项目 - 无需种子问题的指令数据合成方法

Firefly-LLaMA2-Chinese 学习资料汇总 - 基于LLaMA2的开源中文大模型

1 个月前
Cover of Firefly-LLaMA2-Chinese 学习资料汇总 - 基于LLaMA2的开源中文大模型

LiteLLM入门指南 - 统一调用100+LLM API的Python SDK和代理服务器

1 个月前
Cover of LiteLLM入门指南 - 统一调用100+LLM API的Python SDK和代理服务器

Paint by Example: 基于示例的图像编辑新范式

2 个月前
Cover of Paint by Example: 基于示例的图像编辑新范式

BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现

2 个月前
Cover of BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现

相关项目

Project Cover
text-generation-webui-colab
本页面介绍如何在Colab平台上便捷部署多种GPT模型,包括vicuna、alpaca、llama等。用户可通过一键启动这些模型,适用于文本生成等应用。页面详细描述了每个模型的特性和使用方法,并提供对应的Colab链接,帮助用户高效进行实验和开发。
Project Cover
Online-RLHF
本项目详细介绍了如何通过在线迭代性的人类反馈强化学习(RLHF)来对齐大规模语言模型(LLMs)。提供了详细的工作流程和易于复现的步骤,使用开源数据即可实现与LLaMA3-8B-instruct相当或更好的效果。内容包括模型发布、安装说明、数据生成、数据注释和训练步骤,帮助实现高效的在线RLHF训练。
Project Cover
Firefly-LLaMA2-Chinese
本项目专注于低资源增量预训练与多轮指令微调,提升LLaMA2模型在中文领域的表现。支持对多种中英文预训练模型进行扩充与优化,开源了7B和13B的Base与Chat模型。在Open LLM Leaderboard和CMMLU榜单上表现出色,以4*V100完成高效训练,远低于其他模型的GPU资源需求。提供全项目信流程训练代码及数据,对LLaMA2、Baichuan2等多个模型进行详细评测,确保用户获得全面权威的模型性能数据。
Project Cover
Finetune_LLMs
Finetune_LLMs 项目提供代码支持DeepSpeed、Lora或QLora方法微调大型语言模型,涵盖从名言数据集学习及利用 Nvidia-docker 简化环境配置,适于需GPU支持的用户。
Project Cover
magpie
Magpie 项目通过提示对齐的大型语言模型生成高质量的对齐数据,无需提示工程或种子问题。该方法通过对齐模型的预查询模板生成用户查询和响应,已在Llama-3、Qwen2、Phi 3 和 Gemma-2系列模型上测试。最新更新包括多款增强中文问答能力和推理能力的数据集。项目开放这些高质量数据,推动AI民主化,提升模型对齐过程的透明度。
Project Cover
gazelle
本项目提供了用于Gazelle联合语音语言模型的代码,基于Huggingface的Llava实现。包括多个版本的检查点和模型更新,尽管优化有限,仍欢迎社区的贡献。使用者需遵循Apache 2.0和Llama 2许可证条款。本项目不建议在生产环境中使用,但能应对一些对抗性攻击。欢迎加入Discord获取更多信息和支持。
Project Cover
BitNet-Transformers
BitNet-Transformers项目使用Llama (2)架构,并通过1-bit权重缩放技术,实现对大型语言模型的高效训练和推理。该项目基于Huggingface Transformers,显著降低了GPU内存占用,从原始LLAMA的250MB减少到BitNet模型的最低要求。用户可通过wandb实时追踪训练进度,并在Wikitext-103上进行训练。项目提供了详细的开发环境配置和训练步骤指南,为研究者和开发者提供有力支持。
Project Cover
gigax
Gigax提供高效的GPU推理和多功能NPC交互,支持对话、动作和其他自定义行为。采用Llama-3和Phi-3模型,支持本地服务器模式和多语言API,并提供运行时任务生成和记忆存储功能,适用于各种游戏场景。详细信息请访问Gigax官方GitHub页面。
Project Cover
litellm
使用OpenAI格式调用各大LLM API,如Bedrock、Huggingface、VertexAI等,支持统一输出、重试机制和预算管理。LiteLLM提供易用的代理服务器、企业级服务和丰富的日志功能,确保性能稳定可靠。支持异步和流式响应,适配众多LLM平台,为开发者提供高效便捷的集成方案。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号