#Huggingface

text-generation-webui-colab - Colab平台上GPT模型的快速部署指南
ColabGPTQVicunaHuggingfaceLLaMAGithub开源项目
本页面介绍如何在Colab平台上便捷部署多种GPT模型,包括vicuna、alpaca、llama等。用户可通过一键启动这些模型,适用于文本生成等应用。页面详细描述了每个模型的特性和使用方法,并提供对应的Colab链接,帮助用户高效进行实验和开发。
Online-RLHF - 在线人类反馈强化学习的开源大规模语言模型指南
Online RLHFLLaMA3HuggingfaceRLHF modelReward modelGithub开源项目
本项目详细介绍了如何通过在线迭代性的人类反馈强化学习(RLHF)来对齐大规模语言模型(LLMs)。提供了详细的工作流程和易于复现的步骤,使用开源数据即可实现与LLaMA3-8B-instruct相当或更好的效果。内容包括模型发布、安装说明、数据生成、数据注释和训练步骤,帮助实现高效的在线RLHF训练。
Firefly-LLaMA2-Chinese - 低资源高效的中英文LLaMA2模型预训练与指令微调
Firefly-LLaMA2-Chinese低资源增量预训练中英双语模型Huggingface大模型技术Github开源项目
本项目专注于低资源增量预训练与多轮指令微调,提升LLaMA2模型在中文领域的表现。支持对多种中英文预训练模型进行扩充与优化,开源了7B和13B的Base与Chat模型。在Open LLM Leaderboard和CMMLU榜单上表现出色,以4*V100完成高效训练,远低于其他模型的GPU资源需求。提供全项目信流程训练代码及数据,对LLaMA2、Baichuan2等多个模型进行详细评测,确保用户获得全面权威的模型性能数据。
Finetune_LLMs - 引用数据集微调大型语言模型 (LLM) 的代码
Finetune LLMsHuggingfaceNvidia-dockerGPTJDeepSpeedGithub开源项目
Finetune_LLMs 项目提供代码支持DeepSpeed、Lora或QLora方法微调大型语言模型,涵盖从名言数据集学习及利用 Nvidia-docker 简化环境配置,适于需GPU支持的用户。
magpie - 利用提示对齐的语言模型从零生成高质量对齐数据
MagpieLLM对齐数据数据生成HuggingfaceGithub开源项目
Magpie 项目通过提示对齐的大型语言模型生成高质量的对齐数据,无需提示工程或种子问题。该方法通过对齐模型的预查询模板生成用户查询和响应,已在Llama-3、Qwen2、Phi 3 和 Gemma-2系列模型上测试。最新更新包括多款增强中文问答能力和推理能力的数据集。项目开放这些高质量数据,推动AI民主化,提升模型对齐过程的透明度。
gazelle - 专注语音的语言模型的推断代码及社区合作
Gazelle等待模型HuggingfaceApache 2.0Llama 2Github开源项目
本项目提供了用于Gazelle联合语音语言模型的代码,基于Huggingface的Llava实现。包括多个版本的检查点和模型更新,尽管优化有限,仍欢迎社区的贡献。使用者需遵循Apache 2.0和Llama 2许可证条款。本项目不建议在生产环境中使用,但能应对一些对抗性攻击。欢迎加入Discord获取更多信息和支持。
BitNet-Transformers - 缩放1-bit大语言模型,提高GPU内存利用率
BitNet-TransformersHuggingfaceLLama(2)pytorchWikitext-103Github开源项目
BitNet-Transformers项目使用Llama (2)架构,并通过1-bit权重缩放技术,实现对大型语言模型的高效训练和推理。该项目基于Huggingface Transformers,显著降低了GPU内存占用,从原始LLAMA的250MB减少到BitNet模型的最低要求。用户可通过wandb实时追踪训练进度,并在Wikitext-103上进行训练。项目提供了详细的开发环境配置和训练步骤指南,为研究者和开发者提供有力支持。
gigax - 在硬件上运行的 LLM 驱动的 NPC
GigaxNPC语言模型HuggingfaceGPU推理Github开源项目
Gigax提供高效的GPU推理和多功能NPC交互,支持对话、动作和其他自定义行为。采用Llama-3和Phi-3模型,支持本地服务器模式和多语言API,并提供运行时任务生成和记忆存储功能,适用于各种游戏场景。详细信息请访问Gigax官方GitHub页面。
GPT2-Chinese - GPT2-Chinese:支持多种中文Token化和大规模语料训练
GPT2-Chinese预训练模型中文语言模型BERT分词器HuggingfaceGithub开源项目
GPT2-Chinese项目提供了适用于中文的GPT2训练代码,支持BERT和BPE Tokenizer,能够生成诗词、新闻、小说等内容,适用于大规模语料训练。该项目基于Pytorch实现,支持最新的预训练模型,如通用中文模型和古诗词模型。详细的模型信息可以在Huggingface Model Hub中找到。用户可以自行训练和生成文本,同时支持FP16和梯度累积。
bertviz - 利用BERT、GPT2等模型进行注意力机制可视化
BertVizTransformerHuggingfaceself-attentionJupyter NotebookGithub开源项目
BertViz是一个交互式工具,可视化BERT、GPT2、T5等Transformer模型的注意力机制。支持在Jupyter和Colab中运行,提供head view、model view、neuron view三种独特视角。通过简便的Python API调用,大多数Huggingface模型均兼容。通过Colab教程,可快速尝试这些可视化功能。
open-muse - 开源项目MUSE模型重现,用于高效文本到图像生成
VQGANHuggingfaceGithub开源项目MUSEtransformeropen-muse
open-muse项目致力于重现Transformer MUSE模型,通过LAION-2B和COYO-700M数据集的训练,提供简单且可扩展的代码库。项目包括在Imagenet上训练类别条件模型、在CC12M上进行文本到图像实验,以及训练改进的VQGAN模型,所有结果将上传至Huggingface的openMUSE组织。支持的模型包括MaskGitTransformer和VQGAN,方便使用并可在Huggingface hub上加载和保存。
DialogStudio - 提供丰富多样的对话数据集和任务意识模型
DialogStudio数据集对话模型HuggingfaceGithub开源项目
DialogStudio 是一个全面的对话数据集项目,包含大量统一的对话数据集和任务意识模型,支持对单个数据集和大型语言模型的训练。用户可以通过 HuggingFace 轻松下载和使用这些数据集,涵盖从知识驱动到任务导向多个领域。同时,项目进行了高质量的数据集评估,提供了详细的评价标准和评分。DialogStudio 既促进会话 AI 研究,也为模型开发者和数据科学家提供了重要资源,推动该领域的创新与进步。
ChatLM-mini-Chinese - 小参数中文对话模型,支持低显存预训练,优化SFT和DPO性能
ChatLM-Chinese-0.2B预训练SFT微调RLHF优化HuggingfaceGithub开源项目
ChatLM-mini-Chinese是一个小参数中文生成式语言模型项目。模型参数为0.2B,最低4GB显存即可实现预训练,512MB显存可进行推理。项目公开预训练和优化数据集,包括SFT微调和DPO偏好优化,支持多种下游任务。基于Huggingface NLP框架,自实现trainer,支持单机单卡及多卡训练,并可断点续训。此项目优化了内存和显存的使用,为硬件资源不足的用户提供了一种高效的中文对话解决方案。
enformer-pytorch - 基于深度学习的基因表达预测工具
EnformerDeepmindPytorch基因表达预测HuggingfaceGithub开源项目
此项目实现了Deepmind的Enformer模型在Pytorch框架下的应用,用于预测基因表达,并支持微调预训练模型以适应下游任务。用户可以通过简易安装和提供的代码示例快速使用该模型。此外,该项目还包含染色质可及性预测的微调方法,并支持从Huggingface下载预训练权重。在内存优化和详细的安装、使用说明方面进行了多项改进,帮助用户高效地进行基因组数据分析和预测。
ChatRWKV - 由 RWKV(100% RNN)语言模型和开源提供支持的类似于 ChatGPT
ChatRWKVRWKVRNNStability EleutherAIHuggingfaceGithub开源项目
ChatRWKV基于RWKV语言模型,提供类似ChatGPT的体验。RWKV是目前唯一能在质量和扩展性上匹敌Transformer的RNN模型,具有更快的速度和更低的VRAM消耗。项目最新版本为RWKV-6,提供多个模型演示和详尽的开发资源,包括CUDA内核加速和多种推理引擎。用户可以通过这些资源构建高效的聊天机器人和语音生成系统,体验领先的AI技术。
prismer - 集成多任务专家的先进视觉语言模型
PrismerPrismerZHuggingfacePyTorchVision-Language ModelGithub开源项目
Prismer 是一款集成多任务专家的视觉语言模型,适用于图像标注和视觉问答任务。基于PyTorch 1.13,实现了与Huggingface工具的深度融合,支持多节点和多GPU训练。模型支持包括COCO 2014和Visual Genome在内的多个数据集进行预训练和微调,提供Prismer和PrismerZ多个版本的模型检查点。
Paint-by-Example - 通过扩散模型进行示范导向的图像编辑
Paint by Example图像编辑自监督训练扩散模型HuggingfaceGithub开源项目
该项目通过自监督训练,重新组合源图像及示范图像,避免了直接复制粘贴带来的伪影。采用任意形状掩码和无分类器指导,提升编辑过程的可控性,并通过一次性前向扩散模型实现高保真图像编辑。项目展示了对自然图像的高效可控编辑效果,提供了预训练模型、测试基准和量化结果,适用于图像编辑和生成的研究与应用。
stable-diffusion-docker - 多功能 GPU 加速的 Stable Diffusion Docker 容器
Stable DiffusionDockerHuggingfaceGPU模型Github开源项目
Stable Diffusion Docker 容器在支持 CUDA 的 GPU 上运行,通过官方模型实现高质量图像生成。支持从文本生成图像、图像修改、深度引导和图像修复等功能,适用多种应用场景。最低要求 8GB VRAM 的 GPU,并提供设备选择和内存优化选项。详细使用指南和示例帮助用户快速入门。
lora - 使用低秩自适应技术进行快速稳定扩散模型微调
LoRAStable DiffusionDreamboothHuggingfacePivotal TuningGithub开源项目
该项目使用低秩自适应技术进行快速稳定扩散模型微调,比dreambooth方法快两倍,支持inpainting,并且生成非常小的模型文件(1MB~6MB),便于共享和下载。兼容diffusers库,提供多向量核心调优反演功能,并实现更好的性能。项目集成了Huggingface Spaces,增加了LoRA合并、Resnet应用和转换脚本功能。通过仅微调模型的残差,该方法显著缩小模型大小,同时保持高保真度,适用于需要快速高效微调的用户。
rag-chatbot - RAG聊天机器人 支持多PDF智能对话和灵活部署
RAGPDF聊天本地运行GradioHuggingfaceGithub开源项目
rag-chatbot项目采用检索增强生成(RAG)技术,实现了与多个PDF文档的智能交互。系统支持本地运行和Kaggle环境,可灵活选择Huggingface或Ollama的各类模型。其特色功能包括多PDF并行处理、跨语言对话潜力和简易部署流程。项目持续优化中,未来将引入高级文档管理和ReAct Agent等功能,适用于研究、教育和企业等多种场景。
dolphin-2.1-mistral-7b - 无审查AI助手模型,商用与非商用都可行
a16zHuggingfaceDolphin 2.1开源培训模型Github开源项目数据集
Dolphin-2.1-mistral-7b模型基于mistralAI,采用Apache-2.0许可证,可用于商业及非商业用途。该无审查模型通过数据集过滤去除对齐和偏见,建议在服务化前添加自定义对齐层。数据集包括开源的Dolphin和Airoboros,经过去重和清理提升了质量,模型使用ChatML格式进行提示训练,48小时内完成4个周期训练,提倡负责任使用。
codet5p-220m - CodeT5+:多语言代码理解与生成的开放源代码模型
CodeT5+代码理解性能评估预训练代码生成Github模型开源项目Huggingface
CodeT5+是一种开源的多语言模型,支持多种编码器-解码器模式操作,适用于多种代码理解和生成任务。相比原始CodeT5系列,CodeT5+通过多样化的预训练任务和高效的计算方法显著提升性能,支持九种编程语言,并在多个任务中优于现有基线,特别是在HumanEval基准的零样本任务中表现突出。
dart-v1-sft - 优化Danbooru标注生成的Transformer模型
transformers标签生成深度学习Github模型开源项目自然语言处理模型微调Huggingface
Dart是一款经过微调的Transformer模型,专注于Danbooru标注生成,具备良好的效率和准确性。借助Hugging Face的Transformers和Optimum库,该模型支持ONNX等多种高性能推理工具。Dart旨在为开发者提供便捷的标注生成功能,基于2020年以后的最新数据集进行训练,确保生成结果的时效性和相关性。
stable-diffusion-3.5-large-turbo-gguf - 直接量化的图像生成模型
StabilityAIAI社区量化开源项目模型stable-diffusion图像生成GithubHuggingface
stable-diffusion-3.5-large-turbo-gguf项目提供了对stabilityai的3.5稳定扩散模型的直接量化处理。模型文件可以在ComfyUI-GGUF自定义节点中运用,通过简单的文件部署即可实现。量化处理保持了原模型的许可证要求,提升了图像生成的运算效率,适用于文本到图像的生成任务。更多技术细节可以参考GitHub上的安装说明和量化类型概览。
Qwen2.5-Coder-1.5B-Instruct-GGUF - Qwen2.5-Coder致力于提升代码生成及修复
Qwen2.5-Coder长上下文支持transformers性能评估代码生成Github模型开源项目Huggingface
Qwen2.5-Coder通过5.5万亿训练标记和128K长上下文支持,提升代码生成、推理和修复的能力,适用于代码代理等实际应用。模型采用先进的transformers架构,实现对数学及一般能力的增强,满足广泛应用需求。
Yi-6B-Chat - Yi-6B-Chat 打造开源双语语言模型的新篇章
Yi开源Transformer人工智能模型Github开源项目大语言模型Huggingface
Yi系列模型由01.AI研发,是强大的开源双语大型语言模型,其在多语言理解、常识推理及阅读理解方面表现突出。Yi-34B-Chat在AlpacaEval评估中表现优异,仅次于GPT-4 Turbo。Yi-34B在多个基准表现出色,如Hugging Face开放LLM排行榜和C-Eval评估。该系列采用Transformer架构,并与开源社区合作,独立开发高质量数据集和训练管道,确保优异性能。
internlm2-20b - 提供深度适应性和超长文本理解能力的20B语言模型
评测工具性能评测模型开源Huggingface对话模型模型InternLMGithub开源项目
InternLM2-20B是一款支持20万字符上下文的语言模型,其在推理、数学和编程领域的表现突出。模型分为基础和对话优化版本,可以满足多样的语言处理需求。通过OpenCompass评测,其展示了卓越的综合性能,适合复杂的研究和商业应用。
German_Semantic_V3 - 德语句子嵌入模型,增强德语语义处理
Github德国文化German_Semantic_V3开源项目词向量相似度评估语义句子嵌入Huggingface模型
German Semantic V3 是一款德语语义句子嵌入模型,具备灵活性和丰富的文化知识。采用 Matryoshka Embeddings 和 GBert-Large 基础,支持长文本的嵌入,并展现出对小错误的鲁棒性。更新的知识库和优化的德语特性提升了处理效率,令其在应对德语语境和文化语义需求时表现出色。
gpt2-medium-chinese - 中文文本生成的可靠选择
语言模型Github开源项目文本生成GPT2-MediumHuggingfacewiki2019zh_corpus中文模型
GPT2-Medium中文版本是1.2GiB的语言模型,使用wiki2019zh_corpus训练,适合中文文本生成。该模型提供了详细的源代码和使用说明,支持中文内容创作,特别适合需要文本生成的项目。用户可以在Colab上进行试验,以简化文本生成过程。
GPT-J-6B-Janeway - 深入了解GPT-J 6B-Janeway在生成科幻与奇幻文本中的应用
GPT-J 6B-Janeway文本生成偏见与限制Huggingface模型语言模型科幻Github开源项目
GPT-J 6B-Janeway模型基于2210本电子书微调,专注于科幻与奇幻题材的文本生成。利用EleutherAI的技术,该模型表现出色,适合多种文本生成任务。需要注意,该模型可能产生不准确或不当内容,建议在使用时进行筛选,以确保输出质量。
MeinaPastel_v1 - 文本到图像生成的稳定扩散模型解析
Github开源项目模型信息文本到图像APIHuggingfaceStable Diffusion图像生成模型
MeinaPastel_v1项目利用稳定扩散和文本到图像生成技术,展示AI模型在图像生成上的应用潜力。用户可以通过Hugginface API或civitai网站查看生成的样例图像,了解其技术能力。该项目为机器学习和图像处理技术爱好者提供了新的研究机会和实用见解。
gpt2-arxiv - 基于GPT-2的学术文本生成与预测工具
Github开源项目文本生成训练参数模型gpt2-arxivArXivHuggingface人工智能
该模型通过GPT-2深度学习框架和超过160万ArXiv手稿摘要的训练,实现文本生成与预测。支持预测性输入和学术参考推荐,适用于多种科研与文本分析场景。
anonymizer-beto-cased-flair - 利用BETO嵌入增强西班牙语法律文件匿名化
法律系统AymurAIHuggingface性别暴力Github数据处理开源项目匿名化模型
此模型结合BETO嵌入与BiLSTM-CRF架构,专为西班牙语法律文件匿名化而定制。由collective.ai在AymurAI项目框架下开发,它在布宜诺斯艾利斯刑事法院N°10试行,旨在半自动执行数据匿名化及分析,对性别暴力案提高司法透明度。因数据源于特定地区,使用者需注意跨域法律制度差异。
SecureBERT - 网络安全专用的语言模型,提升文本分析和信息处理能力
文本分类问答开源项目SecureBERT模型语言模型Huggingface网络安全Github
SecureBERT基于RoBERTa构建,是专用于处理网络安全文本的领域特定语言模型。经过海量的网络安全文本训练,它表现出在文本分类、命名实体识别等任务中的卓越性能,并在填空预测上优于模型如RoBERTa和SciBERT,保持对通用英语的良好理解。SecureBERT已在Huggingface平台上线,可作为下游任务的基础模型,以实现更精准的文本分析和处理。
llama2_70b_chat_uncensored-GGUF - Llama2 70B Chat Uncensored推出全新GGUF格式
开源项目GGUF模型Llama2Huggingface量化GithubLLM
Llama2 70B Chat Uncensored项目引入了采用GGUF格式的新模型文件,与传统GGML相比,增强了性能与功能。GGUF格式在词元化和特殊标记支持方面表现出色,并支持元数据,提升了第三方UI和库的兼容性。由llama.cpp团队于2023年8月21日发布的此新格式,适合用于聊天机器人、文本生成等机器学习应用。
litellm - 简化管理多个LLM API,兼容多种部署平台
LiteLLMOpenAILLM APIsAzureHuggingfaceGithub开源项目
使用OpenAI格式调用各大LLM API,如Bedrock、Huggingface、VertexAI等,支持统一输出、重试机制和预算管理。LiteLLM提供易用的代理服务器、企业级服务和丰富的日志功能,确保性能稳定可靠。支持异步和流式响应,适配众多LLM平台,为开发者提供高效便捷的集成方案。