Logo

#Hugging Face

Logo of autotrain-advanced
autotrain-advanced
AutoTrain Advanced 是一款无代码解决方案,只需几次点击即可训练机器学习模型。需要上传正确格式的数据以创建项目,关于数据格式和定价的详细信息请查阅文档。AutoTrain 免费使用,只需为使用的资源付费。支持在 Colab 和 Hugging Face Spaces 上运行,也可以通过 PIP 本地安装。适用于 Python 3.10 及以上版本,推荐在 Conda 环境中运行。更多信息请访问项目文档页面。
Logo of deep-rl-class
deep-rl-class
本页面提供Hugging Face深度强化学习课程的全部资源,包括mdx文件和教程笔记。学习者可获取课程大纲、注册信息及详细介绍,适合研究AI和机器学习的人员深入了解深度强化学习的核心概念和应用技术。
Logo of basaran
basaran
Basaran是一款开源工具,旨在替代OpenAI的文本生成API,支持Hugging Face Transformers模型。其主要功能包括流式生成、多GPU支持、与OpenAI API的兼容性等。用户无需修改代码即可使用最新的开源模型,适用于多种解码策略和实时进度显示。
Logo of LLaVA-pp
LLaVA-pp
LLaVA-pp项目整合了Phi-3 Mini Instruct和LLaMA-3 Instruct模型,提升了视觉模型的能力。用户可通过Hugging Face Spaces和在线演示了解LLaMA-3-V和Phi-3-V的更新和结果。项目包含多种预训练及微调模型,支持学术任务和指令跟随应用。
Logo of local-llm-function-calling
local-llm-function-calling
local-llm-function-calling项目使Hugging Face文本生成模型能够遵循JSON schema,并轻松制定函数调用提示。该项目的Generator类简化了文本生成过程,确保输出符合提供的提示和JSON schema。此外,还支持用户自定义约束和提示结构,以优化数据提取和格式化。
Logo of ArxivDigest
ArxivDigest
此项目利用大语言模型根据用户的研究兴趣和自然语言描述,提供个性化的arXiv最新论文摘要和推荐。用户可以通过Hugging Face平台使用服务,并通过OpenAI API密钥设置每日订阅,生成定制化的HTML摘要并通过SendGrid API发送邮件。该工具有效节省了科研人员筛选和阅读论文标题和摘要的时间,提高了研究效率。
Logo of awesome-huggingface
awesome-huggingface
该项目列出了多个优秀的开源项目和应用,均与Hugging Face库集成,为各类NLP任务提供有效的解决方案。内容涵盖官方库教程、NLP工具包、文本表示、推理引擎、模型扩展、模型压缩、对抗攻击、风格转换、情感分析、语法纠正、翻译、知识与实体、语音处理、多模态学习、强化学习、问答系统、推荐系统、评估工具、神经搜索、云支持和硬件支持等多个领域。此项目能够帮助用户找到并使用适合的工具和库,提升自然语言处理任务的效率和效果。
Logo of course
course
此课程讲解如何将Transformers应用于自然语言处理及其他任务,并介绍Hugging Face生态系统的使用,包括Transformers、Datasets、Tokenizers和Accelerate工具,以及Hugging Face Hub。课程完全免费且开源,支持多语言翻译学习,旨在推广机器学习。对于翻译课程感兴趣的用户,可在GitHub上开issue并加入Discord讨论。
Logo of lm-evaluation-harness
lm-evaluation-harness
该项目提供统一框架,用于评估生成式语言模型,通过60多个标准学术基准和数百个子任务实现多样化测试。更新包括新的Open LLM Leaderboard任务、内部重构、基于配置的任务创建、Jinja2提示设计支持等高级配置选项,旨在简化和优化模型评估。支持快速高效推理、商业API、本地模型和基准测试。被广泛应用于机构如NVIDIA、Cohere、BigScience等,也支撑了🤗 Hugging Face的Open LLM Leaderboard。
Logo of computer-vision-course
computer-vision-course
由Hugging Face社区超过60位贡献者共同创建的计算机视觉课程,涵盖从计算机视觉基础到卷积神经网络、视觉Transformer、多模态模型、生成模型等多种前沿技术。每位作者自由选择风格创作,并经过社区审核和修订。课程展示了开源社区的合作成就,欢迎新的贡献和改进建议。
Logo of StableSR
StableSR
StableSR项目采用扩散模型,提高了真实世界场景中的图像超分辨率效果。最新更新包括对SD-Turbo的支持以及与ComfyUI和Hugging Face平台的集成。用户可以通过各种平台体验和测试该项目的功能。项目提供了详细的文档、代码示例和训练脚本,已被IJCV期刊接受,并在多个公开数据集中展示了其性能和效果。
Logo of trlx
trlx
一个专注于强化学习微调大型语言模型的分布式训练框架。支持使用奖励函数或已标注数据集进行训练,兼容🤗Hugging Face和NVIDIA NeMo模型,可扩展到20B参数以上。实现了PPO和ILQL等多种RL算法,提供详细文档和丰富示例,支持分布式训练和超参数搜索。适用于各种应用场景,通过高效并行技术提升训练效率。
Logo of recurrent-memory-transformer
recurrent-memory-transformer
Recurrent Memory Transformer (RMT)是为Hugging Face模型设计的记忆增强型循环Transformer。通过在输入序列中添加特殊记忆标记,RMT实现了高效的记忆机制,能够处理长达1M及以上的token序列。项目提供RMT实现代码、训练示例和评估工具,在BABILong等长文本基准测试中表现优异,为研究长序列处理提供了有力支持。
Logo of PaddleHub
PaddleHub
PaddleHub提供超过400种高质量AI模型,覆盖计算机视觉、自然语言处理和语音识别等领域。用户仅需3行代码即可进行模型预测,同时支持模型即服务,通过简单命令即可部署。最新版本v2.3.0引入了ERNIE-ViLG、Disco Diffusion和Stable Diffusion等模型,并支持在HuggingFace平台上发布。PaddleHub兼容Linux、Windows和MacOS,适合多平台开发。
Logo of Hugging Face
Hugging Face
Hugging Face是开放源码机器学习平台,支持模型、数据集与应用的无限制托管,包含丰富的模态支持,已服务于超过5万家机构。
Logo of LLM-Finetuning
LLM-Finetuning
了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。
Logo of transformers
transformers
探索🤗 Transformers——一个功能全面的机器学习库,覆盖文本、视觉与音频处理。该库提供数千种可对接JAX、PyTorch或TensorFlow的预训练模型,适用于多种语言处理与多模态任务。主要功能包括: - 文本分类 - 信息提取 - 问答系统 - 摘要生成 - 翻译 - 文本生成 此外,还能处理表格问答、OCR及视觉问答等多模态任务。Transformers库易于使用,支持模型间的快速切换与无缝整合。
Logo of bonito
bonito
Bonito:一个开源模型,用于生成用于指令调优的训练数据集,将无标注文本转化为适应多种任务需求的数据集。基于Hugging Face的Transformers和VLLM库,Bonito支持数种任务类型,包括问题生成和自然语言推理,适合学术研究及技术开发使用。
Logo of LLaMA-LoRA-Tuner
LLaMA-LoRA-Tuner
LLaMA-LoRA Tuner通过Google Colab、一键启动和多云服务支持,简化了LLaMA模型的评估和微调。用户可在Hugging Face查看演示,支持通过Google Drive和JSON格式加载和存储数据。此项目实现了多基础模型切换和多训练数据集格式支持,新增聊天界面和演示模式以优化新模型展示。
Logo of How-to-use-Transformers
How-to-use-Transformers
该项目提供了由Hugging Face开发的Transformers库的快速入门教程,支持加载大部分预训练语言模型。教程涵盖自然语言处理背景知识、Transformers基础和实战案例,包括pipelines、模型与分词器使用、微调预训练模型及序列标注任务等。示例代码展示了句子对分类、命名实体识别、文本摘要等任务的实现,适合机器学习和NLP开发者参考。
Logo of promptsource
promptsource
PromptSource是一款工具包,旨在创建、共享和使用自然语言提示。支持数据集到目标输出的映射,并包含不断扩展的提示库。通过简单的API访问数千个提示。由BigScience项目开发,强调跨任务训练提升零样本性能,提供Web界面和文档,适应多语言数据集。
Logo of lighteval
lighteval
lighteval是一款轻量级LLM评估套件,兼容datatrove和nanotron库,支持CPU和多GPU环境,能处理超大模型。多任务配置允许自定义和社区任务,具备数据并行、管道并行及Hugging Face Hub集成功能。适用于复杂模型配置和推理端点。
Logo of audio-diffusion
audio-diffusion
audio-diffusion项目使用Hugging Face的diffusers包,将扩散模型应用在音乐合成领域,不再局限于图像生成。项目介绍了条件音频生成、预训练模型的使用、Mel谱图处理,在谷歌Colab和本地环境下的训练方法。项目包含实际案例和最新更新,展示了如何用扩散模型生成和插值音频。此外,还提供了从音频文件生成Mel谱图数据集的详细指南,涵盖多种技术细节和操作方法。
Logo of MambaVision
MambaVision
MambaVision采用混合Mamba-Transformer架构,结合自注意力和混合块,实现了卓越的图像分类和特征提取效果。其创新的对称路径设计提升了全局上下文的建模能力,并提供多种预训练模型。MambaVision支持多种分辨率图像处理,适用于分类、检测和分割等任务。最新模型支持Hugging Face和pip包,详细信息见[官网](https://huggingface.co/collections/nvidia/mambavision-66943871a6b36c9e78b327d3)。
Logo of image-matching-webui
image-matching-webui
该工具利用多个著名的图像匹配算法高效匹配图像对,拥有基于gradio设计的图形用户界面,用户可以轻松选择两张图像和匹配算法,并获得精确匹配结果。支持本地图像和摄像头图像输入,以及众多流行的图像匹配算法,如MASt3R、DUSt3R和OmniGlue等。可以通过HuggingFace和Lightning AI平台直接使用,也可以本地部署。欢迎外部贡献,并现已支持多个功能扩展和优化方案。
Logo of llm-compressor
llm-compressor
llm-compressor是一个专注于大型语言模型优化和压缩的开源库。它提供全面的量化算法集,支持权重和激活量化,并与Hugging Face模型和仓库无缝集成。该项目采用safetensors文件格式,确保与vllm兼容,同时通过accelerate支持大规模模型处理。llm-compressor涵盖多种量化格式和算法,包括激活量化、混合精度和稀疏化技术,为模型优化提供灵活多样的选择。
Logo of text-generation-inference
text-generation-inference
Text Generation Inference (TGI) 是一个部署和服务大型语言模型的工具包。它支持Llama、Falcon、StarCoder、BLOOM、GPT-NeoX等流行的开源模型,提供简便的启动器、分布式追踪、张量并行、多GPU推理加速、令牌流等特性。TGI还支持权重量化和安全张量加载,具备自定义提示生成和微调功能,兼容Nvidia、AMD、Inferentia、Intel GPU、Gaudi和Google TPU等硬件平台。
Logo of Deep_reinforcement_learning_Course
Deep_reinforcement_learning_Course
免费深度强化学习课程,结合理论与实践,掌握Stable Baselines3、RL Baselines3 Zoo、Sample Factory和CleanRL等库的使用。训练智能体在SnowballFight、Huggy the Doggo、MineRL(Minecraft)、VizDoom(Doom)及经典环境(如Space Invaders、PyBullet)中运行。发布和下载社区智能体,并参与挑战与其他团队及AI对抗。
Logo of LlamaGen
LlamaGen
LlamaGen项目展示了自回归模型在图像生成中的潜力,通过无偏视觉信号和大规模数据训练,实现了媲美扩散模型的性能。该项目发布了多种图像tokenizer和生成模型,支持从100M到3B参数的多种配置,并提供在线演示和高效的vLLM服务框架。访问项目页面和在线demo,体验这些创新模型的强大功能。
Logo of datasets
datasets
🤗 Datasets是一个高效的轻量级数据处理库,支持一行代码完成数据集的下载和预处理。库支持Numpy、Pandas、PyTorch、TensorFlow和JAX等框架,并提供智能缓存及大规模数据集的流式处理,有效减轻内存限制的压力,简化机器学习和数据分析的前置工作。
Logo of awesome-japanese-nlp-resources
awesome-japanese-nlp-resources
本项目提供全面的日语自然语言处理(NLP)资源,包括Python库、语言模型、词典和语料库等。收录了605个GitHub仓库和820个Hugging Face模型及数据集,并附带一个搜索工具方便查找更新信息。项目定期更新,最新包括Mozc UT地名词典和Kana-Kanji转换模块。资源涵盖形态分析、句法分析、情感分析及机器翻译等,是日语NLP研究和应用的重要参考。
Logo of pretraining-with-human-feedback
pretraining-with-human-feedback
该项目为根据人类偏好预训练语言模型提供了一套基于Hugging Face Transformers和wandb的工具。项目实现了五种预训练目标,通过对训练数据注释并使用这些目标函数提升模型性能,包括毒性检测和隐私信息识别等任务。项目还提供详细的配置文件和评估方式指导。
Logo of transformers-tutorials
transformers-tutorials
本项目提供了关于如何使用Transformers模型在自然语言处理任务中进行精细调优的详细教程,包括文本分类、情感分析、命名实体识别和摘要生成等案例。教程旨在帮助用户掌握应用最新NLP技术的技巧,并提供配套的Python代码示例和工具指南。
Logo of fashion-clip
fashion-clip
FashionCLIP是一个为时尚行业优化的CLIP模型,用于提升商品检索、分类和时尚分析的表现。通过超过70万对图像和文本数据进行微调,FashionCLIP在零样本场景下表现出色。更新版FashionCLIP 2.0采用更多训练数据,显著提高了FMNIST、KAGL和DEEP数据集的性能。项目提供开源代码和模型权重,可在Hugging Face上获取,并支持多种API和教程便于上手。
Logo of stable-diffusion-2-gui
stable-diffusion-2-gui
该页面介绍了一个适用于Stable Diffusion v2.1的Gradio应用,支持文本到图像、图像到图像、图像修复、图像放大和深度到图像等多种功能。此项目由Stability AI和Hugging Face提供支持,可在Colab平台上运行。
Logo of huggingface.js
huggingface.js
Huggingface.js是多个JS库的集合,用于与Hugging Face API交互,支持创建或删除仓库、上传下载文件及调用超过10万个机器学习模型。兼容现代浏览器和Node.js 18以上版本,并通过NPM或CDN静态托管进行安装。主要功能包括推理服务、自然语言界面和远程文件解析,适用于多种机器学习应用场景。
Logo of SPIN
SPIN
SPIN项目通过使用自对弈机制提升语言模型性能,无需额外的人类注释数据。模型通过生成自旋数据并与其先前版本对弈来优化策略。多项基准测试结果表明,SPIN显著提升模型表现,超过直接偏好优化方法。开源的完整代码和训练脚本提供了从数据生成到模型微调的全套流程。
Logo of OpenLRM
OpenLRM
OpenLRM是一个开源项目,专注于将单张图像转换为三维模型,提供预训练模型、训练代码和工具。用户可访问Hugging Face平台上的模型和演示。最新版本v1.1.1支持Objaverse和MVImgNet数据集,并进行了代码重构以提升可用性和扩展性。项目还包含安装指南、推理脚本和训练配置文件,便于用户快速上手。
Logo of tortoise
tortoise
Tortoise TTS 是一款先进的文本转语音软件,专为提供多声音功能和高度真实的语调与韵律设计。该项目支持各种安装方式,包括pip和Docker,并提供了完善的本地安装指南。此外,Tortoise TTS 还在Hugging Face上提供在线演示,用户可体验其强大功能。它使用了自回归解码器和扩散解码器,大幅提升了语音生成的速度和质量。无论是个人用户还是开发者,都可通过详细的使用指南迅速上手和部署。
Logo of mergekit
mergekit
MergeKit是一款合并预训练语言模型的工具,支持Llama、Mistral、GPT-NeoX等多种模型。该工具采用先进的方法,在资源有限的情况下执行复杂的合并操作。MergeKit可以在CPU或最低8GB VRAM环境下运行,支持多种合并算法,如线性插值、任务算术、TIES等。还提供图形用户界面并集成到Hugging Face Spaces,简化了模型合并流程。
Logo of ReplitLM
ReplitLM
ReplitLM模型使用指南和配置文件,涵盖模型下载、Hugging Face Transformers集成、训练与微调及指令调优。内容不断更新,提供GPU支持的在线演示和LLM Foundry优化的训练方法。包括详细的安装步骤、数据集转换方法及运行配置示例,帮助用户快速掌握并实现自定义模型训练。
Logo of Large-Language-Model-Notebooks-Course
Large-Language-Model-Notebooks-Course
该课程为学习者提供了实用的OpenAI与Hugging Face模型操作经验。内容覆盖从聊天机器人、代码生成等基技术到结构化大型项目实操,适合企业技术人员和个人开发者。
Logo of phi3-Chinese
phi3-Chinese
phi3-Chinese收录多种phi3训练变体,小体积高性能,适用于手机部署。提供Phi-3-mini-128k-instruct-Chinese中文版和其他英文原版模型的下载链接,并包含训练、推理和部署的详细教程。尽管目前版本存在词表过小和实际效果与预期不符的问题,但仍适用于轻量级垂直任务。
Logo of whisper-playground
whisper-playground
借助faster-whisper、Diart和Pyannote,构建支持99种语言的实时语音转文字应用程序。可以通过在线演示版直接体验,并依据清晰的设置指南迅速启动。该项目支持调整多种参数如模型大小、语言选择和转录方法,优化转录体验。项目依赖于Hugging Face Hub上的Pyannote模型,需先接受相应使用条款。提供详细的安装步骤和故障排查指导,方便解决常见问题。
Logo of dataset-viewer
dataset-viewer
Dataset viewer 通过 API 提供预处理数据,方便用户浏览和管理 Hugging Face Hub 上的所有数据集。用户可分页查看数据,每页包含 100 行,并通过底部按钮进行导航、过滤、搜索数据和查看基本统计信息。前端组件未开源,遇到问题或需要新功能,可以通过 GitHub 反馈。用户还可通过贡献想法、回答问题、报告错误与改进建议来支持项目改进。
Logo of SpanMarkerNER
SpanMarkerNER
SpanMarker是一个基于Transformer库的命名实体识别框架,支持BERT、RoBERTa和ELECTRA等编码器。框架提供模型加载、保存、超参数优化、日志记录、检查点、回调、混合精度训练和8位推理等功能。用户可以方便地使用预训练模型,并通过免费API进行快速原型开发和部署。
Logo of Wuerstchen
Wuerstchen
Würstchen通过在高度压缩的潜在空间中进行文本条件处理,能够实现42倍压缩并保留高质量的图像重构。该模型的多阶段压缩策略显著降低了训练时间和计算成本。用户可以借助Colab和diffusers库使用Würstchen生成文本到图像的内容,同时提供Stage B和Stage C的训练脚本便于用户自行训练模型。详细信息请查看官方文档和论文。
Logo of daam
daam
这篇文章介绍了一种基于跨注意力机制的方法——注意力归因图(DAAM),用于解析稳定扩散模型。内容包括DAAM在命令行界面和库中的实际应用示例,以及在HuggingFace平台上的在线演示。文章展示了如何生成与单词关联的热力图,支持Stable Diffusion XL (SDXL)和Diffusers 0.21.1版本的模型。还提供了PyTorch安装指南和DAAM快速入门教程,帮助用户实现和探索模型结果。文章中还包括相关视频资源和扩展工具的链接,供用户参考。
Logo of UniDepth
UniDepth
UniDepth项目提出了通用的单目深度测量方法,支持多个数据集如NYUv2、KITTI和SUN-RGBD。通过训练模型,该方法可直接从RGB图像生成深度和内参预测,无需预先深度数据。其高精度、低延迟的推理能力在多个基准测试中表现优秀。支持多种输入形状和比例,适合机器人视觉和自动驾驶等应用。
Logo of flux
flux
Flux是Black Forest Labs开发的开源AI框架,用于文本到图像和图像到图像的转换。该项目提供pro、dev和schnell三个模型版本,满足不同性能需求。Flux支持本地部署、API调用及Diffusers集成,具有良好的灵活性。其代码简洁,接口直观,便于创意工作者和开发者使用。