#Hugging Face
audio-diffusion - 使用Hugging Face扩散器包应用扩散模型以合成音乐
audio-diffusionmel spectrogramHugging Facediffusion models生成音频Github开源项目
audio-diffusion项目使用Hugging Face的diffusers包,将扩散模型应用在音乐合成领域,不再局限于图像生成。项目介绍了条件音频生成、预训练模型的使用、Mel谱图处理,在谷歌Colab和本地环境下的训练方法。项目包含实际案例和最新更新,展示了如何用扩散模型生成和插值音频。此外,还提供了从音频文件生成Mel谱图数据集的详细指南,涵盖多种技术细节和操作方法。
huggingface.js - 与现代浏览器和Node.js集成的Hugging Face机器学习JS库
Hugging FaceJavaScriptAPI机器学习库Github开源项目
Huggingface.js是多个JS库的集合,用于与Hugging Face API交互,支持创建或删除仓库、上传下载文件及调用超过10万个机器学习模型。兼容现代浏览器和Node.js 18以上版本,并通过NPM或CDN静态托管进行安装。主要功能包括推理服务、自然语言界面和远程文件解析,适用于多种机器学习应用场景。
daam - 解释稳定扩散模型的跨注意力归因图方法
DAAMStable DiffusionHugging FacePyTorchColabGithub开源项目
这篇文章介绍了一种基于跨注意力机制的方法——注意力归因图(DAAM),用于解析稳定扩散模型。内容包括DAAM在命令行界面和库中的实际应用示例,以及在HuggingFace平台上的在线演示。文章展示了如何生成与单词关联的热力图,支持Stable Diffusion XL (SDXL)和Diffusers 0.21.1版本的模型。还提供了PyTorch安装指南和DAAM快速入门教程,帮助用户实现和探索模型结果。文章中还包括相关视频资源和扩展工具的链接,供用户参考。
StableSR - 通过扩散模型实现实际应用中的图像超分辨率
StableSR图像超分辨率扩散模型Hugging Face模型训练Github开源项目
StableSR项目采用扩散模型,提高了真实世界场景中的图像超分辨率效果。最新更新包括对SD-Turbo的支持以及与ComfyUI和Hugging Face平台的集成。用户可以通过各种平台体验和测试该项目的功能。项目提供了详细的文档、代码示例和训练脚本,已被IJCV期刊接受,并在多个公开数据集中展示了其性能和效果。
MambaVision - 高效且灵活的视觉骨干网络,适用于各种分辨率的图像处理
MambaVision深度学习计算机视觉图像分类Hugging FaceGithub开源项目
MambaVision采用混合Mamba-Transformer架构,结合自注意力和混合块,实现了卓越的图像分类和特征提取效果。其创新的对称路径设计提升了全局上下文的建模能力,并提供多种预训练模型。MambaVision支持多种分辨率图像处理,适用于分类、检测和分割等任务。最新模型支持Hugging Face和pip包,详细信息见[官网](https://huggingface.co/collections/nvidia/mambavision-66943871a6b36c9e78b327d3)。
SPIN - 通过使用自对弈机制提升语言模型性能
SPINself-playLanguage Modelfine-tuningHugging FaceGithub开源项目
SPIN项目通过使用自对弈机制提升语言模型性能,无需额外的人类注释数据。模型通过生成自旋数据并与其先前版本对弈来优化策略。多项基准测试结果表明,SPIN显著提升模型表现,超过直接偏好优化方法。开源的完整代码和训练脚本提供了从数据生成到模型微调的全套流程。
UniDepth - 单目深度测量的通用算法,兼容多种数据集
UniDepth深度估计CVPR 2024Python包Hugging FaceGithub开源项目
UniDepth项目提出了通用的单目深度测量方法,支持多个数据集如NYUv2、KITTI和SUN-RGBD。通过训练模型,该方法可直接从RGB图像生成深度和内参预测,无需预先深度数据。其高精度、低延迟的推理能力在多个基准测试中表现优秀。支持多种输入形状和比例,适合机器人视觉和自动驾驶等应用。
trlx - 分布式微调大型语言模型的强化学习框架,支持奖励函数与高效并行
trlXHugging FaceNVIDIA NeMoPPOILQLGithub开源项目
一个专注于强化学习微调大型语言模型的分布式训练框架。支持使用奖励函数或已标注数据集进行训练,兼容🤗Hugging Face和NVIDIA NeMo模型,可扩展到20B参数以上。实现了PPO和ILQL等多种RL算法,提供详细文档和丰富示例,支持分布式训练和超参数搜索。适用于各种应用场景,通过高效并行技术提升训练效率。
image-matching-webui - 高效图像匹配软件,支持多种算法
Image Matching WebUI图像匹配众多算法GradioHugging FaceGithub开源项目
该工具利用多个著名的图像匹配算法高效匹配图像对,拥有基于gradio设计的图形用户界面,用户可以轻松选择两张图像和匹配算法,并获得精确匹配结果。支持本地图像和摄像头图像输入,以及众多流行的图像匹配算法,如MASt3R、DUSt3R和OmniGlue等。可以通过HuggingFace和Lightning AI平台直接使用,也可以本地部署。欢迎外部贡献,并现已支持多个功能扩展和优化方案。
OpenLRM - 开源3D重建模型
OpenLRM开源视觉重建模型训练Hugging FaceGithub开源项目
OpenLRM是一个开源项目,专注于将单张图像转换为三维模型,提供预训练模型、训练代码和工具。用户可访问Hugging Face平台上的模型和演示。最新版本v1.1.1支持Objaverse和MVImgNet数据集,并进行了代码重构以提升可用性和扩展性。项目还包含安装指南、推理脚本和训练配置文件,便于用户快速上手。
flux - 开源AI文本与图像转换框架
FLUXAI绘图模型推理Hugging FaceAPIGithub开源项目
Flux是Black Forest Labs开发的开源AI框架,用于文本到图像和图像到图像的转换。该项目提供pro、dev和schnell三个模型版本,满足不同性能需求。Flux支持本地部署、API调用及Diffusers集成,具有良好的灵活性。其代码简洁,接口直观,便于创意工作者和开发者使用。
recurrent-memory-transformer - 记忆增强型Transformer为Hugging Face模型提升长序列处理能力
Recurrent Memory Transformer长文本处理机器学习模型自然语言处理Hugging FaceGithub开源项目
Recurrent Memory Transformer (RMT)是为Hugging Face模型设计的记忆增强型循环Transformer。通过在输入序列中添加特殊记忆标记,RMT实现了高效的记忆机制,能够处理长达1M及以上的token序列。项目提供RMT实现代码、训练示例和评估工具,在BABILong等长文本基准测试中表现优异,为研究长序列处理提供了有力支持。
llm-compressor - 开源大型语言模型压缩优化库
LLM Compressor量化模型优化vllmHugging FaceGithub开源项目
llm-compressor是一个专注于大型语言模型优化和压缩的开源库。它提供全面的量化算法集,支持权重和激活量化,并与Hugging Face模型和仓库无缝集成。该项目采用safetensors文件格式,确保与vllm兼容,同时通过accelerate支持大规模模型处理。llm-compressor涵盖多种量化格式和算法,包括激活量化、混合精度和稀疏化技术,为模型优化提供灵活多样的选择。
BiRefNet - 高分辨率图像分割的双边参考网络
图像分割双边参考高分辨率BiRefNetHugging FaceGithub开源项目
BiRefNet是一个专注于高分辨率图像分割的创新网络。该项目在DIS、COD和HRSOD等多个高分辨率任务中取得了领先成果。BiRefNet采用双边参考机制提升分割精度,支持HuggingFace一行代码加载。项目开源了完整代码实现、预训练模型,并提供在线演示。这一工作为高分辨率图像分割研究带来了新的思路。
audio-transformers-course - Transformers在音频和语音处理中的应用与实践
Audio Transformers CourseHugging Face开源多语言机器学习Github开源项目
audio-transformers-course是一个开源课程项目,聚焦于Transformers模型在音频和语音处理领域的应用。课程提供多语言版本,内容包括详细教程、代码示例和Jupyter notebooks,适合开发者和研究人员学习音频Transformers技术。项目支持社区参与翻译,致力于推广音频处理的前沿知识。
calculate-flops.pytorch - 神经网络模型计算工具:FLOPs、MACs和参数量分析
calflopsFLOPs计算神经网络Hugging Face大语言模型Github开源项目
calflops是一款专为神经网络模型设计的计算工具,可分析各类模型的FLOPs、MACs和参数量。支持线性、CNN、RNN、GCN和Transformer等模型,以及基于PyTorch的自定义模型。工具能详细展示每个子模块的计算数据及占比,有助于深入了解模型性能。对大型语言模型的分析尤为出色,并与Hugging Face平台无缝对接。
huggingface-llama-recipes - Llama 3.1模型快速入门与应用指南
Llama 3.1Hugging Face本地推理量化模型微调Github开源项目
本项目提供了一系列实用工具和指南,帮助开发者快速掌握Llama 3.1模型。内容涵盖本地推理、API调用、模型量化和微调等关键主题,并包含相关代码示例。此外,项目还介绍了Llama Guard和Prompt Guard安全模型的应用,以及其他高级用例。项目资源适合不同经验水平的开发者,为探索和应用Llama 3.1模型提供了有价值的参考。
blog - AI技术文章创作全流程与开源协作指南
Hugging Face博客文章撰写MarkdownGitHubGithub开源项目
Hugging Face博客仓库是一个开源平台,为AI技术文章创作提供全面指南。涵盖从Git操作、Markdown编写到缩略图设计的完整流程,并包含LaTeX公式、图片说明等高级功能。该仓库旨在简化博客创作过程,确保内容质量和一致性,同时提升搜索引擎优化效果。
diffusion-models-class - 掌握扩散模型从理论到实践的全面课程
Hugging Face扩散模型AI绘图深度学习PyTorchGithub开源项目
Hugging Face推出的扩散模型免费课程涵盖理论研究和实践应用。课程内容包括使用Diffusers库生成图像和音频、训练和微调扩散模型、探索条件生成和引导技术、创建自定义模型管道等。适合具备Python和深度学习基础的学习者,提供全面的扩散模型学习体验。
safetensors - 安全高效的张量存储格式 支持零拷贝和延迟加载
safetensors张量存储文件格式机器学习Hugging FaceGithub开源项目
safetensors是一种新的张量存储格式,旨在安全高效地保存机器学习模型。与pickle相比,它提供了更好的安全性,同时通过零拷贝技术保持高性能。该库支持Python和Rust,提供简单的API用于张量的存储和加载。safetensors支持延迟加载、布局控制和多种数据类型,适用于大规模模型的存储和分发。在加载速度和内存效率方面表现优异,尤其适合分布式环境。
HuggingFists - 简化LLM和HuggingFace模型应用的数据流工具
HuggingFists低代码数据流工具工作流管理Hugging FaceGithub开源项目
HuggingFists是一个创新的数据流工具,旨在简化LLM和HuggingFace模型的应用。该工具提供低代码功能,包括工作流管理、作业调度和环境配置。通过直观的拖拽界面,用户可以设计数据处理流程,轻松访问HuggingFace模型和数据集。HuggingFists支持文本摘要、情感分类和命名实体识别等AI任务,同时允许本地模型部署。其独特的断点调试功能有助于提高AI应用开发效率。
GPTFast - Hugging Face Transformers模型推理加速工具
GPTFast推理加速Hugging Face静态键值缓存量化Github开源项目
GPTFast是一个为Hugging Face Transformers模型优化推理速度的开源Python库。它集成了多种加速技术,如静态键值缓存、int4量化和推测解码,可将模型推理速度提升7.6-9倍。GPTFast支持torch.compile、int8量化、GPTQ int4量化等优化方法,通过简单的API调用即可应用于各类Hugging Face模型。该项目持续更新,未来计划引入更多先进的加速技术。
fine-tune-mistral - Mistral大语言模型全量微调开源项目
Mistral微调深度学习模型训练Hugging FaceGithub开源项目
fine-tune-mistral是一个专注于Mistral 7B大语言模型全量微调的开源项目。项目提供完整训练代码和使用说明,支持多GPU训练。其中包含多项训练技巧,如学习率调整和数据量建议等。项目还强调通过评估任务来衡量模型性能改进。该工具为研究者提供了一个进行Mistral模型定制化的便捷平台。
The GPT Who Lived - 体验Hugging Face社区的机器学习创新
AI工具Hugging FaceSpaces人工智能模型托管社区互动
The GPT Who Lived是Hugging Face Space上的一个项目,展示了AI社区成员开发的机器学习应用,特别是在自然语言处理和GPT模型方面。该平台促进了创新和知识交流,展示了最新的AI技术成果。它为AI爱好者和专业开发者提供了一个发现和体验先进机器学习应用的空间,包括文本生成、问答系统和语言翻译等功能。通过这个项目,用户可以深入了解和实践当前最前沿的AI技术。
Promptist - 微软推出的智能提示词优化平台
AI工具Hugging FacemicrosoftPromptistAI平台开源社区
Promptist是微软在Hugging Face平台发布的提示词优化工具。这款应用程序通过自然语言处理技术,帮助用户创建更有效的AI提示词,提升与大型语言模型的交互质量。它为AI爱好者、研究人员和开发者提供了便捷平台,用于探索和改进提示工程技术,从而生成更高质量、更相关的AI内容。Promptist优化提示词,提高AI交互效果。
nlp-de-cero-a-cien - 从零开始学习NLP,实践Hugging Face开发
NLPHugging FaceTransformers机器学习自然语言处理Github开源项目
本项目提供全面的NLP学习课程,涵盖词嵌入到Transformer模型等关键技术。7次在线课程由行业专家授课,学习者可掌握核心知识并使用Hugging Face开发应用。课程设计适合不同水平学习者,提供录像回放及社区支持。
Natural_Language_Processing_with_Transformers - Transformers技术实践指南 构建高效NLP应用
自然语言处理TransformersHugging Face机器学习人工智能Github开源项目
这本由Hugging Face Transformer库作者撰写的技术指南,全面介绍了Transformers在自然语言处理中的应用。内容涵盖基础概念和高级应用,为开发者提供了利用Hugging Face库构建NLP应用的实用方法。本书旨在帮助读者掌握前沿NLP技术,并将其有效应用于实际项目开发中。
vixtts-demo - 专注越南语的开源文本转语音工具
viXTTS文字转语音语音克隆越南语Hugging FaceGithub开源项目
viXTTS是一个开源的文本转语音工具,基于XTTS-v2.0.3模型,主要针对越南语进行优化。该工具使用viVoice数据集微调,支持高质量声音克隆。用户可通过Hugging Face在线体验或在本地Ubuntu/WSL2系统运行。虽然重点优化越南语,但也支持其他语言尝试。项目提供详细的安装和使用说明,便于研究者和开发者使用。
simpletransformers - 快速构建和优化Transformer模型的开源工具
Simple TransformersNLPHugging Face机器学习深度学习Github开源项目
simpletransformers是一个基于Hugging Face Transformers的开源工具,通过简化的API让用户能够用少量代码快速构建和优化Transformer模型。该库支持文本分类、命名实体识别、问答系统等多种NLP任务,为研究人员和开发者提供了便捷的方式来应用这些强大的模型。simpletransformers具有直观的接口和丰富的功能,可用于各类自然语言处理场景,有效降低了使用Transformer模型的门槛。
text-to-video-synthesis-colab - 多模型文本到视频合成工具集成
文本生成视频ColabAI模型Hugging Face开源项目Github
该开源项目集成了Longscope、Zeroscope和Potat1等多个文本到视频合成模型。用户可在Colab环境中,通过输入文本生成短视频。项目支持多种分辨率和风格选择,并包含视频增强功能。这一工具集适用于多种创意和内容制作场景,为AI视频创作提供了便利。
storytime-13B-GGUF - 深入了解Storytime 13B的GGUF格式及其量化方法的多样选择
Hugging FaceStorytime 13B量化HuggingfaceGithub开源项目模型文件模型兼容性
本项目提供由Charles Goddard开发的Storytime 13B模型的GGUF格式文件,进一步扩展了与多种UI和库的兼容性,以便在多平台上实现高效的GPU加速推理。用户可以基于不同的需求选择从Q2_K到Q8_0的量化模型,覆盖高效到高质量的多样化选项。文件已经过优化量化处理,提供从轻量化性能提升到极低质量损失的选择。此外,还提供了模型的下载与运行指南,帮助用户更快速上手。
camembert-base-legacy - 基于RoBERTa的法语语言模型在多任务中的应用
预训练Hugging FaceCamemBERTHuggingfaceGithub开源项目模型法语语言模型
CamemBERT是一种先进的法语语言模型,基于RoBERTa,提供多种可选变体,可满足不同的自然语言处理需求。通过Hugging Face库,用户能够轻松集成和应用其强大的掩码填充和上下文特征提取功能。
albert-xxlarge-v1 - Habana Gaudi处理器上的ALBERT XXL模型运行配置与效率提升方案
HPU模型部署Hugging FaceTransformersALBERT XXL模型Github开源项目Huggingface
该项目详细介绍了在Habana's Gaudi处理器上配置和运行ALBERT XXL模型的方法,采用GaudiConfig实现关键功能,如自动混合精度、Habana的定制AdamW实现和融合梯度裁剪等。通过提供的操作指导,用户可以高效利用Habana HPU进行模型加载、训练和推理。文档中还包含示例脚本及指南,帮助在SQuAD数据集上微调模型,探索Habana HPU的应用潜力。
Qwen2.5-7B-Instruct-Uncensored-GGUF - 中英文无删减指令模型的最新静态量化版本,适合多语言支持
数据集Github量化模型Qwen2.5-7B-Instruct-Uncensored开源项目Hugging FaceHuggingface
该项目为Qwen2.5-7B-Instruct-Uncensored模型提供多种质量和大小的静态量化文件,支持中英文双语功能。用户可选择合适的量化类型,包括快速的Q4_K_S与Q4_K_M以及高质量的Q8_0和Q6_K。这些文件可提升模型性能,尤其在敏感内容处理及多语言支持方面。使用说明可参考TheBloke的文档。项目得益于nethype公司的资源支持。
vit-tiny-patch16-224 - 轻量级ViT模型实现高效图像分类
Huggingface图像分类模型权重转换ImageNetVision TransformerGithub开源项目Hugging Face
vit-tiny-patch16-224是一个轻量级视觉transformer模型,专注于图像分类任务。这个模型采用16x16的patch大小和224x224的输入分辨率,在保持分类准确性的同时大幅降低了计算资源需求。其小型结构使其特别适合在资源受限环境中使用或需要快速推理的场景。值得注意的是,该模型是基于Google的ViT架构,由第三方研究者使用timm仓库的权重进行转换和发布。
autotrain-advanced - 机器学习模型的训练与部署的无代码训练
AutoTrainHugging FaceColab机器学习部署Github开源项目
AutoTrain Advanced 是一款无代码解决方案,只需几次点击即可训练机器学习模型。需要上传正确格式的数据以创建项目,关于数据格式和定价的详细信息请查阅文档。AutoTrain 免费使用,只需为使用的资源付费。支持在 Colab 和 Hugging Face Spaces 上运行,也可以通过 PIP 本地安装。适用于 Python 3.10 及以上版本,推荐在 Conda 环境中运行。更多信息请访问项目文档页面。
相关文章
Tortoise TTS: 一个注重质量的多声音文本转语音系统
3 个月前
PaddleHub:基于PaddlePaddle的强大预训练模型工具箱
3 个月前
深入解析Hugging Face的Text Generation Inference工具包:为大型语言模型赋能
3 个月前
深度强化学习课程:从入门到精通的免费学习之旅
3 个月前
AutoTrain Advanced: 简化机器学习模型训练与部署的革命性工具
3 个月前
深度强化学习课程:从理论到实践的免费学习之旅
3 个月前
MergeKit: 一个强大的预训练语言模型合并工具包
3 个月前
LLM微调技术全面指南:方法、最佳实践与应用
3 个月前
Playground v2:最新SD模型,超SDXL2.5倍!
2024年08月03日