#Hugging Face

MoritzLaurer-roberta-base-zeroshot-v2.0-c-onnx - ONNX格式的零样本分类基础模型
转换Hugging Face模型GithubONNX开源项目Huggingface
该项目将MoritzLaurer/roberta-base-zeroshot-v2.0-c模型转成ONNX格式,旨在增强推理性能和部署灵活性,借助Hugging Face的Optimum库进行转换。适用于多任务快速处理的应用场景,在零样本分类中,无需大量手动标注数据,便可实现有效的文本分类,适合各类语言处理任务。
Qwen1.5-110B-Chat - 多语言模型与人类偏好优化的显著提升
HuggingfaceQwen1.5开源项目模型多语言支持Hugging FaceGithub语言模型Transformer架构
Qwen1.5是Qwen2的测试版,提供多语言支持和32K上下文长度的稳定性,并通过大规模数据预训练和偏好优化,大幅提高了对话模型的人类偏好表现。项目涵盖多种模型尺寸,包括最大110B和MoE架构的14B模型,基于Transformer技术,使用SwiGLU激活和组查询注意,提供强大的文本生成与灵活定制功能。
Qwen2.5-Coder-7B-Instruct-GPTQ-Int4 - Qwen2.5-Coder高效代码生成与长文本处理
HuggingfaceQwen2.5-Coder长上下文支持量化开源项目代码生成模型Hugging FaceGithub
Qwen2.5-Coder项目通过5.5万亿训练令牌的使用,显著提升了代码生成、推理和修正能力。该模型支持长达128K的上下文长度,采用GPTQ 4位量化,并保持数学与通用能力优势。搭载transformers架构,具备RoPE和SwiGLU等技术,优化代码生成和处理过程。
Hermes-3-Llama-3.1-70B-Uncensored-GGUF - 静态与多变量量化技术在Hermes-3-Llama模型中的应用
工作站Huggingface量化开源项目模型Hermes-3-Llama-3.1-70B-UncensoredtransformersHugging FaceGithub
Hermes-3-Llama-3.1-70B-Uncensored项目提供多种量化文件类型,包括更优的IQ-quants,适用于不同的性能需求。用户可参考TheBloke的材料了解GGUF文件的使用方法。不同的量化文件按大小排序,推荐使用性能较佳的Q4_K_S文件。项目特别感谢nethype GmbH提供的技术支持。
Qwen2.5-Math-72B-Instruct-GGUF - Llamacpp在Qwen2.5-Math代码量化中的应用
量化开源项目ARM芯片模型GithubHuggingfaceQwen2.5-Math-72B-InstructHugging Face性能
项目应用llama.cpp对Qwen2.5-Math模型进行量化,提供多种量化格式以适应不同硬件配置。更新包括改进的分词器,涵盖高至极低质量的量化文件,适用于不同RAM和VRAM需求,并支持在ARM芯片上运行。使用K-quant和I-quant等量化方法,有助于优化模型性能与速度。下载和安装可通过huggingface-cli实现,灵活快捷。
emeltal-collection - Emeltal开源模型仓库集成多款GGUF格式AI模型
人工智能模型开源项目Emeltal模型机器学习Github开源代码Hugging FaceHuggingface
emeltal-collection是一个GGUF格式AI模型仓库,集成了Dolphin、DeepSeek Coder等多个开源模型。模型参数规模从1.1B到72B不等,涵盖代码生成和对话等功能。该仓库旨在确保Emeltal项目所需模型的长期可用性,所有模型使用需遵循原始许可协议。
Llama-3.1-Nemotron-lorablated-70B-i1-GGUF - Llama-3.1的矩阵量化技术优化模型性能
HuggingfaceLlama-3.1-Nemotron-lorablated-70B量化开源项目模型Hugging FaceGithubQuants使用方法
该项目提供了一系列用于Llama-3.1-Nemotron模型的加权和矩阵量化文件,旨在优化模型的性能和运行效率。这些文件在缩小模型尺寸的同时保持了质量,适用于多种场景。用户可依据需求选择适合的量化级别,具体使用说明请参阅指南。项目的成功得益于各方支持和资源,推动了更多高质量量化文件的开发,助力广泛的研究和应用。
Freddie_Mercury__RVC_-_700_Epochs_ - Freddie Mercury音频转换模型 基于RVC技术的开源项目
Hugging Face音频转换开源项目RVC模型HuggingfaceFreddie MercuryGithub
Freddie Mercury RVC 700 Epochs项目是一个自动生成的音频转换模型,旨在优化音频处理。该模型以RVC技术为基础,设计用于实现音频转换的增强和高效处理,适用于不同平台和应用的集成。该项目展示了现代音频技术在提升音频处理中的应用,并为音频技术社区提供了一种实用的工具。
roberta-base-zeroshot-v2.0-c - 商用优化的零样本文本分类工具
Huggingface商业友好数据开源项目模型zeroshot分类Hugging FaceGithub自然语言推理模型训练
该系列模型专为Hugging Face平台优化,支持在GPU和CPU上进行零样本分类,无需预先训练数据。最近的改进包括基于商业友好的数据集训练,能满足严苛的许可条件。roberta和deberta系列以合理的准确性和速度满足不同需求,可用于多种语言和大范围文本输入,非常适合全球多样化的应用场景。最新的模型更新可在Zeroshot Classifier Collection中查阅,确保多种使用环境下的合规性。
bert-base-turkish-uncased - 巴伐利亚州立图书馆开源的土耳其语预训练BERT模型
BERT开源项目自然语言处理深度学习模型Github土耳其语Hugging FaceHuggingface
巴伐利亚州立图书馆MDZ团队开发的土耳其语BERT模型,基于35GB语料库训练而成,涵盖OSCAR、维基百科及OPUS等多个数据集,包含44亿个标记。该模型采用Google TPU v3-8进行200万步训练,完全兼容PyTorch-Transformers框架,可应用于词性标注、命名实体识别等土耳其语自然语言处理任务。
Llama-3.2-3B-Instruct-uncensored-GGUF - 量化的语言模型版本,促进文本生成与信息获取
Llama-3.2-3B-Instruct-uncensoredHuggingface文本生成量化开源项目模型Hugging FaceGithub内幕交易
Llama-3.2-3B-Instruct-uncensored-GGUF项目是一个未过滤的量化语言模型版本,增强了文本生成的多样性和信息获取效率。通过llama.cpp的量化处理,该模型在保持高效性能的同时输出高质量响应。其特点包括在敏感话题上的信息提供更全面,响应拒绝次数少。支持研究和开发中的多场景应用,用户可以在相关平台上进行交互,实现从文本生成到信息提取的多领域应用。
hf-seamless-m4t-medium - 多语言翻译与语音识别的统一模型
Hugging FaceGithub开源项目SeamlessM4T模型多语言翻译Huggingface文本到语音语音识别
SeamlessM4T是一款多语言模型,支持101种语言的语音输入、196种语言的文本处理和35种语言的语音输出。它能进行语音到语音、语音到文本、文本到语音及文本到文本的翻译。最新的SeamlessM4T v2在翻译质量和生成速度上均有改善,为需要高效语音处理和文本翻译的场景提供了解决方案。
small - Funnel Transformer小模型助力有效的英文处理
Hugging Face预训练开源项目英语语言处理模型Transformer模型HuggingfaceFunnel TransformerGithub
Funnel Transformer是一款基于自监督学习的预训练英语模型,使用丰富的公共数据集进行训练,类似ELECTRA的目标,通过区分原始与替换标记来学习语言特征。模型不区分大小写字母,适合用于序列分类、标记分类和问答任务。访问模型中心可获取进行特定任务的微调版本。
camembert-large - 先进的法语自然语言处理模型
Hugging Face开源项目预训练模型自然语言处理CamemBERT模型Huggingface法语语言模型Github
CamemBERT是基于RoBERTa架构的先进法语语言模型,提供6种版本,参数量范围为110M至335M。模型使用OSCAR、CCNet和维基百科等数据集进行预训练。CamemBERT可与Hugging Face框架无缝集成,支持掩码填充和上下文嵌入特征提取等任务。该模型为法语自然语言处理领域的研究与应用奠定了坚实基础。
segformer-b1-finetuned-cityscapes-1024-1024 - SegFormer模型在语义分割中的高效应用
Github图像分割开源项目SegFormerHugging FaceTransformerHuggingfaceCityscapes模型
SegFormer模型在CityScapes数据集上进行了微调,使用Transformer结构和轻量级MLP解码头实现高效的图像语义分割。适用于图像分割领域的研究者和开发者,可通过Python代码轻松使用。该模型支持高分辨率图像处理,展示了Transformer的潜力。
greek-text-summarization - 基于mT5的希腊语文本自动摘要模型助力高效内容处理
Github模型模型训练开源项目希腊语Hugging FacemT5-smallHuggingface摘要生成
该项目基于mT5-small模型开发的希腊语文本摘要系统,能够自动生成准确的文章摘要。项目已部署于Hugging Face Spaces平台,支持transformers库快速调用,为希腊语内容处理、新闻总结和文档分析等场景提供了专业的自然语言处理解决方案。
OnlyReal-Black-Mix - 利用文本到图像技术实现高效图像生成的创新解决方案
Github模型开源项目图像生成Civitaistable-diffusionHugging FaceHuggingfacediffusers
该项目结合稳定扩散模型与diffusers,支持文本转图像功能,适合多样化的创意应用场景。利用Hugging Face API生成的样本图像及原作者的演示,展示了其在艺术创作中的潜力与应用价值。
universal_ner_ita - 意大利语命名实体识别,使用零样本学习适用于多领域
命名实体识别Hugging Face零样本学习模型GLiNERGithub开源项目意大利语Huggingface
该模型适用于意大利语命名实体识别,通过零样本学习实现对多种实体的识别,无需特定训练。可联系Michele Montebovi进行定制以提升性能。模型支持CPU运行并可通过浏览器直接体验。
Meta-Llama-3.1-8B-Instruct-128k-GGUF - 支持128k上下文长度的文本生成模型
量化开源项目模型GithubHuggingfaceHugging Face模型转换文本生成Meta-Llama-3.1
此文本生成模型具备高达128k的上下文支持,由3Simplex负责量化和转换。需在GPT4All v3.1.1环境下运行,适用于多种文本生成任务。该模型仍在测试中,建议用户提供反馈以优化其性能。
metaclip-b16-fullcc2.5b - CLIP训练数据解构与MetaCLIP模型应用
图像分类HuggingfaceCommonCrawl开源项目模型Hugging FaceGithubMetaCLIP数据管理
MetaCLIP模型利用25亿个CommonCrawl数据点,在共享嵌入空间中实现图像与文本的链接应用。实现零样本图像分类、文本驱动的图像检索及图像驱动的文本检索。《Demystifying CLIP Data》论文揭示了CLIP数据训练方法,促进多模态应用发展。
clip - Habana Gaudi HPU优化的视觉语言模型配置与训练方案
模型训练Optimum Habana开源项目人工智能模型GithubHuggingfaceHugging FaceCLIP
Optimum Habana为Habana Gaudi处理器(HPU)提供了CLIP模型的优化配置,实现与Hugging Face库的集成。支持单机和多HPU环境下的模型操作,包含自定义AdamW、梯度裁剪和混合精度训练等优化。项目提供COCO数据集微调示例,展示了如何充分利用HPU性能进行视觉语言模型训练。
Big-Tiger-Gemma-27B-v1-GGUF - 优化27B参数的高效解码模型 拒绝率低
机器学习Github模型神经网络Big Tiger Gemma 27B v1开源项目Hugging FaceHuggingface
探索27B参数的无审查优化模型 大幅减少信息拒绝 提高复杂计算任务性能 支持多版本改进 包括GGUF和iMatrix 提供优质计算表现和精确度 提升模型应用体验
Lana_Del_Rey_e1000_s13000 - RVC模型应用于音频转换的关键特性
Lana_Del_Rey_e1000_s13000音频转换Huggingface模型RVC开源项目Hugging FaceGithub
该RVC模型通过自动程序生成,适用于特定平台的音频转换需求。在音频处理领域,该模型提供高效且可靠的转换体验,特别适合需要高精度音频转换的用户。
bert-base-uncased - 基于Habana Gaudi处理器的BERT预训练语言模型配置
Optimum HabanaHuggingface混合精度训练开源项目模型HPUHugging FaceGithubBERT
这是一个专为Habana Gaudi处理器(HPU)优化的bert-base-uncased模型配置文件,包含GaudiConfig完整配置,集成了自定义AdamW实现和梯度裁剪等功能。通过Transformers库标准接口和混合精度训练,可在HPU上实现高性能的模型训练和部署。
c4ai-command-r-08-2024-GGUF - c4ai-command-r-08-2024模型的量化方法解析
模型下载Hugging Face量化LlamacppCohere模型Github开源项目Huggingface
该项目利用llama.cpp工具对c4ai-command-r-08-2024模型进行量化,提供多种文件选择以满足不同计算需求。用户可参考下载和使用指南,根据GPU和RAM容量选择合适的量化格式,以优化性能。项目还提供性能图表和I-quant与K-quant选择建议,旨在帮助用户进行有效配置。这些量化文件适合在LM Studio中运行,强调高效推理和广泛适用性。
subnet9_track2_3 - Transformers模型卡片 AI模型信息概览
TransformersHugging Face机器学习自然语言处理Huggingface模型卡Github开源项目模型
Transformers模型卡片是一种标准化文档,汇总了AI模型的关键信息。它涵盖了模型的基本属性、应用场景、潜在风险、训练过程和评估结果等方面。通过提供模型架构、数据来源和环境影响等详细信息,模型卡片增强了AI系统的透明度和可解释性,有助于用户更好地理解和应用这些模型。
bruce - RVC音频转换模型的自动生成与加载优化
HuggingfaceRVC Model开源项目自动生成模型Hugging FaceGithubJuuxn音频转换
此页面介绍了一个RVC模型的自动生成库,该库将模型转化为可以在GitHub项目中加载的格式,帮助优化音频到音频处理效率。模型由名为juuxnscrap的机器人生成,旨在提升音质与处理速度,为音频工程师在各类音频任务中提供支持。
MN-12B-Starcannon-v3-i1-GGUF - 多种量化选项提升模型性能和适应性
Github静态量化开源项目Hugging Face量化模型transformersMN-12B-Starcannon-v3Huggingface模型
该项目提供多种量化文件类型和大小,满足不同用户需求,优化模型性能。用户可在mradermacher的Hugging Face页面获取IQ-quants与静态量化文件。有关GGUF文件的使用,建议查阅TheBloke的说明。本项目通过iMatrix文件,专注于高质量模型的量化,感谢nethype GmbH及nicoboss的硬件支持。
magnum-v4-22b-i1-GGUF - 多种IMatrix量化模型的应用与选择
HuggingfaceHugging Face转量化Magnum-v4-22bGithub模型开源项目Nicobossimatrix
magnum-v4-22b-i1-GGUF项目提供多种基于IMatrix量化技术的模型,满足不同需求。从i1-IQ1_S到i1-Q6_K,文件大小从4.9GB到18.4GB,可在Huggingface下载,并附有使用指南以协助整合。项目感谢nethype GmbH及@nicoboss的技术支持,提升了模型的效率与质量。
Mixtral-8x22B-v0.1 - 多平台兼容的预训练大规模语言模型
Mixtral-8x22BGithub模型开源项目语言模型Hugging FaceHuggingface生成模型Mistral AI
这是一款多语言兼容的预训练大型语言模型,支持生成性稀疏专家技术,兼容vLLM和Hugging Face transformers库,提供灵活的运行选项和优化内存管理的优势。然而,用户需注意,该模型没有内容审核功能。
pix2struct-docvqa-base - 基于pix2struct的跨领域视觉问答图像解码模型
Huggingface图像编码器开源项目模型预训练模型Hugging FaceGithubPix2Struct视觉问答
Pix2Struct是一个预训练的图像到文本解码模型,旨在提升文档视觉问答的效率,通过解析网页截图实现多领域视觉语言理解的增强。
SONAR_200_text_encoder - 适用于202种语言的多语言文本编码工具
Huggingface文本编码器Hugging FaceSONAR模型Github开源项目模型转换多语言
SONAR_200_text_encoder项目将SONAR多语言编码器移植到transformers格式,支持与官方实现一致的文本嵌入功能,并兼容202种语言,可应用于跨语言的句子相似度计算。通过Python代码示例,用户可以在transformers环境中加载与使用该模型,便捷实现文本向量化表示。该项目为多语言文本编码提供了一种高效可靠的解决方案,适合需要处理多种语言的文本任务。
BeagSake-7B - 高效文本生成模型的合并与性能评估
AI评测Github开源项目Hugging FaceBeagSake-7B模型合并Huggingfacetext-generation模型
BeagSake-7B项目通过LazyMergekit工具合并了BeagleSempra-7B和WestBeagle-7B模型,以优化文本生成性能。该项目在AI2 Reasoning Challenge、HellaSwag等多项测试任务中表现优异,通过调整模型合并策略和采用float16精度,有效提升了模型的推理效率。此策略为多种语言理解任务提供了新的技术路径。
maskformer-swin-base-ade - 语义分割的新方法——MaskFormer的应用
深度学习Huggingface图像分割开源项目模型语义分割Hugging FaceGithubMaskFormer
MaskFormer采用Swin骨干网络与ADE20k数据集,在语义分割中表现出色。该模型通过预测掩模和标签统一地解决实例、语义及全景分割任务,可通过Hugging Face平台上的预训练模型来深入研究其应用。
mbart-large-cc25 - 基于深度学习的多语言模型支持文本翻译与摘要微调
mbart-large-cc25Hugging Face翻译Huggingface预训练模型Github开源项目模型多语言
mbart-large-cc25是一个多语言预训练模型,支持多种语言的翻译和文本摘要功能,涵盖了英语、中文、德语等多种语言。此模型可以在特定任务中进行微调,相关代码和文档可在PyTorch和Hugging Face上获得。在多语言交互的应用场景中,该模型表现出良好的适应性与功能性。
CodeQwen1.5-7B-GGUF - 丰富的量化模型选择,多平台优化性能
Hugging Face量化Huggingface内存需求Github开源项目模型模型质量CodeQwen1.5-7B
通过llama.cpp工具实现多量化模型的生成,CodeQwen1.5系列提供不同文件大小和质量选项,适用于各种设备资源和性能需求。推荐选择高质量Q6_K和Q5_K_M格式,平衡性能与存储空间。该项目适合RAM和VRAM有限的用户,并支持多种格式在不同硬件平台上运行。新方法如I-quants提高性能输出,但与Vulcan不兼容,适用于Nvidia的cuBLAS和AMD的rocBLAS。丰富的特性矩阵便于深入比较选择。