#Huggingface
t5-base-finetuned-sst2 - 优化GLUE SST-2数据集准确率的高效文本分类模型
模型细节开源项目模型GithubHuggingfaceT5准确率GLUE SST-2训练过程
T5-base-finetuned-sst2是一个在GLUE SST-2数据集上微调的文本分类模型,准确率达到93.23%。该模型基于编码-解码结构,通过多任务的无监督和有监督学习预训练,将任务转化为文本到文本的格式。在训练中,使用了特定的标记化策略和超参数设置,促进模型快速收敛。适合高效处理文本分类任务的应用场景,提供了对现有分类工具的优化方案。
T5-Base-finetuned-for-Question-Generation - SQuAD数据集上T5模型的问答生成能力提升研究
问题生成预训练模型TransformersGithub开源项目HuggingfaceSQuADT5模型
本项目在SQuAD数据集上对T5模型进行微调,专注于问答生成功能的提升。利用PyTorch和Transformers库,该模型可基于指定的答案和上下文生成相关问题,显著提高了问答系统的自动化水平,适用于文本、视觉和音频等多模态任务。
Infinity-Instruct-7M-Gen-Llama3_1-8B - 开源指令调优模型,支持大规模无监督学习
代码开源开源项目模型GithubInfinity InstructHuggingface指令微调无监督学习模型权重
Infinity-Instruct-7M-Gen-Llama3.1-8B是一个开源指令调优模型,无需人类反馈即可达到较高性能。依托于百万级数据集的训练,该模型展现出优于GPT-4在AlpacaEval 2.0测试中的表现。项目持续更新,提供多样模型权重和数据集资源,支持学术研究。采用FlagScale技术,显著降低训练成本。
dinov2-small-imagenet1k-1-layer - 视觉特征学习的Transformer模型
DINOv2特征提取开源项目模型GithubHuggingface自监督学习图像分类Vision Transformer
DINOv2方法无监督预训练的Vision Transformer,适用于影像特征学习增强场景。此小尺寸模型能在ImageNet-1k数据集上执行分类任务,通过提取特征来辅助下游任务。尽管模型未包含微调头,但可附加线性层进行标准分类,适合高精度视觉特征需求的应用。
audioldm2 - 文本到音频生成模型AudioLDM 2实现多种音效、语音及音乐生成
声音效果开源项目模型文本到音频生成模型自监督预训练GithubHuggingfaceAudioLDM 2
AudioLDM 2是一个文本到音频扩散模型,能通过自监督预训练生成多样化的音效、语音与音乐样本。其模型提供多个检查点,既适用于一般文本到音频的生成,也专注于音乐生成。用户可以通过调整推理步骤和音频长度控制生成音频的质量和时长。在Diffusers库中,从v0.21.0版本便可应用。该模型通过简单的提示,支持个性化音频创作,以中立的方式满足音频生成需求。
Qwen2.5-0.5B-Instruct-GGUF - 支持29种语言的多功能语言处理模型
量化开源项目模型Github多语言支持HuggingfaceQwen2.5大语言模型生成长文本
Qwen2.5系列大幅提升了编码、数学和指令跟随能力,支持长上下文的多语言处理,覆盖29种语言。该模型以GGUF格式提供因果语言模型,支持预训练和后训练,非常适合灵活的对话设计。其指令调整能力强,能有效应对多样化的系统提示,尤其在生成结构化输出(如JSON)方面表现突出。模型具备0.49B参数,24层结构,支持多种量化方法。
pix2struct-base - Pix2Struct预训练模型,实现多语言视觉-文本任务
文本解码器开源项目模型GithubHuggingfacePix2Struct视觉语言理解图像编码器预训练
Pix2Struct是一种预训练的图像-文本模型,专用于多种任务,如图像字幕生成和视觉问答。该模型通过解析网页截图为简化HTML进行预训练,在文档、插图、用户界面和自然图像领域实现出色性能,灵活整合语言和视觉输入。
qwen - Qwen模型在Habana Gaudi处理器上的配置与训练概述
Optimum Habana开源项目模型GithubHuggingfaceTransformerQwen模型Gaudi处理器混合精度
通过Optimum Habana接口,在Habana Gaudi处理器上实现Qwen模型的高效加载和训练。该接口简化了单个和多个HPU设置下的训练流程,并支持自定义AdamW优化器、梯度剪辑和PyTorch混合精度功能。用户可以通过配置GaudiConfig文件以及特定的HPU训练参数,利用语言模型示例代码,以充分发挥HPUs的性能。更多信息和详细用例请参考Hugging Face的文档及GitHub资源。
recipe-nlg-gpt2-train11_15 - 使用优化的GPT-2模型在Recipe-NLG数据集上进行食谱生成实验
食谱生成开源项目模型Githubrecipe-nlg-gpt2-train11_15HuggingfaceGPT-2RecipeNLGRTX 3090
该项目通过对GPT-2模型进行针对Recipe-NLG数据集的优化,探索食谱生成的新可能性。使用RTX 3090显卡在Vast.AI上进行约14小时的训练,并启用混合精度以提高效率。训练设定为0.45 epoch,保留5%数据用于评估,采用学习率5e-05和Adam优化器,结合线性学习率策略。支持Pytorch 1.13.0和Transformers 4.24.0等框架,适合专业人士关注的技术性能。
multilingual-e5-large-pooled - 多语言支持的句子相似性与特征提取模型
特征提取开源项目模型GithubMTEBHuggingface分类multilingual-e5-large句子相似度
此项目基于多语言处理,融合Sentence Transformers技术,专注于句子相似性与特征提取。支持多语言,适用于分类、重排序、文本聚类等多种场景。模型在各种任务中表现优异,如MTEB AmazonCounterfactualClassification和MTEB BUCC中的分类与双语文本挖掘,表现出色。采用MIT许可证,具有高度使用灵活性。
Meta-Llama-3-70B-Instruct-abliterated-v3.5-IMat-GGUF - 提升量化效率及IMatrix集成以增强文本生成性能
量化开源项目模型GithubHuggingface文本生成Meta-Llama-3-70B-Instruct-abliterated-v3.5IMatrix
本项目应用Llama.cpp的量化技术结合IMatrix数据集,对Meta-Llama-3-70B-Instruct-abliterated-v3.5模型进行优化。支持BF16到Q2_K等多种量化格式,用户可根据需求选择下载不同版本,适用于多种文本生成场景。IMatrix集成提升了低比特位的性能表现,适合现代高效计算需求。提供全面的下载指南和FAQ,帮助用户有效地理解和使用文件,实现文本生成任务的高效推理。
Halu-8B-Llama3-v0.35-GGUF - Halu-8B-Llama3-v0.35量化版本选择指南,助力性能优化
量化开源项目模型GithubHuggingface文本生成huggingface-cliHalu-8B-Llama3-v0.35transformers
项目Halu-8B-Llama3-v0.35提供多种量化版本,通过不同的量化类型优化模型性能,以适应各类RAM和VRAM的需求。可选择K-quants或I-quants,满足特定场景下的性能需求。高质量的I-quants适用于CPU和Apple Metal,性能优于传统K-quants但不兼容Vulcan,并附有详细的性能图表和量化指南,帮助选择适合的量化版本。
Wizard-Vicuna-13B-Uncensored-GPTQ - 开源AI项目的核心特点与功能解析
Github开源项目Eric HartfordWizard Vicuna 13BAI助手Huggingface无审核量化参数模型
本项目提供的GPTQ量化参数信息帮助选择合适硬件的AI模型版本,包含多种优化和准确性选项,支持低显存占用和多平台兼容性,适用于文本生成和其他人工智能应用。
opus-mt-ca-it - 加泰罗尼亚语和意大利语的开源翻译模型
BLEUGithub开源项目Tatoeba-ChallengeHuggingface句子片段翻译模型
该项目提供了加泰罗尼亚语到意大利语的翻译模型,利用transformer-align模型执行自然语言处理。在Tatoeba测试集上,模型的BLEU得分为48.6,chr-F得分为0.690,表现出良好的翻译效果。这个项目中使用SentencePiece进行预处理和文本规范化,确保翻译的准确性和一致性。该系统支持单一源语言和目标语言,适合需要精准翻译的用户。提供模型的权重和测试集供下载,以供进一步探索和应用。
bert-base-multilingual-cased-pos-english - BERT多语言模型优化后的英文词性标注应用
BERTGithub开源项目Penn TreeBank多语言transformersHuggingface词性标注模型
该模型为多语言BERT,经过特别优化用于英语的词性标注,基于Penn TreeBank训练,达成96.69的F1得分。使用者可以通过transformers管道快速应用此模型,并结合AutoTokenizer和AutoModelForTokenClassification进行高效处理。该模型已在NAACL'22大会的研究成果中使用,适合于高需求精度的词性标注任务,尤其在专业和学术领域。描述中应注重客观性,避免主观夸大。
control_v11p_sd15_normalbae - 了解ControlNet v1.1的条件扩展功能如何提高文本到图像生成质量
ControlNetGithub开源项目条件输入Huggingface深度学习Stable Diffusion文本到图像生成模型
ControlNet v1.1通过多条件输入增强文本到图像生成,与Stable Diffusion兼容,支持边缘和分割图条件输入。项目已转为diffusers格式,便于个人设备上进行快速训练。Normal 1.1模型改善了表面法线估计的准确性,增加在各类图像中的应用实用性。
Gemmasutra-Mini-2B-v1-GGUF - 小型2B模型实现高效本地语言处理
Github精细调整本地LLM开源项目角色扮演HuggingfaceGemmasutra Mini 2B模型
Gemmasutra Mini 2B v1是一款具备本地化处理能力的小型语言模型,适用于多种设备,包括普通笔记本和树莓派。其自由和无对齐特性,提供了个性化体验,推荐使用Gemma Instruct模板进行系统角色调整使用,但不适合数学应用。
owlv2-large-patch14 - 开源零样本对象检测模型,支持多文本查询
目标检测Github开源项目OWLv2CLIPAI研究Huggingface图像识别模型
OWLv2模型是一种零样文本感知对象检测模型,使用CLIP作为多模态骨干,通过结合视觉和文本特征实现开词汇检测。模型去除了视觉模型的最终token池化层,并附加分类和框头,能够处理多文本查询,扩展了图像识别的应用潜力。研究者通过重新训练和微调CLIP,提高了其在公开检测数据集上的性能,有助于探讨计算机视觉模型的鲁棒性。
bert-ner-japanese - 日本语固有表达识别,使用BERT模型实现
日本机器学习Huggingface模型固有表现抽取BERTGithub开源项目自然语言处理
本项目利用BertForTokenClassification模型,实现高效的日本语固有表达识别,可识别八种类别,如人名、法人名和地名等,以满足多样化的语言处理需求。该项目基于东北大学的日本语BERT模型和stockmarkteam的Wikipedia数据集进行训练,通过安装transformers库等,即可实现快速识别,适合应用于IT和学术研究领域的文本分析。
COKAL-DPO_test-v2-13b - 采用LLaMA2架构的13B规模自动回归语言模型
语言模型训练数据集Github开源项目transformersCOKAL-DPO_test-v2Huggingface模型开发模型
模型由韩国公司Media Group Saramwa Soop与Marker合作开发,基于LLaMA2变压器架构,具备文本生成能力。基础模型为COKAL_pre_DPO_Test_v1-13b,采用DPO及SFT私有数据集训练,适用于多种文本生成任务。该研究项目由韩国科学技术信息通信部和光州广域市资助,旨在推动人工智能产业集群发展。
stablelm-2-1_6b-chat - 1.6亿参数的对话模型
语言模型训练数据集Github开源项目StableLM 2 Chat 1.6B使用限制Huggingface性能评估模型
StableLM 2 Chat 1.6B由Stability AI创建,是基于transformer解码器架构的自然语言模型,专为对话场景设计。模型使用多种公开和合成数据集训练,并运用直接偏好优化算法。OpenLLM排行榜上的出色表现使其适用于对话应用,建议配置输入输出分类器以提升安全性和降低偏误,适合非商业用途。
Llama-3.2-1B-Instruct-GGUF - 通过量化优化技术改进多语言文本生成
社区许可证MetaGithub开源项目许可协议Llama 3.2HuggingfaceLLM模型
本项目采用llama.cpp和imatrix量化技术,提高了多语言文本生成的能力。结合Bartowski的校准文件,以及IQ和Q系列多种量化方法,明显降低了模型的困惑度并提高了文本生成的准确性。这些优化在多种条件下保持高效,且降低了存储空间的需求,提供更灵活的AI应用优化和部署方案。
CogVideoX-2b - 轻量级开源视频生成模型支持低显存推理
CogVideoX视频生成文本到视频扩散模型人工智能Github开源项目Huggingface模型
CogVideoX-2B是一个基于扩散模型的开源视频生成工具。该模型可将文本描述转化为6秒长、720x480分辨率、8帧/秒的视频。其最低仅需4GB显存即可运行,通过INT8量化还可进一步降低资源消耗。作为入门级选择,CogVideoX-2B在性能和资源使用间取得平衡,适合进行二次开发。模型目前支持英文输入,并提供多种优化方案以提升推理速度和降低显存占用。
XL-Judge-LLM - 多语言法律评判和文本生成的先进模型
模型卡片文本生成transformers机器学习自然语言处理Github开源项目Huggingface模型
XL-Judge-LLM是基于Transformers库开发的文本生成模型,专注于法律评判和复杂文本生成。该模型利用维基百科和推理数据集等多个大规模数据集进行训练,在F1值、准确率和困惑度方面表现出色。支持多语言处理,可用于直接应用和下游任务,为法律评判和文本生成提供可靠的解决方案。
bge-base-en-v1.5 - 增强文本处理能力的多任务学习模型
sentence-transformers特征提取句子相似性分类句子聚类Github开源项目Huggingface模型
bge-base-en-v1.5模型通过多任务学习优化自然语言处理技术,覆盖分类、检索、聚类和重排任务。在多个MTEB数据集上表现优异,例如在亚马逊情感分类任务中达到93.39%的准确率,在AskUbuntu重排任务中MRR达到74.28%。该模型具有MIT开源许可,适用于多种英语任务,为研究人员和开发者提供有效支持。
vit-base-patch16-224-in21k - 基于ImageNet-21k预训练的视觉Transformer模型
ImageNet-21kGithubHuggingface图像识别Vision Transformer开源项目模型预训练模型深度学习
这是一个基于Transformer架构的视觉模型,在包含1400万图像和21843个类别的ImageNet-21k数据集上预训练。模型将图像转换为16x16像素的固定大小patch序列,通过自注意力机制处理。它可用于图像分类等多种视觉任务,提供强大的特征提取能力。模型支持PyTorch和JAX/Flax框架,适用于需要高性能视觉理解的应用场景。
xlm-roberta-large - 大规模多语言预训练模型
自然语言处理XLM-RoBERTa开源项目机器学习预训练模型多语言模型GithubHuggingface模型
XLM-RoBERTa是一个在2.5TB多语言数据上预训练的大型语言模型,覆盖100种语言。该模型采用掩码语言建模技术,能够生成双向文本表示。XLM-RoBERTa主要应用于序列分类、标记分类和问答等下游任务的微调。凭借其在多语言和跨语言任务中的出色表现,XLM-RoBERTa为自然语言处理领域提供了坚实的基础。
fc_8 - PytorchModelHubMixin简化模型部署至Hugging Face Hub
模型集成PyTorchGithubHuggingface模型开源项目模型推送Hugging FacePytorchModelHubMixin
fc_8项目演示PytorchModelHubMixin集成在模型部署至Hugging Face Hub中的应用。这一技术简化了PyTorch模型的共享和部署流程,有助于开发者更便捷地分享模型。项目为AI研究人员和开发者提供了模型发布的实用参考,展示了当前模型共享的高效方法。
resnet50.a1_in1k - 基于ResNet-B架构的多功能图像分类模型
特征提取人工智能GithubHuggingface模型开源项目图像分类resnet50深度学习
resnet50.a1_in1k是基于ResNet-B架构的图像分类模型,在ImageNet-1k数据集上训练。模型采用ReLU激活函数、7x7卷积层和1x1卷积shortcut,使用LAMB优化器和BCE损失函数。它拥有2560万参数,可用于图像分类、特征提取和图像嵌入等任务。模型支持灵活的输入尺寸,在ImageNet验证集上实现了82.03%的Top-1准确率。
llama3_it_ultra_list_and_bold500 - Transformers库预训练模型概览
自然语言处理Transformers开源项目模型评估机器学习GithubHuggingface模型卡片模型
本页面介绍了一个基于Hugging Face Transformers库开发的预训练模型。模型卡片详细说明了模型的基本属性、应用场景、潜在局限性以及使用方法。同时还包含了训练过程、评估结果和环境影响等技术细节,为用户提供了客观全面的模型信息。
wav2vec2-large-xlsr-53-english - XLSR-53微调的英语语音识别模型
XLSR-53Common VoiceGithubHuggingface模型开源项目自然语言处理语音识别Wav2Vec2
该模型基于wav2vec2-large-xlsr-53在Common Voice 6.1英语数据集上微调而来。在Common Voice英语测试集上,模型达到19.06%词错率和7.69%字符错误率。支持16kHz采样率语音输入,可单独使用或结合语言模型。提供HuggingSound库和自定义脚本的Python示例代码,方便用户进行语音识别。
Qwen2.5-1.5B-Instruct - 多语言支持的轻量级指令型语言模型
自然语言处理指令微调多语言支持开源项目GithubHuggingface大语言模型Qwen2.5模型
Qwen2.5-1.5B-Instruct是Qwen2.5系列的指令型语言模型,拥有1.5B参数。它支持29种语言,能处理32,768个token的上下文并生成8192个token的文本。该模型在指令理解、长文本生成和结构化数据处理方面表现优异,尤其擅长编程和数学领域,可应用于多种自然语言处理任务。
clip-vit-large-patch14 - OpenAI CLIP模型实现零样本图像分类和跨模态匹配
人工智能计算机视觉GithubHuggingface模型开源项目CLIP图像分类零样本学习
CLIP是OpenAI开发的视觉语言模型,结合ViT-L/14和Transformer架构。通过对比学习,CLIP能够实现零样本图像分类和跨模态匹配。虽然在多项计算机视觉任务中表现优异,但在细粒度分类等方面仍有局限。该模型主要供研究人员探索视觉模型的鲁棒性和泛化能力,不适用于商业部署。CLIP的数据来源广泛,但可能存在偏见,使用时需谨慎评估。
bge-small-en-v1.5 - 轻量级高性能英语句子嵌入模型
语义相似度文本分类sentence-transformersGithub聚类Huggingface模型开源项目自然语言处理
BGE-small-en-v1.5是一款轻量级英语句子嵌入模型,在文本分类、检索、聚类和语义相似度等多项NLP任务中表现出色。该模型在MTEB基准测试中展现了优异性能,同时保持了较小的模型规模,适合需要高效句子向量化的应用场景。模型在MTEB评估中的多项任务上表现突出,包括亚马逊评论分类、ArguAna论点检索和BIOSSES生物医学语义相似度等,为各类NLP应用提供了高效的句子向量化解决方案。
roberta-base - RoBERTa预训练语言模型用于多种自然语言处理任务
人工智能机器学习GithubHuggingface模型开源项目RoBERTa预训练模型自然语言处理
RoBERTa是基于Transformer架构的预训练语言模型,在大规模英文语料上使用掩码语言建模进行训练。它采用动态掩码和大批量训练等优化策略,在GLUE基准测试中表现出色。RoBERTa适用于序列分类、命名实体识别等任务的微调,能学习双向上下文表示,为NLP应用提供强大的特征提取能力。
litellm - 简化管理多个LLM API,兼容多种部署平台
LiteLLMOpenAILLM APIsAzureHuggingfaceGithub开源项目
使用OpenAI格式调用各大LLM API,如Bedrock、Huggingface、VertexAI等,支持统一输出、重试机制和预算管理。LiteLLM提供易用的代理服务器、企业级服务和丰富的日志功能,确保性能稳定可靠。支持异步和流式响应,适配众多LLM平台,为开发者提供高效便捷的集成方案。
相关文章
LiteLLM: 统一调用多种LLM API的强大工具
2024年08月30日
大型语言模型微调技术全解析:从理论到实践
2024年08月30日
Firefly-LLaMA2-Chinese: 低资源高效的开源中文大语言模型
2024年08月31日
Online-RLHF: 从奖励建模到在线人类反馈强化学习的工作流程
2024年08月31日
Magpie: 一种创新的大语言模型对齐数据生成方法
2024年08月31日
Gazelle:突破性的联合语音-语言模型
2024年08月31日
GIGAX: 革命性的本地AI驱动NPC系统
2024年08月31日
BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现
2024年08月31日
LoRA: 大型语言模型的低秩适应方法
2024年09月02日