#Huggingface
sam2-hiera-small - 下一代图像和视频可提示视觉分割技术
视觉分割开源项目FAIR模型HuggingfaceSAM 2图像分割视频分割Github
SAM 2是FAIR推出的一款模型,专注于实现图像和视频的可提示视觉分割。官方代码库支持图像和视频预测任务,允许利用SAM2ImagePredictor生成图像遮罩,并使用SAM2VideoPredictor实现视频中遮罩的传播和处理。该模型在学术研究和工业应用中具有广泛功能。如需深入了解,可查阅相关论文和资源。
blip-itm-large-coco - 创新的视觉语言预训练框架
图像-文本匹配开源项目BLIP模型HuggingfaceCOCO数据集视觉语言数据增强Github
BLIP项目展示了一种专注于提升视觉语言理解和生成的新型预训练框架。该框架通过引入生成和过滤机制管理网络图像文本数据的噪声,有效提升了图像文本匹配、图像描述和视觉问答等任务的表现,同时在视频语言任务中表现出卓越的泛化能力。
coloringbookgenerator - 利用文本到图像技术生成创意填色书
AI绘图SafetensorsColoring Book Generator开源项目模型下载模型Huggingfacestable-diffusionGithub
项目结合稳定扩散和LoRA技术,实现了文本到图像的生成,适用于创作儿童填色书。使用稳定扩散XL基础模型生成DIY填色书,并支持Safetensors格式权重,确保高效运行,适合多种文本到图像转换场景。
flaubert_base_uncased - 法语语言模型FlauBERT与FLUE测试集
开源项目FlauBERTFLUE无监督语言模型法语NLP系统Huggingface模型Github
FlauBERT是一种专为法语自然语言处理设计的模型,通过法国国家科学研究中心的Jean Zay超级计算机在大型法语语料库上进行训练,支持多种模型尺寸,以适应不同需求。其配套的FLUE评测方案类似于GLUE基准,促进了法语NLP系统的共享与发展,并支持未来的实验重复性。用户可通过Hugging Face的Transformers库便捷使用FlauBERT,为法语NLP领域提供了有力支持。
nomic-embed-text-v1.5-GGUF - Nomic Embed Text模型的文本嵌入应用概述
nomic-embed-text-v1.5开源项目模型嵌入文本Huggingface兼容性句子相似度Github动态扩展
此项目提供了nomic-embed-text-v1.5的llama.cpp兼容文件,采用GGUF格式。主要用于文本特征提取和句子相似性计算,支持最多8192个token的处理。通过YaRN和线性扩展进行上下文管理,且支持多种量化选项以优化性能和存储需求。适用于整合搜索和问答应用。
meditron-7b - 在医学领域提升大型语言模型性能的创新方法
大语言模型MeditronLlama-2GPT预训练开源项目模型医学HuggingfaceGithub
Meditron-7B是开源的医学大型语言模型,通过持久的预训练,结合选定的PubMed文献和国际医学指南数据,提高了医疗推理任务的能力。该模型在文本生成和医疗问答方面显示了潜力,但实际使用需经过更多测试和适应调整。
zephyr-sft-bnb-4bit - 通过Unsloth技术快速优化Mistral等模型的内存使用
性能优化开源项目Unsloth模型Huggingface节省内存微调MistralGithub
该项目使用Unsloth技术实现了Mistral、Gemma和Llama等模型的快速微调,显著降低内存使用率。用户可以通过简单的操作获得优化后的模型,支持导出为GGUF、vLLM或上传至Hugging Face。此方法特别适用于内存要求高的模型,并免费提供初学者友好的工具。
bert-base-uncased-emotion - 情感数据集的高效文本分类模型
F1分数文本分类开源项目准确率模型bert-base-uncased-emotionHuggingface情感分析Github
bert-base-uncased模型针对情感数据集的微调结果显示,其在准确率和F1分数分别达到94.05%和94.06%。借助PyTorch和HuggingFace平台,该模型实现高效的情感文本分类,适用于社交媒体内容分析,特别是在Twitter环境中,为数据科学家和开发人员提供情感解析的精确工具。
aya-23-35B - 高性能多语言大模型指令微调指南
Huggingface开源项目多语言模型CohereGithubAya 23开源大语言模型
Aya 23是具备多语言支持的指令微调大规模语言模型,提供开放权重以供研究者使用。此模型结合了Command系列的预训练模型及新发布的Aya Collection,涵盖23种语言,包括中文和英语等。Aya 23 (35B)采用优化的自回归语言模型架构,通过人类指令微调,以支持高质量文本生成。研究者可以在Cohere和Hugging Face体验此模型,适用于多语言任务需求。模型使用CC-BY-NC许可,支持全球研究者的共同使用和研究。
Idefics3-8B-Llama3 - 提升视觉文本处理能力的多模态模型
Huggingface模型优化多模态开源项目Idefics3模型文档理解视觉文本处理Github
Idefics3-8B是由Hugging Face开发的开放性多模态模型,支持处理任意图像和文本序列进行文本生成。该模型在OCR、文档理解和视觉推理方面有显著增强,适用于图像描述和视觉问答任务。Idefics3-8B主要通过监督微调进行训练,可能需要多次提示以获得完整回答。与Idefics2相比,Idefics3在文档理解能力上表现更为出色,并增加了视觉标记编码的多项改进和丰富的数据集支持。
faster-whisper-small - 多语言语音识别的高效CTranslate2模型转换
Whisper smallHuggingfaceOpenAI模型转换开源项目音频识别模型GithubCTranslate2
faster-whisper-small项目将openai的whisper-small模型转换为CTranslate2格式,支持多语言自动语音识别,采纳FP16精度以优化性能。此模型可用于CTranslate2基础项目,如faster-whisper,为开发者提供高效的语音转录方案。
Swallow-7B-Instruct-GGUF - 适用于多平台的高效量化模型
GGUF格式Swallow 7B InstructHuggingface文本生成量化开源项目模型GithubGPU加速
Swallow 7B Instruct 采用GGUF格式,以高效的量化技术实现文本生成。该模型支持多种位数和硬件平台,可通过llama.cpp及text-generation-webui等软件使用并提供GPU加速,适合于需要高质量文本生成的多种应用。
KULLM3 - 高性能韩语指令跟踪与对话模型
NLP&AI LabKULLM3Huggingface韩国大学开源项目模型transformersGithub语言模型
KULLM3是由NLP&AI Lab开发的语言模型,专注于韩语的指令跟随和流畅对话。基于upstage/SOLAR-10.7B-v1.0优化训练,适用于多种场景。利用66000多个训练样例,KULLM3在仿效GPT-3.5-turbo指令方面表现突出。在符合道德和法律标准的前提下提供自然互动,适合研究和商业用途。采用Apache 2.0许可,开放源码,详情可参阅KULLM的GitHub页面。
opus-mt-en-az - 提供英语到阿塞拜疆语的开源翻译模型
translationEnglishHuggingfaceAzerbaijani开源项目BLEU评分模型GithubSentencePiece
该开源项目提供了一种从英语到阿塞拜疆语的翻译工具,使用transformer-align模型进行语言转换。其运用了规范化与SentencePiece技术,确保翻译的准确性。根据Tatoeba测试集评估,该模型取得了18.6的BLEU分数及0.477的chr-F分数。用户可以通过链接下载模型权重和翻译测试结果,项目遵循Apache 2.0协议,适用于多个应用场景。
vit_base_patch32_clip_384.openai_ft_in12k_in1k - 采用ViT技术的视觉Transformer模型
timm图像分类Huggingface开源项目模型预训练GithubVision TransformerFine-tuning
这款视觉Transformer图像分类模型由OpenAI基于WIT-400M数据集使用CLIP技术预训练,并经过ImageNet-12k和ImageNet-1k数据集微调。作为一种强大的图像分类和嵌入模型,其参数量达88.3M,计算量为12.7 GMACs,设计用于384x384图像。支持通过`timm`库接口调用,满足多种视觉任务需求,在图像识别和分析领域表现出稳定性能。
upos-multi - 多语言支持的高效词性标注模型
多语言Github模型模型训练开源项目词性标注PythonFlairHuggingface
Flair提供的默认多语言词性标注模型支持12种语言,F1评分达到96.87%。基于Flair embeddings和LSTM-CRF构建,可以通过pip安装整合至应用中,并使用Flair脚本进行自定义训练,提升文本分析能力。适用于广泛的自然语言处理任务,为多语言内容的词性识别提供准确支持。
MobileLLaMA-1.4B-Base - 简化的1.4B参数Transformer模型,支持快速部署
Github模型开源项目RedPajamaMobileLLaMAHuggingfaceLLaMA自然语言理解Transformers
MobileLLaMA-1.4B-Base是一款以1.3T tokens训练的1.4B参数Transformer模型,旨在降低LLaMA的参数数量以实现快速部署。通过标准语言理解和常识推理基准测试,展示其性能与最新开源模型相媲美。详细信息请参考GitHub和相关论文。
Wizard-Vicuna-7B-Uncensored-GPTQ - 支持多平台推理的高效GPTQ模型文件
Github模型人工智能助手开源项目量化模型GPTQHuggingfaceWizard Vicuna 7B未过滤
项目提供多样的GPTQ模型文件,支持多种推理配置和硬件平台需求。通过多种量化参数优化,提升推理质量及多样化VRAM使用。基础模型由Eric Hartford创建,专为NLP应用而设计,无需内容审核,用户可自由定制对齐方式,适用广泛领域的AI助手开发。
OPT-6.7B-Erebus - 了解OPT-6.7B-Erebus模型及其成人内容生成特点
数据集生成文本Github模型开源项目OPT 6.7B - Erebus成人主题HuggingfaceNSFW偏见
OPT-6.7B-Erebus是一款专注于成人内容生成的AI模型,基于多种高评分数据进行训练,具有明显的NSFW倾向且不适合未成年人。更多信息可通过KoboldAI社区获取,请谨慎使用以防止不当输出。
resnetrs152.tf_in1k - ResNetRS-B模型提供的图像信息处理新选择
ResNetRS-B开源项目图像分类timmTensorflowHuggingfaceGithub模型ImageNet
ResNetRS-B是一款图像分类模型,具备ReLU激活、单层7x7卷积池化和1x1卷积下采样功能。该模型由论文作者在ImageNet-1k上使用Tensorflow训练,拥有86.6M的参数量,支持320x320图像测试。其多功能性使其适用于图像分类、特征提取和图像嵌入任务,通过timm库可便捷地在Python中实现应用。
scibert_scivocab_uncased-finetuned-ner - 采用SciBERT微调的药物和不良反应识别模型
不良反应Huggingface医学SciBERT药物Github模型开源项目命名实体识别
此模型基于SciBERT进行微调,专门用于识别药物名称和其不良反应,能够有效分类输入文本中的药物和不良反应实体,提升医学文本的信息提取效率。通过简单设置NER流水线,该模型可快速部署并用于自动化识别,主要应用于处理与药物和不良反应相关的自然语言处理任务,是处理ade_corpus_v2数据集的有效工具。
CyberRealistic - 通过Stable Diffusion技术实现高细节的真实图像生成
高细节Github模型开源项目文本到图像AI绘图照片级真实感HuggingfaceCyberRealistic
CyberRealistic V2使用Stable Diffusion和Diffusers技术实现高细节图像生成,这项技术特别适合那些需要精美视觉效果的创意作品。
electra-base-italian-xxl-cased-discriminator - 意大利ELECTRA模型提升语言理解性能的理想工具
意大利HuggingfaceBavarian State Library开源项目ELECTRA模型Github训练数据BERT
意大利ELECTRA模型基于丰富的意大利语料库,旨在增强语言理解。该模型由拜仁州立图书馆的MDZ Digital Library团队开放,通过PyTorch-Transformers的兼容权重进行支持。使用81GB的数据进行训练,达到百余万步,使其在命名实体识别和词性标注等任务上表现优异。所有资源均可在Huggingface模型中心获取,便于快速集成到各类自然语言处理应用中。
switch-base-32 - 高效稀疏性提升了大规模语言模型训练速度
HuggingfaceSwitch Transformers开源项目模型Masked Language ModelingGithub专家模型语言模型T5
Switch Transformers通过混合专家模型提高了屏蔽语言模型任务的训练速度,相较于T5,其微调任务表现更佳。该模型使用稀疏MLP替代传统前馈层,并在Colossal Clean Crawled Corpus上预训练,实现了4倍训练加速。研究还探讨了其环境影响并提供详细技术细节及源代码链接。
clip-ViT-B-32-vision - 图像分类与相似性搜索的简便工具
FastEmbedHuggingfaceONNX开源项目模型模型推理image-classificationGithub视觉相似搜索
clip-ViT-B-32模型的ONNX版本,支持图像分类和相似性搜索。利用FastEmbed库,用户能够快速处理图像嵌入,该模型在视觉任务中表现出色,适用于多种应用场景。
Hermes-2-Theta-Llama-3-8B-GGUF - Hermes-2-Theta量化文件的选择与使用指南
I-quantsHuggingfaceHermes-2-Theta-Llama-3-8B量化K-quants开源项目模型Github模型大小
Hermes-2-Theta-Llama-3-8B项目使用llama.cpp技术产生多种量化文件,适合多种硬件架构和性能需求。用户可依据设备的RAM和VRAM选择恰当的量化文件。项目提供Q和I两种量化格式,涵盖从低到高的质量选项,并可通过huggingface-cli轻松下载。项目还包括性能表现图表及功能矩阵,为用户优化模型提供指南。
llm-jp-13b-v2.0 - 改进日本大型语言模型的开发与应用
Huggingfacellm-jp开源项目模型预训练Github自然语言处理大语言模型指令微调
由日本团队发起,项目提供基于Transformer架构的大型语言模型,支持多种编程语言和文本生成,专注于自然语言处理。模型经过大规模数据集的预训练和细化调试,展现出卓越的文本生成能力。
bert-base-nli-stsb-mean-tokens - 句子嵌入与语义搜索的基础模型
变形金刚HuggingfaceBERT模型开源项目模型句子嵌入Githubsentence-transformers句子相似性
此模型能将句子和段落映射为768维向量,适用于分类和语义搜索。但由于其生成的嵌入质量不佳,已被弃用。建议使用最新的模型以提升效果。通过安装sentence-transformers库或使用HuggingFace Transformers,都能实现向量转换功能。
dictalm2.0 - 探索专注于希伯来语词汇与指令优化的生成式语言模型
开源项目模型GithubHuggingface文本生成希伯来语大语言模型预训练DictaLM 2.0
DictaLM-2.0是一种具有70亿参数的预训练生成文本模型,专门用于处理希伯来语文本,增强了词汇和指令功能。模型基于Mistral-7B-v0.1结构,扩充了1000个专属希伯来语词以提升压缩率,并在超过1900亿的自然文本数据上进行持续预训练,包含50%希伯来语和50%英语文本。提供高精度基模型和量化版本,适用于多种应用需求。用户可通过Python代码示例轻松加载和使用。此模型不内含内容审查机制,适合语言模型的专业研究。
vietnamese-bi-encoder - 越南语句子相似度模型PhoBERT的应用与语义搜索支持
模型训练开源项目sentence-transformersGithub模型HuggingfacePhoBERT语义搜索句子相似度
项目依托sentence-transformers框架及PhoBERT-base-v2模型,旨在优化越南语句子相似度与聚类任务。通过结合MS Macro、SQuAD v2及Zalo 2021数据集进行训练,其在语义搜索和法律文本检索表现上有所提升。支持用户通过安装sentence-transformers库及HuggingFace的API和Widget多种方式轻松上手。
Phi-3.5-mini-ITA - 小巧强大的意大利语文本生成模型优化与性能提升
开源项目模型意大利语模型GithubHuggingface文本生成参数高效学习Phi-3.5-mini-ITAtransformers
Phi-3.5-mini-ITA是Microsoft/Phi-3.5-mini-instruct的精调版本,专为提升意大利语文本生成性能而设计。拥有3.82亿参数和128k上下文长度,适用于Hugging Face Spaces等平台的流畅对话。通过Spectrum技术,仅高信噪比层参与训练,提高了参数学习效率。评估显示模型在意大利语处理任务中表现卓越。
NeuralLLaMa-3-8b-ORPO-v0.3 - 8B参数量文本生成模型在多任务中的优异表现
开源项目模型AI2推理挑战GithubHuggingface准确率文本生成NeuralLLaMa-3-8b-ORPO-v0.3Open LLM排行榜
NeuralLLaMa-3-8b-ORPO-v0.3是基于Meta Llama-3.1-8B-Instruct的一款文本生成模型,主要用于提升自然语言生成效率。此模型在AI2 Reasoning Challenge、HellaSwag、MMLU、TruthfulQA和Winogrande等数据集上表现良好,提供高达84.9%的正常化准确率。通过多数据集的支持与量化策略,NeuralLLaMa-3-8b-ORPO-v0.3在多种应用场景中展现出色的性能,适用于各类行业需求。
gemma-2b-bnb-4bit - 提高模型微调速度和内存效率,支持多模型免费训练
Llama开源项目模型GithubHuggingfaceGemmaMistral模型微调Unsloth
该项目提供了一套适用于Unsloth的Google Colab免费笔记本,通过优化微调,提升Gemma、Mistral和Llama等模型的执行速度至2至5倍,且减少内存使用达70%。用户只需添加数据集并运行,即可快速获得微调模型,还可导出为多种格式或上传至Hugging Face。项目特点包括对初学者的友好性和对多模型的支持,成为高效深度学习的重要工具。
protovision-xl-high-fidel - 超真实3D与动漫图像生成API,精简高效
超现实主义API开源项目模型GithubHuggingface图像生成ProtoVision XL
ProtoVision XL通过免费API密钥生成超真实3D和动漫风格图像,免除使用精炼器。支持PHP、Node和Java等多语言编程,提供高细节和真实感画质。只需更换API密钥和模型ID,即可在modelslab.com免费生成图像。特点包括动态光效处理、对称性和平衡性,以及支持高达8K的分辨率。查阅API文档以获取更多信息。
control_v11p_sd15_softedge - 软边缘检测控制模型 优化稳定扩散图像生成效果
条件控制ControlNet软边缘HuggingfaceGithub开源项目稳定扩散模型图像生成
control_v11p_sd15_softedge是基于ControlNet v1.1的软边缘检测图像控制模型。它能精确控制Stable Diffusion的图像生成过程,支持多种图像处理任务。相比前代模型,优化了训练数据集,提升了边界感知能力,解决了灰度图像过拟合问题,具有更强的鲁棒性。该模型可用于艺术创作、图像编辑等领域,为用户提供更灵活的图像生成控制。
litellm - 简化管理多个LLM API,兼容多种部署平台
LiteLLMOpenAILLM APIsAzureHuggingfaceGithub开源项目
使用OpenAI格式调用各大LLM API,如Bedrock、Huggingface、VertexAI等,支持统一输出、重试机制和预算管理。LiteLLM提供易用的代理服务器、企业级服务和丰富的日志功能,确保性能稳定可靠。支持异步和流式响应,适配众多LLM平台,为开发者提供高效便捷的集成方案。
相关文章
LiteLLM: 统一调用多种LLM API的强大工具
3 个月前
大型语言模型微调技术全解析:从理论到实践
3 个月前
Firefly-LLaMA2-Chinese: 低资源高效的开源中文大语言模型
3 个月前
Online-RLHF: 从奖励建模到在线人类反馈强化学习的工作流程
3 个月前
Magpie: 一种创新的大语言模型对齐数据生成方法
3 个月前
Gazelle:突破性的联合语音-语言模型
3 个月前
GIGAX: 革命性的本地AI驱动NPC系统
3 个月前
BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现
3 个月前
LoRA: 大型语言模型的低秩适应方法
3 个月前