#Huggingface
f222 - 德国海军巴登-符腾堡级护卫舰概览
护卫舰Baden-WürttembergThyssen-Krupp开源项目Lürssen模型Huggingface德国海军Github
Baden-Württemberg (F222) 是德国海军巴登-符腾堡级护卫舰的首舰,由Thyssen-Krupp与Lürssen联合设计。这一系列具有很高的排水量,用于替代不再适用的Bremen级护卫舰,专注于提升技术水平。此款模型集成了840KVAE,用于生成文字到图像的转换。详细信息请查看原始页面。
vicuna-class-tutor-7b-ep3 - 教育辅导聊天机器人结合学习科学
聊天机器人开源项目教育CLASS Meet模型Huggingface学习科学SPOCKGithub
项目的教育机器人CLASS Meet SPOCK采用学习科学设计,利用先进学习理论提供教育支持,提供个性化教学互动与反馈。
Florence-2-SD3-Captioner - 图像到文本转换的先进工具
AI绘图开源项目自然语言处理图像描述模型HuggingfaceVolkswagen BeetletransformersGithub
Florence-2-SD3-Captioner是一个强大的图像到文本转换工具,支持通过结合多个数据集如google/docci、ProGamerGov/synthetic-dataset等,来生成详尽的图像描述。该工具能够在CUDA设备上高效运行,可处理多种格式的RGB图像。只需提供任务提示和文本,即可获得精确详细的内容描述。
vinai-translate-vi2en-v2 - 精确的越南语与英语神经翻译模型
Github开源项目语言翻译VinAI Translate越南语模型Huggingface神经机器翻译英语
VinAI Translate是一个实现越南语和英语互译的神经机器翻译系统,以其创新架构和优异的实验结果,受到业界关注。研究人员可通过项目主页获取更多信息,并在使用时引用相关论文。
TinyLlama-1.1B-step-50K-105b - 紧凑型1.1B参数模型的高效预训练项目
Huggingface训练TinyLlama模型GPU开源项目Github令牌
TinyLlama是一个旨在高效预训练1.1B参数模型的项目,使用3万亿个token,计划在90天内完成。其架构和tokenizer与Llama 2相同,适用于多种需要低计算和内存需求的应用。该项目的中期里程碑在50K步和105B tokens,成果显著。利用16块A100-40G GPU进行优化训练,提升效率并节省资源。TinyLlama与多个开源项目兼容,便于通过transformers库进行集成。更多详情可查阅TinyLlama的GitHub页面。
MohamedRashad-Arabic-Orpo-Llama-3-8B-Instruct-GGUF - 阿拉伯语Llama模型优化量化文件提升性能
Huggingface文本生成Featherless AI量化开源项目模型模型性能优化MohamedRashad/Arabic-Orpo-Llama-3-8B-InstructGithub
项目提供优化的GGUF量化文件,以提升阿拉伯语Llama模型性能,支持多种量化类型如Q8_0、Q4_K_S、Q2_K等供选择。由Featherless AI支持,具备即时部署、零基础设施需求及高兼容性,支持超2400种模型,每月服务起价10美元。
t5-base-finetuned-question-generation-ap - T5微调模型用于高效问题生成
Huggingface开源项目模型迁移学习问题生成GithubSQuAD自然语言处理T5
T5-base模型在SQuAD数据集上进行微调,通过整合答案和上下文实现问题生成。项目依托Hugging Face的Transformers库,在Google的支持下,利用迁移学习提升自然语言处理的精确度。支持大规模无标签数据集加载及优化训练脚本,以改善问答生成性能。
Yi-6B - 开源双语大型语言模型的性能和应用
Huggingface机器学习Yi series人工智能开源项目模型Github开源大语言模型
Yi系列模型是01.AI从头自主训练的开源大型语言模型,支持双语,适用于语言理解、常识推理和阅读理解。Yi-34B-Chat在多项评估中表现出色,仅次于GPT-4 Turbo,而Yi-34B在开源模型中名列前茅。该系列模型采用Transformer架构,结合高质量训练数据集和高效管道,适合广泛的个人、学术和商业用途,支持在多个平台试用。
free-solar-evo-v0.1 - 创新进化模型合并的客观探索
Sakana项目进化模型HuggingfaceFree-solar-evo-v0.1S-SOLAR-10.7B-v1.5开源项目AI模型Github
free-solar-evo-v0.1项目展示了进化模型合并的潜在应用,受Sakana项目启发,建立在hwkwon/S-SOLAR-10.7B-v1.5模型之上,由Freewheelin团队开发。
SuperNova-Medius-GGUF - 多种量化方法提升模型性能与适配性
ARMHuggingface量化开源项目模型性能GithubSuperNova-MediusRAM
SuperNova-Medius-GGUF项目通过llama.cpp工具对SuperNova-Medius模型进行多种量化处理,是以多样化版本满足不同应用的需求。精细化量化过程依托imatrix选项,提供了多种质量和性能的选择。用户可以根据自身硬件环境,如ARM架构设备、低RAM或需最大化GPU VRAM使用的场景,选择相应版本。此外,项目为文件选择提供了详细指南,确保用户能够找到适合其系统性能的最佳模型版本。这些量化技术为不同硬件上的文本生成任务提供了广泛的支持。
t2i-adapter-canny-sdxl-1.0 - T2I适配器结合Canny检测提升稳定扩散XL的条件控制
稳定扩散图像生成深度学习HuggingfaceT2I-Adapter开源项目模型Github边缘检测
T2I适配器通过Canny边缘检测增强稳定扩散模型的条件控制能力,由腾讯ARC和Hugging Face联合开发。该模型经由多任务学习在超过300万的高分辨率图文对上训练了20000步,实现了文本到图像生成的更高可控性。使用者需安装必要的依赖,并结合指定的模型与调度程序,以提高图像生成质量。
Mistral-Small-22B-ArliAI-RPMax-v1.1-GGUF - AI模型量化方法提升硬件性能与资源效率
Huggingface模型下载基于ARM的优化量化开源项目模型性能GithubMistral-Small-22B-ArliAI-RPMax-v1.1
通过llama.cpp进行量化优化,AI模型适用于各种RAM配置和资源受限环境。多种量化选项可供选择,从高质量到低资源占用,确保最佳性能表现。适用于ARM以及其他特定硬件,通过选择I-quant和K-quant格式实现速度与质量的平衡,优化AI推理性能。
monot5-base-msmarco - MS MARCO数据集优化的T5-base重排模型
文档Huggingface训练开源项目模型T5-baseGithubMS MARCO重排序
这个T5-base模型经过在MS MARCO段落数据集上的10万步微调,以提高排序性能。虽然主要适用于MS MARCO数据集,但在其他数据集上进行无监督推理时,建议使用castorini/monot5-base-msmarco-10k版本。可以通过提供的链接查看使用示例,包括简单的重排序示例,以及在MS MARCO和Robust04上的应用。该预训练序列到序列模型在文档排名中的应用已在相关论文中详细描述。
Dmeta-embedding-zh - 提供多任务处理的句子相似度与特征提取模型
Huggingface分类特征提取开源项目模型Github句子相似度Dmeta-embedding重排序
此开源项目专注于实现多语言特征提取与文本分类的多任务模型,适用于多种MTEB数据集场景。模型实现句子相似度的有效评估,并在分类、聚类、再排序和检索任务中展现出良好的性能。采用多种数学计算方法,如余弦相似度、曼哈顿距离、欧氏距离等,确保结果的精确性与适应性。项目支持中英文文本处理,适用于学术研究及商业应用中的多种场景。
glpn-nyu - 全球-局部路径网络在单目深度估计中的应用
Github模型模型描述开源项目愿景Huggingface使用限制GLPN单目深度估计
GLPN模型利用SegFormer作为基础结构,并在NYUv2数据集进行微调,以实现单目深度估计。基于Kim等人的研究,GLPN通过轻量级模块提升深度预测能力,适用于多个深度感知应用场景,帮助增强计算机视觉系统的环境理解能力。
KoE5 - 一种新颖的多语言模型,专注于增强韩文文本检索性能
KoreanGithub模型多语言嵌入开源项目SentenceTransformerHuggingface文本检索KoE5
KoE5是一个开源项目,旨在优化韩文文本检索,具有卓越的特征提取能力。模型在intfloat/multilingual-e5-large的基础上进行了微调,并利用ko-triplet-v1.0数据集进行优化,使其适合于复杂文本检索任务,例如信息检索和语义相似性分析。客观上,它在韩文查询处理方面表现出色,广泛应用于多语言嵌入模型的挑战中。
Replete-LLM-V2.5-Qwen-32b-GGUF - 量化模型文件下载指南,通过选择适合的文件优化性能
Github量化模型开源项目视觉处理嵌入输出权重Huggingface文本生成Replete-LLM-V2.5-Qwen-32b
该项目使用llama.cpp工具进行模型量化,提供多种Replete-LLM-V2.5-Qwen-32b模型文件下载选项。每种文件类型均说明其特性,如高质量和性能等,并适应不同硬件环境,以帮助用户根据需求优化模型质量或速度。文件适用于多种RAM和VRAM配置,便于在不同系统中实现优异性能。
pos-french - 法语POET增强型词性标注器基于ANTILLES语料库
GithubFastText模型开源项目词性标注Bi-LSTM-CRFHuggingfaceANTILLESPOET
项目POET使用了ANTILLES语料库,结合FastText和Bi-LSTM-CRF标注模型,为法语文本提供涵盖性别、数量及时态等信息的60种词性标签。通过Flair实现的准确标注工具。
SmolLM-1.7B-Instruct - SmolLM-1.7B-Instruct 模型的技术特性与应用场景分析
数据集Github微调模型开源项目语言模型性能优化SmolLMHuggingface
SmolLM-1.7B-Instruct 是一款包含135M、360M和1.7B参数的小型语言模型,通过高质量数据集微调而成。v0.2版本在主题保持和回答提示方面表现优越。支持多种应用方式,包括本地和浏览器演示。但需注意,该模型可能并非完全精准,建议作为辅助工具应用于常识问答、创造性写作和基础编程等场景。
Midnight-Miqu-70B-v1.5-i1-GGUF - Midnight-Miqu-70B-v1.5量化模型:优化AI实施的多样化策略
Github量化合并工具变压器库模型开源项目Midnight-Miqu-70B-v1.5Huggingface模型使用
此项目提供Midnight-Miqu-70B-v1.5的多种GGUF量化文件,采用权重和imatrix量化,支持多种规格和类型如IQ1至IQ4及Q5、Q6,适应速度、质量和空间需求的平衡。用户可参考TheBloke的README获取操作指南,适合寻求优化AI模型效率的开发者,助力高效机器学习模型部署。
amd-partial-phonetree-v1 - 融合句子转换器和对比学习的高效文本分类模型
Github模型文本分类句子嵌入开源项目SetFit少样本学习Logistic回归Huggingface
SetFit模型结合sentence-transformers/paraphrase-mpnet-base-v2,通过高效的少样本学习实现文本分类。模型采用对比学习微调句子转换器和训练LogisticRegression分类头,具有优异的分类性能。支持最大512标记长度,适用于电话语音邮件和电话树分类需求。模型适合需要高效文本分类的研发人员和数据科学家使用。
Llama-3.1-8B-Lexi-Uncensored-V2-GGUF - Llama-3.1-8B-Lexi开源量化模型概览
高质量权重量化模型文件Github模型开源项目HuggingfaceLlama-3.1-8B-Lexi-Uncensored-V2
项目介绍了Llama-3.1-8B-Lexi不同量化模型版本,涵盖从高性能到轻量化版本。基于llama.cpp的imatrix量化选项,模型支持在LM Studio中运行。项目提供从完整F32权重到轻量化IQ2_M版本的多种选择,适合不同内存及质量需求的用户,并提供详细的下载和性能指引,帮助在系统RAM与GPU VRAM间找到平衡。
Mixtral-8x7B-v0.1-GGUF - Mixtral模型的多平台兼容量化文件
Github量化模型推理开源项目Mixtral 8X7BHuggingface模型格式Mistral AI
Mixtral GGUF模型文件采用新量化格式,支持2至8位模型,适用于多平台的CPU和GPU推理。文件兼容llama.cpp、KoboldCpp和LM Studio等平台。由Mistral AI创建,Apache-2.0协议许可,支持多语言,高效推理。
allenai-specter - 基于Sentence-Transformers的科学文献相似度建模
Github科学出版物模型句子嵌入开源项目句子相似性Huggingface特征提取AllenAI SPECTER
该模型将AllenAI SPECTER转化为Sentence-Transformers框架,可用于将科学文献的标题和摘要映射至向量空间以计算相似度。在安装Sentence-Transformers库后,用户能轻松进行相似度计算,同时也支持从HuggingFace Transformers加载模型。本文档还展示了如何使用池化操作聚合上下文词嵌入。
Synatra-RP-Orca-2-7b-v0.1 - 个人资源开发的测试版RP细调成果
Github微调模型训练模型开源项目Alpaca个人项目Synatra-RP-Orca-2-7b-v0.1Huggingface
Synatra-RP-Orca-2-7b-v0.1是一个个人资源开发的测试RP SFT模型,基于microsoft/Orca-2-7b构建。项目通过SFT方法进行细调优化,使用A100 80GB显卡训练,并采用Alpaca和ChatML指令格式。推动自然语言处理领域研究,其开放合作和资助渠道请联系Telegram用户AlzarTakkarsen。
nbailab-base-ner-scandi - 斯堪的纳维亚语言的命名实体识别模型
数据集Github开源项目命名实体识别模型性能ScandiNERHuggingface北欧语言模型
这个模型是NbAiLab/nb-bert-base的精调版本,适用于丹麦语、挪威语、瑞典语、冰岛语和法罗语的命名实体识别(NER)。通过整合DaNE、NorNE、SUC 3.0和WikiANN的一些数据集,模型可以提供高精度的NER结果,并支持多种语言包括英语。识别的实体类型包括人名、地名、组织名及其他类别。模型以Micro-F1得分约为89%的表现,以及4.16样本/秒的处理速度表现出色,同时模型体积合理,带来好的准确性和效率平衡。
WizardLM-1.0-Uncensored-CodeLlama-34B-GGUF - GGUF格式提供AI应用的新选择
Github开源项目模型模型格式AI助手量化方法Huggingface模型量化WizardLM 1.0 Uncensored CodeLlama 34B
GGUF格式由llama.cpp团队在2023年8月推出,旨在取代不再支持的GGML格式。新格式提升了分词能力,支持特殊标记并包含元数据,设计得更加可扩展。多个客户端和库已兼容GGUF格式,例如llama.cpp、text-generation-webui和KoboldCpp等,为用户提供了更强大的AI模型选择和应用功能。此外,该项目包含具有不同量化参数的AWQ和GPTQ模型,用于GPU推理,并支持多位GGUF模型文件,以满足不同的应用场景需求。
opus-mt-sq-en - 中立且精准的阿尔巴尼亚语到英语翻译工具
数据集Github开源项目Huggingface预处理翻译opus-mt-sq-en模型
项目提供了一种中立的阿尔巴尼亚语到英语翻译工具,基于transformer-align模型,并通过正规化和SentencePiece预处理,以opus数据集为基础。模型方便下载和评估,在Tatoeba.sq.en测试集中取得了58.4的BLEU得分和0.732的chr-F分数,适用于各种翻译需求。
convnext_small.fb_in22k - 支持多任务图像处理的预训练模型
ImageNetGithub开源项目特征提取图像分类ConvNeXttimmHuggingface模型
ConvNeXt是一个经过ImageNet-22k预训练的图像分类模型,具备66.3M参数和8.7 GMACs。本文介绍其关键特性及在图像特征提取中的应用,旨在帮助专业用户理解和有效利用该模型进行视觉任务。
parakeet-tdt_ctc-1.1b - 高性能自动语音识别模型解决方案
词错误率自动语音识别数据集Github开源项目快速同构体NeMoHuggingface模型
parakeet-tdt_ctc-1.1b提供了一个功能强大的语音识别模型,支持将语音转录为包含标点和大写字母的文本。由NVIDIA NeMo和Suno.ai团队联合开发,拥有1.1B的参数规模,能够高效地处理大规模的音频数据。该模型利用局部注意力和全局令牌技术实现单次处理11小时音频。其在多个公开数据集上的出色表现,表明其在语音转录应用中有广泛的适用性和较低的词错误率(WER)。
albert-xxlarge-v1 - 大型英文数据集上的预训练语言模型
机器学习Github开源项目模型微调自监督学习深度学习HuggingfaceALBERT XXLarge v1模型
ALBERT-XXLarge-v1 是一种在大规模英语数据集上通过自监督学习预训练的模型,采用掩蔽语言建模和句子顺序预测技术。该模型通过重复层的共享权重设计实现了较小的内存占用,但计算成本与同类模型相当,适用于序列分类和问答等需全面句子理解的任务。虽然它具备出色性能,应用时需注意潜在偏见。
dolphin-2.6-mistral-7B-GGUF - 兼容多平台的量化AI模型格式
Dolphin 2.6 Mistral 7BGithub开源项目量化Huggingface深度学习框架模型兼容性文件下载模型
该项目提供多平台兼容的GGUF格式模型文件,包括对GGML的量化替代方案,支持多种比特量化,适用于Windows、Linux和macOS平台的模型推理和GPU加速。用户可以选择合适的量化参数文件,并通过多种工具和命令行进行下载和运行,提升模型推理性能。
llama-2-tiny-random - 小型架构高效实现文本生成
GithubPython开源项目文本生成模型初始化transformersHuggingfaceLlama-2模型
基于Llama-2-7b-chat-hf配置进行随机初始化,通过修改隐藏层、注意力头等参数设置,以低资源消耗实现文本生成,适合低成本运算的研究及开发场景。
sd-controlnet-mlsd - 结合M-LSD直线检测优化Stable Diffusion的图像生成
Github开源项目条件输入M-LSDHuggingfaceStable Diffusion扩散模型ControlNet模型
该项目介绍了ControlNet神经网络结构,通过加入M-LSD直线检测等条件来控制大规模扩散模型,适用于Stable Diffusion。ControlNet能够在小数据集下进行稳健学习,且可在个人设备上快速训练。项目提供了多种检查点,涵盖边缘检测、深度估计和关键点检测,丰富了大规模扩散模型的控制方式,有助于推进相关应用的发展,最佳效果在Stable Diffusion v1-5结合使用时体现。
OLMo-7B-0724-hf - OLMo开放式语言模型促进语言处理技术进步
AI2开源语言模型变形金刚Github开源项目OLMo自然语言处理Huggingface模型
OLMo是由AI2开发的开源语言模型系列,旨在推动语言模型科学研究。该模型基于Dolma数据集训练,采用先进的Transformer结构,实现性能提升和多阶段优化。OLMo-7B-0724-hf具备强大的文本生成能力,适用于文本推理和生成任务。支持在HuggingFace平台上进行加载、微调和评估,且提供多种数据检查点,方便研究与开发。该项目得到多家机构支持,并在多个主要AI任务中表现优异。
litellm - 简化管理多个LLM API,兼容多种部署平台
LiteLLMOpenAILLM APIsAzureHuggingfaceGithub开源项目
使用OpenAI格式调用各大LLM API,如Bedrock、Huggingface、VertexAI等,支持统一输出、重试机制和预算管理。LiteLLM提供易用的代理服务器、企业级服务和丰富的日志功能,确保性能稳定可靠。支持异步和流式响应,适配众多LLM平台,为开发者提供高效便捷的集成方案。
相关文章
LiteLLM: 统一调用多种LLM API的强大工具
2024年08月30日
大型语言模型微调技术全解析:从理论到实践
2024年08月30日
Firefly-LLaMA2-Chinese: 低资源高效的开源中文大语言模型
2024年08月31日
Online-RLHF: 从奖励建模到在线人类反馈强化学习的工作流程
2024年08月31日
Magpie: 一种创新的大语言模型对齐数据生成方法
2024年08月31日
Gazelle:突破性的联合语音-语言模型
2024年08月31日
GIGAX: 革命性的本地AI驱动NPC系统
2024年08月31日
BitNet-Transformers: 1比特量化技术在大型语言模型中的应用与实现
2024年08月31日
LoRA: 大型语言模型的低秩适应方法
2024年09月02日