#模型

bertweet-tb2_ewt-pos-tagging - Twitter词性标注模型,提升标注准确性
TwitterGithubTweebankNLP模型开源项目词性标注社交媒体分析HuggingfaceTweetTokenizer
该项目提供了适用于Tweebank V2基准的Twitter词性标注模型,准确率达95.38%,结合Tweebank-NER与English-EWT数据进行训练,支持社交媒体分析。使用前需通过TweetTokenizer进行tweets预处理以获得最佳效果。
Codestral-22B-v0.1-IMat-GGUF - Codestral-22B-v0.1量化模型及IMatrix文件下载指南
IMatrix下载步骤Github量化模型开源项目代码生成Codestral-22B-v0.1Huggingface
Codestral-22B-v0.1项目提供了多种量化版本,包括Q8_0、Q6_K、Q4_K等,并支持IMatrix数据集的应用。用户可通过huggingface-cli下载这些文件,对于较大的文件,可使用gguf-split工具进行合并。更新版本修复了FIM标记缺失,并通过部分量化方法提升性能。项目涵盖的量化文件类型多样且灵活,满足不同的应用需求。
codegemma-7b-it - 自然语言代码生成与对话专家
代码生成CodeGemma开源项目模型对话生成Huggingface代码完成评估方法Github
CodeGemma项目集合了7B和2B参数的开源代码模型,专注代码补全、生成及对话功能,尤其突出自然语言转代码的能力。codegemma-7b-it变体特别在指令生成方面展示了优异表现。借助FIM技术和依赖关系图打包技术,模型增强了与真实应用的契合度。此外,该项目注重伦理与安全,符合Google政策标准,适用于代码生成、学习和技术交流,兼容多种编程语言。
roberta-base-finetuned-semeval24 - 精细调优的roberta-base模型,提升语义理解精度
开源项目roberta-base准确率训练超参数模型精调模型HuggingfaceGithubF1得分
项目对FacebookAI的roberta-base模型进行精细调优,实现了在语义理解方面的提升,评估集中准确率达到0.8425,F1得分为0.8423。训练采用线性学习率调度和Adam优化器,共计5个周期,适用于对语义分析要求较高的任务,性能卓越且稳定。
roberta-large-wnut2017 - Roberta-large模型在WNUT2017数据集上的实体识别能力
开源项目tner/roberta-large-wnut2017命名实体识别模型精度超参数搜索Huggingface召回率Github
Roberta-large在WNUT2017数据集上进行微调,F1得分为0.5375。该模型通过T-NER优化,适用于跨领域和多语言的实体识别任务,支持识别人、组织和地点等多种实体。模型通过简易代码实现实体识别,提升文本解析能力。
all_datasets_v3_mpnet-base - 基于MPNet的高效句子和段落编码模型
开源项目句子相似性模型对比学习信息检索Huggingface句向量sentence-transformersGithub
该模型利用sentence-transformers,通过microsoft/mpnet-base预训练模型和自监督对比学习目标进行微调,将句子和段落有效编码至768维度向量空间,适用于信息检索、语义搜索和聚类任务,尤其是在句子相似度计算中有较好表现。微调时,使用了超过10亿对的句子数据,并在TPU v3-8环境下进行了920k步训练,采用AdamW优化器和对比损失。此外,在无sentence-transformers库的情况下,通过特定的池化操作仍可实现相似的编码效果,代码实现简单易用。
vit_small_patch16_384.augreg_in21k_ft_in1k - 增强的视觉转换器模型及其在图像分类中的应用
ImageNet图像分类开源项目Vision TransformerPyTorch模型Huggingface数据增强Github
ViT图像分类模型结合增强与正则化技术,基于ImageNet-21k训练后在ImageNet-1k微调。模型通过JAX进行训练并移植至PyTorch,拥有22.2M参数和384x384图像输入,展示了12.4 GMACs的高效性。适用于图像分类与特征提取,在视觉识别和嵌入生成中表现出色。
control_v11p_sd15s2_lineart_anime - 动漫风格线稿的控制性扩散模型
Stable Diffusion文本到图像生成开源项目条件控制线稿动漫模型ControlNetHuggingfaceGithub
该项目通过ControlNet为扩散模型添加条件输入,专注于动漫风格线条艺术。ControlNet适应性强,能在小数据集上稳健学习特定任务条件。结合Stable Diffusion v1-5,可以提升模型处理边缘图、分割图和关键点的能力,有助于扩展大规模扩散模型的应用。
f222 - 德国海军巴登-符腾堡级护卫舰概览
护卫舰Baden-WürttembergThyssen-Krupp开源项目Lürssen模型Huggingface德国海军Github
Baden-Württemberg (F222) 是德国海军巴登-符腾堡级护卫舰的首舰,由Thyssen-Krupp与Lürssen联合设计。这一系列具有很高的排水量,用于替代不再适用的Bremen级护卫舰,专注于提升技术水平。此款模型集成了840KVAE,用于生成文字到图像的转换。详细信息请查看原始页面。
vicuna-class-tutor-7b-ep3 - 教育辅导聊天机器人结合学习科学
聊天机器人开源项目教育CLASS Meet模型Huggingface学习科学SPOCKGithub
项目的教育机器人CLASS Meet SPOCK采用学习科学设计,利用先进学习理论提供教育支持,提供个性化教学互动与反馈。
Florence-2-SD3-Captioner - 图像到文本转换的先进工具
AI绘图开源项目自然语言处理图像描述模型HuggingfaceVolkswagen BeetletransformersGithub
Florence-2-SD3-Captioner是一个强大的图像到文本转换工具,支持通过结合多个数据集如google/docci、ProGamerGov/synthetic-dataset等,来生成详尽的图像描述。该工具能够在CUDA设备上高效运行,可处理多种格式的RGB图像。只需提供任务提示和文本,即可获得精确详细的内容描述。
vinai-translate-vi2en-v2 - 精确的越南语与英语神经翻译模型
Github开源项目语言翻译VinAI Translate越南语模型Huggingface神经机器翻译英语
VinAI Translate是一个实现越南语和英语互译的神经机器翻译系统,以其创新架构和优异的实验结果,受到业界关注。研究人员可通过项目主页获取更多信息,并在使用时引用相关论文。
TinyLlama-1.1B-step-50K-105b - 紧凑型1.1B参数模型的高效预训练项目
Huggingface训练TinyLlama模型GPU开源项目Github令牌
TinyLlama是一个旨在高效预训练1.1B参数模型的项目,使用3万亿个token,计划在90天内完成。其架构和tokenizer与Llama 2相同,适用于多种需要低计算和内存需求的应用。该项目的中期里程碑在50K步和105B tokens,成果显著。利用16块A100-40G GPU进行优化训练,提升效率并节省资源。TinyLlama与多个开源项目兼容,便于通过transformers库进行集成。更多详情可查阅TinyLlama的GitHub页面。
MohamedRashad-Arabic-Orpo-Llama-3-8B-Instruct-GGUF - 阿拉伯语Llama模型优化量化文件提升性能
Huggingface文本生成Featherless AI量化开源项目模型模型性能优化MohamedRashad/Arabic-Orpo-Llama-3-8B-InstructGithub
项目提供优化的GGUF量化文件,以提升阿拉伯语Llama模型性能,支持多种量化类型如Q8_0、Q4_K_S、Q2_K等供选择。由Featherless AI支持,具备即时部署、零基础设施需求及高兼容性,支持超2400种模型,每月服务起价10美元。
t5-base-finetuned-question-generation-ap - T5微调模型用于高效问题生成
Huggingface开源项目模型迁移学习问题生成GithubSQuAD自然语言处理T5
T5-base模型在SQuAD数据集上进行微调,通过整合答案和上下文实现问题生成。项目依托Hugging Face的Transformers库,在Google的支持下,利用迁移学习提升自然语言处理的精确度。支持大规模无标签数据集加载及优化训练脚本,以改善问答生成性能。
Yi-6B - 开源双语大型语言模型的性能和应用
Huggingface机器学习Yi series人工智能开源项目模型Github开源大语言模型
Yi系列模型是01.AI从头自主训练的开源大型语言模型,支持双语,适用于语言理解、常识推理和阅读理解。Yi-34B-Chat在多项评估中表现出色,仅次于GPT-4 Turbo,而Yi-34B在开源模型中名列前茅。该系列模型采用Transformer架构,结合高质量训练数据集和高效管道,适合广泛的个人、学术和商业用途,支持在多个平台试用。
free-solar-evo-v0.1 - 创新进化模型合并的客观探索
Sakana项目进化模型HuggingfaceFree-solar-evo-v0.1S-SOLAR-10.7B-v1.5开源项目AI模型Github
free-solar-evo-v0.1项目展示了进化模型合并的潜在应用,受Sakana项目启发,建立在hwkwon/S-SOLAR-10.7B-v1.5模型之上,由Freewheelin团队开发。
SuperNova-Medius-GGUF - 多种量化方法提升模型性能与适配性
ARMHuggingface量化开源项目模型性能GithubSuperNova-MediusRAM
SuperNova-Medius-GGUF项目通过llama.cpp工具对SuperNova-Medius模型进行多种量化处理,是以多样化版本满足不同应用的需求。精细化量化过程依托imatrix选项,提供了多种质量和性能的选择。用户可以根据自身硬件环境,如ARM架构设备、低RAM或需最大化GPU VRAM使用的场景,选择相应版本。此外,项目为文件选择提供了详细指南,确保用户能够找到适合其系统性能的最佳模型版本。这些量化技术为不同硬件上的文本生成任务提供了广泛的支持。
leandojo-lean4-retriever-byt5-small - 利用检索增强模型改进定理证明技术
LeanDojo开源项目检索增强模型Github语言模型定理证明NeurIPSHuggingface
LeanDojo项目应用检索增强的语言模型,旨在提升数学与逻辑推理中的自动化水平。通过自然语言处理和机器学习的结合,LeanDojo为定理证明提供了高效创新的解决方案,显著提高了检索精度并加速了复杂问题的求解。目前,该项目正在NeurIPS会议的Datasets and Benchmarks Track中评审,适用于研究人员扩大在数学领域应用机器学习的探索。详情请访问LeanDojo官方网站。
t2i-adapter-canny-sdxl-1.0 - T2I适配器结合Canny检测提升稳定扩散XL的条件控制
稳定扩散图像生成深度学习HuggingfaceT2I-Adapter开源项目模型Github边缘检测
T2I适配器通过Canny边缘检测增强稳定扩散模型的条件控制能力,由腾讯ARC和Hugging Face联合开发。该模型经由多任务学习在超过300万的高分辨率图文对上训练了20000步,实现了文本到图像生成的更高可控性。使用者需安装必要的依赖,并结合指定的模型与调度程序,以提高图像生成质量。
Mistral-Small-22B-ArliAI-RPMax-v1.1-GGUF - AI模型量化方法提升硬件性能与资源效率
Huggingface模型下载基于ARM的优化量化开源项目模型性能GithubMistral-Small-22B-ArliAI-RPMax-v1.1
通过llama.cpp进行量化优化,AI模型适用于各种RAM配置和资源受限环境。多种量化选项可供选择,从高质量到低资源占用,确保最佳性能表现。适用于ARM以及其他特定硬件,通过选择I-quant和K-quant格式实现速度与质量的平衡,优化AI推理性能。
monot5-base-msmarco - MS MARCO数据集优化的T5-base重排模型
文档Huggingface训练开源项目模型T5-baseGithubMS MARCO重排序
这个T5-base模型经过在MS MARCO段落数据集上的10万步微调,以提高排序性能。虽然主要适用于MS MARCO数据集,但在其他数据集上进行无监督推理时,建议使用castorini/monot5-base-msmarco-10k版本。可以通过提供的链接查看使用示例,包括简单的重排序示例,以及在MS MARCO和Robust04上的应用。该预训练序列到序列模型在文档排名中的应用已在相关论文中详细描述。
glpn-nyu - 全球-局部路径网络在单目深度估计中的应用
Github模型模型描述开源项目愿景Huggingface使用限制GLPN单目深度估计
GLPN模型利用SegFormer作为基础结构,并在NYUv2数据集进行微调,以实现单目深度估计。基于Kim等人的研究,GLPN通过轻量级模块提升深度预测能力,适用于多个深度感知应用场景,帮助增强计算机视觉系统的环境理解能力。
KoE5 - 一种新颖的多语言模型,专注于增强韩文文本检索性能
KoreanGithub模型多语言嵌入开源项目SentenceTransformerHuggingface文本检索KoE5
KoE5是一个开源项目,旨在优化韩文文本检索,具有卓越的特征提取能力。模型在intfloat/multilingual-e5-large的基础上进行了微调,并利用ko-triplet-v1.0数据集进行优化,使其适合于复杂文本检索任务,例如信息检索和语义相似性分析。客观上,它在韩文查询处理方面表现出色,广泛应用于多语言嵌入模型的挑战中。
Replete-LLM-V2.5-Qwen-32b-GGUF - 量化模型文件下载指南,通过选择适合的文件优化性能
Github量化模型开源项目视觉处理嵌入输出权重Huggingface文本生成Replete-LLM-V2.5-Qwen-32b
该项目使用llama.cpp工具进行模型量化,提供多种Replete-LLM-V2.5-Qwen-32b模型文件下载选项。每种文件类型均说明其特性,如高质量和性能等,并适应不同硬件环境,以帮助用户根据需求优化模型质量或速度。文件适用于多种RAM和VRAM配置,便于在不同系统中实现优异性能。
pos-french - 法语POET增强型词性标注器基于ANTILLES语料库
GithubFastText模型开源项目词性标注Bi-LSTM-CRFHuggingfaceANTILLESPOET
项目POET使用了ANTILLES语料库,结合FastText和Bi-LSTM-CRF标注模型,为法语文本提供涵盖性别、数量及时态等信息的60种词性标签。通过Flair实现的准确标注工具。
SmolLM-1.7B-Instruct - SmolLM-1.7B-Instruct 模型的技术特性与应用场景分析
数据集Github微调模型开源项目语言模型性能优化SmolLMHuggingface
SmolLM-1.7B-Instruct 是一款包含135M、360M和1.7B参数的小型语言模型,通过高质量数据集微调而成。v0.2版本在主题保持和回答提示方面表现优越。支持多种应用方式,包括本地和浏览器演示。但需注意,该模型可能并非完全精准,建议作为辅助工具应用于常识问答、创造性写作和基础编程等场景。
Midnight-Miqu-70B-v1.5-i1-GGUF - Midnight-Miqu-70B-v1.5量化模型:优化AI实施的多样化策略
Github量化合并工具变压器库模型开源项目Midnight-Miqu-70B-v1.5Huggingface模型使用
此项目提供Midnight-Miqu-70B-v1.5的多种GGUF量化文件,采用权重和imatrix量化,支持多种规格和类型如IQ1至IQ4及Q5、Q6,适应速度、质量和空间需求的平衡。用户可参考TheBloke的README获取操作指南,适合寻求优化AI模型效率的开发者,助力高效机器学习模型部署。
amd-partial-phonetree-v1 - 融合句子转换器和对比学习的高效文本分类模型
Github模型文本分类句子嵌入开源项目SetFit少样本学习Logistic回归Huggingface
SetFit模型结合sentence-transformers/paraphrase-mpnet-base-v2,通过高效的少样本学习实现文本分类。模型采用对比学习微调句子转换器和训练LogisticRegression分类头,具有优异的分类性能。支持最大512标记长度,适用于电话语音邮件和电话树分类需求。模型适合需要高效文本分类的研发人员和数据科学家使用。
Llama-3.1-8B-Lexi-Uncensored-V2-GGUF - Llama-3.1-8B-Lexi开源量化模型概览
高质量权重量化模型文件Github模型开源项目HuggingfaceLlama-3.1-8B-Lexi-Uncensored-V2
项目介绍了Llama-3.1-8B-Lexi不同量化模型版本,涵盖从高性能到轻量化版本。基于llama.cpp的imatrix量化选项,模型支持在LM Studio中运行。项目提供从完整F32权重到轻量化IQ2_M版本的多种选择,适合不同内存及质量需求的用户,并提供详细的下载和性能指引,帮助在系统RAM与GPU VRAM间找到平衡。
Mixtral-8x7B-v0.1-GGUF - Mixtral模型的多平台兼容量化文件
Github量化模型推理开源项目Mixtral 8X7BHuggingface模型格式Mistral AI
Mixtral GGUF模型文件采用新量化格式,支持2至8位模型,适用于多平台的CPU和GPU推理。文件兼容llama.cpp、KoboldCpp和LM Studio等平台。由Mistral AI创建,Apache-2.0协议许可,支持多语言,高效推理。
allenai-specter - 基于Sentence-Transformers的科学文献相似度建模
Github科学出版物模型句子嵌入开源项目句子相似性Huggingface特征提取AllenAI SPECTER
该模型将AllenAI SPECTER转化为Sentence-Transformers框架,可用于将科学文献的标题和摘要映射至向量空间以计算相似度。在安装Sentence-Transformers库后,用户能轻松进行相似度计算,同时也支持从HuggingFace Transformers加载模型。本文档还展示了如何使用池化操作聚合上下文词嵌入。
Synatra-RP-Orca-2-7b-v0.1 - 个人资源开发的测试版RP细调成果
Github微调模型训练模型开源项目Alpaca个人项目Synatra-RP-Orca-2-7b-v0.1Huggingface
Synatra-RP-Orca-2-7b-v0.1是一个个人资源开发的测试RP SFT模型,基于microsoft/Orca-2-7b构建。项目通过SFT方法进行细调优化,使用A100 80GB显卡训练,并采用Alpaca和ChatML指令格式。推动自然语言处理领域研究,其开放合作和资助渠道请联系Telegram用户AlzarTakkarsen。
nbailab-base-ner-scandi - 斯堪的纳维亚语言的命名实体识别模型
数据集Github开源项目命名实体识别模型性能ScandiNERHuggingface北欧语言模型
这个模型是NbAiLab/nb-bert-base的精调版本,适用于丹麦语、挪威语、瑞典语、冰岛语和法罗语的命名实体识别(NER)。通过整合DaNE、NorNE、SUC 3.0和WikiANN的一些数据集,模型可以提供高精度的NER结果,并支持多种语言包括英语。识别的实体类型包括人名、地名、组织名及其他类别。模型以Micro-F1得分约为89%的表现,以及4.16样本/秒的处理速度表现出色,同时模型体积合理,带来好的准确性和效率平衡。
WizardLM-1.0-Uncensored-CodeLlama-34B-GGUF - GGUF格式提供AI应用的新选择
Github开源项目模型模型格式AI助手量化方法Huggingface模型量化WizardLM 1.0 Uncensored CodeLlama 34B
GGUF格式由llama.cpp团队在2023年8月推出,旨在取代不再支持的GGML格式。新格式提升了分词能力,支持特殊标记并包含元数据,设计得更加可扩展。多个客户端和库已兼容GGUF格式,例如llama.cpp、text-generation-webui和KoboldCpp等,为用户提供了更强大的AI模型选择和应用功能。此外,该项目包含具有不同量化参数的AWQ和GPTQ模型,用于GPU推理,并支持多位GGUF模型文件,以满足不同的应用场景需求。
llm - 大型语言模型CLI工具,支持本地和远程模型
LLMPython库插件模型命令行工具Github开源项目
一款CLI工具和Python库,用于与大型语言模型交互,支持远程API和本地安装模型。可从命令行运行提示、将结果存储在SQLite中、生成嵌入等。通过插件目录,可访问更多模型。