#机器学习模型

unidepth-v2-vitl14 - 单目度量深度估计模型 支持多样化场景
模型PyTorch计算机视觉GithubUniDepth深度估计机器学习模型Huggingface开源项目
UniDepth-v2-vitl14是一个基于PyTorch的单目度量深度估计模型,采用ViT-L/14架构。该模型可从单张2D图像预测场景深度,支持Hugging Face模型中心集成。UniDepth-v2-vitl14适用于计算机视觉和3D感知领域的研究与开发。
wav2vec2-xls-r-300m-cv7-turkish - 基于Wav2vec2优化的土耳其语语音识别模型
模型wav2vec2-xls-r-300mCommon Voice开源项目Huggingface语音识别土耳其语机器学习模型Github
该模型是在wav2vec2-xls-r-300m基础上针对土耳其语优化的自动语音识别系统。通过Common Voice 7和MediaSpeech数据集训练,结合N-gram语言模型,在Common Voice 7测试集上实现8.62%词错误率和2.26%字符错误率。模型为土耳其语语音识别提供了高效可靠的开源解决方案,适用于多种语音识别场景。
codebert-python - 针对Python优化的CodeBERT模型用于代码生成评估
模型Github开源项目HuggingfaceCodeBERTScore机器学习模型代码生成评估自然语言处理GitHub
该项目是基于microsoft/codebert-base-mlm模型,经过100万步训练优化的Python代码分析工具。模型使用codeparrot/github-code-clean数据集,通过掩码语言建模任务进行训练。主要应用于CodeBERTScore项目,用于评估代码生成质量,同时也适用于其他代码分析和评估任务。这一模型为开发者和研究人员提供了强大的代码分析工具,有助于提高代码质量和开发效率。
tokenizer_titok_s128_imagenet - 基于PytorchModelHubMixin的开源图像标记化模型
Huggingface模型深度学习图像标记化机器学习模型Github开源项目PytorchModelHubMixinHugging Face
tokenizer_titok_s128_imagenet是一个开源的图像标记化模型,基于Apache-2.0许可。该项目利用PytorchModelHubMixin技术与Hugging Face模型库集成,专注于图像tokenization。它支持PyTorch模型hub功能,为图像处理研究和开发提供了实用工具。项目源码托管于GitHub的1d-tokenizer仓库。
granite-3b-code-base-2k - IBM开发的多语言代码生成AI模型
模型Github代码生成开源项目Huggingface机器学习模型Granite-3B-Code-Base-2K自然语言处理人工智能
Granite-3B-Code-Base-2K是一款开源的代码生成AI模型,由IBM Research开发。该模型经过116种编程语言的大规模训练和高质量数据微调,可用于代码生成、解释和修复等多种软件工程任务。它采用Apache 2.0许可证,适合企业级应用。虽然功能强大,但使用时需考虑其局限性。
gmixer_24_224.ra3_in1k - MLP-Mixer变体:采用SwiGLU的图像分类和特征提取模型
模型神经网络ImageNet-1k开源项目Huggingface图像分类机器学习模型Githubtimm
gmixer_24_224.ra3_in1k是一个基于MLP-Mixer架构的图像分类模型,在timm库中由Ross Wightman开发。该模型采用SwiGLU激活函数,在ImageNet-1k数据集上训练,拥有2470万参数,计算复杂度为5.3 GMACs。它支持224x224尺寸的图像输入,可用于图像分类和特征提取。模型提供简洁的API,便于进行图像分类和嵌入提取,适用于多种计算机视觉应用场景。
kandinsky-2-1-prior - 先进的文本到图像扩散模型
图像编辑Huggingface模型文本生成图像机器学习模型AI绘图Github开源项目Kandinsky 2.1
Kandinsky 2.1是一款结合DALL-E 2和潜在扩散技术的文本条件扩散模型。它采用CLIP模型进行文本和图像编码,并在CLIP模态的潜在空间中引入扩散图像先验,大幅提升了视觉效果。该模型支持文本到图像生成、图像到图像转换、图像修复和插值等多种应用,为图像混合和文本引导的图像操作开辟了新的可能性。
opensearch-neural-sparse-encoding-doc-v1 - OpenSearch神经稀疏编码模型提升信息检索效率
HuggingfaceOpenSearch模型文档检索机器学习模型Github开源项目搜索引擎神经稀疏编码
opensearch-neural-sparse-encoding-doc-v1是一款为OpenSearch开发的学习型稀疏检索模型。它能将文档转换为30522维稀疏向量,并采用高效的查询处理方法。该模型经MS MARCO数据集训练,实际性能堪比BM25。模型支持基于Lucene倒排索引的学习型稀疏检索,可通过OpenSearch高级API实现索引和搜索。在BEIR基准测试的13个子集上,该模型展现了优秀的零样本性能,体现了出色的搜索相关性和检索效率。
beitv2_base_patch16_224.in1k_ft_in22k - BEiT-v2架构的ImageNet-22k微调图像分类与特征提取模型
模型开源项目Huggingface图像分类ImageNet机器学习模型GithubtimmBEiT-v2
beitv2_base_patch16_224.in1k_ft_in22k是基于BEiT-v2架构的图像分类模型,在ImageNet-1k上进行自监督预训练,并在ImageNet-22k上微调。该模型拥有1.026亿参数,支持224x224像素输入,适用于图像分类和特征提取。通过timm库可轻松加载,为计算机视觉研究和应用提供强大工具。
epiCRealism - Stable Diffusion模型实现真实感图像生成
模型开源项目HuggingfaceStable DiffusionAI绘图机器学习模型Github文本生成图像HuggingFace
epiCRealism是一个基于Stable Diffusion的开源模型,专注于生成高质量真实感图像。该模型支持多种场景创作,包括人像、风景和幻想题材,能够呈现细腻的细节和逼真效果。epiCRealism易于集成到各类图像生成项目中,为创作者和开发者提供了实现视觉创意的有力工具。
codebert-java - CodeBERT模型针对Java代码优化 助力代码生成评估
CodeBERT代码生成评估Huggingface模型机器学习模型Github开源项目自然语言处理GitHub代码数据集
这是一个基于microsoft/codebert-base-mlm模型训练的CodeBERT变体,专注于Java代码处理。经过100万步的掩码语言建模训练,该模型主要应用于CodeBERTScore项目,用于评估代码生成质量。它利用codeparrot/github-code-clean数据集的Java代码,不仅可用于代码生成评估,还能支持其他代码分析任务,为相关研究和应用提供了有力支持。
codegen-2B-multi - 提供多语言程序合成的自回归语言模型
Github开源项目自动生成代码机器学习模型Huggingface程序合成CodeGen多编程语言模型
CodeGen-Multi 2B模型是一种自回归语言模型,经过多个编程语言的大规模数据集预训练,能够合成可执行代码。模型以CodeGen-NL 2B为基础,并在多语言数据上进一步训练,能够从自然语言和编程语言中提取特征。模型在主要代码生成基准上经过评估,可用于从注释生成代码或完成部分代码。用户可借助AutoModelForCausalLM功能加载模型,适用于多种编程语言。
stsb-distilbert-base - 语义搜索与聚类任务的句子嵌入模型
语义搜索句子嵌入开源项目机器学习模型自然语言处理模型Huggingfacesentence-transformersGithub
此模型将句子和段落转换为768维的稠密向量,适用于语义搜索和聚类任务。然而,由于其性能已不再是最优,建议选择更优质的句子嵌入模型。如需使用,可通过安装sentence-transformers库轻松实现,或使用HuggingFace Transformers进行更高级的处理,如加入注意力掩码的平均池化。尽管模型效能下降,其架构仍有参考价值。
robertuito-ner - 基于RoBERTuito的双语命名实体识别模型
RoBERTuitoGithub命名实体识别自然语言处理机器学习模型HuggingfaceLinCE开源项目模型
robertuito-ner是一个基于RoBERTuito的命名实体识别模型,用于处理西班牙语和英语混合文本。该模型在LinCE NER语料库训练,支持识别人名、地名等实体,在NER任务上达到68.5%的性能指标。通过pysentimiento库集成,可用于社交媒体文本分析和代码切换研究。
financial-roberta-large-sentiment - RoBERTa架构优化的金融文本情感分析模型
开源项目模型情感分析ESGRoBERTa机器学习模型Github金融文本Huggingface
Financial-RoBERTa是一个基于RoBERTa-Large架构优化的金融文本情感分析模型。它能分析财务报表、盈利公告、业绩电话会议记录等多种金融文本,输出积极、消极或中性的情感判断。模型经过大规模金融语料训练,并提供Hugging Face接口,便于企业和研究人员使用。该模型支持多种金融文档类型,包括10-K、10-Q、8-K报告、CSR报告和ESG新闻等。
Juggernaut-X-v10 - 基于SDXL的双版本AI图像生成模型
Juggernaut XGithubHuggingface开源项目RunDiffusion图像生成人工智能绘画机器学习模型模型
Juggernaut X v10是基于Stable Diffusion XL开发的文本到图像生成模型,分为安全(SFW)和非安全(NSFW)两个版本。模型通过GPT-4 Vision训练,改进了提示词响应准确度,优化了数据集质量和文本生成功能。支持自然语言和标签式两种提示方式,可生成艺术、人物、风景等多类型图像。
twitter-roberta-base-dec2021-tweet-topic-multi-all - 基于RoBERTa的多标签推文主题分类模型
多标签分类文本分类开源项目机器学习模型Github模型自然语言处理HuggingfaceTwitter RoBERTa
这是一个基于twitter-roberta-base-dec2021的微调模型,专注于多标签推文主题分类。模型在tweet_topic_multi数据集上训练,在test_2021测试集上实现76.48%的微平均F1分数。它能有效识别社交媒体文本中的多个主题,为内容分析提供了可靠的自然语言处理工具。
moirai-1.0-R-base - 基于Transformer的通用时间序列预测模型
时间序列预测开源项目数据分析Moirai模型预训练模型机器学习模型GithubHuggingface
Moirai-1.0-R-base是一个基于掩码编码器的通用时间序列预测Transformer模型,在LOTSA数据集上预训练。该模型包含9100万参数,使用补丁嵌入和变量ID编码方法,可处理多变量时间序列数据进行预测。模型支持自定义预测长度和上下文窗口设置,通过uni2ts库实现部署。作为Moirai系列的中型版本,该模型在性能和计算效率方面达到平衡。
Refact-1_6B-fim - 小巧精悍的多语言代码补全模型
Refact-1.6BGithub人工智能编程助手Huggingface机器学习模型开源项目模型代码补全
Refact-1.6B-fim是一个高性能的代码补全模型,仅以1.6B参数规模在多项基准测试中超越了部分更大的模型。它支持多种编程语言,采用填充中间和聊天格式,并针对IDE使用场景进行了优化。该模型在HumanEval等测试中表现出色,为开发者提供了准确、快速的代码补全功能。
CrystalChat - 适用于编程任务的透明高效语言模型
性能指标CrystalChat开源项目机器学习模型模型Huggingface开源文本生成Github
CrystalChat是一个基于Llama 2进行指令微调的模型,运用各类公开数据集及自有的WebAlpaca输入,擅长处理语言和编程任务。该模型在多任务处理方面展现出色的表现,尤其在MMLU和HumanEval评测中取得高分。在未经RLHF安全调整的前提下,该开源模型依然保证高度透明和用户可理解性。
molmo-7B-D-bnb-4bit - 量化技术优化,模型尺寸有效缩减
深度学习基准测试Huggingface机器学习模型量化开源项目模型transformersGithub
采用4bit量化技术的Molmo-7B-D模型,从30GB压缩至7GB,运行需求缩减至约12GB VRAM。项目致力于在保持低资源消耗的基础上提升模型性能。进一步的信息及示例代码可在GitHub和Hugging Face上获取,性能指标及基准测试结果预定于下周发布。
starcoder2-7b-AWQ - AWQ量化的StarCoder2代码生成模型
机器学习模型程序开发StarCoder2深度学习代码生成Github模型开源项目Huggingface
StarCoder2-7B-AWQ是经AWQ量化的大规模代码生成模型。它支持17种编程语言,采用分组查询注意力机制,具有16,384个token的上下文窗口。该模型在多项基准测试中表现优异,能生成高质量代码。量化后显著降低内存占用,便于部署应用。
efficientnetv2_rw_s.ra2_in1k - EfficientNetV2架构的轻量级图像分类模型
ImageNetGithub开源项目图像分类机器学习模型EfficientNetV2Huggingface深度学习模型
基于EfficientNetV2架构的图像分类模型,通过timm框架实现,使用RandAugment数据增强和RMSProp优化器在ImageNet-1k数据集训练。模型参数量23.9M,计算量4.9 GMACs,训练分辨率288x288,测试分辨率384x384。支持图像分类、特征图提取和图像嵌入等功能。
wav2vec2-large-xlsr-53-th-cv8-newmm - 基于wav2vec2的泰语语音识别模型整合CommonVoice V8数据集实现性能突破
Wav2Vec2语音转文本机器学习模型泰语语音识别模型Github开源项目Huggingface
这是一个针对泰语的开源语音识别模型,通过微调wav2vec2-large-xlsr-53并整合CommonVoice V8数据集实现。模型采用pythainlp进行预分词,结合语言模型显著提升性能。在CommonVoice V8测试集上,模型实现12.58%的词错率和3.28%的字符错率,较基准模型大幅提升。该项目代表了当前泰语语音识别领域的先进水平。
Llama-3.2-3B-Instruct-uncensored-i1-GGUF - 多种量化选项助力模型性能与效率优化
量化开源项目使用指南模型GithubHuggingfaceHugging Face机器学习模型Llama-3.2-3B-Instruct-uncensored
项目提供多种量化选项,包括i1-IQ1_S到i1-Q6_K不同规格的GGUF文件,满足研究和开发中的多样化需求。用户可参考TheBloke的指南了解使用方法,实现实际应用中的性能和效率优化,同时保持模型输出质量与资源利用的平衡。
Meta-Llama-3.1-8B-Instruct-4bit - Meta的Llama 3.1大语言模型助力多语言文本生成
许可证开源项目模型GithubHuggingfaceLlama 3.1机器学习模型Meta政策
Meta发布的Llama 3.1大语言模型,提供广泛的非独占全球许可,方便在多种语言环境中实现高效文本生成和自然语言处理。该项目允许复制、修改和重新分发模型,支持AI模型的实施与扩展。Llama 3.1提供多种开发工具与文档,提升多语言指令转化的广泛应用和适应性。
t5-base-summarization-claim-extractor - 从摘要中提取基本论断,提高信息准确性评估
T5-base-summarization-claim-extractor主张提取开源项目机器学习模型摘要真实性评估模型HuggingfaceGithub自然语言推理
T5-base-summarization-claim-extractor基于T5架构,专注于从摘要中提取基本论断。该模型属于FENICE项目的一部分,通过自然语言推理和论断提取来评估摘要的真实性。它能有效提高总结中的信息准确性,但仅支持英文文本。结合其他工具使用,这一模型有助于增强文本摘要的可靠性,同时为机器学习和自然语言处理领域提供了重要支持。