#机器学习
mobilebert-uncased-squad-v2 - MobileBERT轻量级问答模型在SQuAD v2上的应用
模型Github开源项目Huggingface机器学习SQuAD自然语言处理MobileBERT问答系统
MobileBERT是一个在SQuAD v2数据集上微调的轻量级问答模型。模型体积仅95M,却在SQuAD v2评测中取得了75.2的EM和78.8的F1分数。通过Hugging Face框架可轻松部署,特别适合移动设备和边缘计算等需要高效问答功能的场景。
distilbert-base-uncased-mnli - DistilBERT零样本文本分类模型在MNLI数据集上的应用
Huggingface零样本分类模型机器学习GithubDistilBERT开源项目文本分类自然语言推理
DistilBERT零样本文本分类模型在MNLI数据集上微调,适用于多种英语文本分类任务。模型在MNLI和MNLI-mm评估中均达82.0%准确率,展现出优秀性能。虽然使用简便,但需注意潜在偏见问题。模型由Typeform团队开发,在AWS EC2 P3实例上训练。该模型为自然语言处理领域提供了有力工具,同时也引发了对AI公平性的思考。
Nous-Hermes-Llama2-13b - 开源语言模型专注长回复与准确性
语言模型Llama-2Huggingface模型机器学习人工智能Github开源项目自然语言处理
Nous-Hermes-Llama2-13b是基于Llama 2微调的开源语言模型,采用30万条指令进行训练。该模型以生成长篇回复和较低的幻觉率为特点,在AGI-Eval等多项基准测试中表现优异。它可用于创意写作、指令理解等多种语言任务,为开发者和研究人员提供了一个强大的开源语言工具。
distilbert-base-uncased-CoLA - DistilBERT模型在CoLA任务上的微调与应用
Huggingface模型机器学习数据集模型微调Github开源项目自然语言处理TextAttack
本项目展示了基于TextAttack框架的distilbert-base-uncased模型在CoLA(语言可接受性语料库)任务上的微调过程。模型经过5轮训练,批量大小为64,学习率为3e-05,最大序列长度为128。在第2轮训练后,模型在评估集上达到了82.36%的最佳准确率。该项目为研究者提供了一个在特定NLP任务上高效应用BERT变体模型的实例。
tiny-random-LlavaForConditionalGeneration - Transformers模型卡片自动生成框架
transformersHuggingface模型机器学习人工智能Github模型卡片开源项目自然语言处理
这是一个为Hugging Face Hub上的Transformers模型自动生成标准化文档的框架。它提供了模型的全面信息,包括开发者、许可证、用途、局限性、训练细节、评估结果和环境影响等。虽然当前模板中多数字段待填充,但它为用户提供了系统了解模型特性和适用场景的结构化方案,有助于提高模型文档的一致性和完整性。
swin-tiny-patch4-window7-224 - 层级结构的视觉Transformer模型
模型Github神经网络开源项目Huggingface图像分类机器学习计算机视觉Swin Transformer
Swin Transformer模型通过层级特征图和局部注意力机制实现线性计算复杂度。在ImageNet-1k数据集上以224x224分辨率训练后,可作为图像分类和密集识别任务的骨干网络。采用shifted windows技术平衡效率与性能,适用于图像分类或特定任务微调。
dreamshaper-xl-1-0 - 基于Diffusers的AI图像生成模型 支持多样化创意表达
模型模型卡片开源项目HuggingfaceDiffusers机器学习数据集GithubAI模型
Dreamshaper-xl-1-0是基于Diffusers框架的AI图像生成模型。该模型能根据文本描述生成图像,支持多种艺术风格和场景。它可应用于创意设计、内容创作等领域。虽然功能强大,但使用时需注意潜在的偏见和局限性。目前该模型的具体训练数据、评估结果等信息尚未公开。
Qwen2-72B-Instruct - 多语言大规模语言模型 支持131K token超长文本处理
模型Github开源项目Huggingface机器学习Qwen2-72B-Instruct自然语言处理大语言模型人工智能
Qwen2-72B-Instruct是一个支持131,072个token超长上下文的指令微调大语言模型。在语言理解、生成、多语言、编码、数学和推理等多项基准测试中表现优异,超越多数开源模型。采用改进的Transformer架构,通过大规模数据预训练和优化。集成YARN技术处理长文本,可通过vLLM部署。
bert-base-japanese-char-v2 - 基于日语维基百科的字符级BERT预训练模型
模型BERTGithub开源项目Huggingface机器学习日语模型维基百科数据集自然语言处理
本模型是基于日语维基百科训练的BERT预训练模型,采用字符级分词和全词掩码方法。它保持了原始BERT的12层结构和768维隐藏状态,使用MeCab和Unidic词典处理输入文本,词汇量为6144。训练在Cloud TPU上完成,遵循原始BERT的配置。该模型可广泛应用于日语自然语言处理领域,为研究和开发提供有力支持。
distilroberta-base-climate-detector - 基于DistilRoBERTa的气候相关文本检测模型
气候检测Github文本分类模型模型微调开源项目Huggingface机器学习ClimateBERT
distilroberta-base-climate-detector是一个专注于气候相关文本检测的自然语言处理模型。它基于DistilRoBERTa架构,在气候检测数据集上进行了微调,能够高效识别气候相关段落。该模型易于集成到Transformers库的文本分类管道中,为气候变化研究和环境分析提供了实用的工具。
splade-v3 - SPLADE-v3稀疏神经信息检索模型的最新进展
模型文本检索信息检索SPLADEGithub开源项目Huggingface机器学习自然语言处理
SPLADE-v3是SPLADE系列的最新稀疏神经信息检索模型,基于SPLADE++SelfDistil优化而来。该模型采用KL散度和MarginMSE混合损失函数,每次查询选取8个负样本进行训练。在性能方面,SPLADE-v3在MS MARCO开发集上达到40.2的MRR@10分数,BEIR-13测试中获得51.7的平均nDCG@10。这一成果为稀疏神经信息检索领域树立了新标准。研究人员可以通过GitHub平台获取并应用SPLADE-v3模型,以提升信息检索效果。
ner-english-ontonotes-large - Flair框架的大规模英语命名实体识别模型支持18种实体类型
模型文本分类命名实体识别GithubFlair开源项目Huggingface机器学习自然语言处理
ner-english-ontonotes-large是Flair框架中的大规模英语命名实体识别模型。该模型可识别18种实体类型,包括人名、地点和组织等,在Ontonotes数据集上F1分数达90.93%。模型基于文档级XLM-R嵌入和FLERT技术,通过简洁的Python代码即可调用。这一工具为各类自然语言处理任务提供了精准的命名实体识别功能。
robbert-v2-dutch-base - 荷兰语自然语言处理的先进预训练模型
模型荷兰语模型人工智能RobBERTGithub开源项目Huggingface机器学习自然语言处理
RobBERT是基于RoBERTa架构开发的荷兰语预训练语言模型,在多项自然语言处理任务中展现出卓越性能。模型通过39GB荷兰语语料库(含660亿词)预训练,可用于文本分类、回归和标记等任务。RobBERT在情感分析、指代消解和命名实体识别方面表现突出,尤其适合小规模数据集场景。作为目前最先进的荷兰语BERT模型,RobBERT为荷兰语自然语言处理研究和应用提供了强大工具。
llama-3-typhoon-v1.5-8b-instruct - Llama3架构的80亿参数泰语大模型 支持泰英双语指令
模型泰语大语言模型语言生成GithubLlama-3-Typhoon-1.5-8B开源项目Huggingface机器学习自然语言处理
llama-3-typhoon-v1.5-8b-instruct是基于Llama3-8B架构的泰语大语言模型,拥有80亿参数。该模型在泰语和英语指令任务上表现优异,多项泰语基准测试中均超越同类模型。采用Llama3聊天模板,支持多轮对话。目前仍处于开发阶段,可能存在局限性,建议开发者使用时评估相关风险。
roberta-spam - RoBERTa垃圾短信检测系统提升组织安全防护能力
模型文本分类GithubRoBERTa机器学习垃圾信息检测开源项目Huggingface数据集
这个项目基于RoBERTa模型构建了一套垃圾短信检测系统。该系统能够精准识别和过滤垃圾信息,为组织安全增添一道防线,有助于规避财务风险、法律隐患和声誉受损。系统在准确率、精确度和召回率等指标上表现优异,可作为组织强化信息安全的有力工具。
nb-whisper-large-beta - 挪威国家图书馆开发的多语言语音识别模型NB-Whisper
Huggingface模型机器学习语音识别人工智能Github开源项目挪威语NB-Whisper
NB-Whisper是挪威国家图书馆开发的自动语音识别和语音翻译模型系列。基于OpenAI的Whisper架构,使用20,000小时标注数据训练,支持挪威语、挪威博克马尔语、挪威尼诺斯克语和英语。该模型能将口语转换为语法正确的书面语句,目前处于公开测试阶段,提供从tiny到large共5种规模可供选择。NB-Whisper在挪威语语音识别领域达到了最先进水平,但仍存在幻觉和丢失部分转录内容的问题。
mxbai-rerank-base-v1 - 跨语言重排序模型提升搜索结果相关性
transformersHuggingface模型深度学习机器学习人工智能Github开源项目自然语言处理
mxbai-rerank-base-v1是一个基于transformers库开发的跨语言重排序模型。该模型支持多语言处理,可在transformers.js中使用,有助于提升搜索结果的相关性。模型采用Apache-2.0开源协议发布,适用于搜索引擎、推荐系统和问答系统等场景,能够优化排序结果。
stable-diffusion-v1-5 - 先进的文本到图像AI生成模型
模型Stable Diffusion人工智能Github深度学习文本生成图像开源项目Huggingface机器学习
Stable Diffusion v1-5是一种基于潜在扩散的文本到图像生成模型。它在LAION-5B数据集上经过595k步训练,可生成512x512分辨率的高质量图像。该模型适用于艺术创作、设计和研究,但存在人脸和文字渲染的局限性。模型通过Diffusers库提供,但不应用于生成有害内容。Stable Diffusion v1-5代表了AI图像生成技术的重要进展。
ms-marco-TinyBERT-L-2 - 针对MS Marco段落排序优化的TinyBERT-L-2跨编码器
Cross-Encoder模型信息检索MS MarcoGithub开源项目Huggingface机器学习自然语言处理
ms-marco-TinyBERT-L-2是一个为MS Marco段落排序任务优化的跨编码器模型。在TREC Deep Learning 2019和MS Marco段落重排任务中,它的NDCG@10和MRR@10分别达到69.84和32.56。模型每秒可处理9000个文档,为信息检索提供高效准确的解决方案。研究人员可通过Transformers或SentenceTransformers库使用该模型进行查询-段落对的相关性评分。
mxbai-colbert-large-v1 - ColBERT大型双编码器模型实现快速信息检索和语义匹配
AI绘图模型人工智能GithubHugging Face深度学习开源项目Huggingface机器学习
mxbai-colbert-large-v1是基于ColBERT架构的双编码器模型,专注于高效信息检索和语义匹配。该模型在保持高精度的同时显著提升了检索速度,支持多语言处理。其预训练赋予了强大的语义理解能力,适用于问答系统、文档检索等多种搜索和匹配任务场景。
electra_large_discriminator_squad2_512 - ELECTRA大型判别器模型在SQuAD2.0数据集上的问答系统微调
Huggingface模型ELECTRA机器学习模型微调Github开源项目自然语言处理问答系统
electra_large_discriminator_squad2_512是基于ELECTRA大型判别器模型在SQuAD2.0数据集上微调的问答系统。该模型在精确匹配和F1分数上分别达到87.10%和89.98%。它使用PyTorch和Transformers库实现,最大序列长度为512,经3轮训练后展现出优秀的问答性能。该项目还提供了详细的训练脚本和系统环境信息,便于其他研究者复现和改进。
mt5-base - 多语言预训练文本转换模型 覆盖101种语言的强大NLP工具
Huggingface模型机器学习预训练mT5Github开源项目自然语言处理多语言模型
mt5-base是Google开发的基于T5架构的多语言预训练模型,涵盖101种语言。该模型在mC4语料库上进行预训练,适用于多种跨语言NLP任务。使用时需针对特定任务进行微调。mt5-base在多语言基准测试中表现出色,为自然语言处理领域提供了有力支持。
pythia-160m - EleutherAI开发的160M参数语言模型 专为NLP研究设计
模型EleutherAIGithub大语言模型Pythia开源项目Huggingface机器学习自然语言处理
Pythia-160M是一个160M参数的英语语言模型,由EleutherAI开发,主要用于自然语言处理研究。该模型在Pile数据集上训练,提供154个中间检查点,便于分析模型行为。虽然主要用于研究目的,但其性能可与同规模的商业模型相媲美。Pythia-160M采用Transformer架构,可通过Hugging Face Transformers库轻松加载使用,适合进一步微调,但不建议直接部署。
ro-sentiment - 基于RoBERT的罗马尼亚语情感分析模型
模型文本分类情感分析罗马尼亚语RoBERT-baseGithub开源项目Huggingface机器学习
ro-sentiment是一个基于RoBERT-base微调的罗马尼亚语情感分类模型。该模型在多个数据集上表现优异,准确率和F1值均达到0.85左右。主要用于产品评论和电影评论的双极性情感分析,可识别积极和消极情感。模型通过大规模罗马尼亚语语料训练,具有良好的泛化能力,为罗马尼亚语自然语言处理研究提供了有价值的工具。
openvla-7b - 基于视觉和语言的开源机器人动作生成模型
模型图像文本处理机器人控制OpenVLAGithub机器学习开源项目Huggingface视觉语言行为模型
OpenVLA-7B是一个开源的视觉-语言-动作模型,基于97万个机器人操作数据训练。该模型将语言指令和摄像机图像转化为机器人动作,支持多种机器人控制,并可通过微调适应新任务。OpenVLA-7B采用MIT许可证,适用于零样本指令执行和新领域迁移。
ViT-SO400M-14-SigLIP - 基于SigLIP的视觉-语言模型实现零样本图像分类
模型图像分类ViTGithubSigLIP开源项目Huggingface机器学习自然语言处理
ViT-SO400M-14-SigLIP是基于WebLI数据集训练的视觉-语言预训练模型,采用sigmoid损失函数进行图像和文本的联合学习。该模型在零样本图像分类任务中表现出色,具有良好的跨模态理解能力。通过OpenCLIP和timm库,用户可以方便地使用该模型生成图像和文本嵌入。ViT-SO400M-14-SigLIP适用于图像分类、图像检索等多种计算机视觉和自然语言处理任务。
vit-xray-pneumonia-classification - 基于ViT的胸部X光肺炎分类模型
模型图像分类肺炎检测GithubViT模型胸部X光分类开源项目Huggingface机器学习
该项目利用ViT模型对胸部X光图像进行肺炎分类,在验证集上准确率达97.42%。模型能快速区分正常和肺炎X光片,并提供简易推理代码。这一工具有助于提升肺炎诊断的效率和准确性,为医疗行业带来实际价值。
stable-diffusion-x4-upscaler - 基于稳定扩散技术的AI图像4倍放大模型
图像生成Huggingface模型机器学习人工智能Github开源项目上采样Stable Diffusion
stable-diffusion-x4-upscaler是一个开源的AI图像放大模型,基于稳定扩散技术开发。它可以将图像分辨率提高4倍,同时保持图像质量。该模型支持文本引导,能根据描述优化放大效果。采用潜在扩散模型技术,在1000万张高分辨率图像上训练。适用于图像分辨率提升、艺术创作和图像编辑等领域。
my_awesome_model - DistilBERT微调的高效文本分类模型
Huggingface模型机器学习模型微调GithubDistilBERT开源项目自然语言处理Hugging Face
my_awesome_model是一个基于distilbert-base-uncased微调的文本分类模型。该模型在未知数据集上训练,经过3轮迭代后,训练损失降至0.0632,验证损失为0.2355,训练准确率达92.95%。模型采用Adam优化器和多项式衰减学习率。虽然缺乏具体任务信息,但其性能表现显示了良好的文本分类潜力。
vram-8 - 显存优化工具提升视觉语言模型训练效率
transformersHuggingface模型深度学习机器学习人工智能Github开源项目自然语言处理
vram-8是一个为视觉语言模型设计的内存管理工具。该工具通过优化内存使用策略,提高模型训练和推理效率。它可以智能管理GPU显存,减少内存溢出问题,使用户能在有限硬件资源下处理较大规模模型。vram-8有助于提升模型处理速度和系统稳定性。
distilbart-mnli-12-1 - 压缩版BART模型用于自然语言推理
Huggingface模型机器学习BARTGithub开源项目自然语言处理模型蒸馏DistilBart-MNLI
distilbart-mnli-12-1是一个用于自然语言推理的压缩版BART模型。该模型采用No Teacher Distillation技术,通过复制bart-large-mnli的交替层并微调,在保持较高准确率的同时大幅减小模型规模。项目提供多个压缩版本,可根据需求选择。此外,项目还提供了详细的自行训练步骤。
mt5-small - 跨101种语言的预训练文本转换模型
Huggingface模型机器学习mT5Github预训练模型开源项目自然语言处理多语言模型
mt5-small是一个基于T5架构的多语言预训练模型,涵盖101种语言。该模型在mC4数据集上预训练,可应用于多种自然语言处理任务。mt5-small为多语言NLP研究提供了坚实基础,但需要针对特定任务进行微调才能发挥其全部潜力。这个开源项目为跨语言AI应用开发提供了重要工具。
BilingualChildEmo - AI模型卡片模板 全面展示模型信息和评估
技术规格模型评估Model CardHuggingface模型机器学习Github模型卡片开源项目
该模型卡片模板全面涵盖AI模型的关键信息,包括基本细节、用途、局限性、训练过程和评估结果等。它为AI研究和开发提供了标准化框架,有助于透明记录和分享模型信息,推动AI技术的负责任发展。模板设计便于快速了解模型特性,适用于研究人员、开发者及相关从业者参考使用。
animesh_prunedv21 - 基于diffusers库的AI艺术图像生成项目
AI模型Huggingface模型深度学习机器学习diffusersGithub开源项目开源许可
animesh_prunedv21是一个基于diffusers库的开源项目,用于生成AI艺术图像。该项目采用机器学习技术,提供简便的接口,支持快速创作视觉作品。遵循creativeml-openrail-m许可,项目允许开发者进行二次开发,有助于推动AI艺术创作的发展。
stable-diffusion-2-base - 先进的AI文本到图像生成模型
图像生成人工智能绘图Huggingface模型深度学习机器学习Github开源项目Stable Diffusion
Stable Diffusion v2-base是一种基于潜在扩散技术的AI图像生成模型。它可根据文本提示生成高质量图像,适用于多种创意场景。该模型在经过筛选的LAION-5B数据集上训练,具备出色的图像生成能力。然而,它也存在一些局限性,如无法生成可读文本。此模型仅供研究使用,不应用于生成有害内容。Stable Diffusion v2-base代表了AI图像生成领域的重要进展。
sharegpt4video-8b - 基于视频指令数据训练的开源视频对话模型
模型ShareGPT4Video开源项目Huggingface机器学习Github视频语言模型视频指令数据视频聊天机器人
sharegpt4video-8b是一个开源视频对话模型,基于153K多样化视频指令数据和28K高质量视频字幕数据进行全模型微调。该模型能处理视频问答、描述和分析等任务,旨在推进视频-语言模型研究。它主要面向计算机视觉、自然语言处理和人工智能领域的研究人员,用于探索大规模视频-语言模型和视频聊天机器人的潜力。
相关文章
Ray: 统一框架助力AI和Python应用扩展
3 个月前
SQLFlow: 融合SQL与AI的创新技术
3 个月前
Efficient-AI-Backbones: 华为诺亚方舟实验室开发的高效AI骨干网络
3 个月前
Netron: 强大的神经网络和机器学习模型可视化工具
3 个月前
DVC: 开源数据版本控制系统助力数据科学和机器学习项目
3 个月前
SynapseML:简单而强大的分布式机器学习库
3 个月前
TensorWatch: 微软开源的机器学习调试与可视化工具
3 个月前
AI专家路线图2024:成为人工智能专家的学习指南
3 个月前
Ray :用于扩展 AI 和 Python 应用程序的统一框架
2024年08月03日