#机器学习
bert-base-arabertv2 - 阿拉伯语自然语言预训练模型 支持多任务场景应用
阿拉伯语机器学习Github自然语言处理HuggingfaceAraBERT开源项目模型预训练模型
AraBERTv2是一个阿拉伯语自然语言处理模型,基于200M句子数据集训练,支持情感分析、命名实体识别和智能问答等应用场景。模型采用Farasa分词技术优化词汇处理,通过Hugging Face平台提供PyTorch、TensorFlow等多框架版本。在多项基准测试中,该模型展现出较好的语言理解能力。
Vikhr-Nemo-12B-Instruct-R-21-09-24 - 全新升级的俄英双语大语言模型 内置RAG检索增强功能
RAG技术语言模型人工智能模型GithubVikhr-Nemo机器学习开源项目Huggingface
Vikhr-Nemo-12B-Instruct-R是一个基于Mistral-Nemo的开源语言模型,针对俄语和英语进行了深度优化。模型通过SFT和SMPO方法训练,具备推理分析、文本生成、代码编写等多项能力。其特色在于支持RAG检索增强和128K长文本处理,在俄语基准测试中接近gpt-4o-mini水平。该项目完全开源,包含训练代码和数据集。
pythia-1b - 开放8亿参数的自然语言模型研究工具
机器学习人工智能GithubPythia深度学习Huggingface开源项目模型大语言模型
Pythia-1B是一个基于Transformer架构的开源语言模型,拥有8亿多非嵌入参数和154个训练检查点。模型在The Pile数据集上训练,主要用于语言模型的可解释性研究。通过Hugging Face库可实现快速部署,性能与同规模的OPT和GPT-Neo相当。该模型使用Apache 2.0许可证,适用于学术研究和实验。
vicuna-13b-v1.5-16k - 基于Llama 2的开源对话模型 支持16K长文本处理
大语言模型Llama 2Vicuna模型Github机器学习开源项目Huggingface人工智能助手
Vicuna-13b-v1.5-16k是LMSYS团队基于Llama 2开发的开源对话助手。该模型利用ShareGPT平台收集的12.5万条对话数据进行微调,通过线性RoPE缩放技术实现16K字符的上下文处理。经过标准基准测试、人工评估和LLM评判的多维度验证,主要应用于自然语言处理、机器学习和人工智能领域研究。模型开放命令行界面和API接口,便于研究人员和开发者使用。
starcoder2-7b - 支持17种编程语言的开源代码生成模型
编程语言开源项目模型StarCoder2Github机器学习代码生成自然语言处理Huggingface
StarCoder2是一个基于7B参数训练的代码生成模型,支持17种主流编程语言的代码理解与生成。模型采用先进的注意力机制和大规模上下文窗口,在代码补全和程序生成等任务中表现出色,支持多种硬件环境部署。
DanTagGen-delta-rev2 - 开源二次元图像标签生成模型 支持多平台部署
机器学习开源项目深度学习模型人工智能图像标签生成GithubDanTagGenHuggingface
DanTagGen-delta-rev2是一款专注于动漫图像标签生成的开源工具。通过输入图像质量、评分和艺术家等参数,可快速生成相应标签,广泛应用于AI绘画和数据集标注。项目支持llama.cpp和HuggingFace Space等多种部署方式,并集成了SD-WebUI扩展和ComfyUI节点等实用工具。相比前代版本,新版本在标签多样性和稳定性方面有显著提升。
jina-embeddings-v2-base-es - 双语智能文本嵌入模型 英语和西班牙语文本向量化解决方案
特征提取开源项目sentence-transformers模型文本相似度机器学习Github自然语言处理Huggingface
这是一款针对英语和西班牙语优化的文本嵌入模型。在MTEB基准测试中表现优异,可高效处理文本分类、检索和聚类等任务。模型支持跨语言文本相似度计算,适用于双语内容处理场景。基于sentence-transformers框架开发,具备出色的文本特征提取能力。
DeepSeek-V2-Lite-Chat - 单卡40G部署的轻量级混合专家语言模型
开源项目深度学习模型人工智能大规模语言模型机器学习GithubDeepSeek-V2Huggingface
DeepSeek-V2-Lite采用MLA注意力机制和DeepSeekMoE架构,是一款轻量级混合专家模型。模型总参数量16B,激活参数2.4B,仅需单张40G显卡即可部署。模型支持32k上下文长度,在MMLU、C-Eval等英中文基准测试中表现优异,提供基础和对话两个版本。
gliner_multi-v2.1 - 多语言命名实体识别模型兼顾灵活性与资源效率
多语言模型Huggingface开源项目模型Github机器学习GLiNER自然语言处理命名实体识别
GLiNER是一种基于双向Transformer编码器的多语言命名实体识别模型,能够识别任意类型的实体。与传统NER模型和大型语言模型相比,GLiNER在保持性能的同时提高了资源效率。该模型提供多个版本,参数量介于166M至459M之间,支持英语和多语言处理,并采用Apache-2.0开源许可。GLiNER为资源受限的应用场景提供了一个实用的NER解决方案。
ggml_llava-v1.5-13b - 面向llama.cpp的LLaVA视觉语言模型推理文件
llava开源项目ggml模型机器学习Github模型推理llama.cppHuggingface
这是一个为llama.cpp提供的GGUF文件集合,专门用于llava-v1.5-13b视觉语言模型的端到端推理,无需额外依赖即可部署。其中mmproj-model-f16.gguf文件结构仍处于实验阶段,需要配合llama.cpp最新代码使用以保证兼容性。
wav2vec2-large-xlsr-53-french - 法语语音识别模型实现自动语音文本转录
开源项目模型Common VoiceGithubXLSR语音识别机器学习法语Huggingface
该开源模型通过针对法语的深度训练,实现了法语语音到文本的自动转录功能。模型支持处理16kHz采样率的语音输入,在标准测试集上展现出较低的错误率。模型提供完整的使用示例和评估工具,可用于法语语音识别相关应用开发。
gemma-2-2b-it-bnb-4bit - Gemma模型量化优化实现快速微调与内存高效管理
模型微调机器学习GemmaGithub模型量化Huggingface开源项目transformers模型
这是一个面向Gemma-2-2b模型的量化优化项目,集成了bitsandbytes和Unsloth技术,显著提升了模型微调效率并降低内存占用。项目通过Google Colab提供开箱即用的运行环境,支持一键式模型优化,并可将优化后的模型导出为GGUF格式或部署至vLLM平台。该方案特别适合资源受限环境下的模型优化需求。
kpfbert - 面向韩语自然语言处理的BERT预训练模型
机器学习人工智能Github自然语言处理KpfBERTHuggingface开源项目模型预训练模型
KpfBERT是一个针对韩语自然语言处理的预训练BERT模型。该开源项目提供韩语文本处理的基础模型支持,通过韩语语料库训练,可用于文本分类、命名实体识别等韩语NLP任务。
llm4decompile-6.7b-v1.5 - 基于深度学习的x86汇编代码自动转译为C语言系统
反编译程序分析机器学习GithubHuggingface开源项目模型LLM4Decompile代码转换
LLM4Decompile-6.7b-v1.5是一个基于机器学习的x86汇编反编译系统,通过15B tokens规模的训练数据和4096 token的处理能力,实现汇编代码到C语言的自动转换。在HumanEval-Decompile基准测试的O0优化级别下,转换准确率达到68.05%,整体性能较前代提升显著。该项目开源且采用MIT许可证,为软件开发和逆向工程提供了实用的代码分析工具。
roberta-base-squad2-distilled - 蒸馏版RoBERTa模型在SQuAD 2.0达到84% F1分数
roberta-base-squad2-distilledGithub深度学习模型自然语言处理机器学习开源项目Huggingface问答系统
基于RoBERTa-base架构开发的问答模型,通过知识蒸馏技术从roberta-large-squad2模型中提取核心能力。经SQuAD 2.0数据集训练后,在验证集上取得84.01 F1分数和80.86精确匹配分数。该模型支持Haystack框架集成,可用于构建实用的问答系统。
emeltal-collection - Emeltal开源模型仓库集成多款GGUF格式AI模型
人工智能模型开源项目Emeltal模型机器学习Github开源代码Hugging FaceHuggingface
emeltal-collection是一个GGUF格式AI模型仓库,集成了Dolphin、DeepSeek Coder等多个开源模型。模型参数规模从1.1B到72B不等,涵盖代码生成和对话等功能。该仓库旨在确保Emeltal项目所需模型的长期可用性,所有模型使用需遵循原始许可协议。
cards-top_left_swin-tiny-patch4-window7-224-finetuned-dough_100_epoch - Swin-Tiny模型微调的图像分类系统 在ImageFolder数据集达58.16%准确率
模型微调机器学习Github图像分类Swin TransformerHuggingface开源项目模型准确率
本项目基于microsoft/swin-tiny-patch4-window7-224模型微调,构建了一个图像分类系统。经过100轮训练,在ImageFolder数据集上达到58.16%的分类准确率。项目使用Adam优化器和线性学习率调度器,总批量大小为128。系统基于PyTorch框架开发,为图像分类任务提供了实用的基础模型。
whisper-base-bungoma.en - 基于Whisper的英语语音识别模型优化Azure数据集处理
机器学习GithubHuggingfaceAzure模型训练OpenAI Whisper语音识别开源项目模型
该语音识别系统通过微调openai/whisper-base.en基础模型,针对Azure数据集进行优化。模型采用了先进的优化算法,经过精细训练后词错误率降至25.28%,实现了稳定的英语语音识别效果。
autonlp-Tweet-Sentiment-Extraction-20114061 - AutoNLP推文情感分析模型达80%准确率
机器学习AutoNLPGithub自然语言处理Huggingface模型训练开源项目模型情感分析
这是一个基于AutoNLP训练的多类别分类模型,主要应用于推文情感提取分析。模型在验证集上的准确率为80.36%,F1分数为0.807。开发者可通过cURL或Python API调用该模型进行推文情感分析,适用于社交媒体数据分析和用户反馈处理等场景。
safety-flan-t5-base - 开源对话内容安全评估模型FLAN-T5
Pytorch机器学习FLAN-T5语言模型Github自然语言处理Huggingface开源项目模型
safety-flan-t5-base是FLAN-T5架构下的内容安全评估模型,主要用于分析对话文本中的潜在风险。模型通过对输入内容进行安全性判断,识别不当或有害信息。基于PyTorch开发,提供标准API接口,可集成于对话系统实现内容审核功能。
AraBert-Arabic-Sentiment-Analysis - 基于AraBERT的阿拉伯语情感分析模型实现80%分类准确率
机器学习Github自然语言处理HuggingfaceAraBERT开源项目模型阿拉伯语情感分析情感分析
基于AraBERT预训练模型微调的阿拉伯语情感分析模型,在评估数据集上实现了80.03%的准确率和65.43%的宏F1分数。模型采用Adam优化器和线性学习率调度器,使用16的训练批次大小,经过2轮训练得到。基于Transformers框架开发,专注于阿拉伯语文本的情感分类任务。
Replete-LLM-V2.5-Qwen-7b-GGUF - Qwen-7b模型GGUF量化版本集合 适配多种硬件配置
显存优化机器学习GithubHuggingfaceQwen量化模型开源项目模型GGUF
Replete-LLM-V2.5-Qwen-7b-GGUF是经LLAMA.cpp量化处理的Qwen-7b模型系列,提供24种不同量化版本。从15.24GB的F16到2.78GB的IQ2_M,涵盖多种规格以适应不同硬件。支持CPU和GPU部署,并为ARM架构优化。采用imatrix量化方案,附有详细性能说明,便于选择合适版本。
cards_bottom_left_swin-tiny-patch4-window7-224-finetuned-dough_100_epochs - 基于 Swin Transformer 的图像分类模型实现
机器学习人工智能Github图像分类Huggingface数据训练开源项目模型microsoft/swin-tiny-patch4-window7-224
这是一个基于 Microsoft Swin-Tiny 的图像分类模型。模型经过100轮训练,使用Adam优化器和线性学习率调度,batch size为128,在测试集达到59.47%准确率。该模型结合了Transformer架构与图像处理技术,可用于图像分类任务。模型采用了先进的深度学习技术,通过对大量图像数据的学习,提高了分类的准确性和效率。适用于各种需要自动化图像分类的应用场景。
gemma-2-2b-bnb-4bit - Gemma模型4bit量化实现提速降耗的AI推理优化
UnslothGemmaGithub模型微调模型Llama机器学习开源项目Huggingface
该项目对Gemma-2-2b模型进行4bit量化优化,通过bitsandbytes技术实现高效压缩。在Google Colab环境下可实现2倍以上推理速度提升,同时节省60%以上内存占用。项目提供完整的模型微调支持,可帮助开发者在有限算力条件下高效部署语言模型。
snowflake-arctic-embed-s - 开源语义搜索模型实现文本匹配分类与相似度分析
Huggingface开源项目模型GithubMTEB模型评估机器学习数据集分类任务
snowflake-arctic-embed-s是一个开源语义搜索模型,用于文本匹配、分类和相似度计算。模型通过MTEB基准测试评估,覆盖Amazon评论分类、问答检索和文本聚类等场景。支持多语言处理,适用于搜索引擎、推荐系统和文本分析等应用场景。
MN-12B-Mag-Mell-R1-GGUF - 优化的GGUF量化模型集合,提供多种量化精度选项和详细性能对比
MN-12B-Mag-Mell-R1Github模型压缩机器学习量化HuggingfaceGGUF开源项目模型
MN-12B-Mag-Mell-R1模型的GGUF量化版本包含从Q2到Q8的多种精度选项,文件大小范围在4.9GB至13.1GB之间。Q4_K系列在速度和质量上达到较好平衡,Q8_0版本则提供最高质量表现。项目通过性能对比图表和详细说明,展示了各量化版本的特点及适用场景。
zephyr-7b-sft-full - Mistral-7B衍生的微调语言模型 基于UltraChat数据集
神经网络开源项目深度学习Mistral-7B模型机器学习Github模型微调Huggingface
zephyr-7b-sft-full是基于Mistral-7B-v0.1的微调语言模型,利用HuggingFaceH4/ultrachat_200k数据集训练而成。该项目采用多GPU分布式训练,结合Adam优化器和余弦学习率调度,在评估集上实现0.9353的损失值。模型基于Transformers 4.36.2框架和PyTorch 2.1.2环境开发,旨在提供高效的语言处理功能。
mformer-care - 基于Transformers的多模态深度学习模型
开源项目transformers深度学习模型机器学习Github自然语言处理开源Huggingface
mformer-care是一个基于Hugging Face Transformers库开发的开源项目,采用MIT许可证,支持英语语言处理。该项目利用Transformer架构实现多模态数据的处理与分析。
mdeberta-v3-base-kor-further - 基于韩语数据强化的多语言DeBERTa模型提升NLP任务性能
开源项目模型预训练模型人工智能DeBERTa机器学习Github自然语言处理Huggingface
mDeBERTa-v3-base-kor-further是一个通过40GB韩语数据进行进一步预训练的多语言模型。该模型采用Disentangled Attention和Enhanced Mask Decoder技术,有效学习词位置信息。在NSMC、NER、PAWS等多个韩语自然语言理解任务中,性能优于基准模型。模型包含86M参数,支持多语言处理,为自然语言处理研究和应用提供了强大工具。
Llama-2-13b-hf - Meta开源130亿参数大语言模型 超强功能与安全性并存
开源项目模型Github人工智能机器学习大语言模型自然语言处理Llama 2Huggingface
这是Meta开发的开源预训练语言模型,采用优化的Transformer架构,具有130亿参数。该模型支持4k上下文长度,经2万亿token训练,在多项基准测试中表现优异。模型可用于对话及各类自然语言生成任务,适合商业和研究用途。训练数据来自公开数据集,并通过人类反馈强化学习提升了模型性能和安全性。
nomic-bert-2048 - 预训练BERT模型实现2048序列长度的上下文理解
BERT预训练模型Githubnomic-bert-2048模型自然语言处理机器学习开源项目Huggingface
nomic-bert-2048模型通过Wikipedia和BookCorpus数据集训练,采用改进的位置编码技术,支持2048长度的文本序列处理。在GLUE基准评测中展现出与传统BERT相当的性能,同时具备更强的长文本理解能力。该模型兼容标准BERT分词系统,适用于文本补全和分类等自然语言处理任务。
pixtral-12b - 支持多图片交互分析的开源视觉语言模型
图像识别机器学习GithubHuggingface多模态开源项目transformers模型Pixtral
pixtral-12b基于Transformers框架开发,是一个支持多图片处理的视觉语言模型。该模型可处理图文混合输入,实现图片内容识别、场景描述及图片关系分析。通过简单的API调用,开发者可快速实现多模态对话和图像分析功能。
dunzhang-stella_en_400M_v5 - 基于MTEB的英文语义匹配模型支持分类检索与聚类功能
模型评估机器学习GithubHuggingfacemteb开源项目transformers模型sentence-transformers
Stella_en_400M_v5是一个基于MTEB基准的英文语义匹配模型。在亚马逊商品评论分类任务中准确率达97.19%,同时支持文本分类、语义相似度计算、信息检索和文本聚类等应用场景。该模型在ArguAna检索任务中MAP@10达到56.21%,在ArxivClustering聚类任务中V-measure达到55.15%
bert-base-german-dbmdz-uncased - 支持不区分大小写文本处理的德语BERT预训练模型
BERT德语无大小写区分Github模型自然语言处理机器学习开源项目Huggingface
这是一个专为德语设计的BERT预训练模型,主要特点是支持不区分大小写的文本处理。模型针对德语特点进行了优化,适用于各类德语自然语言处理任务,采用MIT许可证发布。该模型与dbmdz/bert-base-german-uncased模型相同,详细信息可参考其模型卡片。
Phi-3-mini-4k-instruct-gguf - 轻量级通用AI模型支持推理分析与代码生成
机器学习人工智能GithubPhi-3Huggingface模型训练开源项目模型大语言模型
Phi-3-mini-4k-instruct-gguf采用GGUF格式实现的轻量级语言模型,具备3.8B参数规模和4K上下文长度支持。该模型在常识理解、数学计算、代码生成等方面表现突出,适合在计算资源受限环境下运行。模型经过安全性优化,可用于英语场景的商业及研究应用。
llama3-llava-next-8b - 基于Llama 3的开源多模态视觉语言AI模型
机器学习人工智能GithubLLaVAHuggingface深度学习开源项目模型多模态模型
LLaVA-NeXT-8b是基于Meta-Llama-3-8B-Instruct的开源多模态模型,通过558K图文对和超过700K多模态指令数据训练而成。该模型集成视觉理解与文本生成能力,支持图像描述、视觉问答等任务。模型采用高效的分布式训练方法,训练时间约15-20小时。目前仅供学术研究使用,商业应用受限。
相关文章
Ray: 统一框架助力AI和Python应用扩展
3 个月前
SQLFlow: 融合SQL与AI的创新技术
3 个月前
Efficient-AI-Backbones: 华为诺亚方舟实验室开发的高效AI骨干网络
3 个月前
Netron: 强大的神经网络和机器学习模型可视化工具
3 个月前
DVC: 开源数据版本控制系统助力数据科学和机器学习项目
3 个月前
SynapseML:简单而强大的分布式机器学习库
3 个月前
TensorWatch: 微软开源的机器学习调试与可视化工具
3 个月前
AI专家路线图2024:成为人工智能专家的学习指南
3 个月前
Ray :用于扩展 AI 和 Python 应用程序的统一框架
2024年08月03日