#模型训练
bert-toxic-comment-classification - BERT模型在毒性评论分类中的应用与实现
文本分类机器学习GithubBERT毒性评论分类Huggingface模型训练开源项目模型
该项目基于BERT模型,通过fine-tuning实现毒性评论的智能分类。模型在1500行测试数据上达到0.95 AUC,采用Kaggle竞赛数据集训练。项目提供简洁的Python接口,便于开发者快速集成文本毒性检测功能。适用于构建在线社区、内容平台的评论审核系统。
hebert-finetuned-hebrew-metaphor - heBERT微调模型实现希伯来语隐喻检测 准确率达95.10%
heBERT开源项目希伯来语模型Github自然语言处理Huggingface模型训练隐喻识别
该项目为基于avichr/heBERT的希伯来语隐喻检测微调模型。模型在HebrewMetaphors数据集上训练,可识别20个希伯来语动词的隐喻用法。经过Adam优化器和线性学习率调度器的训练,模型在验证集上达到95.10%的准确率。这是以色列理工学院电气工程与计算机科学学院研究团队的成果。
TinyStories-1M - 基于百万量级数据训练的儿童故事生成语言模型
Github人工智能自然语言处理Huggingface模型训练TinyStories开源项目模型文本生成
TinyStories-1M是基于Transformers架构开发的儿童故事生成模型,搭载GPT-Neo-125M分词器,通过百万级简单故事数据集训练而成。模型能够根据输入提示自动生成结构完整、内容连贯的儿童故事,支持开发者自定义生成参数,主要应用于儿童教育和阅读领域的智能内容创作。
sakuramoon-v10-sdxl - 融合动漫与小马风格的SDXL生成模型
AI绘画动漫图像生成Stable Diffusion模型Github模型训练开源项目Huggingface
Sakuramoon-v10-sdxl是一个基于Stable Diffusion XL的图像生成模型,专门用于生成动漫和小马风格的图像。模型由Random992开发,采用FAIPL-1.0-SD许可证发布。该模型集成于Diffusers库,通过英文文本提示实现图像生成。
bert-xsmall-dummy - 轻量级BERT模型构建与部署方法
BERT代码开发人工智能模型深度学习Github模型训练开源项目Huggingface
bert-xsmall-dummy项目展示了轻量级BERT模型的创建方法,通过BertConfig进行参数配置,实现基础BERT模型构建及PyTorch到TensorFlow的转换功能。该项目适用于模型原型设计和测试场景。
SmolLM-360M-Instruct - 轻量级指令对话模型实现快速本地部署
语言模型人工智能Github模型SmolLM自然语言处理模型训练开源项目Huggingface
SmolLM-360M-Instruct采用360M参数构建,通过日常对话、编程指令等数据集完成微调。模型支持MLC、GGUF等多种本地部署方案,在AlpacaEval测评中相比前代提升至63.3%的胜率。目前可应用于知识问答、创意写作和基础Python编程等场景。
roberta-base-zeroshot-v2.0-c - 商用优化的零样本文本分类工具
Huggingface商业友好数据开源项目模型zeroshot分类Hugging FaceGithub自然语言推理模型训练
该系列模型专为Hugging Face平台优化,支持在GPU和CPU上进行零样本分类,无需预先训练数据。最近的改进包括基于商业友好的数据集训练,能满足严苛的许可条件。roberta和deberta系列以合理的准确性和速度满足不同需求,可用于多种语言和大范围文本输入,非常适合全球多样化的应用场景。最新的模型更新可在Zeroshot Classifier Collection中查阅,确保多种使用环境下的合规性。
FsfairX-LLaMA3-RM-v0.1 - 基于LLaMA-3的开源奖励函数,支持多种RLHF方案的高性能实现
奖励建模LLaMA3RLHF人工智能模型Github模型训练开源项目Huggingface
FsfairX-LLaMA3-RM-v0.1是一个基于LLaMA-3开发的强化学习奖励模型。该模型在Reward-Bench测试中取得了Chat 99.44分、Safety 88.76分等优秀成绩,支持PPO等多种人类反馈学习方法。项目提供完整的训练代码和使用示例,有助于开发更安全的AI应用。
URM-LLaMa-3.1-8B - 基于LLaMa的不确定性奖励模型提升AI对未知问题的判断能力
URM-LLaMa奖励模型模型Github不确定性识别机器学习开源项目Huggingface模型训练
URM-LLaMa-3.1-8B是一款开源的不确定性感知奖励模型,通过属性回归和门控层学习两阶段训练,实现对AI回答的多维度质量评估。模型集成了不确定性感知价值头设计,可从有用性、正确性、连贯性等维度评估输出质量,特别适合处理具有不确定性的问题场景。项目提供完整代码实现,支持LLM响应质量研究。
mask2former-swin-small-coco-instance - 基于Transformer架构的统一图像分割框架
Huggingface语义识别图像分割Mask2Former模型Github模型训练开源项目机器视觉
Mask2Former是一个基于COCO数据集的图像分割模型,采用Swin-Small作为基础架构。通过统一的掩码预测方法实现实例、语义和全景分割功能。该模型创新性地结合多尺度可变形注意力机制和掩码注意力技术,优化了计算效率。采用子采样点损失计算策略,使训练过程更加高效。
MedNER-CR-JA - 日语医疗文档命名实体识别模型
Huggingface开源项目模型MedTxt-CR-JA模型训练日语Github医疗文档命名实体识别
MedNER-CR-JA是一个面向日语医疗文档的命名实体识别模型,基于NTCIR-16 Real-MedNLP标准开发。模型可识别医疗文本中的疾病诊断、用药信息及时序表达,输出XML格式的标准化标注结果。通过Python实现,支持批量处理医疗文档,适用于医疗信息提取和文本分析等应用场景。
tiny-bert-sst2-distilled - 轻量级BERT文本情感分类模型
BERT开源项目模型文本分类模型训练机器学习Github数据集微调Huggingface
tiny-bert-sst2-distilled模型通过对BERT基础版本进行蒸馏优化,专注于文本情感分类任务。该模型在SST-2评估集上达到83.26%的准确率,保持了不错的性能表现。模型架构采用2层transformer结构,隐藏层维度为128,具有轻量化特点,适合在计算资源有限的环境中部署使用。
Gender-Classification - DistilBERT微调模型实现高精度性别分类
数据分类模型训练开源项目模型性别识别Huggingface深度学习GithubDistilBERT
Gender-Classification是一个基于distilbert-base-uncased模型微调的性别分类项目。模型经过5轮训练,在验证集上达到了接近100%的分类准确率。项目采用Adam优化器和线性学习率调度器,学习率为2e-05。模型基于Transformers 4.25.1和PyTorch 1.13.0框架开发,为性别识别任务提供了一个参考实现。
I-live-well-foodai - 视觉transformer食品图像智能分类系统
Github模型训练开源项目vit-base-patch16-224图像分类视觉模型Huggingface机器学习模型
这是一个采用Google视觉transformer技术开发的食品图像分类系统,通过对大量食品图片数据的深度学习,模型识别准确率达到72.33%。该系统可以精准识别各类食品图像,在智能餐饮分析、营养管理等领域具有实际应用价值。
gpt2 - HPU处理器上运行GPT2的Gaudi配置方案
Optimum HabanaGithub模型训练开源项目硬件加速模型Huggingface机器学习人工智能
GPT2模型在Habana Gaudi处理器(HPU)上的优化配置方案,通过GaudiConfig文件实现Fused Adam优化、梯度裁剪和混合精度训练。基于Optimum Habana接口,支持单/多HPU环境下的模型加载、训练和推理,可用于各类下游任务。配置方案与Transformers库完全兼容,并提供HPU专属训练参数。
LiteLlama-460M-1T - 轻量级高性能语言模型精简参数实现大模型能力
数据集机器学习大语言模型Github开源项目LiteLlamaHuggingface模型训练模型
LiteLlama是基于LLaMA 2的开源复现项目,将模型参数优化至460M,并使用1T规模tokens训练。采用RedPajama数据集和GPT2分词器,在MMLU等基准测试中表现良好。支持HuggingFace Transformers加载,是一款轻量级但性能优异的语言模型。该项目遵循MIT许可证开源。
Llama-3.2-3B-Instruct-uncensored-LoRA_final-Q4_K_M-GGUF - 高效微调的3B参数英文指令型大语言模型
深度学习Github开源项目HuggingfaceUnsloth模型训练AI开发Llama模型
Llama-3.2-3B-Instruct-uncensored-LoRA_final-Q4_K_M-GGUF是基于Llama-3.2-3B-Instruct-uncensored模型微调的开源大语言模型。该模型使用Unsloth和Huggingface的TRL库训练,提高了2倍的训练速度。由PurpleAILAB开发,采用Apache 2.0许可证,主要用于英语文本生成任务。这是一个参数量为3B的指令型模型,适合需要快速部署的应用场景。
stsb-bert-tiny-onnx - 基于BERT的轻量级文本向量化模型
语义相似度文本嵌入Githubsentence-transformers开源项目自然语言处理Huggingface模型训练模型
这是一个轻量级的文本向量化模型,基于sentence-transformers框架开发。模型可将文本转换为128维向量表示,主要应用于文本聚类和语义搜索。支持通过sentence-transformers和HuggingFace两种方式调用,提供完整的模型评估数据。
transliterate - 高精度自然语言音译转换模型达99.12%准确率
模型训练Githubtransliterate开源项目模型性能评估HuggingfaceAdam机器学习
基于深度学习架构的音译模型,通过优化训练实现99.12%的高准确率。模型能够稳定完成文本音译转换任务,在多项评估指标上均表现出色,为文本音译应用提供可靠支持。
bert_uncased_L-2_H-512_A-8 - 小型BERT模型在资源受限环境中的表现及应用策略
计算资源模型训练知识蒸馏开源项目BERTGLUE模型HuggingfaceGithub
24款小型BERT模型在低计算资源环境中通过知识蒸馏实现有效性能,支持与BERT-Base和BERT-Large相同的微调模式。这些模型为中小型机构的研究提供了创新支持,尤其是在GLUE测试中通过优化批大小和学习率等微调参数。这些模型为探索非传统扩容的创新应用提供了可能性。
japanese-roberta-base - 日语RoBERTa模型适用于掩码语言建模
Github开源项目日语NLPjapanese-roberta-base模型transformersHuggingface模型训练迁移学习
此项目展示了一个经过日本CC-100和维基百科数据集训练的日语RoBERTa模型,专注于掩码语言建模。该模型在12层768隐藏单元的架构中实现了良好的语义预测能力,适合自然语言处理应用,且支持自定义位置编码。
SmolLM-135M-Instruct - 轻量级指令语言模型的高效实现
机器学习语言模型Github开源项目SmolLM模型Huggingface模型训练人工智能
SmolLM-135M-Instruct是一个1.35亿参数的轻量级指令语言模型。经过高质量教育数据训练和公开数据集微调后,模型具备基础知识问答、创意写作和Python编程能力。支持MLC、GGUF等多种本地部署方案,可通过Transformers框架调用。v0.2版本进一步优化了对话质量和任务完成能力。
gliner_large-v1 - 资源友好的多实体识别模型,为多种应用场合提供灵活解决方案
GLiNER双向变压器编码器模型训练开源项目命名实体识别模型HuggingfacePile-NER数据集Github
GLiNER是通过双向转换器编码器实现的命名实体识别模型,可识别多种实体类型。它是传统NER模型和大型语言模型这两者的高效替代,特别适合资源有限的场合。GLiNER在Pile-NER数据集上经过训练,具备灵活性且不受实体类型限制。用户可通过安装并导入GLiNER库轻松进行实体识别。
DiVA-llama-3-v0-8b - 基于Llama的端到端双模态语音助手系统
语音识别Github开源项目语音助手模型人工智能模型Huggingface模型训练DiVA Llama 3
DiVA-llama-3-v0-8b是一个基于Llama-3.1-8B-Instruct的端到端语音助手系统,集成了语音和文本双模态输入功能。模型通过蒸馏损失训练方法开发,使用CommonVoice语料库训练,无需额外指令训练数据。该项目提供在线演示界面,并在Weights&Biases平台公开了完整训练日志。
bert-base-turkish-sentiment-cased - 高精度的土耳其语言情感分析BERT模型
数据集Github开源项目土耳其语BERTurkHuggingface模型训练情感分析模型
该模型基于BERTurk,专为土耳其语言的情感分析设计,结合了电影评论、产品评论和推特数据集,实现了95.4%的准确度。适用于多种土耳其语文本情感分析场景,项目由Savas Yildirim发布于Hugging Face平台,并采用了先进的特征表示与融合技术。使用者需遵循引用要求以符合合规标准。
blip2-itm-vit-g - 基于Transformers的图像文本匹配模型
模型训练环境影响Github开源项目模型卡片模型Huggingfacetransformers机器学习
BLIP2-ITM-ViT-G是一个基于Transformers架构的多模态模型,专门用于图像-文本匹配任务。该模型使用ViT-G作为视觉编码器,通过预训练实现图像与文本之间的语义关系理解和匹配。它可直接应用于图文相关性判断,也可作为下游任务的基础模型进行微调,适用于图像检索、跨模态搜索等应用场景。
tiny-random-OPTForCausalLM-extended-vocab - 轻量级OPT因果语言模型测试框架
模型训练Github开源项目技术规格模型HuggingfacePEFT环境影响评估机器学习
tiny-random-OPTForCausalLM是一个基于PEFT库开发的轻量级测试框架,通过缩减OPT模型规模实现快速测试和原型验证。此框架适用于文本生成、语言理解等自然语言处理任务的实验环境,特别适合在计算资源有限的场景下使用。
deepseek-moe-16b-base - 采用稀疏混合专家架构的开源大语言模型
代码生成模型训练Github开源项目DeepSeek MoE模型人工智能Huggingface机器学习
DeepSeek MoE 16B Base是一个基于稀疏混合专家(MoE)架构的开源大语言模型,支持商业应用。模型使用bfloat16格式,可通过Transformers库调用,擅长文本生成和补全。它采用查询-键值对映射的注意力机制,高效处理自然语言处理任务。该项目遵循MIT许可,提供详细文档和示例代码,便于开发者集成使用。
sentence-bert-base-italian-xxl-uncased - 提升语义分析与聚类效果的意大利语句子相似度模型
句子嵌入模型训练开源项目自然语言处理句子相似性模型Huggingfacesentence-transformersGithub
这个意大利语句子相似度模型能将文本映射到768维度的密集向量空间,适用于语义搜索和语句聚类。其基于dbmdz/bert-base-italian-xxl-uncased构建,为文本理解与分析提供支持。在sentence-transformers库的支持下,模型的安装与使用变得极为简便,即使不使用该库,也可通过HuggingFace Transformers实现。其性能在Sentence Embeddings Benchmark中经过自动化评估,可供参考。
git-large-coco - 高级视觉与语言转换:大规模图像到文本模型
模型训练视觉问答开源项目图像标注GIT模型Huggingface视觉Github
GIT大型模型通过在COCO数据集上微调,实现图像到文本的转换,支持图像和视频字幕生成、视觉问答和图像分类等功能。该模型利用图像和文本令牌的结合,预测下一个文本令牌,并在多种视觉与语言应用场景中表现出色。
roberta-large - 基于HPU的深度学习模型优化配置和训练方案
模型训练开源项目RoBERTaOptimum Habana模型硬件加速Huggingface深度学习Github
这是一个专门为roberta-large模型开发的HPU优化配置方案。项目基于Optimum Habana框架,集成了Hugging Face生态系统,提供GaudiConfig配置文件实现混合精度训练、AdamW优化和梯度裁剪等核心功能。支持单机及多机HPU环境下的模型训练和部署,可用于问答等自然语言处理任务。
X-ALMA-13B-Pretrain - 支持50种语言的模块化翻译架构
机器翻译模块化Github开源项目多语言X-ALMAHuggingface模型训练模型
X-ALMA扩展支持50种语言,采用模块化架构进行多语言翻译,并通过合并模型、基础模型与语言特定模块或全语言模块的加载方式,应对不同应用场景。其增强的语言适应性在多语言问答中表现出色。
TinyStories-33M - 基于GPT-Neo架构的开源文本生成模型
模型训练开源项目GPT-NeoTinyStories模型Huggingface文本生成数据集Github
该模型以TinyStories数据集为基础,采用GPT-Neo架构进行训练,可通过API简便生成文本,广泛应用于自然语言处理任务。
openchat-3.5-0106-gemma - OpenChat 3.5基于Gemma的强大语言模型新基准
模型训练开源项目Gemma模型模型AI安全Huggingface性能比较GithubOpenChat
OpenChat 3.5模型凭借C-RLFT技术在开源社区展示优异性能,其表现胜过Mistral版本以及Gemma-7b和Gemma-7b-it。多项测试如AGIEval和HumanEval验证了其卓越性能。建议使用OpenChat API服务器部署,需配置24GB内存GPU。需注意模型可能产生的信息幻觉和安全风险,适用于需安全响应的场景。更多信息可查看安装指南和使用案例。
greek-text-summarization - 基于mT5的希腊语文本自动摘要模型助力高效内容处理
Github模型模型训练开源项目希腊语Hugging FacemT5-smallHuggingface摘要生成
该项目基于mT5-small模型开发的希腊语文本摘要系统,能够自动生成准确的文章摘要。项目已部署于Hugging Face Spaces平台,支持transformers库快速调用,为希腊语内容处理、新闻总结和文档分析等场景提供了专业的自然语言处理解决方案。
tiny-random-idefics2 - 面向测试开发的轻量级Idefics2多模态交互模型
神经网络Huggingface机器学习人工智能开源项目模型transformersGithub模型训练
tiny-random-idefics2是一个基于Idefics2架构构建的轻量级模型,集成Mistral文本处理和Idefics2视觉处理功能。通过简化的网络结构设计,包括最小化隐藏层和注意力层,实现了高效的多模态交互能力。该项目基于Transformers框架开发,已开源部署于Hugging Face平台,主要服务于原型验证和功能测试场景。
相关文章
EasyPhoto: 您的智能AI肖像生成器
2024年08月30日
Superduper: 将AI引入您的数据库的革命性框架
2024年08月30日
零到NLP:开箱即用的中文NLP训练框架
2024年08月30日
ONNX Runtime: 跨平台高性能机器学习加速器
2024年08月30日
PyTorch Metric Learning:深度度量学习的强大工具
2024年08月30日
GPT-Neo:开源大规模语言模型的突破性进展
2024年08月30日
Tensor2Tensor: 加速深度学习研究的强大工具库
2024年08月30日
Weights & Biases:AI开发者的得力助手
2024年08月30日
GPT-SoVITS: 革命性的少样本语音克隆与文本转语音技术
2024年08月29日