#训练
watermark_detector - 图像水印检测模型,基于Google ViT基础模型
准确率Github开源项目watermark_detector训练Huggingface超参数模型
模型通过微调谷歌的ViT基础模型,用于提高图片水印检测的准确率,在评估集上取得了0.6574的准确度。训练过程中使用了最新的Transformers和Pytorch框架,包含优化参数与学习率调度,提升了训练效率。
dolphin-2.6-mixtral-8x7b - 非DPO调整的高效编程AI
编码开源项目训练模型Huggingface不受限Dolphin数据集Github
该模型擅长编程,经过大量编码数据的训练。2.6版本通过修正训练配置显著提升了质量,并重新引入了基于Samantha的同理心数据,替换了Synthia和Pure-dove数据为Capybara。由于模型未经过审查,并过滤了对齐与偏见,建议在部署服务前加入对齐层。训练采用qLoRA与Axolotl框架,并使用ChatML提示格式。
gpt2_chinese - 使用15G中文语料和31亿tokens完成GPT2训练教程
zero_nlp开源项目中文模型Huggingfacegpt2训练transformersGithub
该项目使用15G中文语料和31亿个tokens,在单张3090显卡上运行60多小时,成功训练出中文版本的GPT2模型。项目提供教程指导如何使用transformers库实现中文文本生成。
tiny_GPT2ForTokenClassification-lora - 使用PEFT框架实现GPT2模型的LoRA微调
机器学习PEFTGithub框架Huggingface开源项目模型训练AI模型
该项目基于PEFT框架,通过LoRA适配器对tiny_GPT2ForTokenClassification模型进行微调,实现低资源消耗的模型定制化训练。项目展示了PEFT框架在轻量级模型调优中的应用方法
gpt2-horoscopes - 基于GPT-2的星座预测,探索五大类星座运势
开源项目星座模型HuggingfaceGPT2训练数据集Github生成
GPT2-Horoscopes项目利用AI技术生成星座运势,通过微调来自Horoscopes.com的数据集实现。用户能够通过HuggingFace的`pipeline` API根据星座类别生成不同的运势。此项目支持五类星座:综合、事业、爱情、健康及生日,数据集源自Kaggle,共包含约12000条运势信息。本工具专注于教育与学习目的,非真实星座预测的替代品。
albert-base-v2-squad2 - ALBERT base v2在SQuAD v2上的性能评估与参数优化
性能Github评估SQuAD开源项目模型Huggingface训练ALBERT base v2
深入分析ALBERT base v2在SQuAD v2数据集上的训练结果,通过优化配置实现与原始研究水平相近的精准度和F1得分,助力提升计算效率。
distilcamembert-base - 精简与高效兼具的法语NLP模型
蒸馏GithubCamemBERT开源项目训练DistilCamemBERTHuggingfaceCosineLoss模型
DistilCamemBERT通过效仿CamemBERT的性能,同时显著降低复杂性。该模型基于DistilBERT的策略,使用DistilLoss、CosineLoss和MLMLoss三个损失函数,优化法语自然语言处理。模型使用OSCAR数据集训练,最大限度降低偏差。在FLUE与wikiner_fr数据集上的优秀表现,使其适用于多种法语文本分析。
small-e-czech-finetuned-ner-wikiann - 捷克语命名实体识别模型精细化
数据集Github开源项目small-e-czech-finetuned-ner-wikiann训练精度Huggingface模型
这是一个基于Seznam/small-e-czech的微调模型,专用于wikiann数据集的捷克语命名实体识别。模型在精度、召回率和F1分数上分别达到0.8713、0.8970和0.8840,总体准确率为0.9557。项目采用Transformer、PyTorch等技术框架,使用线性学习率调度器,经过20个epoch的训练。适合需要捷克语文本命名实体识别的开发者和研究人员使用。
10.5B_v1 - 介绍最前沿的自然语言处理开源项目
开源项目模型Github卡片Huggingface训练评估transformers
本页面介绍了在🤗transformers平台上发布的自然语言处理模型,支持直接与下游应用。页面提供模型使用指导、性能评估、环境影响及技术规格信息,帮助用户合理利用模型的同时意识到潜在的偏见、风险和局限。
Mistral-Small-22B-ArliAI-RPMax-v1.1-GGUF - 高创意RP模型,强调多样性与个性化
训练Github模型量化开源项目Mistral-Small-22B-ArliAI-RPMax-v1.1非重复性Huggingface
Mistral-Small-22B-ArliAI-RPMax-v1.1基于Mistral-Small-Instruct-2409开发,特别强调多样性和独创性。该模型经过精心的数据选择,避免重复,具备良好的创意表达能力。模型在多种量化格式中可用,训练过程注重减少重复情况,仅供个人使用。用户可以通过多种平台获取此模型,并参与社区讨论。
Llama-3-8b-rm-mixture - 基于Llama3-8b的奖励模型训练与优化
OpenRLHFLlama3-8bHuggingface奖励模型Github开源项目训练模型数据集
Llama-3-8b奖励模型利用OpenRLHF进行训练,结合OpenLLMAI的数据集,旨在提高模型性能。该项目基于Llama-3-8b-sft-mixture模型,使用余弦调度器,学习率为9e-6,预热比例0.03,批量大小256,并执行一次学习迭代。目标是通过优化和数据集策略,提升模型的奖励决策能力,为深度学习与AI开发者提供精确的工具。
bart-large-cnn-samsum-ChatGPT_v3 - 通过优化模型训练参数探索自然语言处理性能提升
超参数训练模型Github开源项目bart-large-cnn-samsum-ChatGPT_v3优化器Huggingface
项目展示了如何通过优化训练参数如学习率和批量大小,提升自然语言处理模型的性能。项目使用了BART模型的微调,结合Adam优化器和线性学习率调度,以改善文本摘要效果。整体着重于训练过程中各参数的细致调校,基于Pytorch和Transformers框架深入改进模型表现。
Arabic-Law-Meta-Llama-3.2-3B-GGUF - Arabic-Law-Meta-Llama模型加速训练,增强文本生成能力
HuggingfaceLlamaunsloth训练模型开源项目Github
该项目通过Unsloth工具和Huggingface TRL库,在apache-2.0许可下加速训练Arabic-Law-Meta-Llama模型,实现2倍训练速度提升,旨在增强文本生成的推理能力,适用于多种场景。
magnum-v4-27b-gguf - 改进的文本生成语言模型
Claude 3细致调优HuggingfaceMagnum ChatMLGithub开源项目训练模型数据集
该项目提供了GGUF量化后的语言模型,复现了Claude 3模型的文本生成品质。该模型基于Gemma 27b微调,通过多种对话模板在SillyTavern环境中优化了交互体验。使用8xH100s GPU进行全面微调,使其在创作和信息对话中表现出色。
wd-vit-tagger-v3 - 图像评分与标签处理的高效解决方案
Github开源项目Danbooru训练WD ViT Tagger标签Huggingface模型
WD ViT Tagger v3是一个针对 Danbooru 图像数据集的开源项目,支持图像评分、角色和标签的处理。v2.0版本通过类不平衡损失缩放技术改进了模型精度;v1.1 修订 JAX 模型配置,增加图像尺寸定义;v1.0 增加训练图像和更新标签,兼容 timm 和 ONNX,对批处理大小没有固定要求,并使用 Macro-F1 衡量模型性能。
Llama-2-ko-7b-Chat - Llama-2拓展到韩语文本生成的进展与优化
Github开源项目NLP模型语言模型Huggingface文本生成训练Llama 2
Llama-2-Ko-7b-Chat通过结合Llama-2预训练模型和特定韩语数据集kullm-v2,致力于提升韩语文本生成能力,实现对话支持。Taemin Kim和Juwon Kim基于Naver BoostCamp NLP-08开发并持续更新优化此项目。模型只接受和生成文本,采用先进技术以提高生成质量,为研究新语言处理能力和优化方案的研究者及开发者提供参考。
wd-v1-4-swinv2-tagger-v2 - 带有改进推理和标签分类性能的新特性
ONNXRuntime开源项目模型GithubHuggingface训练WD 1.4 SwinV2 Tagger标签
模型WD 1.4 SwinV2 Tagger V2改进了标签分类功能,使用Danbooru图像集进行训练,V2.1版本增强了ONNXRuntime兼容性,并与timm兼容,支持多批次推理。使用TRC项目提供的TPU部署,提升模型的性能和算法效果。
DanTagGen-alpha - 高效艺术标签生成工具,支持多种模型格式
数据集开源项目模型架构Github模型Huggingface训练标签生成器DanTagGen
DanTagGen-alpha是一款基于NanoLLaMA架构的艺术标签生成工具,拥有400M参数,支持通过llama.c和llama-cpp-python进行高效推理,并兼容FP16、量化8位和6位模型格式。该项目采用精细数据过滤和6至12亿标记训练策略,支持多种应用场景。开发中的Gradio UI和API为其他开发者提供了丰富的扩展机会。
sapbert-from-pubmedbert-squad2 - 针对问答系统的超参数微调提升模型性能
数据集Github开源项目sapbert-from-pubmedbert-squad2训练HuggingfaceQuestion Answering模型
项目在squad_v2数据集上微调了SapBERT-from-PubMedBERT,以提升问答任务性能。采用学习率为2e-05的Adam优化器和线性LR调度器,并通过5个训练周期实现模型收敛,最终验证集损失为1.2582。
suzume-llama-3-8B-multilingual-orpo-borda-top75 - 多语言模型的ORPO方法微调及性能评估
Suzume ORPO数据集开源项目模型GithubHuggingface训练评估
该项目采用ORPO方法对多语言模型进行微调,使用lightblue/mitsu数据集进行训练,取得了显著的性能提升。推荐的最佳模型版本在多种语言的评测得分均超过基础模型和其他对比模型。研究团队正在开发新的商用版本,旨在未来为商业应用提供支持。
相关文章