#数据集

Infinity-Instruct-3M-0625-Llama3-8B - 开源调优模型,无RLHF实现性能突破
语言模型北京人工智能学会Infinity Instruct无监督学习模型Github开源项目数据集Huggingface
Infinity-Instruct-3M-0625-Llama3-8B是由北京智源研究院推出的开源模型,通过无RLHF调整实现卓越性能。该模型在Infinity-Instruct数据集上微调,有效提升Llama3-8B的算术和编程能力,形成强大的对话功能。在AlpacaEval 2.0和MT-Bench测试中表现出色。此项目仅用于学术研究,商业使用受限,模型输出内容准确性不受保证。
banglat5_nmt_en_bn - BanglaT5英孟双向神经机器翻译模型
文本处理Huggingface开源项目模型Github机器翻译数据集BanglaT5神经网络模型
BanglaT5是一个专注于英语和孟加拉语双向翻译的神经网络模型。通过在BanglaNMT数据集上训练,模型达到25.2 BLEU分数的翻译表现。项目开源了模型代码与文本标准化工具,支持研究人员进行低资源语言的机器翻译研究与应用开发。
opus-mt-da-de - 基于Transformer架构的丹麦语-德语机器翻译模型
Huggingface开源项目模型Github机器翻译语言模型数据集模型评估opus-mt-da-de
opus-mt-da-de是一个开源的丹麦语到德语机器翻译模型,基于Transformer架构设计。该模型使用OPUS数据集训练,经过规范化和SentencePiece预处理。在Tatoeba测试集上,模型取得57.4的BLEU分数和0.740的chr-F分数,显示出良好的翻译效果。模型提供预训练权重下载,并附有测试集翻译结果供评估参考。
magnum-v4-27b-gguf - 改进的文本生成语言模型
Claude 3细致调优HuggingfaceMagnum ChatMLGithub开源项目训练模型数据集
该项目提供了GGUF量化后的语言模型,复现了Claude 3模型的文本生成品质。该模型基于Gemma 27b微调,通过多种对话模板在SillyTavern环境中优化了交互体验。使用8xH100s GPU进行全面微调,使其在创作和信息对话中表现出色。
opus-mt-bg-en - 保加利亚语至英语的开源神经机器翻译模型
BLEU评分机器翻译HuggingfaceGithub开源项目模型模型评估数据集opus-mt-bg-en
opus-mt-bg-en是一个开源的保加利亚语到英语机器翻译模型,采用Transformer架构。该模型在OPUS数据集上训练,使用normalization和SentencePiece进行预处理。在Tatoeba测试集上,模型获得59.4的BLEU分数和0.727的chr-F分数。项目提供预训练权重、测试集翻译结果和评估分数,便于研究人员和开发者使用或进行性能评估。
Mistral-7B-SlimOrca - SlimOrca实现高效性能的Mistral-7B文本生成模型
数据集开源项目GPT-4Github性能评估Huggingface模型Mistral-7B-SlimOrca语言模型
Mistral-7B-SlimOrca是一款基于Mistral-7B模型,并经过SlimOrca数据集微调的神经网络模型。通过仅~50万条GPT-4补全数据,该模型在HuggingFace评估中表现优异,接近Llama2-70b-chat,且大幅减少数据量和计算需求。模型使用OpenChat打包并由Axolotl训练,借助GPT-4对数据集的精确筛选,提供高效文本生成能力,探索未来模型训练的新方法。
snowflake-arctic-embed-m-long - 探索句子相似性与特征提取的新前沿
Huggingface特征提取开源项目模型Githubsentence-transformers数据集句子相似性分类
Snowflake-arctic-m-long模型基于transformers.js框架,提升了句子相似性和特征提取能力。支持的任务包括分类、检索与聚类,尤其在MTEB数据集上的表现优异。在Amazon分类任务中,其准确率超过78%,在ArguAna和CQADupstack检索任务中,检索性能高达50%以上。通过优化多项评测指标,如准确率、F1得分和检索率,这一模型为文本处理与分析提供了坚实的支持。
wd-eva02-large-tagger-v3 - 开源图像标签分类模型 支持评级角色和通用标签
数据集开源项目模型timmGithubHuggingface深度学习模型图像标注ONNX
WD EVA02-Large Tagger v3是一个开源的图像标签分类模型,支持评级、角色和通用标签分类。该模型基于Danbooru数据集训练,涵盖720万张图像。采用JAX-CV和timm库实现,支持ONNX推理,兼容性强。模型在验证集上达到0.4772的F1分数,支持批量推理,并提供了timm、ONNX和JAX等多种接口示例。最新版本更新了训练数据和标签至2024年2月,适用于图像分类、内容审核等多种应用场景,为开发者提供了实用的图像分析工具。
neural-chat-7b-v3-1 - 在英特尔Gaudi2上优化的mistralai 7B语言模型
模型微调Intel Gaudi 2模型Github开源项目数据集大语言模型量化推理Huggingface
neural-chat-7b-v3-1模型经过优化,利用mistralai/Mistral-7B-v0.1基础模型和DPO方法,适用于多种语言任务。结合Open-Orca/SlimOrca数据集,提升了ARC、HellaSwag与TruthfulQA等多项评估指标表现,并支持INT4、BF16等多种推理模式。非常适合高性能语言生成与处理应用,详细信息和使用指导可在GitHub和Hugging Face Leaderboard上查看。
whisper-small-fa - Whisper-small-fa模型在Common Voice数据集上的语音识别性能
训练超参数TransformersHuggingfaceGithub开源项目模型模型评估数据集语音识别
Whisper-small-fa是一个基于openai/whisper-small模型在common_voice_17_0数据集上微调的版本,旨在实现高效的自动语音识别。测试集结果显示,该模型的词错误率(WER)为35.4973,体现了其在语音识别中的良好表现。模型训练中应用了Adam优化器、线性学习率调度器及混合精度技术,从而提高了训练的效率和精确度。
bitnet_b1_58-xl - 概述BitNet b1.58模型的再现性和性能
开源模型训练BitNet评估模型Github开源项目数据集Huggingface
BitNet b1.58模型使用RedPajama数据集进行训练,涵盖100B个令牌,重点研究超参数调节与两阶段学习率及权重衰减的优化。在不同参数下测评PPL和零样本准确率,揭示出因数据处理等随机因素导致的再现性细微差异。模型在Huggingface平台开源,配套评价方法简化效能验证。
Phi-3.1-mini-4k-instruct-GGUF - Phi-3.1-mini-4k-instruct量化技术在文本生成中的应用
Phi-3.1-mini-4k-instructNLP量化模型Github开源项目数据集文件下载Huggingface
该项目通过llama.cpp进行模型量化,提供多种量化文件选项,涵盖从高质量到适合低内存设备的多种场景。项目详细介绍了如何选择量化文件,并提供了在不同硬件环境下的最佳实践,对于有技术需求的用户,项目提供了功能特性对比分析,帮助理解量化与优化策略。
llama-30b-instruct-2048 - 语言处理模型,专为增强文本生成能力设计
伦理考量HuggingfaceGithub高性能开源项目LLaMA模型AI绘图数据集
Llama-30b-instruct-2048模型由Upstage研发,基于LLaMA架构,优化用于生成文本,支持动态扩展处理10k+输入符号。在多项基准数据集上表现出色,并结合DeepSpeed与HuggingFace工具进行微调。使用该模型需获得持有Meta授权表单的许可。
bart-large-xsum - 使用Bart大型模型进行高效文本总结
摘要数据集开源项目模型GithubHuggingface模型微调facebook/bart-large-xsumROUGE指标
本文介绍了facebook/bart-large-xsum模型在文本总结任务中的应用,评估了其在cnn_dailymail、xsum和samsum数据集上的性能。其中,在xsum数据集上表现尤为突出,ROUGE-1评分达到45.4525。此外,还介绍了模型的损失函数优化、生成文本长度及准确性的提升。更多信息及模型变体请参考相关文档。
bert-base-uncased-emotion - BERT模型用于情感分析的优化与应用
PyTorch Lightning数据集Github开源项目bert-base-uncased-emotion情感类别Huggingface情感分析模型
该项目基于bert-base-uncased模型,并使用PyTorch Lightning技术在一个情感数据集上进行了微调,支持文本分类和情感分析。训练参数包括128的序列长度、2e-5的学习率、32的批处理大小和4个训练周期,运行在两块GPU上。尽管模型尚未最优化,但在实际应用中显示出一定效果,达到了0.931的验证精度。更多项目详情可以通过nlp viewer查看。
Gemma-2-9B-It-SPPO-Iter3-GGUF - 探讨Gemma-2-9B模型量化版本的性能与存储选择
数据集量化高性能开源项目模型GithubHuggingfaceGemma-2-9B-It-SPPO-Iter3下载指南
该项目利用llama.cpp进行量化,推出多种Gemma-2-9B-It-SPPO-Iter3模型版本以适应不同的内存及性能需求。用户可按RAM和VRAM状况选择合适的量化格式,如高质量的Q6_K_L或经济型IQ2_M。量化文件大小介于4GB至37GB之间,且可通过Huggingface下载。根据VRAM选择合适模型尺寸,有助于优化运行速度,并提供多样化选项以满足不同性能与存储需求。
DanTagGen-alpha - 高效艺术标签生成工具,支持多种模型格式
数据集开源项目模型架构Github模型Huggingface训练标签生成器DanTagGen
DanTagGen-alpha是一款基于NanoLLaMA架构的艺术标签生成工具,拥有400M参数,支持通过llama.c和llama-cpp-python进行高效推理,并兼容FP16、量化8位和6位模型格式。该项目采用精细数据过滤和6至12亿标记训练策略,支持多种应用场景。开发中的Gradio UI和API为其他开发者提供了丰富的扩展机会。
opus-mt-de-nl - 德语到荷兰语的机器翻译模型
数据集transformer-align翻译开源项目Github模型Huggingfaceopus-mt-de-nl句子片段
使用transformer-align模型,OPUS提供德语到荷兰语的翻译,数据来源为opus,并使用SentencePiece进行预处理。详细信息包括模型权重下载、测试集翻译和评分,在Tatoeba测试集上获得52.8的BLEU分数,显示出良好的翻译性能。
granite-3b-code-instruct-2k - 用于改进代码生成的3B参数AI模型
数据集Github开源项目模型Huggingface模型训练使用案例Granite-3B-Code-Instruct-2K代码生成
IBM Research的Granite-3B-Code-Instruct-2K是一个3B参数的AI模型,专注提升编程指令响应。它从多个许可数据集微调而来,支持多种编程语言。尽管在某些语言上的性能突出,域外使用建议提供示例指导。部署于IBM超算集群确保了高效性。然而,模型须在特定应用上进行安全测试。
granite-3.0-8b-instruct-GGUF - 文本生成模型的量化优化与性能提升
huggingface量化HuggingfaceGithub开源项目模型数据集文本生成granite-3.0
项目通过llama.cpp对granite-3.0-8b-instruct模型进行量化优化,适用于低内存环境的高效运行。根据硬件资源,用户可以从多种量化模型中选择,实现性能与质量的最佳平衡。项目支持代码生成、数学推理和多语言处理等任务,并提升了在IFEval、AGI-Eval等数据集上的表现。提供了从高质量全权重到ARM架构优化模型的多种选择,加速模型推断过程,展示了在文本生成领域的有效实践。
Nous-Hermes-llama-2-7b - 高效精调语言模型Nous-Hermes的特性与使用
数据集Github模型开源项目合成数据Nous-Hermes-Llama2-7bHuggingfaceRedmond AI模板格式
Nous-Hermes-Llama2-7b是由Nous Research精调的语言模型,基于GPT-4合成输出训练,具有处理长响应和减少幻觉的能力。该模型不受OpenAI审查机制影响,具备高精度的任务完成能力。数据集由Teknium及其他合作者提供,包括GPTeacher和CodeAlpaca。训练在高性能DGX机器上进行,确保模型的一致性和先进性,适用于文本生成及复杂指令理解等多种任务。
BERT-Emotions-Classifier - 情感多标签分类的高效工具
BERTHuggingface情感分类Github开源项目模型多标签分类情感分析数据集
BERT-Emotions-Classifier是一个专注于多标签情感分类的BERT模型,基于sem_eval_2018_task_1数据集训练,能够识别愤怒、恐惧、喜悦等多种情感。适用于社交媒体和客户评论中的情感分析以及基于情感的内容推荐。尽管存在情感类别和输入长度的限制,但该模型在情感分析中表现优异,需注意可能的偏差问题。
CLIP-convnext_base_w-laion_aesthetic-s13B-b82K - LAION-5B训练的ConvNeXt-Base CLIP模型
数据集ConvNext开源项目模型Github机器学习HuggingfaceCLIP图像分类
ConvNeXt-Base架构的CLIP模型在LAION-5B子集上完成训练,支持256x256和320x320两种图像分辨率。在ImageNet零样本分类评测中取得70.8%-71.7%的top-1准确率,样本效率超过同规模ViT-B/16模型。该模型主要用于研究领域,可执行零样本图像分类和图文检索等任务。
t5-base-finetuned-common_gen - 利用T5模型提升生成性常识推理能力
数据集自然语言处理开源项目模型GithubHuggingfaceT5常识生成模型微调
T5模型在CommonGen数据集上的微调提升了生成性常识推理,通过整合常识知识生成描述日常场景的连贯句子。CommonGen数据集包含30k概念集和50k句子,来自AMT众包和字幕语料。模型在基准测试中表现优异,ROUGE-2为17.10,ROUGE-L为39.47,展示出T5在概述、问答、文本分类等NLP任务中的有效性。
dolphin-2.1-mistral-7b - 无审查AI助手模型,商用与非商用都可行
a16zHuggingfaceDolphin 2.1开源培训模型Github开源项目数据集
Dolphin-2.1-mistral-7b模型基于mistralAI,采用Apache-2.0许可证,可用于商业及非商业用途。该无审查模型通过数据集过滤去除对齐和偏见,建议在服务化前添加自定义对齐层。数据集包括开源的Dolphin和Airoboros,经过去重和清理提升了质量,模型使用ChatML格式进行提示训练,48小时内完成4个周期训练,提倡负责任使用。
DanTagGen-beta - AI图片标签生成器助力精准艺术创作
深度学习HuggingfaceDanTagGen开源项目模型AI绘图生成模型数据集Github
DanTagGen-beta是一款基于LLaMA架构的AI标签生成器,专为Danbooru风格的AI艺术创作设计。通过5.3M数据集训练,该工具能够根据基础标签智能推荐相关标签,有效提升生成图像的质量和细节。DanTagGen-beta支持多种部署方式,包括llama.cpp和量化模型,为AI艺术创作者提供了高效的标签辅助工具。
OPT-2.7B-Erebus - 专为绘制成人主题的高性能文本生成工具,涵盖多元数据集
AI模型KoboldAI开源项目模型HuggingfaceOPT 2.7B数据集Github成人主题
该高性能文本生成模型旨在生成成人主题内容,结合六个不同的数据源。易于集成至文本生成管道,但内容性质限制其不适合未成年人使用。
CLIP-ViT-B-16-DataComp.XL-s13B-b90K - 多模态模型CLIP ViT-B/16的零样本图像分类解析
训练数据数据集开源项目图像生成模型Huggingface零样本图像分类CLIPGithub
CLIP ViT-B/16模采用DataComp-1B数据集训练,并结合OpenCLIP工具,旨在促进研究者对零样本图像分类的理解。该模型在ImageNet-1k数据集上实现了73.5%的零样本准确率,展示了其在多领域研究中的潜力和挑战。由于数据集仍未完全筛选,建议仅限于学术研究使用。
mistral-7b-instruct-v0.2-bnb-4bit - 使用Unsloth技术优化模型微调,显著提升性能并减少内存占用
Mistral性能优化机器学习HuggingfaceGithub开源项目模型Unsloth数据集
该项目介绍了一种运用Unsloth技术的模型微调方法,使Mistral、Gemma、Llama等模型实现2-5倍的速度提升,并减少70%的内存使用。用户可通过在Google Colab或Kaggle运行免费笔记本,轻松获得经过优化的模型。工具初学者友好,支持多种微调和导出格式,如GGUF、vLLM,及上传至Hugging Face,满足不同用户的需求。
OPT-13B-Erebus - OPT-13B-Erebus模型功能与应用概述
数据集开源项目NSFW偏见Github模型Huggingface成人内容KoboldAIOPT 13B
OPT-13B-Erebus是一个专注于成人主题的文本生成模型,汇集了来自六个来源的数据。该模型提供多样化的生成体验,并警示用户需注意适龄使用。需要注意的是,模型可能存在性别、职业、种族和宗教方面的偏见。
voxlingua107-epaca-tdnn - 全新多语言识别模型,覆盖107种语言,实现精确分类
数据集语言识别Github开源项目SpeechBrainHuggingfaceVoxLingua107模型
该多语言识别模型基于SpeechBrain训练于VoxLingua107数据集,采用ECAPA-TDNN架构,可识别多达107种语言的语音。模型可用于独立的语言识别或作为嵌入特征提取器,助力开发自定义语言识别系统。训练数据源于自动采集的YouTube视频,总计6628小时的语音样本。模型在评测数据集上的误差率为7%,但在处理小众语言及带口音的语音时性能可能受限。
sapbert-from-pubmedbert-squad2 - 针对问答系统的超参数微调提升模型性能
数据集Github开源项目sapbert-from-pubmedbert-squad2训练HuggingfaceQuestion Answering模型
项目在squad_v2数据集上微调了SapBERT-from-PubMedBERT,以提升问答任务性能。采用学习率为2e-05的Adam优化器和线性LR调度器,并通过5个训练周期实现模型收敛,最终验证集损失为1.2582。
bloomz-3b - 项目展现了多语言文本生成和自然语言理解的先进技术
数据集Github开源项目核心技术bloomz-3b1语言生成Huggingface模型评估模型
该项目参与多项自然语言处理任务,如指代消解、自然语言推理、程序合成和句子补全,并显示其在多语言环境中的优秀表现。核心数据集涵盖多种语言,尤其在XWinograd和SuperGLUE等数据集上展现出色准确性。此外,项目支持多种编程语言,提供开发者多样选择。通过任务指标的展示,用户可深入了解其在不同测试中的性能表现,尤其是在复杂的推理和上下文理解任务中的广泛应用前景。
Humanish-LLama3-8B-Instruct-GGUF - 介绍模型的量化技术实现文本生成性能突破
数据集Github开源项目文本生成量化基准测试HuggingfaceHumanish-LLama3-8B-Instruct模型
该项目通过llama.cpp进行量化,优化了模型的嵌入和输出权重,使得文本生成更加高效。模型在多个数据集上表现出色,如IFEval数据集测试中达到严格准确率64.98%。项目提供多种文件格式,支持多样化的计算资源和硬件环境,以满足不同的使用需求,包括低内存和ARM芯片的优化场景。
opus-mt-yo-en - 约鲁巴语和英语之间的开源翻译模型及其评估
翻译开源项目opus-mt-yo-en模型Huggingface预处理数据集Github
该项目介绍了一个将约鲁巴语翻译为英语的开源模型。使用transformer-align架构并进行SentencePiece预处理。模型已在OPUS数据集上训练,并通过BLEU和chr-F评分评估其翻译能力,提供详细的权重下载和实施指南。
ALMA-13B-R - 通过对比优化提升ALMA-13B-R翻译准确性
ALMA-R对比偏好优化模型Github数据集开源项目LoRA微调机器翻译Huggingface
ALMA-13B-R采用对比偏好优化技术在机器翻译方面表现优异。该模型使用三联偏好数据实现微调,能够在特定条件下达到甚至超越GPT-4和WMT冠军的水平。这一优化方法提升了翻译的准确性,适用于多种应用场景,为开发者提供了可靠的翻译支持。