#训练数据

datablations - 对在数据限制下扩展语言模型的方法的研究
language models训练数据数据重复数据稀缺C4Github开源项目
本项目研究在数据受限情况下扩展语言模型的方法。通过对9000亿训练令牌和90亿参数模型进行实验,提出并验证了重复令牌和多余参数的计算优化法则。实验涵盖数据增强、困惑度过滤及去重处理。相关模型和数据集公开在仓库,有助于在资源有限情况下高效训练和优化语言模型。
Linly - 中文LLaMA和Falcon模型:优化的中文预训练和对话能力
LLaMAFalconLinly-OpenLLaMA中文对话模型训练数据Github开源项目
该项目提供中文对话和基础模型,包括Linly-ChatFlow、Chinese-LLaMA和Chinese-Falcon模型及其训练数据。通过扩充LLaMA和Falcon的中文词表,使用中英文语料进行预训练,提升了模型在中文语境中的表现。项目还包括Linly-OpenLLaMA模型,支持量化和边缘设备推理。最新的Linly-Chinese-LLaMA-2模型通过混合语料预训练并定期更新,用户可以在线体验和在本地环境中进行训练和评估。
ChatGPT-RetrievalQA - 使用ChatGPT和人类响应数据训练和评估问答检索模型
ChatGPT信息检索训练数据数据集答案排序Github开源项目
提供ChatGPT与人类响应的数据集,以训练和评估问答检索模型。数据集基于HC3公开数据,分析ChatGPT和传统检索模型在回答真实性和可靠性上的差异。项目由阿姆斯特丹大学支持,数据格式兼容MSMarco,便于研究人员使用现有脚本。
augraphy - 基于Python的文档图像增强工具,模拟真实办公环境
AugraphyPython库增强管道现实文档训练数据Github开源项目
Augraphy是一个Python库,能够通过增强管道将文档从干净版本转换为模拟打印、传真、扫描等效果的脏旧副本,为AI/ML提供大量高质量的训练数据。
HumanVid - 创新的相机控制人物图像动画技术
HumanVid人像动画相机控制图像生成训练数据Github开源项目
HumanVid是一项致力于相机可控人物图像动画的研究项目。该项目通过优化训练数据利用,旨在实现对人物图像的精确控制和自然动画效果。HumanVid简化了图像处理流程,为研究者和开发者提供了新的工具。项目团队计划在近期发布相关数据,并将于2024年9月底开源训练和推理代码以及模型检查点,有望为计算机视觉和图形学领域带来新的研究方向。HumanVid项目致力于探索如何通过优化训练数据来实现相机可控的人物图像动画,为该领域的进步贡献力量。
tessdata - Tesseract.js OCR语言数据集综合指南
Tesseract.js训练数据OCR语言模型NPM包Github开源项目
tessdata项目是Tesseract.js的多语言OCR数据集仓库。它提供了LSTM和传统OCR引擎的训练文件,包括默认和替代版本。项目详细说明了各数据集特点、NPM包发布状态,并介绍了通过CDN或本地方式集成到Tesseract.js的方法。这一资源为开发者提供了全面的OCR语言数据集使用指南。
MAP-NEO - 开源大语言模型 性能卓越且训练过程透明
MAP-NEO大型语言模型开源训练数据性能评估Github开源项目
MAP-NEO是一个完全开源的大语言模型,其预训练数据、处理流程、脚本和代码均可获取。该模型在4.5T英中文数据上训练,性能与LLaMA2 7B相当。在推理、数学和编码等任务中,MAP-NEO表现优异。项目公开了训练全过程,包括检查点、分词器、语料库和优化代码,为大语言模型研究提供了宝贵资源。
electra-base-italian-xxl-cased-discriminator - 意大利ELECTRA模型提升语言理解性能的理想工具
意大利HuggingfaceBavarian State Library开源项目ELECTRA模型Github训练数据BERT
意大利ELECTRA模型基于丰富的意大利语料库,旨在增强语言理解。该模型由拜仁州立图书馆的MDZ Digital Library团队开放,通过PyTorch-Transformers的兼容权重进行支持。使用81GB的数据进行训练,达到百余万步,使其在命名实体识别和词性标注等任务上表现优异。所有资源均可在Huggingface模型中心获取,便于快速集成到各类自然语言处理应用中。
sn9_vx - 了解sn9_vx模型的特性与应用场景
评估指标transformers训练数据环境影响模型Github开源项目模型卡Huggingface
此页面介绍了sn9_vx模型的相关信息,包括其开发背景、应用场景和潜在用户,以及模型的主要用途和风险。还涵盖了训练数据、评估方法和环境影响,帮助用户全面了解模型,并提醒用户注意模型可能的偏见和限制。
Llama-2-7B-CAT - 改进大型语言模型的性能与应用策略
Huggingface模型开源项目meta-llama环境影响技术规格Github训练数据
此项目专注于提升大型语言模型的性能,研究如何通过有效的训练方法进行改进。用户可以通过示例代码快速了解使用方法及模型的应用场景与局限性。
MultiLBinSClass_Property_Plant_and_Equipment_17june_student_XLMR - 深入解析模型的应用与限制
Huggingface评估开源项目模型transformers环境影响Github模型卡训练数据
本文提供了有关🤗 transformers模型的详细信息,包括其使用范围、局限性及相关建议。重点分析模型在不同情境下的应用和限制,特别关注其潜在偏见与风险。内容简洁,旨在帮助用户轻松理解模型特点及其实际应用。
dac_16khz - 描述开源模型的功能与可能应用
环境影响Github开源项目transformers偏见Huggingface训练数据模型卡模型
本文提供有关此开源模型的详细信息,涵盖应用场景、技术规格以及偏见和风险评估。页面尚在完善,初步介绍模型说明、训练详情及环境影响。评估和结果部分指引用户查阅更多资源。
Qwen-7B-Chat-Int4 - 大规模语言模型的高效应用
Github中文评测开源项目通义千问Huggingface训练数据Qwen-7B-Chat模型量化模型
Qwen-7B-Chat-Int4由阿里云基于Transformer架构开发,利用对齐机制和广泛的数据集进行训练,更新版在语言理解及数学和代码任务中表现出色。模型在多个任务中展现出较高的推理速度和低显存占用得益于其广泛预训练数据和先进的量化技术。优化后的分词器及加速方案便于多语言应用。更多信息请参见官方GitHub库。
suzume-llama-3-8B-multilingual-orpo-borda-top25 - 提升多语言模型性能的ORPO微调方法
Huggingface商业用途模型性能训练数据模型Github开源项目Suzume ORPO多语言
Suzume ORPO使用ORPO技术优化模型性能,特别加强了多种语言的处理能力,是语言模型研究的前沿选择。非商业许可适合学术研究,商业应用版本正在开发中。
deberta-v3-base-zeroshot-v2.0 - DeBERTa V3零样本分类模型,适用于多场景
Huggingfacezero-shot-classificationGithub文本分类训练数据自然语言推理开源项目模型模型评估
DeBERTa V3模型在Hugging Face管道中实现零样本分类,满足商业环境的许可证要求。无需训练数据即可高效分类,支持GPU和CPU应用,适用于多个领域。通过合成及商用友好的数据进行训练,模型在多文本分类任务中表现优异。
chatbot - 游戏角色对话AI带来个性化聊天体验
游戏角色GithubDialoGPT开源项目Huggingface对话生成训练数据对话模型模型
该项目基于DialoGPT中等模型,通过对《美妙世界》游戏角色Joshua的特训,提供个性化的对话体验。模型数据来源于Kaggle的游戏脚本数据集,便于在Hugging Face平台运行。用户可通过Python代码与AI互动,体验独特的角色语言风格。项目遵循MIT许可证,免费开放使用。
granite-3.0-2b-instruct - 提供多语言支持的文本生成模型,适用于构建智能助手
Huggingface文本生成模型架构Granite-3.0-2B-Instruct开源项目模型多语言支持Github训练数据
Granite-3.0-2B-Instruct是由IBM开发的文本生成模型,支持十二种语言,包括中文。模型在基础模型Granite-3.0-2B-Base的基础上经过细调优化,结合开放源码和内部合成数据集。它能够执行文本分类、提取、问答及代码相关任务,采用decoder-only架构。适用于多领域的人工智能助手构建,但在非英语任务的性能可能不如英语任务。
codegen-350M-multi - 支持多种编程语言的程序合成模型
训练数据行业应用CodeGen开源项目模型Huggingface多语言模型Github程序合成
CodeGen-Multi 350M是一种程序合成模型,旨在生成可执行代码。其预训练数据来自GitHub的多语言代码库,包括C、C++、Go、Java、JavaScript和Python等。模型具备350M个参数,可以高效生成和补全代码。适用于HumanEval和MTPB等基准测试,为程序合成任务提供了良好的支持。
snowflake-arctic-instruct - 探索混合变换架构在企业AI中的高效应用
Github开源项目推理示例Arctic模型架构量化配置Huggingface训练数据模型
Snowflake Arctic由AI研究团队开发,是一种将稠密变换器与稀疏门控混合架构结合的模型,提供开源的LLM解决方案。Arctic的模型汇集合计480亿参数,支持Arctic-Base和Arctic-Instruct版本,适用于研究和产品开发。通过DeepSpeed和transformers库的配合,支持自定义代码,实现文本和代码生成。Arctic的教程和cookbook帮助用户定制混合架构模型并优化训练数据质量。
OLMo-1B-0724-hf - Dolma数据集驱动的英语语言模型在性能上的进步
机器学习Github模型开源项目语言模型OLMoHuggingface训练数据Dolma
OLMo 1B July 2024版本采用Dolma数据集,显著提高了HellaSwag等任务的评估表现。兼容HuggingFace Transformers v4.40及以上版本,由Allen Institute for AI开发,提供完整的代码、检查点及训练日志,支持实现文本生成与模型微调。在ARC挑战、BoolQ和HellaSwag等自然语言处理任务中表现出色,适用于研究人员和开发者在语言模型科学领域的进一步探索。
pythia-2.8b-deduped - 提升语言模型的解释力与科学研究
Pythia训练数据开源项目Apache许可证EleutherAI模型语言模型HuggingfaceGithub
Pythia Scaling Suite促进语言模型的解释性研究,其模型通过在去重后的The Pile数据集上的统一流程训练,涵盖从70M到12B多种规模。提供丰富的训练与评估细节,对比显示同类模型的优劣。适合于学术探索,但不应用于实际环境。
colpali-v12-random-testing - 开源AI模型卡全貌与操作指南
GithubNLP开源项目transformersHuggingface训练数据模型卡评估模型
本页面介绍了transformers库中的自动生成的模型卡,概述模型开发、应用场景、偏见与风险等。指南帮助理解如何开始使用和强调应用中的注意事项,即便细节信息缺失,链接资源与建议仍有助于有效利用。
roberta-base_topic_classification_nyt_news - 基于roberta-base的高性能新闻主题分类模型
roberta-base开源项目模型性能文本分类GithubHuggingface模型新闻训练数据
该文本分类模型基于roberta-base,并针对New York Times新闻数据集进行了微调。模型在测试集上的分类准确率为0.91,可准确识别体育、艺术文化、商业和健康等多个新闻主题。通过结合关键超参数和Adam优化器,模型在精确性和召回率上表现优异。用户可以在Hugging Face平台轻松应用此模型,用于高效的新闻语义分析。
whisper-hindi-medium - 客户端优化印地语ASR模型
语料库whisper-finetuneHuggingfaceGithub开源项目训练数据Whisper Hindi Medium模型自动语音识别
该项目优化了Whisper模型,以提高印地语的语音识别准确性。经过多种公开ASR数据集的训练与评估,实现了最低WER为6.82的性能优化。相关代码库在GitHub上提供,支持模型重用和快速推理。
sarashina2-7b - 该语言模型支持多语言文本生成,涵盖日语与英语
Sarashina2-7B语言模型句子分割器训练数据模型Github开源项目文本生成Huggingface
该项目的语言模型由SB Intuitions开发,支持日语和英语文本生成。训练数据来自清理后的Common Crawl和SlimPajama语料库,结合了Llama2架构和RoPE位置编码。尽管模型尚未经过指令微调,存在生成不准确或有偏见内容的可能性,但模型的基础能力为开发者提供了进一步优化和安全改进的空间。
mHuBERT-147 - 支持147种语言的紧凑型多语言HuBERT模型
数据集开源项目模型GithubHuggingface声学模型mHuBERT-147多语言训练数据
mHuBERT-147是一个支持147种语言的多语言HuBERT模型,使用95M参数的基础架构,并通过faiss IVF离散语音单元训练。该模型在多项测试中表现优异,特别是在语种识别任务中取得最新的领先成绩,具备良好的应用前景。
OLMo-7B-0724-Instruct-hf - 改进自然语言处理任务的问答精度与模型性能
语言模型Github开源项目OLMo自然语言处理Huggingface训练数据模型评估模型
OLMo 7B Instruct是由Allen Institute for AI与多家机构于2024年7月发布的更新版语言模型。此版本通过微调技术优化基础模型的问答能力,基于Dolma和Tulu 2 SFT混合数据集进行训练,提高了绩效和安全性。其自回归Transformer结构适用于精确的英文自然语言处理任务。
mpt-1b-redpajama-200b - 适应性强的1.3B参数解码器模型
Github模型模型架构开源项目RedPajamaHuggingface训练数据变压器MPT-1b-RedPajama-200b
MPT-1b-RedPajama-200b是一个1.3B参数的解码器模型,由MosaicML在2023年4月使用RedPajama数据集训练。该模型采用改良的解码器架构,使用ALiBi和QK LayerNorm提升训练效率,不依赖位置嵌入。训练中使用了67% Common Crawl和15% C4数据,目标是复刻Llama系列的训练集。部署模型时需要启用信任远程代码,并支持优化的FlashAttention实现,助力自然语言处理研究的发展。
falcon-7b-instruct-sharded - Falcon-7B-Instruct用于低内存环境的优化AI模型
GithubFalcon-7B-Instruct开源项目Apache 2.0量化推断人工智能模型Huggingface训练数据模型
Falcon-7B-Instruct是一款专为低内存环境如Colab和Kaggle优化的7B参数模型,支持英语和法语。基于Falcon-7B,该模型经过微调以处理对话和指令数据集,提供高效的推理性能并结合FlashAttention与多查询机制。可通过Huggingface平台获取用于文本生成等应用,达到高性能与低资源消耗的平衡。
granite-20b-code-base-8k - IBM开源代码生成模型多语言支持与准确性提升
代码生成大语言模型训练数据IBM研究开源项目Granite-20B-Code-Base-8K模型HuggingfaceGithub
Granite-20B-Code-Base-8K是IBM推出的开源代码生成模型,旨在提升软件开发效率。模型通过3万亿标记的训练数据,支持116种编程语言,具备代码生成和修复等功能。在多个数据集的测试中表现良好,通过两阶段训练策略提高逻辑和指令执行能力,适合处理技术债务及漏洞检测等任务,广泛适用于企业应用。
fasttext-zh-vectors - fastText库:支持中文文本分类与词向量学习
Github模型文本分类开源项目fastText词向量Huggingface训练数据语言识别
fastText是开源且易于使用的库,可在标准硬件上快速进行文本表示学习和分类。此库支持157种语言,并包含预训练模型,适用于文本分类与语言识别,且能在多核CPU上快速训练、并适合移动设备应用。
CLIP-ViT-B-32-roberta-base-laion2B-s12B-b32k - 零样本图像识别与跨模态检索应用
OpenCLIP开源项目模型CLIP ViT-B/32GithubHuggingface模型评估训练数据图像分类
该模型基于OpenCLIP,并利用LAION-5B中的LAION-2B英文子集进行训练,实现了有效的零样本图像分类和跨模态检索。在ImageNet、MSCOCO和Flickr30k测试集上的表现优于基线,适用于图像分类和生成等任务。训练过程中采用32k批次大小处理12B训练样本,并通过VTAB+、COCO和Flickr等数据集进行评估。
OPT-6B-nerys-v2 - 基于多样数据集训练的文本生成模型
Huggingface文本生成开源项目模型许可证GithubOPT 6B-Nerys训练数据偏见与局限
OPT 6B-Nerys在Facebook的OPT模型基础上进行了微调,训练数据涵盖多类型电子书、CYOA数据集及数十部亚洲轻小说,标识为[Genre: <genre1>, <genre2>]格式。支持通过文本生成管道直接使用,适用于多种生成任务。需注意可能存在性别、职业、种族和宗教偏见,由OPT-175B许可协议保护。
DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored - 多语言大规模生成模型,专注角色扮演对话
Huggingface开源项目模型多语言支持MetaGithub训练数据大语言模型Llama 3.1
该项目提供多语言对话生成,模型规模从8B到405B,特别适合角色扮演场景。基于优化的Transformer架构,并结合强化学习技术,适用于商业和研究用途,遵循Llama 3.1 Community License开放授权。
rotten_tomatoes_t5-base_seed-1 - 变形金刚模型卡功能与应用指南
环境影响Huggingface模型卡NLP训练数据Github开源项目模型transformers
了解transformers模型卡的功能细节及使用方法。模型卡涵盖模型用途、风险及技术规格,提供实用指南以帮助理解变形金刚模型的能力与应用场景。
Meta-Llama-3.1-405B-llamafile - Meta Llama 3.1 提供多平台兼容的开源语言模型
开源项目模型GithubHuggingface多语言大语言模型Meta安全性训练数据
Meta-Llama-3.1-405B是一个多语言开源模型,由Mozilla打包为llamafile格式,兼容Linux、MacOS、Windows等多操作系统。它提供128k的上下文窗口和强大的多语言处理能力,在行业基准测试中表现优异,适用于商业和研究用途。