#模型架构
MixtralKit - 模型推理工具包
MixtralKitMixtral ModelOpenCompass性能比较模型架构Github开源项目
MixtralKit是一款高效的模型推理工具包,支持多种评估工具和资源。采用MoE架构提升性能和效率,Mixtral-8x7B模型表现卓越,并附有详细的安装和推理指南,方便研究人员和开发者快速上手。
large_language_model_training_playbook - 大规模语言模型训练指南与实用技巧
LLM Training Playbook大语言模型模型架构模型并行策略张量精度Github开源项目
此页面提供了大规模语言模型训练的实用指南和资源,涉及模型架构选择、并行策略、模型规模、张量精度、训练超参数设定、最大化吞吐量、稳定性问题、数据处理以及软件和硬件故障调试等主题。这些开放的技巧和工具可以帮助更高效地训练大规模语言模型,并提升其性能和稳定性。
GPT-2 - 开源语言模型训练与实现探索
GPT-2模型架构训练循环数据预处理代码复现Github开源项目
本项目是基于Andrej Karpathy代码的GPT-2开源实现。通过详细注释解释模型架构和训练过程,包含核心文件如模型结构、训练循环和数据预处理。计划添加KV-Cache、RoPE等功能。虽然Hellaswag测试性能略低,但为学习大型语言模型提供了重要资源。项目展示了模型训练过程中的各种考虑因素,如权重初始化、学习率调整等技术细节。
1.5-Pints - 快速训练小型语言模型的开源项目
小型语言模型预训练开源开发模型架构1.5-PintsGithub开源项目
1.5-Pints项目提供了一种快速预训练小型语言模型的方法,目标是在9天内达到与知名AI助手相当的水平。该项目开源了模型架构、训练脚本和工具,包含详细的安装指南、数据准备流程、训练和微调方法,以及模型评估和使用说明。研究人员和开发者可以通过这些资源复制实验并进行进一步的开源开发。
onnxruntime-genai - 设备端高效运行LLM模型的灵活解决方案
ONNX Runtime生成式AILLM模型架构硬件加速Github开源项目
onnxruntime-genai是一个用于设备端高效运行大型语言模型的API。它支持Gemma、Llama、Mistral等多种模型架构,提供多语言接口。该项目实现了生成式AI的完整流程,包括预处理、推理、logits处理等。开发者可以使用generate()方法一次性生成输出或实现逐token流式输出。onnxruntime-genai为本地部署和运行LLM模型提供了简单、灵活、高性能的解决方案。
Nonstationary_Transformers - 创新时间序列预测方法应对非平稳数据
Non-stationary Transformers时间序列预测深度学习注意力机制模型架构Github开源项目
Non-stationary Transformers项目开发了新型时间序列预测方法,采用系列平稳化和去平稳注意力机制处理非平稳数据。该方法在多个基准数据集上展现出优异性能,并能有效提升现有注意力模型的预测效果。项目开源了完整代码和实验脚本,为时间序列预测研究和应用提供了重要参考。
line-distilbert-base-japanese - LINE DistilBERT模型推动日语文本智能处理
日本语HuggingfaceLINE DistilBERT预训练模型Github开源项目模型Apache License 2.0模型架构
LINE Corporation推出的DistilBERT模型专为日语文本处理而设计,基于BERT-base教师模型,在131 GB日语网络文本上完成了预训练。模型采用DistilBERT架构,有6层、768隐层、12个注意力头和66M参数。评估结果优秀,JGLUE评测中表现出色。其使用MeCab和SentencePiece进行分词和子词处理,词汇量为32768。适用于多种日语NLP任务,遵循Apache 2.0许可证。在GitHub上提供更多信息。
h2ogpt-4096-llama2-70b-chat - Llama 2 70B模型的对比和私密交互特性
对比测试开源项目h2oGPT模型架构GithubLlama 2Huggingface模型文本生成
h2ogpt-4096-llama2-70b-chat项目是Meta的Llama 2 70B Chat模型的克隆,用户可以在h2oGPT平台上直接测试和比较不同大语言模型的性能。此项目包含私密文档对话功能,强调数据隐私保护,并以高效的模型架构和优化特性为主要优势。更多关于该项目的更新信息,用户可以访问H2O.ai了解最新的自然语言处理技术。
granite-3.0-2b-instruct - 提供多语言支持的文本生成模型,适用于构建智能助手
Huggingface文本生成模型架构Granite-3.0-2B-Instruct开源项目模型多语言支持Github训练数据
Granite-3.0-2B-Instruct是由IBM开发的文本生成模型,支持十二种语言,包括中文。模型在基础模型Granite-3.0-2B-Base的基础上经过细调优化,结合开放源码和内部合成数据集。它能够执行文本分类、提取、问答及代码相关任务,采用decoder-only架构。适用于多领域的人工智能助手构建,但在非英语任务的性能可能不如英语任务。
mpt-7b-instruct - 短指令学习模型MPT-7B-Instruct优化人工智能响应
训练效率MosaicMLMPT-7B-Instruct模型架构模型Github开源项目短文本指令Huggingface
MPT-7B-Instruct模型基于MPT-7B,通过微调Dolly-15k和HH-RLHF数据集,提升人工智能在短指令执行上的效率与准确性。其采用修改后的Transformer架构,支持FlashAttention及ALiBi等高效训练选项,便利多种应用场景。MosaicML支持其在商业项目中的应用,但需注意可能存在的偏见或不准确信息,依据Apache 2.0许可使用。
byt5-base - 直接处理原始字节的多语言自然语言处理模型
模型ByT5多语言支持模型架构Github原始文本处理Huggingface开源项目自然语言处理
ByT5-base是一种新型多语言预训练模型,采用Google T5架构。它独特之处在于直接处理原始UTF-8字节,无需分词器即可应对多语言文本,并展现出优秀的抗噪声能力。该模型在大规模mC4多语言数据集上完成预训练,可通过微调适应不同下游任务。ByT5-base在处理包含噪声的文本数据时表现突出,尤其在社交媒体相关任务如TweetQA中,性能显著优于传统的mt5-base模型。
snowflake-arctic-instruct - 探索混合变换架构在企业AI中的高效应用
Github开源项目推理示例Arctic模型架构量化配置Huggingface训练数据模型
Snowflake Arctic由AI研究团队开发,是一种将稠密变换器与稀疏门控混合架构结合的模型,提供开源的LLM解决方案。Arctic的模型汇集合计480亿参数,支持Arctic-Base和Arctic-Instruct版本,适用于研究和产品开发。通过DeepSpeed和transformers库的配合,支持自定义代码,实现文本和代码生成。Arctic的教程和cookbook帮助用户定制混合架构模型并优化训练数据质量。
h2o-danube3-4b-base - 高效大语言模型支持离线运行
Github模型模型架构开源项目h2o-danube3-4bHuggingface大语言模型H2O.ai参数
h2o-danube3是H2O.ai构建的基础大语言模型,具有40亿参数,支持在手机上本地和离线运行。该模型采用Llama 2架构调整,集成Mistral tokenizer,拥有32,000词汇和8,192上下文长度。模型兼容transformers库,提供量化和分片方案,适用于多GPU设备。其在Open LLM Leaderboard的Hellaswag测试中获得79.84高分。建议用户负责地使用该模型,审慎评估生成内容。
h2o-danube3-500m-base - 500M参数的大规模语言模型,支持离线文本生成
大语言模型Huggingface转化器Github开源项目模型GPT模型架构H2O.ai
由H2O.ai推出的h2o-danube3-500m模型,是一个大规模语言模型,采用Llama 2架构调整及500M参数设计。模型支持原生离线运行,尤其适用于手机设备,并集成Mistral分词器,拥有32,000词汇量及8,192长度的上下文生成能力。在支持transformers库的环境中,模型可在GPU设备上有效运行,并且支持量化和多GPU分片处理。重要提醒用户在使用模型生成的内容时保持审慎态度并自行承担责任。
h2ogpt-4096-llama2-13b-chat - Meta Llama 2 13B Chat克隆模型架构与性能比较
MetaGithub开源项目文本生成h2oGPT模型架构HuggingfaceLlama 2模型
h2oGPT提供了Meta Llama 2 13B Chat的克隆版本,展示其模型架构及功能。在h2oGPT的演示中,可以进行模型对比及私聊文档,了解其与其他模型的差异。通过LLM排行榜,可以查看其性能表现。这一项目基于Llama模型的结构特征,如多层感知机制、嵌入技术和注意力机制,增强了文本生成能力。更多信息请访问H2O.ai。
tiny-mistral - 基于Mistral架构的随机初始化模型 专用于端到端测试
随机初始化Github模型架构Huggingface深度学习Mistral开源项目神经网络模型
tiny-mistral是一个基于Mistral架构的随机初始化模型,专为端到端测试设计。该项目提供了一个轻量级版本,使开发者能够在无需完整预训练模型的情况下进行快速验证和调试。这一工具简化了AI模型的开发和优化流程,为研究人员和工程师提供了便捷的测试环境。
resnet18.tv_in1k - 精简高效的ResNet18图像分类模型
ResNet神经网络图像分类模型深度学习Github模型架构Huggingface开源项目
resnet18.tv_in1k是一个基于ResNet-B架构的图像分类模型,采用ReLU激活函数和7x7卷积池化层。模型参数量为11.7M,运算量为1.8 GMACs,兼具轻量和高效。支持图像分类、特征图提取和图像嵌入,可处理224x224尺寸图像。该模型使用ImageNet-1k数据集训练,是torchvision的原始权重模型,适用于需要平衡性能和资源的应用场景。
mpt-1b-redpajama-200b - 适应性强的1.3B参数解码器模型
Github模型模型架构开源项目RedPajamaHuggingface训练数据变压器MPT-1b-RedPajama-200b
MPT-1b-RedPajama-200b是一个1.3B参数的解码器模型,由MosaicML在2023年4月使用RedPajama数据集训练。该模型采用改良的解码器架构,使用ALiBi和QK LayerNorm提升训练效率,不依赖位置嵌入。训练中使用了67% Common Crawl和15% C4数据,目标是复刻Llama系列的训练集。部署模型时需要启用信任远程代码,并支持优化的FlashAttention实现,助力自然语言处理研究的发展。
Qwen2-VL-2B-Instruct-AWQ - 支持多分辨率的多语言多模态视觉模型
Huggingface模型架构开源项目模型多语言支持GithubQwen2-VL性能评估视觉理解
Qwen2-VL是一款先进的多模态模型,具备卓越的图像和视频理解能力,并能够处理多语言文本。其支持动态分辨率处理,适用于移动设备和机器人自动化操作。模型特色包括旋转位置嵌入和高效量化模型,提高推理速度和内存利用率,适合多种视觉任务如图像描述和视频分析。
t5-efficient-tiny - 基于深层窄结构设计的轻量级自然语言处理模型
预训练模型Github模型模型架构开源项目深度学习T5Huggingface自然语言处理
T5-Efficient-TINY是一个轻量级自然语言处理模型,基于Google T5架构开发。模型通过深层窄结构优化设计,仅需1558万参数即可实现出色性能。该模型在C4数据集完成预训练后,可用于文本摘要、问答和分类等英语NLP任务,需要进行针对性微调。采用半精度存储时,模型仅占用31.16MB内存,运行效率较高。
karlo-v1-alpha-image-variations - 基于unCLIP的文本条件图像生成模型
Github开源项目Karlo文本到图像模型架构Huggingface超分辨率图像生成模型
Karlo v1 alpha通过优化的unCLIP架构提供了文本条件图像生成方案,提升了图像超分辨率性能。该模型在7个降噪步骤中将图像从64px扩展到256px,增强了高频细节表现。项目使用diffusers库,便于高性能GPU上的简便实现。模型在115M图像文本对上进行从头训练,并应用DDPM目标与VQ-GAN风格损失进行优化。
evo-1-8k-base - 高效的生物长序列建模与设计的深度信号处理模型
模型架构StripedHyena深度信号处理Github开源项目基因组学模型EvoHuggingface
Evo是一个基于生物的基础模型,通过StripedHyena架构支持长序列建模与设计。Evo拥有7亿参数,可在单核苷酸和字节级别进行建模,并在计算和内存使用上实现接近线性的扩展。Evo-1-8k-base模型适用于8,192上下文长度的分子层面微调,是Evo家族中的第一款产品。此模型不仅支持高效的自动回归生成,还能快速处理长上下文训练和微调,在自然语言和生物序列的大规模数据处理中展示出色的扩展性。作为开源科学的组成部分,该项目提供15个阶段的中间预训练检查点以供研究使用。
DanTagGen-alpha - 高效艺术标签生成工具,支持多种模型格式
数据集开源项目模型架构Github模型Huggingface训练标签生成器DanTagGen
DanTagGen-alpha是一款基于NanoLLaMA架构的艺术标签生成工具,拥有400M参数,支持通过llama.c和llama-cpp-python进行高效推理,并兼容FP16、量化8位和6位模型格式。该项目采用精细数据过滤和6至12亿标记训练策略,支持多种应用场景。开发中的Gradio UI和API为其他开发者提供了丰富的扩展机会。
parakeet-tdt_ctc-110m - 流畅高效的FastConformer TDT-CTC语音识别解决方案
NVIDIA NeMoHuggingface模型架构开源项目模型快速Conformer自动语音识别Github语音转写
该模型融合FastConformer与TDT-CTC架构,专为英文语音识别而优化,支持转录标点和大写字母。以高效架构处理长达20分钟音频数据,通过NVIDIA NeMo和Suno团队训练,在多个基准数据集中表现优异。通过NeMo工具包,预训练检查点便于进行模型推理或微调。
相关文章
StableLM: Stability AI的开源大型语言模型
3 个月前
MixtralKit: 一个强大的Mixtral模型推理和评估工具包
3 个月前
GPT-2: 解析自然语言处理的革命性模型
3 个月前
ONNX Runtime generate() API: 高性能本地运行大型语言模型的解决方案
3 个月前
非平稳Transformers: 探索时间序列预测中的平稳性
3 个月前
MixtralKit入门学习资料汇总 - Mistral AI的mixtral-8x7b-32kseqlen模型推理与评估工具包
2 个月前
large_language_model_training_playbook学习资料汇总 - 大型语言模型训练技巧与资源集锦
2 个月前