#模型性能

Abel - 数学推理开源大模型学习资料汇总

2 个月前
Cover of Abel - 数学推理开源大模型学习资料汇总

持续学习基线方法概述及实现

2 个月前
Cover of 持续学习基线方法概述及实现

Sakura-SOLAR-DPO: 融合、微调和优化的开源大语言模型

2 个月前
Cover of Sakura-SOLAR-DPO: 融合、微调和优化的开源大语言模型

深度学习调优指南:Google Brain工程师的实战经验

2 个月前
Cover of 深度学习调优指南:Google Brain工程师的实战经验

OpenCodeInterpreter:整合代码生成、执行和优化的开源系统

2 个月前
Cover of OpenCodeInterpreter:整合代码生成、执行和优化的开源系统

OpenCodeInterpreter: 融合代码生成与执行反馈的开源系统

2 个月前
Cover of OpenCodeInterpreter: 融合代码生成与执行反馈的开源系统

FastViT: 快速混合视觉Transformer的结构重参数化

2 个月前
Cover of FastViT: 快速混合视觉Transformer的结构重参数化

Abel: 从圣经人物到数学突破的传奇之名

3 个月前
Cover of Abel: 从圣经人物到数学突破的传奇之名
相关项目
Project Cover

ml-fastvit

FastViT是一种采用结构重参数化技术的混合视觉Transformer模型。该模型在ImageNet-1K数据集上实现了准确率和延迟的良好平衡,提供多个变体以适应不同应用场景。FastViT在iPhone 12 Pro上的基准测试显示出优秀的移动端性能。项目开源了预训练模型、训练评估代码和使用文档。

Project Cover

docs

Neural Magic开源平台提供了一系列工具,包括SparseML、Sparsify、SparseZoo和DeepSparse,用于优化CPU上的深度学习模型性能。这套软件组件支持选择、构建和运行高效率模型,使开发者能在标准CPU硬件上实现接近GPU级别的AI推理速度。

Project Cover

tuning_playbook

该项目提供深度学习模型调优的全面指南,涵盖项目启动、架构选择、优化器配置、批量大小设置等关键环节。它介绍了科学的性能提升方法,以及训练流程优化和实验追踪等实用技巧,旨在帮助提高深度学习模型的性能。

Project Cover

Sakura-SOLAR-DPO

Sakura-SOLAR-DPO项目通过模型融合和DPO训练技术,使SOLAR模型在开源大语言模型排行榜上跃居首位。该项目在ARC、HellaSwag等多项基准测试中表现卓越,展现了强大的通用能力和数学推理水平。项目公开了详细的训练代码、超参数配置和提示词模板,为开源AI社区提供了宝贵的技术参考。

Project Cover

OpenCodeInterpreter

OpenCodeInterpreter是一套开源代码生成系统,通过集成执行和迭代优化功能,提高了代码生成能力。该项目提供多个模型系列,展示了执行反馈对提升代码解释和执行性能的影响。项目还开源了Code-Feedback数据集,包含68K多轮交互,并提供本地演示系统。

Project Cover

continual-learning-baselines

该项目提供了一套持续学习策略和基线示例,基于Avalanche库实现多种算法,如Less-Forgetful Learning和Elastic Weight Consolidation。项目在Permuted MNIST、Split CIFAR-100等数据集上进行了评估,可重现原始论文结果或自定义参数。这为持续学习研究提供了可靠的基准平台,便于比较不同策略的性能。

Project Cover

nbailab-base-ner-scandi

这个模型是NbAiLab/nb-bert-base的精调版本,适用于丹麦语、挪威语、瑞典语、冰岛语和法罗语的命名实体识别(NER)。通过整合DaNE、NorNE、SUC 3.0和WikiANN的一些数据集,模型可以提供高精度的NER结果,并支持多种语言包括英语。识别的实体类型包括人名、地名、组织名及其他类别。模型以Micro-F1得分约为89%的表现,以及4.16样本/秒的处理速度表现出色,同时模型体积合理,带来好的准确性和效率平衡。

Project Cover

Swallow-MX-8x7b-NVE-v0.1

Swallow-MX-8x7b-NVE-v0.1基于Mixtral-8x7B-Instruct持续预训练,增加了日语数据模块,提升了多语言文本生成性能。该模型在日文常识问答和翻译任务中表现突出,发布于Apache-2.0开源许可证下。该版本仍在开发中,提醒注意输出的安全性。项目由ABCI计划支持,适用于多语言自然语言处理任务。

Project Cover

abel

Abel项目通过优化数学推理模型,在GSM8K和MATH数据集上取得了显著进展。特别是其7B模型达到了超过80%的准确率,并在多个数学数据集上展示了优秀的泛化能力。该项目采用独特的Parental Oversight策略和SFT(监督微调),显著提升了模型性能,无需依赖外部工具和奖励模型。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号