Logo

#评估基准

Logo of open-instruct
open-instruct
open-instruct是一个致力于指令微调预训练语言模型的开源项目。它提供了基于最新技术和公开数据集的模型微调代码,以及多项基准测试的评估工具。项目发布了包括Tülu系列在内的多个微调模型检查点。open-instruct支持全参数微调、LoRA和QLoRA等高效方法,并提供完整的训练和评估脚本。该工具集为研究人员和开发者提供了探索指令调优大语言模型的全面解决方案。
Logo of bigcodebench
bigcodebench
BigCodeBench是一个具有挑战性的代码生成基准测试,用于评估大型语言模型的实际编程能力。它提供复杂指令和多样函数调用,包括数据集、生成和评估脚本。基于EvalPlus框架,BigCodeBench实现精确评估和排名,提供预生成样本以加速研究。支持多种评估环境,采用unittest进行代码测试,为研究人员提供全面工具。
Logo of Awesome-Code-LLM
Awesome-Code-LLM
Awesome-Code-LLM汇集了代码生成领域的最新研究成果和资源。项目包含主要模型的性能排行榜、评估工具包介绍,以及按预训练、指令微调、反馈对齐和提示工程等主题整理的相关论文。这一资源库为研究人员和开发者提供了深入了解代码生成大语言模型的全面参考。
Logo of awesome-foundation-model-leaderboards
awesome-foundation-model-leaderboards
本项目收录了多样化的基础模型评估榜单、开发工具和评估机构信息。涵盖文本、图像、代码、数学等领域的模型评估,同时包含解决方案和数据导向的评估。项目提供榜单搜索功能,便于快速查找。这一资源有助于研究人员和开发者比较和分析不同基础模型的性能。
Logo of MMBench
MMBench
MMBench是评估视觉语言模型多模态理解能力的基准测试集。它包含近3000道多项选择题,涵盖20个能力维度,采用循环评估和LLM选项提取等创新方法,提供可靠客观的评估。通过细粒度的能力测试和可重复的评价标准,MMBench为多模态模型开发提供了有价值的反馈。
Logo of ToolQA
ToolQA
ToolQA是一个开源数据集,专门用于评估工具增强型大语言模型。数据集涵盖8个领域,包含需要综合使用多个工具解答的问题,分为简单和困难两个级别。ToolQA通过人机协作创建,提供了数据统计、下载链接、工具实现和基准代码,为研究人员评估和改进大语言模型的外部工具使用能力提供全面资源。
Logo of T2I-CompBench
T2I-CompBench
T2I-CompBench++是一个用于评估组合式文本到图像生成的增强基准。它引入了人工评估图像-分数对、更全面的组合测试以及被Stable Diffusion 3等模型采用的新评估指标。该基准涵盖颜色、形状、纹理和空间关系等多个方面,通过多种方法全面衡量模型的组合能力。研究人员可利用此基准进行模型训练和评估,促进组合式图像生成技术的进步。
Logo of granite-code-models
granite-code-models
Granite Code Models是一系列专注于代码生成任务的解码器模型,涵盖116种编程语言。这些模型在代码生成、解释、修复和翻译等多项任务中表现出色。模型使用合规数据训练,以Apache 2.0许可发布,可用于研究和商业目的。该系列包括基础模型和指令调优模型,参数规模从3B到34B不等,满足不同需求。