#评估基准

open-instruct - 开源指令微调大语言模型的完整工具集
模型微调语言模型开源项目AI训练评估基准Github
open-instruct是一个致力于指令微调预训练语言模型的开源项目。它提供了基于最新技术和公开数据集的模型微调代码,以及多项基准测试的评估工具。项目发布了包括Tülu系列在内的多个微调模型检查点。open-instruct支持全参数微调、LoRA和QLoRA等高效方法,并提供完整的训练和评估脚本。该工具集为研究人员和开发者提供了探索指令调优大语言模型的全面解决方案。
awesome-foundation-model-leaderboards - 基础模型评估榜单和工具的综合汇总
基础模型评估基准排行榜人工智能机器学习Github开源项目
本项目收录了多样化的基础模型评估榜单、开发工具和评估机构信息。涵盖文本、图像、代码、数学等领域的模型评估,同时包含解决方案和数据导向的评估。项目提供榜单搜索功能,便于快速查找。这一资源有助于研究人员和开发者比较和分析不同基础模型的性能。
ALCE - 增强大语言模型生成引用文本的基准工具
ALCE大语言模型自动引用文本生成评估基准Github开源项目
ALCE是一个用于评估大语言模型生成引用文本能力的基准工具。它包含ASQA、QAMPARI和ELI5三个数据集,用于自动评估模型生成文本的流畅度、正确性和引用质量。ALCE提供了基线模型复现代码和评估方法,为研究人员提供了改进大语言模型文本生成和引用能力的综合解决方案。
T2I-CompBench - 组合式文本到图像生成的全面评估基准
T2I-CompBench++文本生成图像评估基准组合能力AI模型Github开源项目
T2I-CompBench++是一个用于评估组合式文本到图像生成的增强基准。它引入了人工评估图像-分数对、更全面的组合测试以及被Stable Diffusion 3等模型采用的新评估指标。该基准涵盖颜色、形状、纹理和空间关系等多个方面,通过多种方法全面衡量模型的组合能力。研究人员可利用此基准进行模型训练和评估,促进组合式图像生成技术的进步。
bigcodebench - 高难度代码生成基准测试评估LLM编程能力
BigCodeBench代码生成评估基准大语言模型编程能力Github开源项目
BigCodeBench是一个具有挑战性的代码生成基准测试,用于评估大型语言模型的实际编程能力。它提供复杂指令和多样函数调用,包括数据集、生成和评估脚本。基于EvalPlus框架,BigCodeBench实现精确评估和排名,提供预生成样本以加速研究。支持多种评估环境,采用unittest进行代码测试,为研究人员提供全面工具。
MMBench - 全面评估多模态大模型能力的基准测试
MMBench多模态模型评估基准视觉语言模型循环评估Github开源项目
MMBench是评估视觉语言模型多模态理解能力的基准测试集。它包含近3000道多项选择题,涵盖20个能力维度,采用循环评估和LLM选项提取等创新方法,提供可靠客观的评估。通过细粒度的能力测试和可重复的评价标准,MMBench为多模态模型开发提供了有价值的反馈。
HalluQA - 中文大语言模型幻觉评估基准
HalluQA大型语言模型中文幻觉评估基准问答任务Github开源项目
HalluQA是一个评估中文大语言模型幻觉问题的基准测试。该项目包含450个涵盖多领域的对抗性问题,考虑中国特色文化因素。HalluQA提供数据集、评估脚本和多选任务,采用GPT-4评估非幻觉率。研究结果揭示不同模型在处理误导性和知识性问题的表现,为中文大语言模型的改进提供参考。
granite-code-models - 支持116种编程语言的开源代码生成模型家族
Granite Code Models代码生成指令微调开源模型评估基准Github开源项目
Granite Code Models是一系列专注于代码生成任务的解码器模型,涵盖116种编程语言。这些模型在代码生成、解释、修复和翻译等多项任务中表现出色。模型使用合规数据训练,以Apache 2.0许可发布,可用于研究和商业目的。该系列包括基础模型和指令调优模型,参数规模从3B到34B不等,满足不同需求。
Awesome-Code-LLM - 代码生成领域的前沿研究与顶级模型概览
代码生成大语言模型人工智能评估基准预训练Github开源项目
Awesome-Code-LLM汇集了代码生成领域的最新研究成果和资源。项目包含主要模型的性能排行榜、评估工具包介绍,以及按预训练、指令微调、反馈对齐和提示工程等主题整理的相关论文。这一资源库为研究人员和开发者提供了深入了解代码生成大语言模型的全面参考。
ToolQA - 评估工具增强型大语言模型的开源数据集
ToolQA大语言模型数据集工具增强评估基准Github开源项目
ToolQA是一个开源数据集,专门用于评估工具增强型大语言模型。数据集涵盖8个领域,包含需要综合使用多个工具解答的问题,分为简单和困难两个级别。ToolQA通过人机协作创建,提供了数据统计、下载链接、工具实现和基准代码,为研究人员评估和改进大语言模型的外部工具使用能力提供全面资源。
Swallow-7b-instruct-v0.1 - Swallow模型优化日语处理能力,提升多任务表现
日本语言数据评估基准模型性能模型Github开源项目Swallow模型发布Huggingface
Swallow模型通过预训练和微调提升了日语处理,对多任务表现优异。最新版本于2024年4月发布,提供了经过指令微调的模型,如Swallow-7b-instruct-v0.1,增强了写作、推理等领域的能力。模型通过日语词汇扩展,实现高效文本表示和快速推理,是东京工业大学的重要研究成果。
Meta-Llama-3.1-8B-Instruct-quantized.w4a16 - 基于LLaMA 3.1的INT4量化指令模型
评估基准vLLM多语言支持模型GithubMeta-Llama量化模型Huggingface开源项目
Meta-Llama-3.1-8B-Instruct模型的INT4量化版本,将模型参数从16bit压缩至4bit,有效降低75%的存储和显存占用。模型在Arena-Hard、OpenLLM、HumanEval等基准测试中表现稳定,量化后性能恢复率保持在93%-99%之间。通过vLLM后端部署,支持8种语言处理,适合商业及研究领域应用。
Llama-3.1-Swallow-8B-Instruct-v0.1 - 基于Llama 3.1的日英双语大语言模型
大语言模型开源项目指令微调模型日语能力评估基准HuggingfaceLlama 3.1 SwallowGithub
Llama-3.1-Swallow-8B-Instruct是一个基于Meta Llama 3.1持续预训练的日英双语大语言模型。模型使用2000亿个来自日语网络语料库、维基百科、数学和编程领域的token进行训练,并通过日语合成数据进行指令微调。在日语能力显著提升的同时保持了原有的英语水平,各项基准测试表现优异。该模型适合需要高质量日英双语理解和生成的应用场景。