Logo

#评估指标

Logo of continuous-eval
continuous-eval
continuous-eval是一个开源软件包,旨在为LLM驱动的应用提供全面的数据驱动评估。项目特点包括模块化评估系统,全面的度量指标库,可结合用户反馈进行评估,且支持生成大规模合成数据集以验证应用性能,适用于多种LLM应用场景的定制化评估。
Logo of Awesome-Evaluation-of-Visual-Generation
Awesome-Evaluation-of-Visual-Generation
该资源库汇集了视觉生成评估领域的各种方法。内容涵盖图像和视频生成模型评估、样本质量评估及用户控制一致性评估等多个方面。项目详细介绍了Inception Score、Fréchet Inception Distance等经典指标及最新评估方法。同时收录了视觉生成改进研究和其他相关资源,为该领域研究者提供全面参考。
Logo of PySODEvalToolkit
PySODEvalToolkit
PySODEvalToolkit是一个Python工具包,用于评估图像灰度和二值分割算法的性能。它提供多种评估指标如MAE、F-measure和E-measure,适用于显著性目标检测和伪装目标检测等任务。该工具支持批量评估多个数据集和方法,可生成PR曲线等可视化结果,并具备多线程加速和结果导出功能。PySODEvalToolkit为研究人员提供了全面而高效的图像分割评估解决方案。
Logo of ferret
ferret
ferret是一个Python库,集成了Transformer模型的可解释性技术。它提供四种基于Token级特征归因的解释方法和六种评估协议,与transformers库无缝对接。通过简洁的API、可视化工具和数据集评估功能,ferret帮助用户深入理解和评估文本模型的决策过程。
Logo of llm-leaderboard
llm-leaderboard
由社区合力打造的LLM模型排行榜,提供交互式仪表板和丰富的性能比较。用户可查看各模型在Chatbot Arena Elo、HellaSwag、HumanEval-Python、LAMBADA等指标上的表现。项目特别关注开源模型的本地部署和商业应用,欢迎各类贡献和修改。
Logo of CharacterEval
CharacterEval
CharacterEval是一个评估中文角色扮演对话代理(RPCAs)的基准。它包含1,785个多轮对话和23,020个样例,涵盖77个源自中国文学作品的角色。该基准采用四个维度的十三项指标进行评估,并开发了基于人工标注的角色奖励模型(CharacterRM)。实验显示,CharacterRM与人类评估的相关性显著高于GPT-4。
Logo of recsys-dataset
recsys-dataset
OTTO开放的电商推荐系统数据集包含1200万匿名用户会话和2.2亿次交互事件,涵盖180万商品。数据以.jsonl格式提供,便于研究人员直接使用。该数据集专为多目标和基于会话的推荐系统研究设计,定义了相应的评估指标,可作为该领域的基准数据集。数据集来源于OTTO真实电商平台,包括用户点击、加购和下单行为。研究人员可利用此数据集开发和评估多目标推荐算法,尤其适合基于会话的推荐系统研究。该数据集的开放将促进电商推荐系统领域的学术研究和技术创新。
Logo of ranx
ranx
ranx是一个高性能Python排序评估库,专为信息检索和推荐系统设计。它利用Numba实现快速向量运算和自动并行,提供用户友好的接口进行系统评估和比较。ranx支持统计检验、LaTeX表格导出,以及多种融合算法和归一化策略。此外,ranx还提供自动融合优化功能,并配有预计算运行库ranxhub,方便进行模型比较。
Logo of allRank
allRank
allRank是一个基于PyTorch的框架,旨在简化神经排序学习模型的实验。它提供多种损失函数和评分函数,并支持常用评估指标如NDCG和MRR。该框架支持添加自定义损失和配置模型与训练流程,适用于研究和工业应用。同时支持GPU和CPU架构,并集成了Google云存储功能。
Logo of Awesome-Video-Diffusion-Models
Awesome-Video-Diffusion-Models
本文综述了视频扩散模型领域的研究进展和开源资源。内容包括最新工具箱、基础模型、数据集和评估指标,涵盖文本到视频生成、视频编辑和理解等多个方向。文章系统梳理了该领域的关键技术和资源,为研究人员和开发者提供全面参考,有助于推动视频生成和处理技术的发展。
Logo of rexmex
rexmex
rexmex是一个用于推荐系统评估的Python库,提供了全面的评估指标集合,涵盖排名、评分、分类和覆盖率等方面。该库集成了经典指标和最新数据挖掘研究成果,并提供报告生成和性能可视化功能。rexmex操作简便,适用于多种推荐系统场景,可帮助研究人员和开发者全面评估系统性能。
Logo of text_classifier_tf2
text_classifier_tf2
该开源项目提供基于TensorFlow 2的多模型文本分类框架。支持TextCNN、TextRNN、BERT等模型,集成词向量增强、对抗训练、对比学习等功能。框架适用于二分类和多分类任务,提供灵活配置选项。项目还包含交互式预测和批量测试工具,便于分析模型性能和错误案例。
Logo of RGBD-semantic-segmentation
RGBD-semantic-segmentation
本项目汇总了RGB-D语义分割领域的最新研究成果,提供详尽的论文列表和性能对比。涵盖NYUDv2等主流数据集的基准结果,包括像素精度、平均精度、mIoU等关键指标。通过定期更新反映该领域最新进展,为计算机视觉研究人员提供全面的参考资源。项目内容还包括数据集介绍、评估指标说明和详细的性能对比表格,全面呈现RGB-D语义分割技术的发展脉络。对于想深入了解该领域的研究人员和工程师而言,这是一个高价值的信息聚合平台。
Logo of seed-tts-eval
seed-tts-eval
seed-tts-eval是一个开源项目,提供评估零样本语音生成能力的客观测试集。该测试集包含英语和中文公开语料库样本,并配备计算词错误率和说话人相似度的脚本。这套工具主要用于评估语音合成模型在跨语言和零样本场景下的性能。项目采用Common Voice和DiDiSpeech-2数据集,包含3000个测试样本。评估指标包括使用Whisper和Paraformer模型的词错误率,以及基于WavLM的说话人相似度。这些工具有助于客观评估语音合成技术的进展。
Logo of ControlSpeech
ControlSpeech
ControlSpeech是一个开源的语音合成项目,专注于实现零样本说话人克隆和语言风格控制。项目包含基线模型、VccmDataset数据集、评估指标和复现代码。通过解耦编解码器技术,ControlSpeech为研究人员和开发者提供了探索灵活语音合成的工具。该项目可应用于个性化语音助手、多语言配音等领域,为语音合成技术的研究和应用提供新的可能性。