Logo

#评估框架

Logo of ragas
ragas
Ragas是一款工具集,用于评估、监控和优化RAG(检索增强生成)应用的性能,特别适合生产环境中的大语言模型(LLM)。Ragas集成了最新研究成果,能在CI/CD流程中进行持续检查,确保管道性能稳定。通过简单的安装和快速入门示例,用户可以快速体验Ragas的功能,并参与社区讨论LLM和生产相关问题。
Logo of evalscope
evalscope
EvalScope是一个全面的大语言模型评估框架,集成了多种基准数据集和评估指标。该框架提供模型集成、自动评估和报告生成功能,并支持Arena模式和可视化分析。通过整合OpenCompass和VLMEvalKit评估后端,EvalScope实现了多模态评估能力。此外,它能与ModelScope SWIFT平台无缝对接,支持大模型的端到端开发流程。
Logo of recommenderlab
recommenderlab
recommenderlab是一个用于开发和评估推荐系统的R语言框架。它支持用户-物品矩阵的稀疏表示,提供多种主流推荐算法,包括UBCF、IBCF、SVD、Funk SVD、ALS等。框架具备Top-N推荐、交叉验证、评分和二元数据处理等功能。recommenderlab还提供了训练/测试分割、MSE、RMSE、MAE等多种评估方法和指标,适用于电商、内容推荐等多个领域,为推荐系统研究和开发提供了全面的工具支持。
Logo of AgentBench
AgentBench
AgentBench是首个评估大型语言模型(LLM)作为自主代理的基准,涵盖操作系统、数据库、知识图谱等8个不同环境。该项目通过多任务设置和完整的数据集,深入分析LLM的实际应用能力。新版AgentBench v0.2优化了框架结构,并增加了更多模型的测试结果,方便开发者扩展和使用。
Logo of bigcode-evaluation-harness
bigcode-evaluation-harness
bigcode-evaluation-harness是一个评估代码生成模型的开源框架。它支持多种编程语言和任务,如代码补全、插入和翻译。该框架兼容Hugging Face上的自回归模型,具备多GPU生成能力,并可在Docker容器中运行以保证安全性和可重复性。框架集成了HumanEval、APPS等多个代码生成基准,为研究人员和开发者提供了全面评估代码模型性能的工具。
Logo of vec4ir
vec4ir
Vec4IR是一个开源的信息检索框架,专注于实际应用场景。它原生支持词嵌入技术,与gensim无缝集成。框架提供内置评估功能,API设计参考sklearn,便于扩展新模型。核心组件包括匹配和相似度评分,还支持查询扩展等高级特性。Vec4IR适合研究人员评估检索模型,也可帮助数据科学家选择最佳方案。框架核心功能包括文档匹配和相似度评分。它还提供查询扩展、伪相关反馈等高级特性,可满足复杂的检索需求。Vec4IR采用模块化设计,便于研究人员快速实现和评估新的检索算法。对于数据科学家,该框架也是比较不同检索模型性能的理想工具。
Logo of evals
evals
evals是一个开源框架,用于评估大型语言模型(LLM)及其衍生系统。该框架提供评估注册表,支持测试OpenAI模型的多个维度,同时允许用户创建自定义评估。开发者可利用私有数据构建评估,无需公开敏感信息。evals能够帮助开发者深入分析不同模型版本对特定应用场景的影响,对LLM开发过程具有重要价值。
Logo of lmms-eval
lmms-eval
lmms-eval是专为大规模多模态模型(LMMs)设计的评估框架,整合多种基准和数据集,提供一致高效的评估方法。支持图像、视频等多模态任务,简化评估流程,加速模型开发和性能比较。该框架为研究人员提供灵活工具,助力理解和改进LMMs能力,推动人工智能向通用人工智能(AGI)发展。lmms-eval旨在成为加速LMMs发展的重要生态系统组件。
Logo of RefChecker
RefChecker
RefChecker是一个标准化评估框架,用于检测大语言模型(LLM)输出中的细微幻觉。该框架将LLM响应分解为知识三元组,在三种不同背景下进行精细化幻觉检测。项目包括人工标注的基准数据集、模块化架构和自动化检查器,有助于评估和改进LLM输出的事实准确性。RefChecker为研究人员和开发者提供了评估和提高LLM生成内容可靠性的工具。