Project Icon

UHGEval

中文大语言模型无约束生成幻觉评估基准

UHGEval是一个评估中文大语言模型在无约束生成任务中幻觉现象的基准。该项目基于文本生成和幻觉收集,融合自动标注与人工审核。UHGEval提供判别式、生成式和选择式等多种评估方法。项目还包含Eval Suite评估框架,支持多个幻觉评估基准,可全面评估单个大语言模型的表现。

prometheus-eval - 前沿的大语言模型生成任务评估工具
BiGGen-BenchGithubPrometheus 2 BGBPrometheus-Eval开源项目评估语言模型
Prometheus-Eval是一个评估生成任务中大型语言模型(LLMs)的开源项目。最新的Prometheus 2版本内置多种高性能评估模型,并集成了提供9项核心能力、77个任务和765个实例的BiGGen-Bench评估平台。该项目支持本地推理和通过VLLM及LLM API进行远程评估,且能够方便地在Python环境中安装和使用。项目持续更新,以确保评估的准确性和效率。访问官方仓库获取更多信息。
ZeroEval - 统一评估框架测试语言模型零样本推理
AI框架GithubZeroEval任务性能开源项目语言模型评估零样本学习
ZeroEval是一个评估语言模型零样本推理能力的统一框架。它通过控制提示、采样和输出解析等因素,在MMLU、GSM等任务上测试指令微调模型的性能。该框架要求模型以JSON格式输出推理过程和答案,并持续扩展评估任务范围。
VLMEvalKit - 开源的大型视觉语言模型评估工具包
GithubVLMEvalKit多模态数据集大型视觉语言模型开源开源项目评估工具包
VLMEvalKit是一款开源的大型视觉语言模型评估工具包,支持即插即用的评估操作,无需繁重的数据准备。该工具包支持多种顶级数据库和最新模型测试,并为用户提供精确匹配和基于LLM的答案提取两种评估结果。有效工具,帮助专业人员和研究者评估模型性能。
lm-evaluation-harness - 统一测试生成式语言模型的多任务评估框架
GPT-NeoXGithubHugging FaceLanguage Model Evaluation HarnessOpen LLM LeaderboardvLLM开源项目
该项目提供统一框架,用于评估生成式语言模型,通过60多个标准学术基准和数百个子任务实现多样化测试。更新包括新的Open LLM Leaderboard任务、内部重构、基于配置的任务创建、Jinja2提示设计支持等高级配置选项,旨在简化和优化模型评估。支持快速高效推理、商业API、本地模型和基准测试。被广泛应用于机构如NVIDIA、Cohere、BigScience等,也支撑了🤗 Hugging Face的Open LLM Leaderboard。
llm-hallucination-survey - 大语言模型幻觉问题研究综述
Github事实一致性大语言模型幻觉开源项目自相矛盾评估
该项目全面调查了大语言模型中的幻觉问题,涵盖评估方法、成因分析和缓解策略。研究包括输入冲突、上下文冲突和事实冲突等多种幻觉类型,并汇总了相关学术文献。项目成果有助于提升大语言模型在实际应用中的可靠性,为该领域的研究和开发提供重要参考。
unieval-sum - UniEval多维度文本生成评估系统
GithubHuggingfaceUniEval多维度评估开源项目文本摘要模型自然语言生成预训练评估器
UniEval项目提供了名为unieval-sum的预训练评估器,用于文本摘要任务的多维度评估。该评估器从连贯性、一致性、流畅性和相关性四个方面分析模型输出,实现了对自然语言生成系统更全面和细粒度的评估。这一工具不仅弥合了人工评估与自动评估之间的差距,还可扩展应用于其他生成任务,如数据到文本生成的自然度和信息量评估。
awesome-hallucination-detection - 多模态大语言模型幻觉检测与评估文献综述
GPT-4VGithubUniHDawesome-hallucination-detection大语言模型幻觉检测开源项目
该项目汇总了关于大型语言模型(LVLMs)在多模态任务中幻觉检测的研究文献。这些研究提供了多个评估基准和框架,如HallusionBench、FactCHD、MHaluBench等,用于评估LVLMs在视觉和语言理解中的表现,涵盖了准确性、一致性、解释性等方面的指标。该仓库不仅评估现有模型,还提出新的解决方案,通过验证生成内容的准确性和一致性,减少虚假信息,提升语言模型的可靠性。
evalscope - 综合性大语言模型评估开源工具
EvalScopeGithub可视化大语言模型开源项目模型集成评估框架
EvalScope是一个全面的大语言模型评估框架,集成了多种基准数据集和评估指标。该框架提供模型集成、自动评估和报告生成功能,并支持Arena模式和可视化分析。通过整合OpenCompass和VLMEvalKit评估后端,EvalScope实现了多模态评估能力。此外,它能与ModelScope SWIFT平台无缝对接,支持大模型的端到端开发流程。
unieval-dialog - 多维度对话生成评估工具,提升模型性能
GithubHuggingfaceUniEval多维评估对话生成开源项目模型自动评估自然语言生成
UniEval作为一款开源工具,通过多维度自动评估提升自然语言生成的精确性和细致性。
GPTEval3D - 基于GPT-4V的文本到3D生成模型评估框架
GPTEval3D是一个实现了《GPT-4V(ision) is a Human-Aligned Evaluator for Text-to-3D Generation》论文评估指标的开源项目。该框架提供了完整的文本到3D生成模型评估流程,包括数据准备、模型评估和比赛评分。研究者可以利用GPTEval3D评估自己的模型或组织3D生成模型比赛。项目还包含110个精选图像提示和详细的使用说明,方便研究人员快速上手。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号