Project Icon

hallucination-leaderboard

LLM在文档总结任务中的幻觉频率排名

Vectara的Hughes幻觉评估模型定期分析和更新LLM排名,揭示各模型在文档总结任务中的幻觉出现频率。排行榜还包括事实一致性率、回答率等关键性能指标,助您识别信息传达准确性最佳的LLM。

hallucination_evaluation_model - 开源幻觉检测模型助力提升LLM输出质量
GithubHHEM-2.1-OpenHuggingfaceRAG人工智能幻觉检测开源项目模型语言模型
HHEM-2.1-Open是一款用于检测大型语言模型(LLM)幻觉的开源工具。该模型在多项基准测试中表现优异,性能超过GPT-3.5-Turbo和GPT-4。它特别适用于检索增强生成(RAG)应用,可评估LLM生成摘要与给定事实的一致性。HHEM-2.1-Open支持无限长度上下文,运行高效,可在普通硬件上使用,是提升LLM输出质量和可靠性的实用工具。
llm-hallucination-survey - 大语言模型幻觉问题研究综述
Github事实一致性大语言模型幻觉开源项目自相矛盾评估
该项目全面调查了大语言模型中的幻觉问题,涵盖评估方法、成因分析和缓解策略。研究包括输入冲突、上下文冲突和事实冲突等多种幻觉类型,并汇总了相关学术文献。项目成果有助于提升大语言模型在实际应用中的可靠性,为该领域的研究和开发提供重要参考。
awesome-hallucination-detection - 多模态大语言模型幻觉检测与评估文献综述
GPT-4VGithubUniHDawesome-hallucination-detection大语言模型幻觉检测开源项目
该项目汇总了关于大型语言模型(LVLMs)在多模态任务中幻觉检测的研究文献。这些研究提供了多个评估基准和框架,如HallusionBench、FactCHD、MHaluBench等,用于评估LVLMs在视觉和语言理解中的表现,涵盖了准确性、一致性、解释性等方面的指标。该仓库不仅评估现有模型,还提出新的解决方案,通过验证生成内容的准确性和一致性,减少虚假信息,提升语言模型的可靠性。
HallusionBench - 探索视觉语言模型的幻觉与错觉问题
AI评估GithubHallusionBench图像理解多模态模型开源项目视觉语言模型
HallusionBench是一个诊断视觉语言模型中语言幻觉和视觉错觉的测试集。通过图像-文本推理任务,它挑战了GPT-4V和LLaVA-1.5等顶级多模态模型。项目提供案例分析,揭示模型局限性,为改进提供见解。HallusionBench设有公开评测基准,欢迎研究人员贡献失败案例,推动多模态AI发展。
HalluQA - 中文大语言模型幻觉评估基准
GithubHalluQA中文幻觉大型语言模型开源项目评估基准问答任务
HalluQA是一个评估中文大语言模型幻觉问题的基准测试。该项目包含450个涵盖多领域的对抗性问题,考虑中国特色文化因素。HalluQA提供数据集、评估脚本和多选任务,采用GPT-4评估非幻觉率。研究结果揭示不同模型在处理误导性和知识性问题的表现,为中文大语言模型的改进提供参考。
llm-leaderboard - 为LLM模型提供的全球性能排行榜
GithubLLM-Leaderboard开源开源项目榜单评估指标语言模型
由社区合力打造的LLM模型排行榜,提供交互式仪表板和丰富的性能比较。用户可查看各模型在Chatbot Arena Elo、HellaSwag、HumanEval-Python、LAMBADA等指标上的表现。项目特别关注开源模型的本地部署和商业应用,欢迎各类贡献和修改。
llmperf-leaderboard - LLM推理服务性能基准测试与比较
GithubLLMPerfLLM推理提供商吞吐量响应时间开源项目性能基准测试
LLMPerf Leaderboard 项目对多家LLM推理服务进行性能评测,主要衡量输出令牌吞吐量和首个令牌响应时间(TTFT)。测试涵盖Llama-2系列的7B、13B和70B聊天模型,为开发者提供客观透明的性能数据和可复现的测试方法,有助于选择合适的LLM服务。
LLMTest_NeedleInAHaystack - LLM长上下文检索能力测试工具
AnthropicCohereGithubLLMsNeedle In A HaystackOpenAI开源项目
LLMTest_NeedleInAHaystack是一个用于评估长上下文语言模型检索能力的开源工具。通过在长文本中插入特定信息并要求模型检索,它可以测试OpenAI、Anthropic和Cohere等主流LLM的性能。该项目提供灵活的参数配置和结果可视化,有助于研究人员和开发者分析不同模型的上下文理解能力。
UHGEval - 中文大语言模型无约束生成幻觉评估基准
Eval SuiteGithubUHGEval中文评估基准大语言模型幻觉评估开源项目
UHGEval是一个评估中文大语言模型在无约束生成任务中幻觉现象的基准。该项目基于文本生成和幻觉收集,融合自动标注与人工审核。UHGEval提供判别式、生成式和选择式等多种评估方法。项目还包含Eval Suite评估框架,支持多个幻觉评估基准,可全面评估单个大语言模型的表现。
RLHF-V - 通过细粒度反馈优化多模态大语言模型
GithubRLHF-V人类反馈多模态大语言模型幻觉减少开源项目行为对齐
RLHF-V框架通过细粒度的人类纠正反馈来优化多模态大语言模型的行为。该项目收集高效的纠正反馈数据,让标注者修正模型回答中的幻觉片段。实验表明,仅需1小时训练即可将基础模型的幻觉率降低34.8%。RLHF-V在Muffin模型上的验证展示了显著的性能提升,有效提高了模型的可信度。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号