Project Icon

deepeval

简化LLM输出评估的开源框架

DeepEval是一款开源的大型语言模型(LLM)输出评估框架。它提供G-Eval、幻觉检测和答案相关性等多种评估指标,支持本地运行。该框架适用于RAG和微调应用,可与LangChain和LlamaIndex等工具集成。DeepEval具备批量评估、自定义指标创建功能,易于集成到CI/CD环境。此外,它还支持对主流LLM基准进行简易评估,并可与Confident AI平台对接,实现持续评估和结果分析。

mlc-llm - 通用大语言模型高性能部署引擎
AI模型优化GithubMLC LLMMLCEngine开源项目机器学习编译器高性能部署
MLC LLM是一款用于大语言模型的高性能部署引擎,支持用户在各种平台上开发、优化和部署AI模型。核心组件MLCEngine通过REST服务器、Python、JavaScript、iOS和Android等接口提供OpenAI兼容的API,支持AMD、NVIDIA、Apple和Intel等多种硬件平台。项目持续优化编译器和引擎,与社区共同发展。
OpenDevin - AI软件工程平台,提升代码编写和错误修复效率
AIDockerGithubLLMOpenDevin开源项目自动化软件工程
OpenDevin是一个利用AI和大语言模型(LLMs)进行代码编写、错误修复和功能发布的软件工程平台。支持Docker环境,兼容Linux、Mac OS和Windows上的WSL。提供详细文档和故障排除指南,欢迎通过代码、研究和反馈参与贡献。加入社区,共同推动软件工程的发展。
unieval-dialog - 多维度对话生成评估工具,提升模型性能
GithubHuggingfaceUniEval多维评估对话生成开源项目模型自动评估自然语言生成
UniEval作为一款开源工具,通过多维度自动评估提升自然语言生成的精确性和细致性。
GPTEval3D - 基于GPT-4V的文本到3D生成模型评估框架
GPTEval3D是一个实现了《GPT-4V(ision) is a Human-Aligned Evaluator for Text-to-3D Generation》论文评估指标的开源项目。该框架提供了完整的文本到3D生成模型评估流程,包括数据准备、模型评估和比赛评分。研究者可以利用GPTEval3D评估自己的模型或组织3D生成模型比赛。项目还包含110个精选图像提示和详细的使用说明,方便研究人员快速上手。
llm_benchmarks - 大语言模型评估基准集合
GithubLLM人工智能开源项目机器学习自然语言处理语言理解
llm_benchmarks是一个全面的大语言模型评估基准集合,涵盖知识理解、推理能力、多轮对话和内容摘要等方面。该项目包含MMLU、ARC、GLUE等知名数据集,用于测试模型在不同任务中的表现。这一标准化工具为评估大语言模型性能提供了可靠依据,有助于相关技术的发展与应用。
codefuse-devops-eval - DevOps基础模型评估套件 多维度性能测试
AIOpsDevOps-EvalGithubToolLearning基础模型评估多项选择题开源项目
CodeFuse-DevOps-Eval是一个面向DevOps领域基础模型的综合评估套件,包含近7500道多选题及AIOps、ToolLearning专项样本。通过全面测试计划、编码、构建等环节,帮助开发者评估模型性能,提供零样本和少样本准确率排行。该套件覆盖8大类别,通过多维度评估助力开发者追踪进展并分析模型优劣。
Openlayer - 机器学习模型评估与监控的一站式平台
AI工具LLM测试Openlayer开发者工具模型监控版本控制
Openlayer为机器学习模型开发提供全面解决方案。该平台集成了测试、评估和监控功能,尤其针对大型语言模型(LLMs)进行了优化。通过自动化测试、实时监控、版本控制和安全部署,Openlayer助力开发者打造高质量的AI模型。平台特色包括快速上手、类Git版本控制、多渠道通知和SOC 2 Type 2认证,满足AI团队高效开发需求。
llm-comparator - 交互式可视化工具对比分析大语言模型性能
GithubJSON格式LLM ComparatorPython库可视化工具开源项目模型评估
LLM Comparator是一个开源的交互式可视化工具,用于分析和比较大语言模型的评估结果。用户可上传自定义JSON文件或使用示例数据,通过多种可视化方式展示不同模型在各类任务中的表现差异。工具配套Python库可生成兼容JSON文件,支持自动模型评估和原理聚类。研究人员和开发者可借助此工具深入洞察不同模型的优劣,为大语言模型研究提供直观分析支持。
FLASK - 细粒度语言模型评估框架
FLASKGithub对齐评估开源项目技能集细粒度分析语言模型评估
FLASK是一个开源的语言模型评估框架,采用细粒度的实例级技能集作为评估指标。该框架提供任务无关的评估协议,包含模型推理、GPT-4评估和结果分析功能。FLASK还具备自动元数据标注能力,可标注领域、技能集和难度级别。项目包含详细使用说明和在线演示,为语言模型评估提供全面解决方案。
LabelLLM - 开源数据标注平台 优化LLM开发流程
GithubLabelLLM人工智能多模态开源开源项目数据标注平台
LabelLLM是一个开源数据标注平台,旨在优化大型语言模型(LLM)开发中的数据标注流程。该平台提供灵活配置、多模态数据支持、全面任务管理和AI辅助标注功能。LabelLLM适合独立开发者和中小型研究团队使用,可显著提高数据标注效率,为LLM训练数据准备提供有力支持。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号