Project Icon

sklearn-evaluation

机器学习模型评估工具

sklearn-evaluation是一款简便的机器学习模型评估工具,支持绘制混淆矩阵、特征重要性、精准率-召回率、ROC曲线、肘部曲线和轮廓图等多种图表,并生成HTML格式的评估报告。该工具还可使用本地SQLite数据库进行实验跟踪,分析Jupyter notebook输出,并通过SQL查询notebook数据。兼容Python 3.7及更高版本,适用于Linux、macOS和Windows平台,提供全面的模型评估功能。

evaluate - 多框架兼容的机器学习评估工具库
EvaluateGithub开源项目指标机器学习模型比较评估
evaluate是一个开源的机器学习评估工具库,支持Numpy、Pandas、PyTorch、TensorFlow和JAX等多种框架。它提供了数十种涵盖自然语言处理和计算机视觉等领域的常用评估指标。用户可以使用evaluate进行模型评估、性能对比和结果报告。该库还支持创建新的评估模块并推送至Hugging Face Hub,便于比较不同指标的输出。evaluate的其他特点包括类型检查、指标卡片和社区指标功能,为研究人员和开发者提供了全面的模型评估支持。
scikit-learn - Python机器学习的核心工具库
GithubPythonscikit-learn开源项目数据科学机器学习
scikit-learn是基于SciPy构建的Python机器学习库,提供高效的数据挖掘和分析工具。支持分类、回归、聚类等多种机器学习任务,自2007年启动以来由志愿者维护,已成为广受欢迎的开源项目。其特点包括易用性、高性能和完善的文档,在学术和工业领域得到广泛应用。
lazypredict - 自动化机器学习模型评估工具
GithubLazy PredictPython库开源项目机器学习模型评估自动化建模
LazyPredict 是一个开源的 Python 库,用于机器学习自动化。它能快速构建和比较多种模型,支持分类和回归任务,无需复杂的参数调优。通过自动训练多个模型并生成性能报告,LazyPredict 帮助识别最适合特定数据集的模型类型,适用于初步评估和基准测试,显著提高了数据科学工作流程的效率。
EvalAI - 专为机器学习与人工智能算法评估和比较设计的平台
EvalAIGithub人工智能开源平台开源项目机器学习算法比较
EvalAI是一个开源平台,用于评估和比较机器学习及AI算法,提供中心化排行榜和提交界面,支持自定义评估协议和多语言环境,可适应高需求的计算挑战,助力研究者复现研究结果,进行准确可靠的分析。
evidently - 用于评估、测试和监控机器学习系统的开源框架
EvidentlyGithubLLM监控开源框架开源项目数据漂移检测机器学习评估
Evidently是一个开源的Python库,专为评估和监控机器学习和大语言模型系统而设计。它支持分类、回归和推荐系统,并提供超过100种内置指标,允许用户自定义评估和测试。Evidently的模块化设计使用户能够通过Reports、Test Suites和实时监控Dashboard轻松实现评估和持续监控,适用于各种AI数据管道,从实验到生产环境。
continuous-eval - 优化LLM应用的数据驱动评估工具
GithubLLM评估continuous-eval开源开源项目数据驱动评估指标
continuous-eval是一个开源软件包,旨在为LLM驱动的应用提供全面的数据驱动评估。项目特点包括模块化评估系统,全面的度量指标库,可结合用户反馈进行评估,且支持生成大规模合成数据集以验证应用性能,适用于多种LLM应用场景的定制化评估。
xskillscore - 预测验证指标的Python开源计算库
GithubPython包xarrayxskillscore开源项目预测验证
xskillscore是一个专注于预测验证的Python开源库,支持计算确定性和概率性预测的各种指标。该库与xarray集成,提供多种评估方法,适用于不同预测场景。xskillscore具备并行计算能力,能高效处理大规模多模型多集合预报数据。这个工具在数据科学和气候预测等领域都有应用,可帮助研究人员评估预测的准确性和可靠性。
pretty-print-confusion-matrix - Python混淆矩阵可视化库
GithubPython可视化开源项目数据分析机器学习混淆矩阵
pretty-print-confusion-matrix是一个Python库,用于生成混淆矩阵可视化图表。基于seaborn和matplotlib开发,支持从NumPy矩阵、数组、DataFrame或向量数据创建矩阵。该工具提供自定义颜色方案和标签功能,帮助数据科学家和机器学习工程师直观评估分类模型性能。适用于各类机器学习项目,操作简单,自定义选项丰富。
sql-eval - 开源SQL生成质量评估框架
API集成GithubSQL评估开源项目性能优化数据库查询生成
sql-eval是一个开源项目,提供全面的SQL生成质量评估框架。它基于Spider数据集schema,包含精选问题和查询。支持PostgreSQL、Snowflake等多种数据库,可集成OpenAI、Anthropic API及本地Hugging Face模型。通过比较生成查询与标准查询结果评估性能,为SQL生成模型开发和优化提供支持。
evalscope - 综合性大语言模型评估开源工具
EvalScopeGithub可视化大语言模型开源项目模型集成评估框架
EvalScope是一个全面的大语言模型评估框架,集成了多种基准数据集和评估指标。该框架提供模型集成、自动评估和报告生成功能,并支持Arena模式和可视化分析。通过整合OpenCompass和VLMEvalKit评估后端,EvalScope实现了多模态评估能力。此外,它能与ModelScope SWIFT平台无缝对接,支持大模型的端到端开发流程。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号