#偏见检测
AIF360 - AI模型公平性检测与缓解工具库
AI Fairness 360偏见检测
AI Fairness 360 (AIF360) 是一个开源库,提供全面的技术来检测和缓解机器学习模型中的偏差。该工具包包含各种偏差测试指标及其解释,并提供减轻偏差的算法。AIF360 适用于金融、人力资源管理、医疗和教育等领域,并支持 Python 和 R。用户可通过交互体验、教程和 API 深入了解和应用这些技术。
giskard - LLM和ML模型的评估和测试框架
GiskardLLMAI模型偏见检测安全性Github开源项目
Giskard是一个开源的Python库,旨在自动检测AI应用中的性能、偏差和安全问题。支持LLM和传统的ML模型,功能涵盖自动生成评估数据集、评估RAG应用答案、检测幻觉、生成有害内容及敏感信息泄露等问题。Giskard可无缝集成到各种环境中,并提供详细文档和示例代码,适用于各类AI开发者。
distilroberta-bias - 基于DistilROBERTA架构实现的文本偏见智能识别
文本分类偏见检测维基百科Github开源项目DistilROBERTA自然语言处理Huggingface模型
模型采用distilroberta-base作为基础架构,通过wikirev-bias数据集进行微调。它能够准确区分文本是否包含偏见,将其分类为中性或偏见性内容。该模型在内容审核和文本分析领域具有广泛应用前景。
相关文章