#偏见检测
AI Fairness 360: 检测和缓解机器学习中的偏见
3 个月前
AI Fairness 360 (AIF360): 公平性评估与偏见缓解的开源工具包
3 个月前
相关项目
AIF360
AI Fairness 360 (AIF360) 是一个开源库,提供全面的技术来检测和缓解机器学习模型中的偏差。该工具包包含各种偏差测试指标及其解释,并提供减轻偏差的算法。AIF360 适用于金融、人力资源管理、医疗和教育等领域,并支持 Python 和 R。用户可通过交互体验、教程和 API 深入了解和应用这些技术。
giskard
Giskard是一个开源的Python库,旨在自动检测AI应用中的性能、偏差和安全问题。支持LLM和传统的ML模型,功能涵盖自动生成评估数据集、评估RAG应用答案、检测幻觉、生成有害内容及敏感信息泄露等问题。Giskard可无缝集成到各种环境中,并提供详细文档和示例代码,适用于各类AI开发者。
distilroberta-bias
模型采用distilroberta-base作为基础架构,通过wikirev-bias数据集进行微调。它能够准确区分文本是否包含偏见,将其分类为中性或偏见性内容。该模型在内容审核和文本分析领域具有广泛应用前景。