#公平性

WEFE框架:实现词嵌入公平性评估与偏见缓解的开源工具

3 个月前
Cover of WEFE框架:实现词嵌入公平性评估与偏见缓解的开源工具

概念擦除技术:神经网络表征中移除特定特征的创新方法

3 个月前
Cover of 概念擦除技术:神经网络表征中移除特定特征的创新方法
相关项目
Project Cover

concept-erasure

LEACE (LEAst-squares Concept Erasure) 是一种创新的概念擦除算法,通过闭式解方法有效阻止线性分类器检测特定概念,同时最小化对数据表征的影响。该方法可应用于增强模型公平性和可解释性,例如消除性别或种族等敏感特征的影响。项目提供简单易用的Python包,支持批量和流式数据处理,适合处理大规模数据集。LEACE在保证效率的同时,为AI模型的偏见消除和特征解释提供了有力支持。

Project Cover

wefe

WEFE是一个词嵌入公平性评估框架,用于测量和缓解词嵌入模型中的偏见。它统一了现有的公平性指标,提供标准接口来封装指标、测试集和计算模型公平性。WEFE还将偏见缓解过程标准化为计算和执行两个阶段。框架支持多种安装方式,提供详细文档。WEFE致力于推动词嵌入技术的公平性发展。

Project Cover

vit_large_patch14_clip_224.openai

OpenAI开发的CLIP模型通过对比损失训练大量的图像与文本对展示了其在计算机视觉任务中实现零样本分类的能力。这一模型尤其适合AI研究人员用以深入理解计算机视觉模型的鲁棒性及泛化能力,同时关注于它的潜在局限与偏见。尽管在细粒度分类和对象计数任务中存在不足,CLIP提供了对于模型在不同任务表现及相关风险的深入认知。需要注意的是,CLIP模型并不适用于商业用途,且其数据训练主要基于英语环境。

Project Cover

FairBERTa

FairBERTa是首个利用人口统计扰动语料库训练的大型语言模型。该模型通过神经扰动技术生成多样化和公平的文本数据,在保持下游任务性能的同时,显著提高了模型公平性。实验结果表明,FairBERTa在多项公平性指标上优于RoBERTa,为开发更公平的自然语言处理系统开辟了新途径。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号