#公平性

concept-erasure - LEACE算法实现特征精准移除 优化模型公平性与可解释性
LEACE概念消除线性分类器表征学习公平性Github开源项目
LEACE (LEAst-squares Concept Erasure) 是一种创新的概念擦除算法,通过闭式解方法有效阻止线性分类器检测特定概念,同时最小化对数据表征的影响。该方法可应用于增强模型公平性和可解释性,例如消除性别或种族等敏感特征的影响。项目提供简单易用的Python包,支持批量和流式数据处理,适合处理大规模数据集。LEACE在保证效率的同时,为AI模型的偏见消除和特征解释提供了有力支持。
wefe - 词嵌入公平性评估框架
WEFE词嵌入偏见评估公平性开源库Github开源项目
WEFE是一个词嵌入公平性评估框架,用于测量和缓解词嵌入模型中的偏见。它统一了现有的公平性指标,提供标准接口来封装指标、测试集和计算模型公平性。WEFE还将偏见缓解过程标准化为计算和执行两个阶段。框架支持多种安装方式,提供详细文档。WEFE致力于推动词嵌入技术的公平性发展。
vit_large_patch14_clip_224.openai - 探索OpenAI提出的CLIP模型在计算机视觉任务中零样本分类的潜力
HuggingfaceCLIP开源项目模型Github零样本学习计算机视觉偏见公平性
OpenAI开发的CLIP模型通过对比损失训练大量的图像与文本对展示了其在计算机视觉任务中实现零样本分类的能力。这一模型尤其适合AI研究人员用以深入理解计算机视觉模型的鲁棒性及泛化能力,同时关注于它的潜在局限与偏见。尽管在细粒度分类和对象计数任务中存在不足,CLIP提供了对于模型在不同任务表现及相关风险的深入认知。需要注意的是,CLIP模型并不适用于商业用途,且其数据训练主要基于英语环境。
FairBERTa - 基于人口统计扰动的公平性增强语言模型
语言模型模型FairBERTa公平性Github人口统计扰动Huggingface开源项目自然语言处理
FairBERTa是首个利用人口统计扰动语料库训练的大型语言模型。该模型通过神经扰动技术生成多样化和公平的文本数据,在保持下游任务性能的同时,显著提高了模型公平性。实验结果表明,FairBERTa在多项公平性指标上优于RoBERTa,为开发更公平的自然语言处理系统开辟了新途径。