默默关注
只追求总体准确率的人脸识别,往往在少数群体上“翻车”。《Sensitive Loss》提出把人口统计属性融入三元组损失,做成一个可即插即用的小头层,微调十来轮,就能同时降低EER与群体间方差,在VGG-Face、ResNet-50、ArcFace上均验证有效。
扫码添加
回复“Sensitive Loss”
免费获取全部论文
该研究提出了一种敏感感知学习方法,旨在提升模型的准确性与公平性。研究指出,主流人脸识别基准数据集未充分考虑人口统计属性,导致广泛使用的预训练深度人脸模型存在显著算法歧视。作者通过在三种流行人脸识别模型和三个包含6.4万不同性别、种族群体身份的公共数据库上进行全面的实验验证,证实了这一现象。为解决此问题,研究提出敏感损失方法,该方法基于三元组损失函数和敏感三元组生成器,可作为预训练网络的附加模块使用。
核心创新:Sensitive Loss方法
▶设计思想:
将公平性作为学习目标嵌入损失函数,通过人口统计感知的三元组损失引导模型优化特征空间。
▶关键技术:
·敏感三元组生成器(Sensitive Triplet Generator):在训练批次中动态选择表现最差的人口统计群体(如亚洲女性)的样本构建三元组(锚点-正样本-负样本)。
·三元组生成策略:
无约束(U):允许跨群体三元组(如亚洲女性 vs 非裔男性)。
约束(R):仅限同群体内三元组(如亚洲女性内部比较)。
·即插即用结构:
在预训练模型后添加轻量级全连接层(参数量远小于主干网络),仅需微调10轮即可输出公平性提升的特征表示 (\phi(x))。
注意力机制方法:
▶偏差根源的可视化分析
· 特征空间聚类(t-SNE可视化):
预训练模型(如ResNet-50)的特征空间按种族形成明显聚类,证明模型隐式编码人口统计属性(图4a)。
· 激活强度差异(Grad-CAM):
非优势群体(如亚洲女性)的卷积核激活强度显著低于优势群体(图4b),导致特征提取能力不足。
·改进效果:
Sensitive Loss使不同群体的激活分布更均匀,缩小性能差距。
研究意义:
1.首次形式化定义群体性算法歧视(G-AD),建立公平性量化框架。
2.提出轻量级去偏差方案Sensitive Loss,实现“即插即用”的公平性提升。
3. 证明偏差可在预训练特征空间中修正,无需重训整个网络。
实践价值:
为满足GDPR等法规要求提供技术路径,推动人脸识别在司法、金融等敏感场景的公平部署
未来方向:
扩展至个体级歧视(U-AD)、年龄偏差分析、隐私保护下的公平性优化。
本文分享的论文文献仅供学术交流与参考,所有内容著作权归原作者及出版方所有。若内容存在学术错误或表述问题,欢迎读者批评指正;如涉及版权争议或侵权问题,请通过“扫码”联系我删除或修改。传播知识的同时,我们尊重并维护原创者的合法权益,
扫码添加
回复“Sensitive Loss”
免费获取全部论文
AI-enabled

