首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  免费   0篇
  国内免费   1篇
工业技术   1篇
  2023年   1篇
排序方式: 共有1条查询结果,搜索用时 0 毫秒
1
1.
近几年深度神经网络正被广泛应用于现实决策系统,决策系统中的不公平现象会加剧社会不平等,造成社会危害.因此研究者们开始对深度学习系统的公平性展开大量研究,但大部分研究都从群体公平的角度切入,且这些缓解群体偏见的方法无法保证群体内部的公平.针对以上问题,本文定义了两种个体公平率计算方法,分别为基于输出标签的个体公平率(IFRb),即相似样本对在模型预测中标签相同的概率和基于输出分布的个体公平率(IFRp),即相似样本对的预测分布差异在阈值范围内的概率,后者是更严格的个体公平.更进一步,本文提出一种提高模型个体公平性的算法IIFR,该算法通过余弦相似度计算样本之间的差异程度,利用相似临界值筛选出满足条件的相似训练样本对,最后在训练过程中将相似训练样本对的输出差异作为个体公平损失项添加到目标函数中,惩罚模型输出差异过大的相似训练样本对,以达到提高模型个体公平性的目的.实验结果表明,IIFR算法在个体公平的提升上优于最先进的个体公平提升方法.此外IIFR算法能够在提高模型个体公平性的同时,较好地维持模型的群体公平性.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号