加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 业界 > 正文

人脸识别的肤色性别偏见背后,是人类自己的偏见

发布时间:2019-11-12 09:53:43 所属栏目:业界 来源:站长网
导读:副标题#e# 图片来自“123RF” 皮尤研究中心的一项最新研究发现,Facebook 的新闻图片中,男性出现的频率是女性的两倍,且大部分的图片是关于男性的。 考虑到当下有 43% 的美国成年公民主要通过 Facebook 获取新闻资讯,皮尤研究中心使用机器视觉测试了 2018

Facebook 曾宣布,在名为 Labeled Faces in the Wild(简称 LFW,为世界上人脸识别最知名的数据集之一)的数据集测试中,自己面部识别系统的准确率高达 97%。但当研究人员查看这个所谓的黄金标准数据集时,却发现这个数据集中有近 77% 的男性,同时超过 80% 是白人。

为了在数据层就尽最大可能地剔除偏差,Joy 提出,应当构建更具包容性的基准数据集。为了平衡基准数据,她列出了世界上妇女在议会所占比例最高的十个国家,其中卢旺达以超过 60% 的女性比例领先世界。考虑到北欧国家和少数非洲国家具有典型代表性,Joy 选定了 3 个非洲国家和 3 个北欧国家,通过选择来自这些国家年轻、深肤色的个体数据来平衡数据集中的皮肤等类型。

正是基于这个更平衡的数据集,他们对亚马逊、Kairos、IBM、Face++等公司的面部识别系统进行了重新评估。在 2018 年 8 月的研究中,他们发现,亚马逊和 Kairos 在白人男性识别工作上表现优秀,但亚马逊对有色人种的女性面孔识别的准确率很低,仅为 68.6%。

Joy 表示,现实世界中的脸部识别要比实验检测更为复杂和困难,他们建立的基准数据集也并非完全经受得住考验,「但这就好比跑步比赛,在基准测试中的出色表现,起码能保证你不会刚起步就摔倒。」

即便在同样的基准下,面部识别系统的准确度数字可能也会发生变化。人工智能并不完美。在这种情况下,通过提供置信度给用户更具体的判断信息是一个有用的做法。

面部识别技术已经被广泛地应用在大规模监视、人工智能武器化和更多的执法环境中。但是,这项强大的技术是在没有得到充分监督的情况下,快速发展着。

为了减少对面部识别技术的滥用,算法正义联盟 (Algorithmic Justice League) 和隐私与技术中心 (Center on Privacy & Technology) 发起了「安全面孔承诺」(Safe Face Pledge) 活动。在目前,包括亚马逊在内的很多科技公司尚未加入这一承诺。「根据我们的研究,贸然向执法部门或者政府机构出售面部识别系统将是不负责任的。」作为算法正义联盟创始人之一的 Joy 希望,在未来,更多的机构能加入到「安全面孔承诺」,能够负责任地、符合道义地为面部分析技术的发展付出行动。

毕竟,算法偏见的背后,其实是我们人类自己的偏见。


(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读