您当前的位置:首页 > 指南 > 正文

研究人员表示 亚马逊人脸检测技术显示偏见

导读: 麻省理工学院和多伦多大学的研究人员表示,亚马逊向执法部门推销的面部检测技术经常误认为女性,尤其是皮肤较黑的女性。由于担心歧视少数群...

麻省理工学院和多伦多大学的研究人员表示,亚马逊向执法部门推销的面部检测技术经常误认为女性,尤其是皮肤较黑的女性。

由于担心歧视少数群体,隐私和民权倡导者呼吁亚马逊停止营销其Rekognition服务。一些亚马逊投资者也曾要求该公司停止担心它会使亚马逊容易受到诉讼。

研究人员表示,在他们的测试中,亚马逊的技术将黑皮肤女性称为男性的31%。皮肤较浅的女性在7%的时间里被误诊。肤色较深的男性的错误率为1%,而肤色较浅的男性则没有。

人工智能可以模仿人类创造者进入日常生活的偏见。周四晚发布的这项新研究警告说,面部检测技术可能会导致滥用和威胁隐私和公民自由。

亚马逊云计算部门人工智能总经理Matt Wood 表示,该研究使用的是“面部分析”而非“面部识别”技术。伍德说,面部分析“可以在视频或图像中发现面部,并指定佩戴眼镜等通用属性;识别是一种不同的技术,通过这种技术,个人面部与视频和图像中的面部相匹配。”

在媒体网站上的一个星期五的帖子中,麻省理工学院媒体实验室研究员Joy Buolamwini回应说,公司应该检查所有分析人脸的系统是否有偏见。

她写道:“如果你销售一种已被证明对人脸有偏见的系统,那么你的其他基于面部的产品也完全没有偏见是值得怀疑的。”

美国公民自由联盟(American Civil Liberties Union)的律师雅各布•斯诺(Jacob Snow)表示,亚马逊的反应表明它并没有认真对待“这项研究所揭示的真正严重的担忧”。

多伦多大学的Buolamwini和Inioluwa Deborah Raji表示,他们研究亚马逊的技术,因为该公司已将其推向执法部门。Raji的LinkedIn帐户称,她目前是Google的人工智能研究人员,该公司与亚马逊竞争提供云计算服务。

Buolamwini和Raji表示微软和IBM已经改进了他们的面部识别技术,因为研究人员在2017年5月的研究中发现了类似的问题。他们的第二项研究,包括亚马逊,于2018年8月完成。他们的论文将于周一在檀香山举行的人工智能会议上发表。

伍德表示亚马逊自研究以来已对其技术进行了更新,并通过“零假阳性匹配”进行了自己的分析。

亚马逊的网站认为Rekognition帮助俄勒冈州华盛顿县警长办公室加快了从数十万张照片记录中识别嫌疑人的时间。


声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,谢谢。

上一篇: 带枪出巡歌曲静香 带枪出巡歌曲

下一篇: 总经理助理属于高管吗? 总经理助理属于高管吗



推荐阅读