岩棉厂家
免费服务热线

Free service

hotline

010-00000000
岩棉厂家
热门搜索:
技术资讯
当前位置:首页 > 技术资讯

面部识别系统存在哪些偏见困境这名年轻人的发言让JeffDean忍不住点赞_[#第一枪]

发布时间:2021-06-07 14:10:57 阅读: 来源:岩棉厂家

雷锋网 AI 科技评论:AI 算法偏见(性别、人种……)如今在海外早已不是新鲜议题,不久前,推特上的一条视频就引发了大众对此大规模的探讨。一名年轻的微软研究人员就此话题在个人推特上展开了对面部识别系统模型所存在偏见的探讨,引发了包括 Jeff Dean 等大牛在内的共鸣。她究竟说了些什么?

事情起源于推特上的一个视频,在视频中,社会党众议员 Alexandria Ocasio-Cortez 声称由数学驱动的算法本质上都是拥有种族主义倾向的。这条帖子很快获得了大众的响应,其中就包括一位名叫 Anna S. Roth 的研究人员。

原帖转发量截止目前为止已经达到了 2.8k,拥有超过 7.2k 的留言。

推特直通车:https://twitter.com/RealSaavedra/status/1087627739861897216

据个人主页介绍,Anna S. Roth是微软技术与研究部门的一名研究人员,专职于微软的 Project Oxford 项目——这是一个混合了 APIs 与 SDKs,使开发人员能够轻松利用 Microsoft Research 和 Bing 的计算机视觉、语音检测和语言理解前沿工作进行再创造的项目。此外,她还曾经入选 Business Insider 杂志「30 位 30 岁以下具有影响力的科技女性」榜单。

她在个人推特上接连发表多达 29 条的短评,简单概括了面部识别系统模型产生偏见的原因,以及相应的解决方案和现存困境。由于内容浅显易懂且直中要害,谷歌大脑领导人 Jeff Dean 也忍不住在推特上进行推荐。

接下来一起看看 Anna S. Roth 分别说了些什么吧。

关于数据偏差问题

Alexandria Ocasio-Cortez 说的完全在理。我曾经从事面部识别的商业开发工作(当时的方向有点偏,开发的是存在偏见的模型),我认为人们最终会找到一些具体可信的例子搞清 AI 系统是如何产生偏见的。推特上的专家们解释了,面部识别系统之所以产生偏见,是因为数据有所偏差。

所以我准备和大家谈谈:

(1)那些(有偏差的)数据来自哪里。

(2)偏差测量标准的选择同样事关紧要。

(需要强调一点是,我只是针对行业所发生的一些事情进行泛泛而谈,并非专指本人雇主的某个具体事例。简单来说,这些都只是我的个人意见,不代表雇主的立场。)

最前沿的面部识别系统都需要在「非常庞大」的数据集上进行训练。为达到最佳训练效果,你需要获取同一个人的多张相片。比如当下最大的发布数据集之一——来自 UW 的 MF2,就拥有 672K 的人员信息和 4.7M 的相片。

相关论文

皮革切粒机价格

行军床批发

防腐木凉亭价格

玉米榛子机价格