1/2免费文章剩余

使用人工智能消除招聘中的偏见

2019年10月29日
Vertigo3d /盖蒂图片社

就像任何一项新技术一样,人工智能也能产生极好的或坏的结果。公众似乎越来越关注负面因素,尤其是涉及到人工智能可能存在的偏见时。这种担忧既有充分的根据,也有充分的证明。但什么是人工智能?它是机器对人类过程的模拟。这种对带有偏见的人工智能的恐惧忽视了一个关键事实:人工智能偏见的最根深蒂固的根源是它模拟的人类行为。它是用来训练算法的有偏数据集。如果你不喜欢AI正在做的事情,你肯定也不会喜欢人类正在做的事情,因为AI纯粹是在向人类学习。

让我们专注于招聘。招聘的现状进行了深入缺陷很坦率地说反乌托邦的三个主要原因。

无意识的人类偏见使得招聘变得不公平。面试前审查应聘者的典型方式是通过招聘人员审查简历。许多研究表明,这一过程会产生显著的影响对女性的无意识偏见少数民族老工人

申请人大池被忽略。LinkedIn等采购平台已经如此成功,平均而言,250名申请者申请任何打开的角色。这意味着数百万申请人为几千开放的角色。这个过程显然不能手动处理。因此,招聘人员限制其申请人池的10%至20%,他们认为将展示最有前途的观点:那些来自常青藤大学的学生来自竞争对手的被动候选人寻求填补职位空缺,或公司员工推荐计划。但猜猜怎么了?顶尖大学员工推荐计划与提交简历的更广泛的申请者群体相比,求职者的多样性要小得多。

传统的招聘工具有已经偏向。这是由美国法律上的漏洞允许:美国联邦法规一个招聘工具可如果是与工作有关的偏向。“工作相关”指的是谁的角色是成功的人表现出某些特性。但是,如果所有的“员工成功”的白人男子,由于偏置人雇用行为的历史了,那么几乎可以肯定,你的工作有关的雇佣评估将偏向于白人男性和对妇女和少数族裔。一个非洲裔妇女从非常青藤联盟学校谁是幸运地成为管道,其简历审查,谁通过人力招聘人员评估她的简历然后可以要求采取有偏见评估的一部分。

我们很难雇佣到多元化的员工,这有什么奇怪的吗?导致当今多样性长期缺乏、并将继续阻碍多样性的,是当今存在的人类范式,而非人工智能。

AI适用于消除雇用有两个主要原因偏差最大的承诺:

1. AI可以消除无意识人为偏差。目前,很多AI工具招聘有缺陷,但他们可以得到解决。AI的妙处在于,我们可以把它设计来满足某些有益的规格。AI从业像之间的运动OpenAI生命未来研究所已经提出一套了吗设计原则制作AI道德和公平(即,有利于每个人)。一个重要的原则是,AI的设计应该可以审核,并在其中发现了偏差可以被删除。人工智能审计应有的功能,就像一个人的驱动器之前,新车的安全测试。如果未能达到标准,它被允许投入生产之前有缺陷的技术必须是固定的。

2.人工智能可以评估整个候选管道,而不是强迫时间有限的人类执行有偏见的流程,从一开始就缩小管道。只有通过真正的自动化顶级的漏斗过程中,我们可以消除偏见,由于缩小了最初的管道,因此手册招聘人员的能力,可以处理它。令人震惊的是今天企业毫不掩饰地承认,怎么只有数以百万计谁申请的申请人的一小部分是不断审查。技术专家和国会议员应该共同创造工具和政策,使人们既可以和强制性整个管线进行审查。

此外,这家专注于人工智能公平应该有我们估算同一个标准现有的预租赁评估。美国平等就业机会委员会(EEOC)写于1970年代现有的公平雇佣条例 - 公共互联网的出现和应用的每个作业的人数在爆炸发生前。平等就业机会委员会没有预料到是比人类少偏向现代算法然而,也能够评估一个更大,更多样化的管道。我们需要更新和澄清这些规定,以真正鼓励招聘机会均等,并允许使用符合明确标准的算法招聘系统。一些标准的先例已经出现。加州议会通过了这项法案决议使用公正的技术来促进雇佣中的多样性,旧金山地方检察官正在使用“盲量刑” AI在刑事司法程序中。

同样的标准也应适用于现有的雇用工具。亚马逊是在全国范围内痛斥几个月由于其男性偏向雇用算法。然而,在今天的美国,雇主在法律上允许使用传统的,偏的评估,对妇女和少数族裔的歧视。怎么会这样?大概是因为大多数人都没有意识到偏评估被突出使用(和法律)。如果我们要呼吁公正的AI - 我们绝对应该 - 我们也应该呼吁消除一切偏见的传统评估。

这是不可能正确的人为偏差,但demonstrably可以识别和人工智能正确的偏见。如果我们采取的关键步骤,以解决被提出的问题,我们才能真正线束技术,多元化的工作场所。


弗里达Polli他是认知神经科学家,也是pymetrics的联合创始人兼首席执行官。pymetrics是一个利用行为科学和人工智能为人们准确、公平地匹配工作的平台。


这篇文章是关于技术
相关话题: