1/2免费文章剩余

4件事情要考虑,然后再开始在人事决策使用AI

2020年11月3日
胡安莫亚诺/ Stocksy

人工智能作为解决业务问题的一个基础广泛的工具,最初的承诺已经让位给的东西很有限,但仍然非常有用:从数据科学的算法,使预测比我们已经能够到目前为止做的。

相较于标准的统计模型,专注于已知能与像工作绩效结果相关联的一个或两个因素,机器学习算法是无关的哪些变量以前或为什么他们的工作努力。越多越好:它抛出它们放在一起,并产生一个模型来预测就像谁将会是一个很好的聘请一些成果,给每个申请人一个单一的,易于理解的分数为的可能性有多大,他们将表现良好一份工作。

洞察力中心

  • AI与平等
    由SAS赞助
    设计是公平的所有系统。

毫无疑问,因为这些算法的承诺是如此之大,承认其局限性也得到了很多的关注,尤其是考虑以下事实:如果用于构建模型的初始数据被偏置,然后从该数据生成的算法将延续该偏压。最著名的例子已经在歧视妇女组织过去在那里工作业绩数据也偏向,并基于该数据均值算法也将偏向。

那么我们应该如何进行雇主,因为他们考虑采用AI作出人事决策?这里有四个方面的考虑:

1.算法可以比产生在第一位置中的数据的现有的实践来少偏置。让我们不要浪漫多么贫穷人的判断,以及如何杂乱无章我们大部分的人事管理措施,现在的样子。当我们委托招聘个别监事,例如,它很可能是他们可能就会有很多偏见,在赞成和反对基于什么都没有做很好的性能属性的候选人:督导员的可能偏向谁从毕业考生特别是大学,因为她去了那里,而管理员B可以反向做是因为他与一些毕业生不愉快的经历。至少算法把具有相同属性的人人平等,虽然未必公平。

2.我们可能不会有所有我们想预测结果的好措施,我们可能不知道如何衡量各种因素,作出最终决定。例如,是什么让一个“好员工”?他们必须完成任务好,他们也应该与同事在“文化,”和我们在一起相处得很好,配合和不退出,等等。将注意力集中在一个方面,我们有措施将导致聘用算法,对一个方面,选择的时候往往不密切相关的其他方面,如销售人员谁是伟大的客户,但与同事苦不堪言。

Here again, it isn’t clear that what we are doing now is any better: An individual supervisor making a promotion decision may be able in theory to consider all those criteria, but each assessment is loaded with bias, and the way they are weighted is arbitrary. We know from严谨的研究越招聘经理用自己的判断在这些问题上,更糟糕的决策。

3.数据AI使用可能引起的道德问题。该预测营业额的算法,例如,现在经常依赖于数据来自社交媒体网站,如Facebook帖子。我们可能会认为这是侵犯隐私,收集这些数据对我们的员工,但不使用它是在模型的价格,将预测较差。

它也可能是一个算法整体做得很好,在预测的东西的普通员工,但确实做得不好的员工的一些子集的情况。这也许并不奇怪,例如,要查找招聘模型,挑选新的销售人员不擅长挑选的工程师很好地工作。只要有针对每个单独的模型似乎是解决办法。但是,如果有什么不同的群体是男性和女性或白人和非裔美国人,看起来就是这样的情况?在这种情况下,法律约束阻止我们使用不同的方法和不同的雇佣模式为不同的人群。

4.通常很难,如果不是不可能的,解释和辩护算法决策背后的标准。在现在大多数工作场所,我们至少有使就业决定一些接受的标准:他得到了机会,因为他一直在这里长;她被关这个周末,因为她上周末有这样的转变;这是我们以前也处理人的方式。如果我没有得到我想要的宣传或移位,我可以投诉到谁决定的人。他或她有机会解释的标准,甚至可能下一次帮我,如果周围的决定似乎并不完全公平。

当我们使用算法来驱动这些决定,我们就不能解释职工的决定是如何做出的能力。该算法简单地拉在一起所有可用的信息来构建预测过去的成果非常复杂的模型。这将是极不可能的,如果这些结果对应于任何原则,即我们可以观察或解释,只是说,“整体模型认为,这将是最好的。”监督者不能帮助解释或地址公平性的担忧。

尤其是当这些机型不执行比我们已经做的要好得多,这是值得一问,他们会造成员工的刺激是否值得的好处。其优点,比如,仅仅让最资深的员工获得的第一选择中挑选他或她的日程安排是,这个标准是很容易理解的,公平的,至少一些公认的概念相对应,它是简单的应用,并且它可能有一些长期效益,如增加奖励坚持围绕。可能会有一些点算法就能因素,像这样的问题,但我们无处接近了。

算法模型,可以说是没有比我们现在正在做的更糟。但他们的公正性问题是比较容易辨认,因为它们发生在规模。解决这些问题的方法是获得更多,更好的措施 - 这不会偏袒数据。这样做会即使我们不使用机器学习算法,使人事决策提供帮助。


彼得·卡普利是管理的乔治·W·泰勒教授沃顿商学院和人力资源中心的董事。他是几本书的作者,包括威尔学院还清?指南中最重要的财务决策,你永远做(公共事务,2015)。


这篇文章是关于管理机构
相关话题: