1/2免费文章留下剩下

如何在AI中争取歧视

2020年8月28日
胡安莫奥诺/袜

你的人工情报博览会吗?

由于越来越多的AI采用,这已成为数据科学家和法律人员现在经常面对的问题。尽管重大资源公司在近年来,公司已经花了负责任的AI努力,组织仍然与了解如何在AI中运作公平的日常任务。

那么,公司应该做些什么来遏制采用歧视性算法?他们可以通过寻找众多法律和统计的先例来测量和确保算法公平性。特别是,来自美国法律等法律等法律标准,如平等的信用机会法,民权法和公平的住房法案以及平等就业机会委员会的指导可以帮助减轻AI所带来的许多歧视性挑战。

在高水平,这些标准基于故意和无意歧视之间的区分,有时被称为不同的待遇不同的影响, 分别。故意歧视受到最高的法律罚款,并且是采用AI的所有组织都应该显然避免。这样做的最佳方法是通过确保AI未暴露于可以直接指示受保护类,例如种族或性别的输入。

然而,避免无意歧视,或者不同的影响是一个完全更复杂的事业。当一个看似中立的变量(如家居级别)充当受保护变量的代理(如竞赛)时发生。避免在实践中避免不同影响的原因是真正删除受保护类的所有代理往往是非常具有挑战性的。在一个由美国的深度系统性不公平的社会中,差异可以深入嵌入,它通常需要艰苦的工作来完全分离来自受保护属性的变量(如果有的话)。

实际上,因为公平性的价值观在许多方面是主观 - 例如,几乎两打公平的概念,其中一些是相互排斥的 - 有时候甚至不清楚最公平的决定是什么。在一项研究通过谷歌AI研究人员,提供弱势群体的看似有益的方法更容易获得贷款的意外效应,即减少这些群体的信用评分。更容易访问贷款实际上增加了该组内的默认值,从而随着时间的推移降低了它们的集体分数。

确定在统计水平上的不同影响是什么也远远不如直截了当。从历史上看,统计学家和监管机构使用了各种方法来检测其在现有法律标准下的发生。例如,统计人员使用称为“80%规则”的小组公平度量(它也称为“不利影响率”),作为不同影响的一个中央指标。在20世纪70年代的比例中起始在就业背景下包括将所选组的比例除以弱势阶级的优势组的比例。低于80%的比例通常被认为是歧视的证据。其他度量,如标准化平均差异或边际效应分析,也已用于检测AI的不公平的结果。

一种ll of which means that, in practice, when data scientists and lawyers are asked to ensure their AI is fair, they’re also being asked to select what “fairness” should mean in the context of each specific use case and how it should be measured. This can be an incredibly complex process, as a growing number of researchers in the machine learning community have注意到最近几年。

然而,尽管所有这些复杂性,但现有的法律标准可以为寻求对抗其AI不公平的组织提供良好的基准。这些标准识别一定规模适合所有方法来衡量不公平的结果的不切实性。结果,这些标准要求的问题不仅仅是“发生了不同的影响?”。相反,现有标准授权对受监管公司的两个基本要求。

首先,受监管公司必须清楚地记录他们试图减少的所有方式 - 因此衡量 - 在模型中的影响。换句话说,他们必须仔细监控和记录他们所有的尝试,以减少算法不公平。

其次,监管组织还必须为使用他们最终部署的模型来生成明确,良好的信仰理由。如果存在的更公平的方法也会达到这些目标,可以随之而来。

使用AI的公司可以并应从许多这些相同的过程和最佳实践中学习,并且在其AI正在产生不公平的结果时识别和最小化案件。清除合并这两个基本要素的公平测试标准以及如何以及当应举行这种测试的清晰文件指南,将有助于确保部署AI的公司的更公平和更多仔细监控的结果。公司也可以从公共指导意见由BLD的Nicholas Schmidt和Bryce Stephens等专家提供。

这些现有的法律标准是完美的吗?离得很远。由于监管机构实际上指出,有很大的改进空间最近几个月。(一种值得注意的例外是特朗普政府的住房和城市发展部,目前正在试图回滚这些标准。)确实,美国联邦贸易委员会已表示越来越多的焦点最近几个月的AI公平,其五个委员公开陈述它应该扩大其对歧视性AI的监督。

换句话说,在AI中的新法律和指导,换句话说明显来。如果正确地形状,他们将是一个欢迎在他们到达时的欢迎。

但直到他们来,这是企业建立了现有最佳实践的关键,以打击其AI的不公平。如果部署仔细,该技术可以是一个强大的力量。但如果在没有护理的情况下使用,对于AI来说,巩固现有的差异并歧视已经弱势群体是全部的。这是一项结果,业务和社会都无法承受。


安德鲁伯特是BNH.AI的管理合伙人,该公司是一家专注于AI和Analytics的一家专注于AI和Analytics,以及Immuta的首席法律官员。


这篇文章是关于技术
相关话题: