在构建影响人们生活的人工智能模型时,我们必须确保公平是核心指导原则。结果必须公平且可解释。
定义公平是一项有问题的任务。该定义在很大程度上取决于上下文和文化,当涉及到算法时,每个问题都是独一无二的,因此将通过使用独特的数据集来解决。算法公平性可以源于手头问题的统计和数学定义,甚至法律定义。此外,如果我们为同一目的基于不同的公平定义构建模型,它们将产生完全不同的结果。
公平性的衡量标准也随着每个用例而变化。例如,用于信用评分的人工智能与用于营销工作的客户细分完全不同。简而言之,很难给出一个包罗万象的定义,但出于本文的目的,我想我会做出以下尝试:如果算法不会为个人产生不公平的结果或表示,它就是公平的或团体。
所有人的可解释结果
即使有上述定义,很明显,在每种情况下,为每个人或组创建一个 100% 公平的模型是一项极具挑战性的任务。我们所能希望的最好结果是,我们以公平为基础进行建设,以便我们可以袖手旁观,为个人和团体解释结果。
然而,现在存在个体公平和群体公平定义不同的问题。
个体公平性侧重于确保类似个体的结果的统计测量是相同或相似的。简单来说,如果你和我在很多方面都一样,即年龄相同,收入大致相同,居住在相同的地区,并且我们申请贷款,那么我们应该会有相似的结果。
群体公平性根据敏感或受保护的属性(例如种族、民族和性别)将人口划分为预定义的群体,并力求确保结果的统计衡量标准在各群体之间是平等的。例如,如果我们查看按性别划分的组,那么应该为整个组做出类似的决定。不应偏袒一种性别。
关于在构建决策模型时如何实现公平,有两种世界观。第一个是“我们都平等”(WAE)的观点,它指出群体具有相同的能力,因此结果的差异可归因于结构性偏见,而不是能力差异。第二种是“所见即所得”(WYSIWYG)方法,它认为观察反映了群体的能力。
在金融领域,一个易于理解的例子是 FICO 评分。WAE 世界观指出,不同人群的整体 FICO 分数不同不应被误认为是无法偿还抵押贷款的不同情况。WYSIWYG 世界观指出,FICO 分数与公平比较申请人偿还抵押贷款的能力有很好的相关性。
为什么重要
偏见在我们身边普遍存在。我们几乎在现代生活的方方面面都能看到它。在 Google 上快速搜索算法和偏见,会找到数百个示例,其中模型在发布之前没有进行公平性测试。
我们已经看到保险公司将机器学习用于歧视老年人的保险费、在线定价歧视,甚至产品个性化引导少数群体获得更高的费率。此类错误的代价是严重的声誉损失,客户的信任无法挽回。
以下是一些亲身经历过算法偏见的人的引述:
“这完全不公平,因为不是每个女人都一样。”
“他们已经给我贴上了低收入者的标签。”
“银行说我付不起房贷,所以我付房租。”
关键是,客户知道何时发生算法不公平,如果我们要推出影响客户和客户生活的贷款模型,我们需要确保我们测试它们的公平性。不公平算法做出的决定也可以作为训练数据传播,我们的模型再次从中学习和进化。这种反馈循环会导致传播有偏见的数据的恶性循环。
性能问题
为了说明偏见是如何渗透到算法中的,我采用了一些公开的家庭抵押贷款披露法案 (HMDA) 数据,该数据要求贷方报告抵押贷款申请人的种族、种族、性别和总收入,以及一个受欢迎的成人收入数据集和建立了一些初步的机器学习模型。我忽略了敏感属性,以确保我有平衡的数据,创建了一些很棒的功能,并获得了一些非常好的性能。如果绩效是衡量成功的唯一标准,我会说我做得很好,但是,我对公平性进行了一些检查。
使用 HMDA 数据,我检查了比赛如何影响结果,结果令人不安。在下图中,我们可以看到在给定种族的情况下接受贷款的概率。查看右侧橙色和蓝色区域之间的差异,我们可以清楚地看到,白人客户接受贷款的概率比非白人客户的预测分布高得多。如果这是公平的,我们应该看到线条靠近在一起,或者理想情况下重叠。
显然,如果将该算法产品化并在现实世界中使用,可能会对非白人客户造成严重后果。消除此类模型进入市场的可能性必须成为跨行业组织的关键驱动力。无论是贷款、保险还是医疗保健,人工智能都可以成为改善业务和运营成果的强大盟友,但这绝不能以偏见传播的群体或个人为代价。
客户会记得他们感到受到不公平对待的情况,特别是当决定的影响对他们的福祉产生重大影响时。作为数据科学家,我们必须从我们开展的任何工作开始就开始实施公平。