您现在的位置是:首页 >金融 > 2020-01-20 10:50:38
这就是为什么人工智能专家说招聘网站促进就业歧视
数据科学顾问凯茜·奥尼尔(Cathy O’Neil)帮助公司以审计算法为生。当谈到算法和人工智能如何在招聘过程中造成偏见时,她说,最大的问题甚至不是雇主自己。
一项新的伊利诺伊州法律旨在帮助求职者了解如何在视频面试中使用人工智能工具来评估他们最近重新出现了关于人工智能在招聘中的作用的争论。但奥尼尔认为法律试图解决这一过程中的偏见太晚了。
“问题实际上是在申请进入之前。问题在于如何将求职者与工作相匹配,”奥尼尔风险咨询公司(O’Neil Risk Consulting&;Amp;Algotional Auditing)创始人兼CEO奥尼尔表示。
该管道从Linked In、Monster.com、Face book和Zip Recruiter等网站开始,在这些网站上,算法可以在确定哪些候选人看到哪些职位发布、过滤掉那些被认为不合格的人方面发挥重要作用。
“(算法)是为了区别对待,他们试图区别对待将擅长这份工作的人和不擅长这份工作的人,”奥尼尔说,“问题在于这是合法的还是非法的歧视。
尼尔在她的著作《毁灭数学的武器》和她的博客mathbabe.org中都广泛地论述了算法在助长不平等性方面所起的作用。在接受《商业内幕》(Business Insider)采访时,她谈到了在招聘过程中偏见的表现,以及雇主——以及Linked In等平台——应该做些什么来消除偏见。
联邦法律,如1964年的《公民权利法》和《美国残疾人法》,禁止基于种族、宗教、性别、民族血统、残疾状况、遗传信息和其他类别的就业歧视。
虽然算法可能会加快缩小求职者池的过程,但它们往往不擅长找到最合格的求职者,而是最终不成比例地过滤掉这些确切类别的人。
“我实际上并不认为大多数招聘算法都那么有意义,”奥尼尔说,他认为在许多情况下,它们在确定合格候选人方面并不比“随机数生成器”好。
2018年,亚马逊关闭了一款利用人工智能实现自动招聘的工具,因为它对女性有偏见。研究人员还展示了分析视频访谈的AI工具往往对残疾人有偏见。
但不仅仅是雇主遇到了带有偏见的人工智能招聘工具的问题,这也是帮助他们找到候选人的公司的一个问题。
2019年的一项研究发现,在Face book上投放的招聘出租车公司的广告——即使是针对广大受众的广告——被受众看到的是75%的黑人。而ProPublica调查发现,Face book允许雇主在年龄上明确排除用户。
有几个原因,为什么算法最终可以歧视某些群体。一是“坏数据进,坏数据出”的问题。
程序员通过向它展示大量的历史数据来“训练”一种算法。对于一个求职网站,他们展示了过去候选人的信息,告诉它在最终获得工作的人中寻找模式,然后它用来识别具有相同素质的潜在候选人。然而,如果数据集已经倾斜,这可能会导致问题。
奥尼尔说:“如果他们都接受过历史数据方面的培训,那么他们就会像人类社会一样成为种族主义者、性别歧视者和阶级主义者。
亚马逊的情况正是如此。由于过去男性主要是申请(并获得)工作,这一工具决定了男性更可取,并因此惩罚了女性的简历。
第二个问题是为什么奥尼尔认为有偏见的求职网站特别有问题:他们在信息中考虑的因素可能与候选人的工作能力无关,而不是只关注相关细节。
Face book、Linked In、Zip Recruiter和Monster.com等网站使用广泛的人口统计信息来训练他们的算法。这些算法然后帮助确定哪些招聘广告显示给哪些候选人以及哪些候选人出现在招聘人员的搜索结果中。
公司收集尽可能多的数据,因为他们认为这会给他们“一个更大的人的照片,”奥尼尔说,“但它真正做的是收集各种分散注意力和偏见的信息。
即使这些信息没有明确说明候选人的种族或性别,它仍然可能导致种族主义或性别歧视的结果。
一些求职网站试图通过不收集或考虑可能给他们的算法带来偏差的信息来解决这个问题。
Zip Recruiter在一份声明中告诉BusinessInsider,它的算法不允许考虑“明确的标记(例如年龄、种族、性别等)”或隐含标记(例如姓氏、特定居住地址等)在任何受保护的类别中的地位。“Zip Recruiter还防止这些模型在职称或职位上区分性别。
Linked In在一份类似的声明中表示,“我们积极主动地发现潜在的歧视性语言,并审查/阻止这些工作被张贴。”它还要求发布工作广告的广告商“证明他们不会使用广告基于性别或其他受保护特征进行歧视。
然而,奥尼尔说,这些步骤并不一定能解决这个问题。
她说:“对你来说,说‘嗯,我们没有收集这些信息,所以我们是色盲’是不会令人信服的。“没有办法摆脱代理人——一切都是种族的代理人,因为种族影响着我们国家的一切。
相反,公司试图通过屏蔽显然或隐含偏见的数据点来使人工智能招聘工具“色盲”,奥尼尔说,他们需要更多地关注他们在过滤求职者时所考虑的信息。
她说:“我们应该界定合格意味着什么,然后忽略其他东西。
她列举的一个例子是各大管弦乐队使用“盲目试镜”,在那里他们通过让试镜者在幕后演奏来减少性别偏见。在决定“合格”真的意味着“听起来不错”时,他们能够组织招聘过程,从而突出了候选人的资格。同样重要的是,他们使它对其他因素视而不见,如外表、姓氏或家乡。
奥尼尔说:“这些人工智能招聘算法都没有做到这一点。
但她最关心的甚至不是这些工具是如何设计的,尽管这仍然很重要。奥尼尔的主要观点是,公司在如何做事以及最终结果是什么方面更加透明。这意味着不断测试他们的算法,看看哪些候选人最终看到了工作,然后纠正任何不想要的偏见。
Linked In应该“被迫证明他们的所作所为并不会加剧不平等,”奥尼尔说。
Linked In在这方面采取了一些小步骤,告诉BusinessInsider:“我们确保我们的招聘人员搜索提供平衡的性别代表性,并在报告中提供性别洞察力,这样雇主就可以理解他们的工作和采购漏斗中的动态。”该公司还禁止广告商按年龄锁定招聘广告。
然而,性别和年龄只是人们面临歧视的许多方面中的两个。虽然Linked In和Zip Recruiter都表示,他们不容忍平台上对任何受保护类别的歧视,但也没有提供信息说明他们如何测试算法的结果,以确保事实确实如此。