随着人工智能继续嵌入招聘流程,很明显,该技术的效率承诺伴随着自身的风险。
根据2022年的数据,约55%的公司已经使用人工智能工具进行招聘。
虽然人工智能加速了传统的招聘实践,在这个过程中消除了大量的简历和简历,但它也提出了关于公平性、偏见和人类决策本质的关键问题。
毕竟,人工智能是根据人类数据进行训练的,所以它们很容易继承它们承诺根除的所有偏见和偏见。
这是我们可以改变的吗?到目前为止,我们从招聘AI中学到了什么?
Meta被人权组织指控歧视性广告行为
数据显示, 79%的求职者 使用社交媒体寻找工作,证据表明这是歧视开始的地方。
Meta目前面临欧洲人权组织的多项指控,称Facebook的招聘广告定位算法存在偏见。
6月,非政府组织 全球见证研究了几个自动定向的Facebook招聘广告,发现许多人长期存在性别偏见。
例如,男性更有可能看到与工程有关的广告,而女性更有可能看到与教学有关的广告。
在法国的广告中,93%的用户显示了幼儿园教师招聘广告,86%的用户显示了心理学家招聘广告。相反,只有25%的女性看到了飞行员招聘广告,只有6%的女性看到了技工招聘广告。
在荷兰,85%的用户展示了教师招聘广告,96%的用户展示了前台招聘广告。包括英国、印度和南非在内的许多其他国家也观察到了类似的结果。
Facebook的广告定位在所有测试的国家都有严重的偏见,反映了性别陈规定型观念。资料来源:CNN全球见证。
中 接受CNN采访来自Global Witness的Naomi Hirst说:“我们担心的是,Facebook正在加剧我们生活在社会中的偏见,实际上破坏了工作场所进步和公平的机会。”
全球见证组织与Clara Wichmann办事处和Fondation des Femmes一起,向法国和荷兰的人权和数据保护机构提出了针对Meta的投诉。
这些组织敦促调查Meta的做法是否违反了人权或数据保护法。如果指控成立,Meta可能面临罚款和制裁。
作为回应,Meta发言人表示,”该系统考虑了不同类型的信息,试图为人们提供他们最感兴趣的广告。”
这并不是Meta第一次驳斥此类批评-该公司在2019年面临多起诉讼,并致力于改变其广告投放系统,以避免基于性别和种族等受保护特征的偏见。
来自大赦国际的帕特·德·布伦(Pat de Brún)对全球见证组织的调查结果进行了严厉的批评。“研究一直表明,Facebook的算法如何提供严重不平等的结果,并往往加剧边缘化和歧视,”她告诉CNN。
亚马逊废弃显示对女性有偏见的秘密人工智能招聘工具
亚马逊在2014至2017年间开发了一款人工智能招聘工具,后来意识到该工具在选择软件开发人员工作和其他技术职位时存在偏见。到2018年,亚马逊已经完全放弃了这一工具。
人工智能系统对含有“women”和“women’s”字样的简历进行了处罚,并降低了女性毕业生的技能等级。
即使亚马逊试图编辑算法,使其性别中立,该系统也失败了。
后来发现,亚马逊在10年的时间里对提交给公司的简历进行了培训,其中大部分来自男性。
与许多人工智能系统一样,亚马逊的工具也受到训练数据的影响,导致了意想不到的偏见。这种偏见有利于男性候选人,他们更喜欢使用男性工程师简历中常见的语言的简历。
此外,由于基础数据的问题,系统经常推荐各种职位的不合格候选人。
的 世界经济论坛在谈到亚马逊的招聘系统时,他说:“例如,亚马逊的案例中,严重的性别失衡可能与所进行的研究类型有关。这些训练数据偏差也可能是由于糟糕的数据质量或非常小的、非多样化的数据集造成的,这可能是那些不在全球运营、正在寻找利基候选人的公司的情况。
亚马逊成功地将招聘引擎的“淡化版”重新用于基本任务,比如从数据库中删除重复的候选人资料。
他们成立了一个新的团队,为自动化就业筛选进行了另一次尝试,这次重点是促进多样性。
谷歌与歧视和偏见作斗争
2020年12月,谷歌领先的人工智能伦理学家蒂姆尼特·格布鲁博士宣布公司解雇了她。
在Gebru博士对谷歌招聘少数族裔的做法和人工智能系统固有的偏见表示担忧之后,他被解雇了。
在离开公司之前,Gebru博士将发表一篇论文,强调谷歌人工智能模型中的偏见。
在将这篇论文提交给一个学术会议后,Gebru博士透露,谷歌的一位经理要求她撤回这篇论文,或者删除她和其他谷歌研究人员的名字。谷歌拒绝遵守,接受了有条件提出的辞职,实际上立即终止了Gebru博士的职位。
在此之前不久,几项关于人工智能偏见的极具影响力的研究发表了,包括麻省理工学院的性别阴影研究这篇文章已成为有史以来被广泛引用的人工智能论文之一。
性别阴影研究发现了面部识别AI的偏见,大约有30%到35%的时间错误识别黑人面孔,而白人面孔的错误识别率约为5%。
不正确的面部识别匹配导致美国多名男子被错误逮捕和监禁。
Gender Shades的研究强调了谷歌和IBM等不同公司的几种领先算法对黑人面孔的面部识别性能不佳。资料来源:麻省理工学院性别阴影。
Gebru的解雇引发了一场围绕硅谷歧视性做法的媒体风暴。
斯坦福大学数字公民社会实验室的Mutale Nkonde说:“她的解雇只表明那些想在这个领域工作的科学家、活动家和学者——而且是黑人女性——在硅谷不受欢迎。
格布鲁博士的解雇激发了另一项研究, 揭开编码偏差,这发现黑人比其他任何人都更有可能被招聘人工智能低估。
“这份报告发现了充分的证据表明,黑人学生和专业人士担心在招聘过程中面临反黑人偏见。超过一半的受访者表示,在招聘或招聘网站上观察到招聘或招聘过程中存在偏见。黑人专业人士更有可能观察到这种偏见,55%的受访者表示在招聘过程中观察到了偏见。 Unmasking Coded Bias,宾夕法尼亚法律政策实验室.
这篇论文称,“格布鲁博士和她的同事们就算法偏见展开的公开讨论,让我们的实验室参与了这场全国性的对话,并扩大了对招聘平台中的算法偏见的更微妙的理解。”
暴露这个问题一直是变革的催化剂,但人工智能在敏感的人类决策中的作用还需要很长的路。
人工智能在招聘中的作用:挽救一些积极因素
尽管存在许多争议,但企业很难抵制人工智能加速招聘的巨大潜力。
人工智能在招聘中的作用当然有一定的逻辑意义——消除人工智能的偏见可能比人类更容易。毕竟,人工智能只是数学和代码,肯定比根深蒂固的无意识偏见更具可塑性?
虽然在2010年代初至中期,培训数据存在严重偏差,主要是因为缺乏多样化的数据集,但可以说,自那以来情况有所改善。
一个突出的人工智能招聘工具是, 萨皮亚被称为“聪明的面试官”。根据Sapia的创始人Barb Hyman的说法,人工智能允许一个“盲目”的面试过程,不依赖简历、社交媒体或人口统计数据,而只依赖申请人的回答,从而消除了人工主导的招聘中普遍存在的偏见。
这些系统可以通过面试所有申请人为每个人提供公平的机会。 海曼建议“当你使用人工智能时,你获得女性并在招聘过程中留住女性的可能性是你的两倍。
但是,即使是用人工智能采访某人的过程也会引起问题。
自然语言处理(NLP)模型通常主要针对母语英语文本进行培训,这意味着他们在处理非母语英语方面很差。
这些系统可能会无意中惩罚非英语母语者或具有不同文化特征的人。此外,批评人士认为,在人工智能聊天或视频采访中,残疾可能没有得到充分考虑,导致进一步的潜在歧视。
由于申请人往往不知道AI是否在评估他们,因此无法要求对面试过程进行必要的调整,这一事实加剧了这种情况。
数据集是基础数据。
在这里,数据集是基本的。用十年前的数据训练人工智能,它就会学习十年前的价值观。
自2000年以来,劳动力市场已经变得更加多样化。
例如,在一些国家,女性在几个关键的医学学科中超过男性,如心理学、遗传学、儿科学和免疫学。
在英国, 2023年报告研究发现,27%的有工作的女性从事专业职业(如医生、工程师、护士、会计师、教师和律师),而男性的这一比例为26%,这一趋势在5到10年内稳步上升。
在过去的2到5年里,这样的转变加速了–许多数据集更老了,根本不能反映最近的数据。类似的问题也适用于种族和残疾,就像它们适用于性别一样。
数据集必须反映我们日益多样化的工作场所,才能公平地为每个人服务。
虽然仍有大量工作要做,以确保工作场所的多样性,但人工智能必须继承现在而不是过去的价值观。这应该是产生公平和透明的招聘人工智能的最低要求。
招聘人工智能的开发者可能面临严格的监管,美国、英国、中国、欧盟成员国和许多其他国家将在未来几年加强人工智能控制。
研究正在进行中,但大多数招聘人工智能机构仍不太可能应用我们对彼此期望的公平和不偏不倚的原则。