我们的新调查发现,在工作场所支持多元化、公平和包容很容易,但很难实施。阅读深入报道

不要因为性别偏见而责怪人工智能,要责怪数据

人工智能在招聘

10月初,路透社报道称,亚马逊强调自动化是其品牌的重要组成部分放弃了实验性的自动招聘工具。原因是:它的简历分析人工智能歧视女性,对女性的简历进行处罚。

这个故障报告并不意味着该系统是一个性别歧视的失败,也没有说明机器学习或人工智能在招聘方面的优点。更确切地说,失败可能在于金融体系的现状训练有素的

人如其食

路透社认为,亚马逊人工智能的目标是在1到5分的范围内给求职者打分,以帮助招聘团队。但据报道,该系统用来学习如何为候选人打分的数据是过去10年的“成功简历”和“不成功简历”。大多数简历来自男性,所以AI检测到的模式导致它降低了女性简历的质量。据路透社报道,从本质上说,亚马逊无意中教会了它的人工智能复制整个招聘过程中已经存在的偏见。

亚马逊并不是唯一一个

这并不是第一次有公司的人工智能设计出现问题。同样的情况也发生在其他尝试机器学习的公司身上。例如,当研究人员在2018年初测试微软和IBM的面部识别功能时,他们发现机器无法识别肤色较深的女性。原因同样是输入数据的倾斜;简而言之,如果你向系统提供更多白人男性的照片而不是黑人女性的照片,系统就会更好地识别白人男性。两家公司都表示,他们已经采取措施提高准确性。

你可以找到无数其他的例子:from算法的语言偏向性谷歌的引擎为高薪工作做广告对于Twitter用户来说,大多数是男性把一个友好的聊天机器人变成了一个恶棍

AI招聘人员

a根据关键工作标准和技能自动地寻找高素质人才。专注于培养与顶尖人才的关系。

了解更多

地平线上的希望

我们这些对人工智能及其改善世界的潜力着迷的人,可能会在意识到这项技术尚未完全成熟时感到沮丧。但是,尽管我们感到失望,这些“失败”的出现实际上是好消息。试错是帮助我们学会正确训练机器的方法。机器并非100%可靠,这一事实不应该让我们感到气馁;它实际上应该使我们更渴望解决设计和培训问题。

正如SpaceX和特斯拉(Tesla)巨头埃隆•马斯克(Elon Musk)所肯定的那样:“失败是一个选择。如果事情没有失败,你就没有创新。据路透社(Reuters)报道,本着这种精神,亚马逊在爱丁堡组建了一个新团队,再次尝试自动招聘筛选,这次将多元化考虑在内。

人工智能不是万灵药

尽管人们越来越担心机器将取代人们的工作在美国,人工智能不太可能取代人类的批判性思维和判断(我们仍然有有创造和控制机器的能力)。在招聘过程中尤其如此,因为这关系到人们的职业生涯;我们需要谨慎使用技术。人力资源思想领袖马特·巴克兰(Matt Buckland)在可利普公司担任了两年的客户宣传副总裁,他总结道:“在招聘方面,我们需要有一个人性化的过程,而不是人性化的过程。”

这意味着人工智能是一种服务工具,它为我们提供初始信息和分析,以加快招聘过程。一个好的系统可以为您提供您自己找不到(或没有时间)的数据。但不应该由它来做最终的招聘决定。我们人类,我们的智力,必须是选择,拒绝或雇佣其他人类的能力。

在可行的情况下,我们在开发时要牢记这些人们搜索AI招聘人员,我们自己的人工智能功能。

我们的数据科学副总裁Vasilis Vassalos解释道:“我们的工作重点是在培训模型时排除人口统计数据和性别语言,使数据更加中性。当然,为了训练我们的人工智能,我们使用了大量匿名数据,不仅我们自己的数据可行,我们的系统也处理了数百万候选人的数据,所以我们可以消除每个招聘过程中的偏见。”

我们也很注意我们的工具将如何被使用。Vasilis补充道:“也许最重要的事情是,我们不允许我们的AI做出重要的选择。“AI招聘人员“设计功能是为了提出建议,而不是做出决定。”

当然,我们的方法和人工智能本身将继续改进。“我们认识到在算法上促进多样性和公平地训练机器的困难,”Vasilis说。“但是,随着技术的进步,我们将不断改进我们的实践和产品,使招聘更加有效。”

×
保持消息灵通!

注册无专业术语的招聘资源。

让我们一起成长

可操作性帮助各种规模的公司大规模招聘。从今天开始,
要求一个演示或免费发布一个工作来发现如何可行
可以帮你找到并雇佣优秀的人才。

开始