使用AI招募人员的法律和道德影响



人工智能(AI)领域的数字创新和进步催生了许多工具,用于寻找和识别潜在候选人。 许多技术有望帮助组织在特定位置找到合适的人,并比以往更快地清除错误的人。

这些工具为组织提供了前所未有的机会,可以基于数据处理来制定有关人力资本的决策。 他们还具有使回应民主化的潜力-成千上万的候选人可以评估自己的优势,发展方向以及选择潜在的职业和合适的组织。 尤其是,我们看到基于游戏的评估,用于社交网络上的帖子处理的机器人,候选文本的语言分析,使用算法分析语音内容,语音音调,情绪状态,非语言行为和性情的视频采访的快速增长(以及相应的投资) 。

这些工具破坏了雇用和评估员工的基础,因此就其准确性,隐私权以及道德和法律影响留下了悬而未决的问题。 与经过时间考验的心理测量技术(例如NEO-PI-R ,Vanderlik 测试,标准渐进Raven矩阵测试或Hogan人格测试)相比,这尤其明显。 所有这些都是使用科学方法创建的,并在相关工作场所进行了全面测试,结果,候选人的评估与其在工作场所的有效性之间获得了可靠的对应关系(证据已在可靠的独立科学期刊上发表)。 最近,美国参议院甚至担心新技术(尤其是面部分析)是否会对所有候选人的平等产生不利影响。

在本文中,我们将重点关注与候选人隐私相关的新技术的潜在后果,以及有关不歧视残疾人的法律以及其他联邦和州法律对候选人的保护。 雇主明白,他们不能向应聘者询问有关其婚姻状况或政治观点,怀孕,性取向,身体或精神疾病,饮酒,毒品或睡眠不足的问题。 但是,未经候选人的适当同意,新技术可能无法直接考虑这些因素。

在深入探讨勇敢的候选人评分新世界的模棱两可之前,最好回顾一下过去。 心理测量评估已经存在了100多年,并且在所谓的之后开始被广泛使用。 对美军进行的Alpha测试,将新兵分为几类,并确定了他们成功担任各种职务的可能性。 传统上, 心理测验分为三大类:认知能力或智力; 性格或气质; 心理健康或临床诊断。

自1990年通过美国残疾人法案》(ADA)之后,一般禁止雇主对人的身体残疾,其心理健康或临床诊断产生兴趣,作为对候选人的初步评估的一部分,违反该法的公司将受到审判和责难。 实际上,残疾-身体或精神上的残疾-被视为雇主在面试过程中不感兴趣的“个人”信息,就像他在提出决定时不能询问有关其私人生活的问题或考虑个人人口统计信息一样。

认知能力和智力测验被认为是预测各种专业工作成功的可靠方法。 但是,如果这些估计数会对某些特殊人群产生不利影响,例如由性别,种族,年龄或国籍决定,则可能具有歧视性。 如果雇主使用的评估是根据对各种特殊人群的相对评估发现的不利影响 ,则他必须证明该评估技术与工作有关,并且可以预测在特定工作场所的成功。

人格评估不太可能对雇主提出歧视指控,因为人格特征与人口特征之间实际上没有关联。 还值得注意的是,人格与工作效率之间的关系取决于环境(即,工作类型)。

不幸的是,关于新一代候选搜索工具的信息已积累得很少,这些工具正越来越多地用于初步评估中。 许多工具都是技术创新,而不是科学创造的方法或研究程序。 结果,并不总是很清楚他们究竟在评估哪些假设是合法的,以及是否可以预期它们预测候选人在工作场所的有效性。 例如,长期以来与人格特质相关的言语和人声的物理特性与劳动生产率的差异有关。 如果乐器偏爱在任何特定人群中都无法脱颖而出的语音功能,例如调制,音调或“友好”语音,那么这不会引起法律问题。 但是,此类工具可能尚未经过科学测试,因此未受到潜在歧视的监控-这意味着雇主可能要盲目地遵循其建议负责。 此外,虽然没有令人信服的假设或结论,即根据人的声音将人拒之门外是否合乎道德,但这是一种由生理决定的特性,不宜改变。

同样,社交网络中的活动(例如使用Facebook或Twitter)反映了一个人的性格(包括其阴暗面)智慧和特征。 但是,如果用户出于不同目的使用这些应用程序,并且没有同意他们分析数据以便根据其公开职位得出结论,则出于雇用目的处理此数据是否合乎道德?

在招聘的过程中,新技术提出了许多有关隐私的新的道德和法律问题,我们认为有必要对此进行公开讨论,即:

1)公司对候选人的隐私有哪些与其个人特征有关的诱惑?

随着技术的进步,大数据和人工智能将能够更准确地确定描述个人特征的特征。 例如,现在可以非常准确地使用Facebook喜欢来确定性取向和种族。 确定政治偏好和宗教信仰也很容易。 如果公司考虑到由于不是直接根据这些特征做出决策,那么它们是否会诱使公司使用此类工具退出候选人呢? 雇主有可能不违反任何法律,根据个人信息评估候选人,但如果公司基于雇用候选人属于特殊群体的决定(按出生地,种族或母语)或基于私人身份决定,则公司可能会遭受法律风险她无权考虑的信息,例如身体疾病或精神疾病。 目前尚不清楚法院如何处理雇主利用这些间接特征依靠工具的情况; 但是,可以理解的是,根据某些特殊或私人特征行事是非法的,而不论如何识别它们。

这也可能适用于面部识别软件,因为最近的研究预测 ,用于面部识别的AI将很快能够准确确定候选人的性取向和政治取向,以及他们的“内部状态”,包括情绪和情感。 残疾人法的适用范围如何变化? 此外,针对雇员的《谎言侦查员法》通常禁止雇主在雇用时使用此类测试,而《不披露遗传信息法》则禁止其使用遗传信息来做出雇用决定。 但是,如果可以使用上述工具收集有关真相,谎言和遗传特征的完全相同的信息呢?

2)公司将在候选人的生活方式和职业方面面临哪些诱惑?

雇主现在可以访问信息,例如候选人在每个星期六早上在教堂办理登机手续,对他安置年迈父母的老年痴呆症护理中心进行的审查或第三次离婚声明。 所有这些事情以及许多其他事情,在数字时代都很容易发现。 无论我们在哪里上网,大数据都会监视我们,并收集我们仍然无法想象的工具可以处理的信息,这些工具在原则上可以告诉雇主我们是否合适对于某些角色。 大数据只会变得更大; 根据专家的说法 ,全球所有数据的90%仅在最近两年内创建。 在数据扩展之后,可能是由于不正当使用而导致的数据扩展,从而导致歧视-有意或无意的。

与欧盟的《隐私保护法》与《数据保护法》(GDPR)协调一致的美国不同,美国依靠修补漏洞的方法,这主要是由州法律提供的。 他们于2012年开始在社交网络上颁布某些法律,以禁止雇主以招聘的先决条件的形式要求候选人提供个人密码。 二十多个州已经通过了此类法律。 但是,在工作场所使用新技术的框架下的人身保护方面,没有进行这种活动。 特别是,加利福尼亚州已通过立法,可能限制雇主使用候选人或雇员数据的能力。 总的来说,州和联邦法院尚未采用统一的平台来分析员工免受新技术的隐私保护。 最重要的是,到目前为止,大数据时代员工隐私的命运仍然不确定。 这使雇主处于需要谨慎的冲突局势中。 新兴的先进技术可以证明是非常有用的。 但是它们为雇主提供了以前认为是个人信息。 租用它合法吗? 未经候选人同意而学习它是否合乎道德?

2)公司将面临与残疾相关的候选人隐私方面的哪些诱惑?

《残疾人法》包括精神疾病和身体疾病,并且如果疾病严重限制了他的生命活动,如果这种限制记录在他的历史上,或者其他人认为他有限制,则将其定义为残疾人。 大约十年前,美国平等就业委员会(EEOC)提出了一些建议,指出精神限制应包括精神病学文献中所述的精神疾病清单,并且使人们更容易受到《残疾人法》的保护。 结果,在与他人交流,集中精力或社会行为方面存在重大问题的人们可以归为受该法律保护的人群。

技术除了提出有关残疾的新问题外,还提出了关于人与人之间差异的新难题,无论这些人是人口统计学还是其他方面的人们。 已经记录了这种系统表现出学习型扭曲的情况,尤其是与种族和性别有关的扭曲。 例如,亚马逊开发了一种自动员工搜索程序来研究简历,并在他们意识到这与种族无关时就放弃了。 为了减少这种偏见,开发人员平衡了用于训练AI模型的数据,以便它们足以代表所有组。 技术用于培训的信息越多,它将越能控制潜在失真的出现。

总之,我们注意到技术已经可以跨越公共和私有财产,个人的特征和状态的边界,并且有充分的理由相信技术只会在未来变得更糟。 使用AI,大数据,社交网络和机器学习的雇主将获得越来越多的机会来访问应聘者的个人生活,其个人特征,困难和心理状态。 对于上面提出的许多新的隐私问题,没有简单的答案,但是我们认为,这些问题都值得公众讨论。

Source: https://habr.com/ru/post/zh-CN453452/


All Articles