
As inovações digitais e os avanços no campo da inteligência artificial (IA) geraram muitas
ferramentas para encontrar e reconhecer possíveis candidatos. Muitas das tecnologias prometem ajudar as organizações a encontrar a pessoa certa em um determinado local e eliminar as pessoas erradas mais rapidamente do que nunca.
Essas ferramentas oferecem às organizações oportunidades sem precedentes para tomar decisões sobre capital humano com base no processamento de dados. Eles também têm o potencial de democratizar as respostas - milhões de candidatos podem avaliar seus pontos fortes, orientações para o desenvolvimento e a escolha de uma carreira em potencial e de uma organização adequada. Em particular, estamos
vendo um rápido crescimento (e investimentos correspondentes) em avaliações baseadas em jogos, bots para processar postagens em redes sociais, análise lingüística de textos candidatos, entrevistas em vídeo usando algoritmos para analisar o conteúdo da fala, tons de voz, estados emocionais, comportamento não-verbal e temperamento .
Prejudicando o básico da contratação e avaliação de pessoal, essas ferramentas deixam questões pendentes sobre sua precisão, bem como sobre privacidade e implicações éticas e legais. Isso é especialmente evidente em comparação com técnicas psicométricas testadas pelo tempo, como o
NEO-PI-R , o
teste de Vanderlik
, o teste progressivo padrão da matriz Raven progressiva ou o teste de personalidade Hogan. Todos eles foram criados usando uma
abordagem científica e exaustivamente testados nos locais de trabalho relevantes, como resultado da obtenção de uma correspondência confiável entre as avaliações dos candidatos e sua eficácia no local de trabalho (e as evidências foram publicadas em periódicos científicos independentes e confiáveis). Recentemente, o Senado dos EUA estava preocupado com se novas tecnologias (especialmente a análise facial) afetariam adversamente a igualdade de todos os candidatos.
Neste artigo, enfocamos as possíveis consequências das novas tecnologias relacionadas à privacidade dos candidatos, bem como à proteção dos candidatos pela lei sobre a não discriminação de pessoas com deficiência e outras leis federais e estaduais. Os empregadores entendem que não podem fazer perguntas aos candidatos sobre seu estado civil ou opiniões políticas, gravidez, orientação sexual, doença física ou mental, problemas com álcool, drogas ou falta de sono. No entanto, as novas tecnologias podem não ser capazes de levar diretamente esses fatores em consideração sem o consentimento apropriado do candidato.
Antes de se aprofundar nas ambigüidades do admirável mundo novo de classificações de candidatos, seria bom examinar o passado. As avaliações psicométricas existem há mais de 100 anos e começaram a ser amplamente utilizadas após os chamados. Teste alfa para o exército dos EUA, que dividiu os recrutas em categorias e determinou a probabilidade de seu sucesso em vários papéis. Tradicionalmente, a
psicometria é dividida em três grandes categorias: habilidades cognitivas ou inteligência; personalidade ou temperamento; saúde mental ou diagnóstico clínico.
Após a adoção
da Lei
dos Americanos com Deficiências (ADA) em 1990, os empregadores eram geralmente proibidos de se interessar por deficiências físicas de pessoas, sua saúde mental ou diagnóstico clínico como parte de uma avaliação preliminar de candidatos, e as empresas que violavam essa lei eram submetidas a julgamento e censura. De fato, a deficiência - física ou mental - é considerada informação "pessoal" na qual o empregador não pode se interessar durante a entrevista, assim como ele não pode fazer perguntas sobre sua vida privada ou levar em consideração informações demográficas pessoais ao tomar decisões.
Testes de habilidades cognitivas e inteligência foram
reconhecidos como métodos confiáveis para prever o sucesso no trabalho em uma ampla gama de profissões. No entanto, essas avaliações podem ser discriminatórias se afetarem adversamente alguns
grupos especiais de pessoas, determinados, por exemplo, por gênero, raça, idade ou nacionalidade. Se o empregador usar uma avaliação cujo
efeito adverso foi encontrado com base em avaliações relativas para vários grupos especiais de pessoas, ele deve provar que essa tecnologia de avaliação está relacionada ao trabalho e prevê sucesso em um local de trabalho específico.
As avaliações de personalidade são menos propensas a apresentar acusações de discriminação contra os empregadores, pois praticamente não há correlação entre características de personalidade e características demográficas. Também é importante notar que a relação entre personalidade e eficácia no trabalho depende do contexto (ou seja, do tipo de trabalho).
Infelizmente, muito menos informações foram acumuladas sobre a nova geração de ferramentas de pesquisa de candidatos, que estão sendo cada vez mais usadas em avaliações preliminares. Muitas das ferramentas apareceram como inovações tecnológicas, e não como métodos ou programas de pesquisa criados cientificamente. Como resultado, nem sempre é claro o que exatamente eles avaliam se as hipóteses subjacentes são legítimas e se é esperado que eles prevejam a eficácia do candidato no local de trabalho. Por exemplo, as propriedades físicas da fala e da voz humana - que há muito estão associadas
a traços de personalidade - estão associadas a diferenças nas taxas de trabalho. Se o instrumento preferir recursos de fala como modulação, tom ou uma voz "amigável" que não se destaque em nenhum grupo específico de pessoas, isso não causa problemas legais. Mas essas ferramentas podem não ter sido testadas cientificamente e, portanto, não são monitoradas quanto a possíveis discriminações - o que significa que o empregador pode ser responsabilizado por seguir cegamente suas recomendações. Além disso, embora não haja hipóteses ou conclusões convincentes sobre se é
ético filtrar as pessoas com base em sua voz, uma propriedade que é determinada pela fisiologia e que não é passível de mudança.
Da mesma forma, a atividade nas redes sociais - por exemplo, o uso do Facebook ou Twitter - reflete a
inteligência e as características da personalidade de uma pessoa, incluindo seu
lado sombrio . No entanto, é ético processar esses dados para fins de contratação, se os usuários usarem esses aplicativos para fins diferentes e não consentirem em analisá-los, a fim de tirar conclusões com base em seus posts públicos?
No contexto da contratação, as novas tecnologias levantam muitas questões éticas e legais relacionadas à privacidade, as quais, em nossa opinião, precisam ser discutidas publicamente, a saber:
1) Que tentações as empresas têm sobre a privacidade de um candidato relacionada às suas características pessoais?Com o avanço da tecnologia, big data e IA poderão determinar com mais precisão as características que descrevem características pessoais. Por exemplo, as curtidas do Facebook agora podem ser usadas com considerável precisão para
determinar a orientação sexual e a raça. Também é fácil determinar preferências políticas e crenças religiosas. Seria tentador para as empresas usarem essas ferramentas para abandonar os candidatos, se considerarem que, como as decisões não são tomadas diretamente com base nessas características, serão legais? É possível que o empregador não viole nenhuma lei, avaliando o candidato com base em informações pessoais, mas a empresa poderá sofrer riscos legais se tomar uma decisão sobre contratar o candidato para ingressar em grupos especiais - por local de nascimento, raça ou língua materna - ou com base em informações privadas. informações para as quais ela não tem o direito de considerar, por exemplo, doenças físicas ou doenças mentais. Como os tribunais lidam com situações nas quais o empregador confiou em ferramentas que usam essas características indiretas ainda não está claro; no entanto, entende-se que é ilegal agir com base em certas características especiais ou privadas, independentemente de como elas foram identificadas.
Isso também pode ser aplicável ao software de reconhecimento facial, pois estudos recentes
prevêem que a IA para reconhecimento facial em breve poderá determinar com precisão a orientação sexual e política dos candidatos, bem como seu "estado interno", que inclui humor e emoções. Como a aplicação da lei sobre pessoas com deficiência pode mudar? Além disso, a Lei do Detector de Mentiras para funcionários geralmente proíbe os empregadores de usar esses testes ao contratar, e
a Lei de Não Divulgação de Informações Genéticas os proíbe de usar informações genéticas para tomar decisões de contratação. Mas e se as mesmas informações exatas sobre verdade, mentira e características genéticas puderem ser coletadas usando as ferramentas mencionadas?
2) Que tentações as empresas enfrentarão com relação à privacidade dos candidatos em seu estilo de vida e profissão?Os empregadores agora têm acesso a informações como o check-in de um candidato na igreja todos os sábados de manhã, uma revisão do centro de atendimento à demência onde ele colocou seus pais idosos ou uma terceira declaração de divórcio. Todas essas coisas e muitas outras são fáceis de identificar na era digital. O big data nos monitora onde quer que estejamos on-line e coleta informações que podem ser processadas por ferramentas que ainda não conseguimos imaginar - ferramentas que, em princípio, podem dizer ao empregador se somos adequados para certas funções. E esse big data só aumentará;
segundo especialistas , 90% de todos os dados no mundo foram criados apenas nos últimos dois anos. E a expansão dos dados é seguida pela expansão potencial de seu uso injusto, levando à discriminação - intencional ou acidental.
Ao contrário da União Europeia, que harmonizou sua abordagem à privacidade com a Lei de Proteção de Dados (GDPR), os Estados Unidos se baseiam em uma abordagem para corrigir falhas, principalmente fornecida pelas leis estaduais. Eles começaram a promulgar certas leis nas redes sociais em 2012 para proibir os empregadores de exigir candidatos a senhas pessoais na forma de um pré-requisito para contratação. Mais de vinte estados aprovaram leis desse tipo. No entanto, no campo da proteção geral da vida pessoal no âmbito do uso de novas tecnologias no local de trabalho, essa atividade não é observada. Em particular, a Califórnia aprovou uma legislação que potencialmente limita a capacidade do empregador de usar dados de candidatos ou funcionários. Em geral, os tribunais estaduais e federais ainda precisam adotar uma plataforma unificada para analisar a proteção da privacidade dos funcionários contra novas tecnologias. O ponto principal é que, até agora, o destino da privacidade dos funcionários na era do big data permanece incerto. Isso coloca os empregadores em uma situação de conflito que exige cautela. Tecnologias avançadas emergentes podem ser extremamente úteis. Mas eles fornecem aos empregadores informações anteriormente consideradas pessoais. É legal usá-lo para contratar? É ético estudá-lo sem o consentimento do candidato?
2) Que tentações as empresas enfrentarão com relação à privacidade dos candidatos relacionados à sua deficiência?A Lei sobre Pessoas com Deficiência inclui doenças mentais e físicas e define uma pessoa como deficiente, se a doença limitar significativamente sua atividade vital, se tais restrições forem registradas no histórico da pessoa ou outras pessoas sentirem que ela tem limitações. Cerca de dez anos atrás, a Comissão de Igualdade de Emprego dos EUA (EEOC) emitiu recomendações afirmando que as restrições mentais deveriam incluir a lista cada vez maior de doenças mentais descrita na literatura psiquiátrica e facilitar a sujeição das pessoas à Lei da Deficiência. Como resultado, pessoas que têm problemas significativos na comunicação com outras pessoas, com concentração ou com comportamento na sociedade podem se enquadrar na categoria de pessoas protegidas por esta lei.
A tecnologia, além de levantar novas questões sobre deficiência, também apresenta novos dilemas sobre as diferenças entre as pessoas, sejam elas demográficas ou não. Já foram registradas situações em que esses sistemas demonstravam distorções aprendidas, especialmente aquelas relacionadas a raça e gênero. Por exemplo, a Amazon desenvolveu um programa de busca automática de funcionários para estudar currículos - e o abandonou quando percebeu que não era
racialmente neutro . Para reduzir esses vieses, os desenvolvedores equilibram os dados usados para treinar os modelos de IA para que eles representem adequadamente todos os grupos. Quanto mais informações a tecnologia tiver para treinamento, melhor será capaz de controlar a aparência de possíveis distorções.
Concluindo, observamos que a tecnologia já pode cruzar as fronteiras de propriedades públicas e privadas, características e estados do indivíduo, e há todos os motivos para acreditar que isso só piorará no futuro. Empregadores que usam IA, big data, redes sociais e aprendizado de máquina receberão oportunidades cada vez maiores de acesso à vida pessoal dos candidatos, suas características pessoais, dificuldades e estados psicológicos. Não há respostas fáceis para muitas das novas questões de privacidade que levantamos acima, mas acreditamos que todas elas são dignas de discussão pública.