Implications juridiques et éthiques de l'utilisation de l'IA pour recruter du personnel



Les innovations numériques et les avancées dans le domaine de l'intelligence artificielle (IA) ont donné naissance à de nombreux outils pour trouver et reconnaître les candidats potentiels. De nombreuses technologies promettent d'aider les organisations à trouver la bonne personne à un endroit particulier et à éliminer les mauvaises personnes plus rapidement que jamais.

Ces outils offrent aux organisations des opportunités sans précédent pour prendre des décisions sur le capital humain sur la base du traitement des données. Ils ont également le potentiel de démocratiser les réponses - des millions de candidats peuvent obtenir une évaluation de leurs forces, des orientations de développement et du choix d'une carrière potentielle et d'une organisation appropriée. En particulier, nous constatons une croissance rapide (et des investissements correspondants) dans les évaluations basées sur les jeux, les bots pour le traitement des publications sur les réseaux sociaux, l'analyse linguistique des textes candidats, les interviews vidéo utilisant des algorithmes pour analyser le contenu de la parole, les tonalités vocales, les états émotionnels, le comportement non verbal et le tempérament .

Soulignant les bases de l'embauche et de l'évaluation du personnel, ces outils laissent des questions en suspens sur leur exactitude, ainsi que sur la vie privée et les implications éthiques et juridiques. Cela est particulièrement évident par rapport aux techniques psychométriques éprouvées telles que NEO-PI-R , le test Vanderlik , le test de matrice Raven progressif standard ou le test de personnalité Hogan. Tous ont été créés en utilisant une approche scientifique et soigneusement testés dans les lieux de travail concernés, à la suite de quoi une correspondance fiable a été obtenue entre les évaluations des candidats et leur efficacité sur le lieu de travail (et les preuves ont été publiées dans des revues scientifiques indépendantes fiables). Récemment, le Sénat américain s'est même inquiété de savoir si les nouvelles technologies (en particulier l'analyse faciale) pourraient nuire à l'égalité de tous les candidats.

Dans cet article, nous nous concentrons sur les conséquences potentielles des nouvelles technologies liées à la vie privée des candidats, ainsi qu'à la protection des candidats par la loi sur la non-discrimination des personnes handicapées et d'autres lois fédérales et étatiques. Les employeurs comprennent qu'ils ne peuvent pas poser de questions aux candidats sur leur état matrimonial ou leurs opinions politiques, leur grossesse, leur orientation sexuelle, leur maladie physique ou mentale, leurs problèmes d'alcool, de drogue ou leur manque de sommeil. Cependant, les nouvelles technologies peuvent ne pas être en mesure de prendre directement en compte ces facteurs sans le consentement approprié du candidat.

Avant de plonger dans les ambiguïtés du nouveau monde courageux des évaluations de candidats, il serait bon de regarder autour du passé. Les évaluations psychométriques existent depuis plus de 100 ans et ont commencé à être largement utilisées après les soi-disant. Test alpha pour l'armée américaine, qui a divisé les recrues en catégories et déterminé la probabilité de leur succès dans divers rôles. Traditionnellement, la psychométrie est divisée en trois grandes catégories: capacités cognitives ou intelligence; personnalité ou tempérament; santé mentale ou diagnostic clinique.

Après l'adoption de l' Americans with Disabilities Act (ADA) en 1990, il était généralement interdit aux employeurs de s'intéresser aux handicaps physiques des personnes, à leur santé mentale ou aux diagnostics cliniques dans le cadre d'une évaluation préliminaire des candidats, et les entreprises qui ont violé cette loi ont été jugées et censurées. En fait, le handicap - physique ou mental - est considéré comme une information «personnelle» à laquelle l'employeur ne peut pas s'intéresser pendant l'entretien, tout comme il ne peut pas poser de questions sur sa vie privée ou prendre en compte des informations démographiques personnelles lors de la prise de décision.

Les tests des capacités cognitives et de l'intelligence ont été reconnus comme des méthodes fiables pour prédire le succès au travail dans un large éventail de professions. Cependant, ces évaluations peuvent se révéler discriminatoires si elles affectent défavorablement certains groupes particuliers de personnes, déterminées, par exemple, par le sexe, la race, l'âge ou la nationalité. Si l'employeur utilise une évaluation dont l' effet négatif a été constaté sur la base d'évaluations relatives pour divers groupes spéciaux de personnes, il doit prouver que cette technologie d'évaluation est liée au travail et prédit le succès dans un lieu de travail particulier.

Les évaluations de la personnalité sont moins susceptibles de porter des accusations de discrimination contre les employeurs, car il n'y a pratiquement aucune corrélation entre les caractéristiques de la personnalité et les caractéristiques démographiques. Il convient également de noter que la relation entre la personnalité et l'efficacité au travail dépend du contexte (c'est-à-dire du type de travail).

Malheureusement, beaucoup moins d'informations ont été accumulées concernant la nouvelle génération d'outils de recherche de candidats, qui sont de plus en plus utilisés dans les évaluations préliminaires. Beaucoup d'outils sont apparus comme des innovations technologiques et non comme des méthodes ou des programmes de recherche créés scientifiquement. Par conséquent, on ne sait pas toujours exactement ce qu'ils évaluent si les hypothèses sous-jacentes sont valides et si l'on peut s'attendre à ce qu'elles prédisent l'efficacité du candidat sur le lieu de travail. Par exemple, les propriétés physiques de la parole et de la voix humaine - qui ont longtemps été associées à des traits de personnalité - sont associées à des différences de taux de travail. Si l'instrument préfère des fonctions vocales telles que la modulation, la tonalité ou une voix «amicale» qui ne se distinguent pas dans un groupe particulier de personnes, cela ne pose pas de problèmes juridiques. Mais ces outils n'ont peut-être pas été testés scientifiquement et ne sont donc pas surveillés en cas de discrimination potentielle - ce qui signifie que l'employeur peut être tenu responsable d'avoir aveuglément suivi leurs recommandations. De plus, bien qu'il n'y ait aucune hypothèse ou conclusion convaincante sur la question de savoir s'il est éthique de filtrer les gens sur la base de leur voix, une propriété qui est déterminée par la physiologie et qui ne peut pas changer.

De même, l'activité dans les réseaux sociaux - par exemple, l'utilisation de Facebook ou Twitter - reflète l' intelligence et les caractéristiques de la personnalité d'une personne, y compris son côté sombre . Cependant, est-il éthique de traiter ces données à des fins d'embauche, si les utilisateurs utilisent ces applications à des fins différentes et n'ont pas donné leur consentement pour analyser les données afin de tirer des conclusions sur la base de leurs publications publiques?

Dans le contexte du recrutement, les nouvelles technologies soulèvent de nombreuses nouvelles questions éthiques et juridiques concernant la vie privée, qui à notre avis doivent être discutées publiquement, à savoir:

1) Quelles tentations les entreprises éprouvent-elles concernant la vie privée d'un candidat en raison de ses caractéristiques personnelles?

Avec l'avancement de la technologie, les mégadonnées et l'IA seront en mesure de déterminer plus précisément les caractéristiques qui décrivent les caractéristiques personnelles. Par exemple, les likes Facebook peuvent désormais être utilisés avec une précision considérable pour déterminer l'orientation sexuelle et la race. Il est également facile de déterminer les préférences politiques et les croyances religieuses. Serait-il tentant pour les entreprises d'utiliser de tels outils pour abandonner les candidats, si elles estiment que les décisions n'étant pas prises directement sur la base de ces caractéristiques, seront-elles légales? Il est possible que l'employeur ne contrevienne à aucune loi, évaluant le candidat sur la base d'informations personnelles, mais l'entreprise peut encourir des risques juridiques si elle prend des décisions concernant l'embauche du candidat pour l'adhésion à des groupes spéciaux - par lieu de naissance, race ou langue maternelle - ou sur la base de données privées. des informations pour lesquelles elle n'a pas le droit de prendre en considération, par exemple, les maladies physiques ou les troubles mentaux. La manière dont les tribunaux traiteront les situations dans lesquelles l'employeur s'est appuyé sur des outils utilisant ces caractéristiques indirectes n'est pas encore claire; cependant, il est entendu qu'il est illégal d'agir sur la base de certaines caractéristiques spéciales ou privées, quelle que soit la façon dont elles ont été identifiées.

Cela peut également être applicable aux logiciels de reconnaissance faciale, car des études récentes prédisent que l'IA pour la reconnaissance faciale sera bientôt en mesure de déterminer avec précision l'orientation sexuelle et politique des candidats, ainsi que leur «état interne», qui comprend l'humeur et les émotions. Comment l'application de la loi sur les personnes handicapées peut-elle changer? En outre, la Lie Detector Act pour les employés interdit généralement aux employeurs d'utiliser de tels tests lors de l'embauche, et la non-divulgation des informations génétiques leur interdit d'utiliser des informations génétiques pour prendre des décisions d'embauche. Mais que se passe-t-il si les mêmes informations exactes sur la vérité, les mensonges et les traits génétiques peuvent être recueillies à l'aide des outils mentionnés?

2) À quelles tentations les entreprises seront-elles confrontées en ce qui concerne la vie privée des candidats dans leur style de vie et leur profession?

Les employeurs ont désormais accès à des informations telles que l'enregistrement d'un candidat à l'église tous les samedis matin, un examen du centre de soins pour démence où il a placé son parent âgé ou une troisième déclaration de divorce. Toutes ces choses, et bien d'autres, sont faciles à repérer à l'ère numérique. Le Big Data nous surveille partout où nous allons en ligne et recueille des informations qui peuvent être traitées par des outils que nous ne pouvons toujours pas imaginer - des outils qui, en principe, peuvent dire à l'employeur si nous sommes aptes pour certains rôles. Et ces données volumineuses ne feront qu'augmenter; selon les experts , 90% de toutes les données dans le monde n'ont été créées qu'au cours des deux dernières années. Et l'expansion des données est suivie par l'expansion potentielle de leur utilisation déloyale, conduisant à une discrimination - intentionnelle ou accidentelle.

Contrairement à l'Union européenne, qui a harmonisé son approche de la vie privée avec le Data Protection Act (GDPR), les États-Unis s'appuient sur une approche pour combler les trous, principalement prévue par les lois des États. Ils ont commencé à promulguer certaines lois sur les réseaux sociaux en 2012 pour interdire aux employeurs d'exiger des candidats des mots de passe personnels sous la forme d'une condition préalable à l'embauche. Plus de vingt États ont adopté des lois de ce type. Cependant, dans le domaine de la protection générale de la vie personnelle dans le cadre de l'utilisation des nouvelles technologies sur le lieu de travail, une telle activité n'est pas observée. En particulier, la Californie a adopté une législation qui limite potentiellement la capacité de l'employeur à utiliser les données des candidats ou des employés. En général, les tribunaux étatiques et fédéraux doivent encore adopter une plate-forme unifiée pour analyser la protection de la vie privée des employés contre les nouvelles technologies. L'essentiel est que, jusqu'à présent, le sort de la vie privée des employés à l'ère des mégadonnées reste incertain. Cela place les employeurs dans une situation de conflit qui requiert de la prudence. Les technologies avancées émergentes peuvent s'avérer extrêmement utiles. Mais ils fournissent aux employeurs des informations auparavant considérées comme personnelles. Est-il légal de l'utiliser pour la location? Est-il éthique de l'étudier sans le consentement du candidat?

2) À quelles tentations les entreprises seront-elles confrontées concernant la vie privée des candidats liée à leur handicap?

La loi sur les personnes handicapées comprend les maladies mentales et physiques et définit une personne comme une personne handicapée, si la maladie limite considérablement son activité vitale, si de telles restrictions sont enregistrées dans l'histoire de la personne ou si d'autres personnes ont le sentiment d'avoir des limites. Il y a environ dix ans, la U.S.Equal Employment Commission (EEOC) a émis des recommandations stipulant que les restrictions mentales devraient inclure la liste sans cesse croissante des maladies mentales décrites dans la littérature psychiatrique et faciliter la soumission des personnes au Disability Act. En conséquence, les personnes qui ont des problèmes importants de communication avec les autres, de concentration ou de comportement dans la société peuvent entrer dans la catégorie des personnes protégées par cette loi.

La technologie, en plus de soulever de nouvelles questions sur le handicap, présente également de nouveaux dilemmes concernant les différences entre les personnes, qu'elles soient démographiques ou non. Des situations ont déjà été enregistrées dans lesquelles de tels systèmes montraient des distorsions apprises, en particulier celles liées à la race et au sexe. Par exemple, Amazon a développé un programme de recherche automatique des employés pour étudier les curriculum vitae - et l'a abandonné lorsqu'ils ont réalisé qu'il n'était pas racialement neutre . Pour réduire ces biais, les développeurs équilibrent les données utilisées pour former les modèles d'IA afin qu'ils représentent correctement tous les groupes. Plus la technologie dispose d'informations sur la formation, mieux elle sera en mesure de contrôler l'apparition de distorsions potentielles.

En conclusion, nous notons que la technologie peut déjà franchir les frontières des propriétés publiques et privées, des caractéristiques et des états de l'individu, et il y a tout lieu de croire que cela ne fera qu'empirer à l'avenir. Les employeurs utilisant l'IA, les mégadonnées, les réseaux sociaux et l'apprentissage automatique bénéficieront de possibilités toujours plus grandes d'accéder à la vie personnelle des candidats, à leurs caractéristiques personnelles, à leurs difficultés et à leurs états psychologiques. Il n'y a pas de réponses faciles à bon nombre des nouvelles questions de confidentialité que nous avons soulevées ci-dessus, mais nous pensons qu'elles méritent toutes un débat public.

Source: https://habr.com/ru/post/fr453452/


All Articles