Rechtliche und ethische Auswirkungen der Verwendung von KI zur Einstellung von Mitarbeitern



Digitale Innovationen und Fortschritte auf dem Gebiet der künstlichen Intelligenz (KI) haben viele Werkzeuge hervorgebracht , um potenzielle Kandidaten zu finden und zu erkennen. Viele der Technologien versprechen, Unternehmen dabei zu helfen, die richtige Person an einem bestimmten Ort zu finden und die falschen Personen schneller als je zuvor auszusortieren.

Diese Tools bieten Unternehmen beispiellose Möglichkeiten, auf der Grundlage der Datenverarbeitung Entscheidungen über das Humankapital zu treffen. Sie haben auch das Potenzial, Antworten zu demokratisieren - Millionen von Kandidaten können eine Einschätzung ihrer Stärken, Entwicklungsrichtungen und der Wahl einer potenziellen Karriere und einer geeigneten Organisation erhalten. Insbesondere sehen wir ein schnelles Wachstum (und entsprechende Investitionen) in Bewertungen, die auf Spielen, Bots für die Verarbeitung von Posts in sozialen Netzwerken, sprachlicher Analyse von Kandidatentexten, Videointerviews unter Verwendung von Algorithmen zur Analyse von Sprachinhalten, Sprachtönen, emotionalen Zuständen, nonverbalem Verhalten und Temperament basieren .

Diese Tools untergraben die Grundlagen der Einstellung und Bewertung von Mitarbeitern und lassen hängende Fragen zu deren Richtigkeit sowie zum Datenschutz sowie zu ethischen und rechtlichen Auswirkungen offen. Dies zeigt sich insbesondere im Vergleich zu bewährten psychometrischen Techniken wie NEO-PI-R , dem Vanderlik- Test, dem standardmäßigen progressiven Raven-Matrix- Test oder dem Hogan-Persönlichkeitstest. Alle von ihnen wurden unter Verwendung eines wissenschaftlichen Ansatzes erstellt und an den relevanten Arbeitsplätzen gründlich getestet, wodurch eine zuverlässige Entsprechung zwischen den Bewertungen der Kandidaten und ihrer Wirksamkeit am Arbeitsplatz erhalten wurde (und die Beweise in zuverlässigen unabhängigen wissenschaftlichen Fachzeitschriften veröffentlicht wurden). Vor kurzem war der US-Senat sogar besorgt darüber, ob neue Technologien (insbesondere Gesichtsanalysen) die Gleichstellung aller Kandidaten beeinträchtigen würden.

In diesem Artikel konzentrieren wir uns auf die möglichen Folgen neuer Technologien im Zusammenhang mit der Privatsphäre von Bewerbern sowie auf den Schutz von Bewerbern durch das Gesetz zur Nichtdiskriminierung von Menschen mit Behinderungen sowie andere Bundes- und Landesgesetze. Arbeitgeber verstehen, dass sie Kandidaten keine Fragen zu ihrem Familienstand oder ihrer politischen Meinung, ihrer Schwangerschaft, sexuellen Orientierung, körperlichen oder geistigen Erkrankungen, Problemen mit Alkohol, Drogen oder Schlafmangel stellen können. Neue Technologien können diese Faktoren jedoch möglicherweise nicht direkt ohne die entsprechende Zustimmung des Bewerbers berücksichtigen.

Bevor wir uns mit den Zweideutigkeiten der schönen neuen Welt der Kandidatenbewertungen befassen, wäre es schön, sich in der Vergangenheit umzuschauen. Psychometrische Auswertungen existieren seit mehr als 100 Jahren und wurden nach den sogenannten weit verbreitet. Alpha-Test für das US-Militär, bei dem die Rekruten in Kategorien eingeteilt und die Wahrscheinlichkeit ihres Erfolgs in verschiedenen Rollen ermittelt wurden. Traditionell wird die Psychometrie in drei große Kategorien unterteilt: kognitive Fähigkeiten oder Intelligenz; Persönlichkeit oder Temperament; psychische Gesundheit oder klinische Diagnose.

Nach der Verabschiedung des Gesetzes über Amerikaner mit Behinderungen (ADA) im Jahr 1990 war es Arbeitgebern im Allgemeinen verboten, sich im Rahmen einer vorläufigen Beurteilung von Kandidaten für körperliche Behinderungen von Menschen, ihre geistige Gesundheit oder klinische Diagnosen zu interessieren, und Unternehmen, die gegen dieses Gesetz verstießen, wurden vor Gericht gestellt und kritisiert. In der Tat wird eine Behinderung - physisch oder psychisch - als „persönliche“ Information betrachtet, an der der Arbeitgeber während des Interviews nicht interessiert sein kann, ebenso wie er keine Fragen zu seinem Privatleben stellen oder persönliche demografische Informationen bei Entscheidungen berücksichtigen kann.

Tests der kognitiven Fähigkeiten und der Intelligenz wurden als zuverlässige Methoden zur Vorhersage des Arbeitserfolgs in einer Vielzahl von Berufen anerkannt. Solche Bewertungen können sich jedoch als diskriminierend erweisen, wenn sie sich auf bestimmte Personengruppen auswirken, die beispielsweise durch Geschlecht, Rasse, Alter oder Nationalität bestimmt werden. Wenn der Arbeitgeber eine Bewertung verwendet, deren nachteilige Auswirkungen auf der Grundlage relativer Bewertungen für verschiedene spezielle Personengruppen festgestellt wurden, muss er nachweisen, dass diese Bewertungstechnologie arbeitsbezogen ist und den Erfolg an einem bestimmten Arbeitsplatz vorhersagt.

Bei der Beurteilung der Persönlichkeit ist es weniger wahrscheinlich, dass Arbeitgeber diskriminiert werden, da praktisch keine Korrelation zwischen Persönlichkeitsmerkmalen und demografischen Merkmalen besteht. Es ist auch erwähnenswert, dass die Beziehung zwischen Persönlichkeit und Effektivität bei der Arbeit vom Kontext abhängt (d. H. Von der Art der Arbeit).

Leider wurden viel weniger Informationen über die neue Generation von Kandidatensuchwerkzeugen gesammelt, die zunehmend in vorläufigen Bewertungen verwendet werden. Viele der Werkzeuge erschienen als technologische Innovationen und nicht als wissenschaftlich geschaffene Methoden oder Forschungsprogramme. Infolgedessen ist nicht immer klar, wie genau sie bewerten, ob die ihnen zugrunde liegenden Hypothesen legitim sind und ob von ihnen erwartet werden kann, dass sie die Wirksamkeit des Bewerbers am Arbeitsplatz vorhersagen. Zum Beispiel sind die physikalischen Eigenschaften von Sprache und menschlicher Stimme - die seit langem mit Persönlichkeitsmerkmalen verbunden sind - mit Unterschieden in den Arbeitsquoten verbunden. Wenn das Instrument Sprachfunktionen wie Modulation, Ton oder eine „freundliche“ Stimme bevorzugt, die in einer bestimmten Personengruppe nicht auffallen, verursacht dies keine rechtlichen Probleme. Solche Instrumente wurden jedoch möglicherweise nicht wissenschaftlich getestet und werden daher nicht auf mögliche Diskriminierung überwacht. Dies bedeutet, dass der Arbeitgeber möglicherweise dafür verantwortlich gemacht wird, seine Empfehlungen blind zu befolgen. Obwohl es keine überzeugenden Hypothesen oder Schlussfolgerungen darüber gibt, ob es ethisch vertretbar ist, Menschen anhand ihrer Stimme herauszufiltern, ist dies eine Eigenschaft, die von der Physiologie bestimmt wird und nicht geändert werden kann.

In ähnlicher Weise spiegeln Aktivitäten in sozialen Netzwerken - beispielsweise die Nutzung von Facebook oder Twitter - die Intelligenz und Eigenschaften der Persönlichkeit einer Person wider, einschließlich ihrer dunklen Seite . Ist es jedoch ethisch vertretbar, diese Daten zum Zwecke der Einstellung zu verarbeiten, wenn Benutzer diese Anwendungen für unterschiedliche Zwecke verwenden und nicht ihre Zustimmung zur Analyse der Daten gegeben haben, um auf der Grundlage ihrer öffentlichen Beiträge Schlussfolgerungen zu ziehen?

Im Zusammenhang mit der Einstellung werfen neue Technologien viele neue ethische und rechtliche Fragen in Bezug auf den Datenschutz auf, die unserer Meinung nach öffentlich diskutiert werden müssen, nämlich:

1) Welche Versuchungen haben Unternehmen in Bezug auf die Privatsphäre eines Kandidaten in Bezug auf seine persönlichen Merkmale?

Mit der Weiterentwicklung der Technologie können Big Data und KI die Merkmale, die persönliche Merkmale beschreiben, genauer bestimmen. Zum Beispiel können Facebook-Likes jetzt mit beträchtlicher Genauigkeit verwendet werden, um die sexuelle Orientierung und Rasse zu bestimmen . Es ist auch leicht, politische Präferenzen und religiöse Überzeugungen zu bestimmen. Könnte es für Unternehmen verlockend sein, solche Tools zu verwenden, um Kandidaten auszuschalten, wenn sie der Ansicht sind, dass Entscheidungen, die nicht direkt auf der Grundlage dieser Merkmale getroffen werden, legal sind? Es ist möglich, dass der Arbeitgeber keine Gesetze verletzt und den Kandidaten auf der Grundlage personenbezogener Daten bewertet. Das Unternehmen kann jedoch rechtlichen Risiken ausgesetzt sein, wenn es Entscheidungen über die Einstellung des Kandidaten für die Mitgliedschaft in speziellen Gruppen - nach Geburtsort, Rasse oder Muttersprache - oder auf der Grundlage privater Daten trifft Informationen, für die sie nicht das Recht hat, beispielsweise körperliche Krankheiten oder geistige Beschwerden zu berücksichtigen. Wie Gerichte mit Situationen umgehen, in denen sich der Arbeitgeber auf Instrumente gestützt hat, die diese indirekten Merkmale verwenden, ist noch nicht klar. Es versteht sich jedoch, dass es illegal ist, auf der Grundlage bestimmter besonderer oder privater Merkmale zu handeln, unabhängig davon, wie sie identifiziert wurden.

Dies kann auch auf Gesichtserkennungssoftware zutreffen, da neuere Studien vorhersagen, dass KI für die Gesichtserkennung bald in der Lage sein wird, die sexuelle und politische Orientierung von Kandidaten sowie ihren „internen Zustand“, der Stimmung und Emotionen umfasst, genau zu bestimmen. Wie kann sich die Anwendung des Gesetzes über Menschen mit Behinderungen ändern? Darüber hinaus verbietet das Lügendetektorgesetz für Arbeitnehmer Arbeitgebern generell, solche Tests bei der Einstellung zu verwenden, und das Gesetz zur Nichtoffenlegung genetischer Informationen verbietet ihnen, genetische Informationen zu verwenden, um Einstellungsentscheidungen zu treffen. Was aber, wenn mit den genannten Tools genau dieselben Informationen über Wahrheit, Lüge und genetische Merkmale gesammelt werden können?

2) Welchen Versuchungen werden Unternehmen in Bezug auf die Privatsphäre von Kandidaten in ihrem Lebensstil und Beruf ausgesetzt sein?

Arbeitgeber haben jetzt Zugang zu Informationen wie dem Check-in eines Kandidaten in der Kirche jeden Samstagmorgen, einer Überprüfung des Demenz-Pflegezentrums, in dem er seinen älteren Elternteil untergebracht hat, oder einer dritten Scheidungserklärung. All diese und viele andere Dinge sind im digitalen Zeitalter leicht zu erkennen. Big Data überwacht uns überall dort, wo wir online gehen, und sammelt Informationen, die von Tools verarbeitet werden können, die wir uns immer noch nicht vorstellen können - Tools, die dem Arbeitgeber im Prinzip mitteilen können, ob wir geeignet sind für bestimmte Rollen. Und diese großen Datenmengen werden nur noch größer. Experten zufolge wurden 90% aller Daten weltweit erst in den letzten zwei Jahren erstellt. Auf die Erweiterung der Daten folgt die potenzielle Ausweitung ihrer unfairen Verwendung, die zu Diskriminierung führt - absichtlich oder versehentlich.

Im Gegensatz zur Europäischen Union, die ihren Ansatz zum Schutz der Privatsphäre mit dem Datenschutzgesetz (DSGVO) in Einklang gebracht hat, stützen sich die Vereinigten Staaten auf einen Ansatz zum Ausbessern von Löchern, der hauptsächlich durch staatliche Gesetze vorgesehen ist. Sie begannen 2012, bestimmte Gesetze in sozialen Netzwerken zu erlassen, um Arbeitgebern zu verbieten, Kandidaten für persönliche Passwörter in Form einer Voraussetzung für die Einstellung zu verlangen. Mehr als zwanzig Staaten haben Gesetze dieser Art verabschiedet. Im Bereich des allgemeinen Schutzes des persönlichen Lebens im Rahmen des Einsatzes neuer Technologien am Arbeitsplatz wird eine solche Tätigkeit jedoch nicht beobachtet. Insbesondere hat Kalifornien Gesetze verabschiedet, die möglicherweise die Fähigkeit des Arbeitgebers einschränken, Bewerber- oder Arbeitnehmerdaten zu verwenden. Im Allgemeinen müssen Landes- und Bundesgerichte noch eine einheitliche Plattform zur Analyse des Schutzes der Privatsphäre von Mitarbeitern vor neuen Technologien einrichten. Das Fazit ist, dass das Schicksal der Privatsphäre der Mitarbeiter im Zeitalter von Big Data bislang ungewiss bleibt. Dies bringt Arbeitgeber in eine Konfliktsituation, die Vorsicht erfordert. Neue fortschrittliche Technologien können sich als äußerst nützlich erweisen. Sie geben den Arbeitgebern jedoch Informationen, die zuvor als persönlich angesehen wurden. Ist es legal, es zu mieten? Ist es ethisch korrekt, es ohne Zustimmung des Kandidaten zu studieren?

2) Welchen Versuchungen werden Unternehmen in Bezug auf die Privatsphäre von Kandidaten im Zusammenhang mit ihrer Behinderung ausgesetzt sein?

Das Gesetz über Menschen mit Behinderungen umfasst sowohl geistige als auch körperliche Krankheiten und definiert eine Person als behinderte Person, wenn die Krankheit ihre lebenswichtige Aktivität erheblich einschränkt, wenn solche Einschränkungen in der Anamnese der Person verzeichnet sind oder andere Personen das Gefühl haben, Einschränkungen zu haben. Vor etwa zehn Jahren gab die US-amerikanische Equal Employment Commission (EEOC) Empfehlungen heraus, wonach psychische Einschränkungen die ständig wachsende Liste der in der psychiatrischen Literatur beschriebenen psychischen Erkrankungen enthalten sollten, um es den Menschen zu erleichtern, dem Disability Act zu unterliegen. Infolgedessen können Personen, die erhebliche Probleme bei der Kommunikation mit anderen, bei der Konzentration oder beim Verhalten in der Gesellschaft haben, in die Kategorie der durch dieses Gesetz geschützten Personen fallen.

Die Technologie wirft nicht nur neue Fragen zur Behinderung auf, sondern stellt auch neue Dilemmata in Bezug auf Unterschiede zwischen Menschen dar, unabhängig davon, ob sie demografisch oder anderweitig sind. Es wurden bereits Situationen aufgezeichnet, in denen solche Systeme erlernte Verzerrungen zeigten, insbesondere solche, die sich auf Rasse und Geschlecht beziehen. Zum Beispiel entwickelte Amazon ein automatisches Mitarbeiter-Suchprogramm, um Lebensläufe zu studieren - und gab es auf, als sie feststellten, dass es nicht rassenneutral war . Um solche Verzerrungen zu verringern, gleichen die Entwickler die zum Trainieren von KI-Modellen verwendeten Daten so aus, dass sie alle Gruppen angemessen repräsentieren. Je mehr Informationen die Technologie für das Training hat, desto besser kann sie das Auftreten potenzieller Verzerrungen kontrollieren.

Zusammenfassend stellen wir fest, dass Technologie bereits die Grenzen von öffentlichem und privatem Eigentum, Merkmalen und Zuständen des Einzelnen überschreiten kann, und es gibt allen Grund zu der Annahme, dass sich dies in Zukunft nur noch verschlimmern wird. Arbeitgeber, die KI, Big Data, soziale Netzwerke und maschinelles Lernen nutzen, erhalten immer mehr Möglichkeiten, auf das persönliche Leben der Bewerber, ihre persönlichen Merkmale, Schwierigkeiten und psychischen Zustände zuzugreifen. Es gibt keine einfachen Antworten auf viele der neuen Datenschutzfragen, die wir oben aufgeworfen haben, aber wir glauben, dass sie alle einer öffentlichen Diskussion wert sind.

Source: https://habr.com/ru/post/de453452/


All Articles