
Las innovaciones digitales y los avances en el campo de la inteligencia artificial (IA) han generado muchas
herramientas para encontrar y reconocer candidatos potenciales. Muchas de las tecnologías prometen ayudar a las organizaciones a encontrar a la persona adecuada en un lugar en particular y eliminar a las personas equivocadas más rápido que nunca.
Estas herramientas brindan a las organizaciones oportunidades sin precedentes para tomar decisiones sobre el capital humano basadas en el procesamiento de datos. También tienen el potencial de democratizar las respuestas: millones de candidatos pueden obtener una evaluación de sus fortalezas, instrucciones para el desarrollo y la elección de una carrera potencial y una organización adecuada. En particular, estamos
viendo un rápido crecimiento (y las inversiones correspondientes) en evaluaciones basadas en juegos, bots para procesar publicaciones en redes sociales, análisis lingüístico de textos candidatos, entrevistas en video usando algoritmos para analizar el contenido del habla, tonos de voz, estados emocionales, comportamiento no verbal y temperamento. .
Al socavar los conceptos básicos de contratación y evaluación de personal, estas herramientas dejan preguntas pendientes sobre su precisión, así como la privacidad y las implicaciones éticas y legales. Esto es especialmente evidente en comparación con las técnicas psicométricas probadas con el tiempo, como
NEO-PI-R , la
prueba de Vanderlik
, la prueba de
matriz progresiva estándar de Raven o la prueba de personalidad de Hogan. Todos ellos fueron creados usando un
enfoque científico y probados exhaustivamente en los lugares de trabajo relevantes, como resultado de lo cual se obtuvo una correspondencia confiable entre las evaluaciones de los candidatos y su efectividad en el lugar de trabajo (y la evidencia se publicó en revistas científicas independientes y confiables). Recientemente, el Senado de los Estados Unidos incluso estaba preocupado por si las nuevas tecnologías (especialmente el análisis facial) afectarían negativamente la igualdad de todos los candidatos.
En este artículo, nos centramos en las posibles consecuencias de las nuevas tecnologías relacionadas con la privacidad de los candidatos, así como en la protección de los candidatos por la ley sobre la no discriminación de las personas con discapacidad y otras leyes federales y estatales. Los empleadores entienden que no pueden hacer preguntas a los candidatos sobre su estado civil u opiniones políticas, su embarazo, orientación sexual, enfermedad física o mental, problemas con el alcohol, las drogas o la falta de sueño. Sin embargo, es posible que las nuevas tecnologías no puedan tener en cuenta estos factores directamente sin el consentimiento apropiado del candidato.
Antes de profundizar en las ambigüedades del valiente nuevo mundo de las calificaciones de los candidatos, sería bueno mirar al pasado. Las evaluaciones psicométricas han existido durante más de 100 años, y comenzaron a usarse ampliamente después de la llamada. Prueba alfa para el ejército de los EE. UU., Que dividió a los reclutas en categorías y determinó la probabilidad de su éxito en varios roles. Tradicionalmente, la
psicometría se divide en tres amplias categorías: habilidades cognitivas o inteligencia; personalidad o temperamento; salud mental o diagnóstico clínico.
Después de la adopción
de la Ley de Estadounidenses con Discapacidades (ADA) en 1990, a los empleadores generalmente se les prohibió interesarse por las discapacidades físicas, la salud mental o los diagnósticos clínicos de las personas como parte de una evaluación preliminar de los candidatos, y las empresas que violaron esta ley fueron juzgadas y censuradas. De hecho, la discapacidad, física o mental, se considera información "personal" en la que el empleador no puede estar interesado durante la entrevista, al igual que no puede hacer preguntas sobre su vida privada o tener en cuenta la información demográfica personal al tomar decisiones.
Las pruebas de habilidades cognitivas e inteligencia fueron
reconocidas como métodos confiables para predecir el éxito en el trabajo en una amplia gama de profesiones. Sin embargo, tales evaluaciones pueden resultar discriminatorias si afectan negativamente a algunos
grupos especiales de personas, determinados, por ejemplo, por género, raza, edad o nacionalidad. Si el empleador utiliza una evaluación cuyo
efecto adverso se encontró sobre la base de evaluaciones relativas para varios grupos especiales de personas, debe probar que esta tecnología de evaluación está relacionada con el trabajo y predice el éxito en un lugar de trabajo en particular.
Las evaluaciones de la personalidad tienen menos probabilidades de presentar cargos de discriminación contra los empleadores, ya que prácticamente no hay correlación entre las características de la personalidad y las características demográficas. También vale la pena señalar que la relación entre la personalidad y la efectividad en el trabajo depende del contexto (es decir, del tipo de trabajo).
Desafortunadamente, se ha acumulado mucha menos información sobre la nueva generación de herramientas de búsqueda de candidatos, que se utilizan cada vez más en evaluaciones preliminares. Muchas de las herramientas aparecieron como innovaciones tecnológicas, y no como métodos o programas de investigación creados científicamente. Como resultado, no siempre está claro qué evalúan exactamente si las hipótesis subyacentes son legítimas y si se puede esperar que predigan la efectividad del candidato en el lugar de trabajo. Por ejemplo, las propiedades físicas del habla y la voz humana, que durante mucho tiempo se han asociado con
rasgos de personalidad , se asocian con diferencias en las tasas de trabajo. Si el instrumento prefiere características del habla tales como modulación, tono o una voz "amigable" que no se destacan en ningún grupo particular de personas, entonces esto no causa problemas legales. Pero tales herramientas pueden no haber sido probadas científicamente y, por lo tanto, no se controlan para detectar posibles discriminaciones, lo que significa que el empleador puede ser considerado responsable de seguir ciegamente sus recomendaciones. Además, si bien no hay hipótesis o conclusiones convincentes sobre si es
ético filtrar a las personas sobre la base de su voz, una propiedad que está determinada por la fisiología y no se puede cambiar.
Del mismo modo, la actividad en las redes sociales, por ejemplo, el uso de Facebook o Twitter, refleja la
inteligencia y las características de la personalidad de una persona, incluido su
lado oscuro . Sin embargo, ¿es ético procesar estos datos con el propósito de contratarlos, si los usuarios usan estas aplicaciones para diferentes propósitos y no dieron su consentimiento para analizar los datos con el fin de sacar conclusiones basadas en sus publicaciones públicas?
En el contexto de la contratación, las nuevas tecnologías plantean muchos problemas éticos y legales nuevos con respecto a la privacidad, que en nuestra opinión deben discutirse públicamente, a saber:
1) ¿Qué tentaciones tienen las empresas sobre la privacidad de un candidato en relación con sus características personales?Con el avance de la tecnología, Big Data e IA podrán determinar con mayor precisión las características que describen las características personales. Por ejemplo, los me gusta de Facebook ahora se pueden usar con una precisión considerable para
determinar la orientación sexual y la raza. También es fácil determinar preferencias políticas y creencias religiosas. ¿Podría ser tentador para las compañías usar tales herramientas para abandonar a los candidatos, si consideran que dado que las decisiones no se toman directamente sobre la base de estas características, serán legales? Es posible que el empleador no viole ninguna ley, evaluando al candidato sobre la base de información personal, pero la empresa puede sufrir riesgos legales si basa su decisión en contratar al candidato para que pertenezca a grupos especiales, por lugar de nacimiento, raza o lengua materna, o por motivos privados. información para la cual no tiene derecho a considerar, por ejemplo, enfermedades físicas o dolencias mentales. Aún no está claro cómo los tribunales manejarán las situaciones en las que el empleador ha confiado en herramientas que utilizan estas características indirectas; sin embargo, se entiende que es ilegal actuar sobre la base de ciertas características especiales o privadas, independientemente de cómo se identificaron.
Esto también puede ser aplicable al software de reconocimiento facial, ya que estudios recientes
predicen que la IA para el reconocimiento facial pronto podrá determinar con precisión la orientación sexual y política de los candidatos, así como su "estado interno", que incluye el estado de ánimo y las emociones. ¿Cómo puede cambiar la aplicación de la ley sobre personas con discapacidad? Además, la Ley de Detectores de Mentiras para los empleados generalmente prohíbe a los empleadores usar tales pruebas al contratar, y
la Ley de No Divulgación de Información Genética les prohíbe usar información genética para tomar decisiones de contratación. Pero, ¿qué sucede si se puede recopilar exactamente la misma información sobre la verdad, las mentiras y los rasgos genéticos utilizando las herramientas mencionadas?
2) ¿Qué tentaciones enfrentarán las empresas con respecto a la privacidad de los candidatos en su estilo de vida y ocupación?Los empleadores ahora tienen acceso a información como el registro de un candidato en la iglesia todos los sábados por la mañana, una revisión del centro de atención de demencia donde colocó a su padre anciano o una tercera declaración de divorcio. Todas esas cosas, y muchas otras, son fáciles de detectar en la era digital. Big Data nos supervisa dondequiera que vayamos en línea y recopila información que puede ser procesada por herramientas que aún no podemos imaginar, herramientas que, en principio, pueden decirle al empleador si somos adecuados para ciertos roles. Y este gran dato solo crecerá;
Según los expertos , el 90% de todos los datos del mundo se crearon solo en los últimos dos años. Y la expansión de los datos es seguida por la expansión potencial de su uso injusto, que conduce a la discriminación, intencional o accidental.
A diferencia de la Unión Europea, que armonizó su enfoque de privacidad con la Ley de Protección de Datos (GDPR), Estados Unidos se basa en un enfoque para parchear agujeros, principalmente proporcionado por las leyes estatales. Comenzaron a promulgar ciertas leyes en las redes sociales en 2012 para prohibir a los empleadores que requieran candidatos para contraseñas personales en forma de requisito previo para la contratación. Más de veinte estados han aprobado leyes de este tipo. Sin embargo, en el campo de la protección general de la vida personal en el marco del uso de nuevas tecnologías en el lugar de trabajo, dicha actividad no se observa. En particular, California ha aprobado una legislación que potencialmente limita la capacidad del empleador para usar los datos de candidatos o empleados. En general, los tribunales estatales y federales aún no han adoptado una plataforma unificada para analizar la protección de la privacidad de los empleados frente a las nuevas tecnologías. La conclusión es que, hasta ahora, el destino de la privacidad de los empleados en la era de los grandes datos sigue siendo incierto. Esto pone a los empleadores en una situación de conflicto que requiere precaución. Las tecnologías avanzadas emergentes pueden resultar extremadamente útiles. Pero dan a los empleadores información previamente considerada personal. ¿Es legal usarlo por contrato? ¿Es ético estudiarlo sin el consentimiento del candidato?
2) ¿Qué tentaciones enfrentarán las empresas con respecto a la privacidad de los candidatos relacionados con su discapacidad?La Ley de Personas con Discapacidades incluye enfermedades mentales y físicas, y define a una persona como una persona con discapacidad, si la enfermedad limita significativamente su actividad vital, si tales restricciones se registran en el historial de la persona, o si otras personas sienten que tiene limitaciones. Hace unos diez años, la Comisión de Igualdad de Empleo de EE. UU. (EEOC) emitió recomendaciones que indicaban que las restricciones mentales deberían incluir la lista cada vez mayor de enfermedades mentales descritas en la literatura psiquiátrica y que facilita a las personas estar cubiertas por la Ley de Discapacidad. Como resultado, las personas que tienen problemas importantes para comunicarse con otros, con concentración o con comportamiento en la sociedad pueden caer en la categoría de personas protegidas por esta ley.
La tecnología, además de plantear nuevas preguntas sobre la discapacidad, también presenta nuevos dilemas con respecto a las diferencias entre las personas, ya sean demográficas o no. Ya se han registrado situaciones en las que dichos sistemas demostraron distorsiones aprendidas, especialmente las relacionadas con la raza y el género. Por ejemplo, Amazon desarrolló un programa automático de búsqueda de empleados para estudiar currículums, y lo abandonó cuando se dieron cuenta de que no era
racialmente neutral . Para reducir tales sesgos, los desarrolladores equilibran los datos utilizados para entrenar los modelos de IA para que representen adecuadamente a todos los grupos. Cuanta más información tenga la tecnología para el entrenamiento, mejor podrá controlar la aparición de posibles distorsiones.
En conclusión, observamos que la tecnología ya puede cruzar los límites de las propiedades públicas y privadas, las características y los estados del individuo, y hay muchas razones para creer que esto solo empeorará en el futuro. Los empleadores que usan IA, big data, redes sociales y aprendizaje automático recibirán oportunidades cada vez mayores para acceder a la vida personal de los candidatos, sus características personales, dificultades y estados psicológicos. No hay respuestas fáciles para muchas de las nuevas preguntas de privacidad que hemos planteado anteriormente, pero creemos que todas son dignas de discusión pública.