الآثار القانونية والأخلاقية لاستخدام الذكاء الاصطناعى لتعيين الموظفين



أحدثت الابتكارات والتطورات الرقمية في مجال الذكاء الاصطناعي العديد من الأدوات للعثور على المرشحين المحتملين والتعرف عليهم. تعد العديد من التقنيات بمساعدة المؤسسات في العثور على الشخص المناسب في مكان معين والتخلص من الأشخاص الخطأ بشكل أسرع من أي وقت مضى.

توفر هذه الأدوات للمؤسسات فرصًا غير مسبوقة لاتخاذ القرارات حول رأس المال البشري استنادًا إلى معالجة البيانات. لديهم أيضًا القدرة على إضفاء الطابع الديمقراطي على الاستجابات - يمكن لملايين المرشحين الحصول على تقييم لقوتهم وتوجيهات التنمية واختيار كل من المهنة المحتملة والمؤسسة المناسبة. على وجه الخصوص ، نشهد نموًا سريعًا (والاستثمارات المقابلة) في التقييمات استنادًا إلى الألعاب وبرامج الروبوت لمعالجة المشاركات على الشبكات الاجتماعية والتحليل اللغوي لنصوص المرشحين ومقابلات الفيديو باستخدام الخوارزميات لتحليل محتوى الكلام ونبرة الصوت والحالات العاطفية والسلوك غير اللفظي ومزاجه .

تقضي أساسيات تعيين الموظفين وتقييمهم ، تترك هذه الأدوات أسئلة معلقة حول دقتها ، فضلاً عن الخصوصية والآثار القانونية والأخلاقية. هذا واضح بشكل خاص بالمقارنة مع التقنيات السيكومترية التي تم اختبارها عبر الزمن مثل NEO-PI-R ، أو اختبار Vanderlik ، أو اختبار مصفوفة Raven التدريجية القياسية ، أو اختبار الشخصية Hogan. تم إنشاؤها كلها باستخدام نهج علمي واختبارها بدقة في أماكن العمل ذات الصلة ، ونتيجة لذلك تم الحصول على مراسلات موثوقة بين تقييمات المرشحين وفعاليتها في مكان العمل (ونشرت الأدلة في المجلات العلمية المستقلة الموثوقة). في الآونة الأخيرة ، كان مجلس الشيوخ الأمريكي قلقًا بشأن ما إذا كانت التقنيات الجديدة (وخاصة تحليل الوجه) ستؤثر سلبًا على المساواة بين جميع المرشحين.

في هذه المقالة ، نركز على النتائج المحتملة للتكنولوجيات الجديدة المتعلقة بخصوصية المرشحين ، وكذلك حماية المرشحين بموجب قانون عدم التمييز ضد الأشخاص ذوي الإعاقة ، والقوانين الفيدرالية وقوانين الولايات الأخرى. يدرك أصحاب العمل أنهم لا يستطيعون طرح أسئلة على المرشحين حول حالتهم الزوجية أو آرائهم السياسية ، أو حملهم ، أو ميلهم الجنسي ، أو مرضهم البدني أو العقلي ، أو مشاكل الكحول أو المخدرات أو قلة النوم. ومع ذلك ، قد لا تتمكن التقنيات الجديدة من أخذ هذه العوامل في الاعتبار مباشرة دون موافقة المرشح المناسبة.

قبل الخوض في غموض العالم الجديد الشجاع لتصنيفات المرشحين ، سيكون من الجميل أن ننظر إلى الماضي. التقييمات السيكومترية موجودة منذ أكثر من 100 عام ، وبدأ استخدامها على نطاق واسع بعد ما يسمى. اختبار ألفا للجيش الأمريكي ، الذي قسم المجندين إلى فئات وحدد احتمال نجاحهم في أدوار مختلفة. تقليديا ، ينقسم القياس النفسي إلى ثلاث فئات عريضة: القدرات المعرفية ، أو الذكاء ؛ شخصية أو مزاج. الصحة العقلية أو التشخيص السريري.

بعد اعتماد قانون الأميركيين ذوي الإعاقة (ADA) في عام 1990 ، كان يُمنع على أصحاب العمل عمومًا الاهتمام بالإعاقات البدنية للأشخاص أو صحتهم العقلية أو تشخيصهم السريري كجزء من تقييم أولي للمرشحين ، وتمت محاكمة الشركات التي انتهكت هذا القانون وتوجيه اللوم إليها. في الواقع ، تعتبر الإعاقة - الجسدية أو العقلية - معلومات "شخصية" لا يمكن لصاحب العمل أن يهتم بها أثناء المقابلة ، تمامًا كما لا يستطيع طرح أسئلة حول حياته الخاصة أو أخذ المعلومات الديموغرافية الشخصية في الاعتبار عند اتخاذ القرارات.

تم التعرف على اختبارات القدرات المعرفية والذكاء كطرق موثوقة للتنبؤ بالنجاح في العمل في مجموعة واسعة من المهن. ومع ذلك ، قد تكون هذه التقييمات تمييزية إذا كانت تؤثر سلبًا على بعض المجموعات الخاصة من الأشخاص ، على سبيل المثال ، حسب الجنس أو العرق أو العمر أو الجنسية. إذا كان صاحب العمل يستخدم تقييمًا تم العثور على تأثيره الضار على أساس التقييمات النسبية لمجموعات خاصة مختلفة من الأشخاص ، فعليه إثبات أن تقنية التقييم هذه مرتبطة بالعمل وتتوقع النجاح في مكان عمل معين.

من غير المرجح أن ترفع تقييمات الشخصية تهم التمييز ضد أرباب العمل ، حيث لا يوجد أي ارتباط بين خصائص الشخصية والخصائص الديموغرافية. تجدر الإشارة أيضًا إلى أن العلاقة بين الشخصية والفعالية في العمل تعتمد على السياق (أي على نوع العمل).

لسوء الحظ ، تم جمع معلومات أقل بكثير فيما يتعلق بالجيل الجديد من أدوات البحث عن المرشحين ، والتي يتم استخدامها بشكل متزايد في التقييمات الأولية. ظهرت العديد من الأدوات على أنها ابتكارات تكنولوجية ، وليس كطرق أو برامج بحثية تم إنشاؤها علمياً. نتيجة لذلك ، ليس من الواضح دائمًا ما الذي يقومون بتقييمه بالضبط ما إذا كانت الفرضيات التي تستند إليها مشروعة ، وما إذا كان من المتوقع أن يتوقعوا فعالية المرشح في مكان العمل. على سبيل المثال ، ترتبط الخصائص الفيزيائية للكلام والصوت البشري - التي ارتبطت منذ زمن طويل بسمات الشخصية - باختلافات في معدلات المخاض. إذا كانت الأداة تفضل ميزات الكلام مثل التعديل أو النغمة أو الصوت "الودي" الذي لا يبرز في أي مجموعة معينة من الأشخاص ، فإن هذا لا يسبب مشاكل قانونية. لكن قد لا يتم اختبار هذه الأدوات بشكل علمي ، وبالتالي لا تتم مراقبتها بحثًا عن تمييز محتمل - مما يعني أن صاحب العمل قد يكون مسؤولاً عن متابعة توصياته بصورة عمياء. بالإضافة إلى ذلك ، في حين لا توجد فرضية أو استنتاجات مقنعة حول ما إذا كان من الأخلاقية تصفية الأشخاص على أساس صوتهم ، وهي خاصية يتم تحديدها بواسطة علم وظائف الأعضاء ولا يمكن تغييرها.

وبالمثل ، فإن النشاط في الشبكات الاجتماعية - على سبيل المثال ، استخدام Facebook أو Twitter - يعكس ذكاء وخصائص شخصية الشخص ، بما في ذلك جانبه المظلم . ومع ذلك ، هل من الأخلاقي معالجة هذه البيانات لغرض التوظيف ، إذا كان المستخدمون يستخدمون هذه التطبيقات لأغراض مختلفة ، ولم يوافقوا على تحليل البيانات من أجل استخلاص النتائج بناءً على منشوراتهم العامة؟

في سياق التوظيف ، تثير التقنيات الحديثة العديد من القضايا الأخلاقية والقانونية الجديدة المتعلقة بالخصوصية ، والتي في رأينا تحتاج إلى مناقشتها علنا ​​، وهي:

1) ما هي الإغراءات التي لدى الشركات حول خصوصية المرشح فيما يتعلق بخصائصها الشخصية؟

مع تقدم التكنولوجيا ، ستتمكن البيانات الضخمة و الذكاء الاصطناعي من تحديد الخصائص التي تصف الخصائص الشخصية بشكل أكثر دقة. على سبيل المثال ، يمكن الآن استخدام الإعجابات على Facebook بدقة كبيرة لتحديد الميل الجنسي والعرق. من السهل أيضًا تحديد التفضيلات السياسية والمعتقدات الدينية. هل يمكن أن يكون من المغري بالنسبة للشركات استخدام هذه الأدوات لإسقاط المرشحين ، إذا اعتبروا أنه بما أن القرارات لا تتخذ مباشرة على أساس هذه الخصائص ، فهل ستكون قانونية؟ من الممكن أن لا ينتهك صاحب العمل أي قوانين ، ويقيم المرشح على أساس المعلومات الشخصية ، ولكن قد تواجه الشركة مخاطر قانونية إذا اتخذت قرارات بشأن تعيين المرشح للعضوية في مجموعات خاصة - حسب الميلاد أو العرق أو اللغة الأم - أو على أساس خاص المعلومات التي لا تملك الحق في النظر فيها ، على سبيل المثال ، الأمراض الجسدية أو الأمراض العقلية. كيف تتعامل المحاكم مع الحالات التي اعتمد فيها صاحب العمل على الأدوات التي تستخدم هذه الخصائص غير المباشرة ليست واضحة بعد ؛ ومع ذلك ، من المفهوم أنه من غير القانوني التصرف على أساس بعض الخصائص الخاصة أو الخاصة ، بغض النظر عن كيفية التعرف عليها.

قد ينطبق هذا أيضًا على برنامج التعرف على الوجه ، حيث تتنبأ الدراسات الحديثة بأن الذكاء الاصطناعى للتعرف على الوجه سوف يكون قادرًا قريبًا على تحديد التوجه الجنسي والسياسي للمرشحين بدقة ، وكذلك "حالتهم الداخلية" ، والتي تشمل المزاج والعواطف. كيف يمكن أن يتغير تطبيق القانون الخاص بالأشخاص ذوي الإعاقة؟ بالإضافة إلى ذلك ، يحظر قانون كشف الكذب على الموظفين بشكل عام أصحاب العمل من استخدام مثل هذه الاختبارات عند التوظيف ، ويحظر عليهم قانون عدم الكشف عن المعلومات الوراثية استخدام المعلومات الجينية لاتخاذ قرارات التوظيف. ولكن ماذا لو كان يمكن جمع نفس المعلومات الدقيقة عن الحقيقة والأكاذيب والصفات الجينية باستخدام الأدوات المذكورة؟

2) ما هي الإغراءات التي ستواجهها الشركات فيما يتعلق بخصوصية المرشحين في أسلوب حياتهم ومهنهم؟

يمكن لأصحاب العمل الآن الوصول إلى معلومات مثل تسجيل وصول المرشح في الكنيسة كل صباح سبت ، أو مراجعة لمركز رعاية الخرف حيث وضع والديه المسنين ، أو بيان طلاق ثالث. كل هذه الأشياء والعديد من الأشياء الأخرى يسهل اكتشافها في العصر الرقمي. تراقبنا البيانات الضخمة أينما نتصل بالإنترنت وتجمع المعلومات التي يمكن معالجتها بواسطة الأدوات التي ما زلنا لا نستطيع تخيلها - الأدوات التي ، من حيث المبدأ ، يمكنها إخبار صاحب العمل بما إذا كنا مناسبين لبعض الأدوار. وهذه البيانات الضخمة ستصبح أكبر. وفقا للخبراء ، تم إنشاء 90 ٪ من جميع البيانات في العالم فقط في العامين الماضيين. ويتبع التوسع في البيانات عن طريق التوسع المحتمل لاستخدامها غير العادل ، مما يؤدي إلى التمييز - عن قصد أو عرضي.

على عكس الاتحاد الأوروبي ، الذي قام بتنسيق مقاربته للخصوصية مع قانون حماية البيانات (GDPR) ، تعتمد الولايات المتحدة على مقاربة لتصحيح الثغرات ، المنصوص عليها بشكل رئيسي في قوانين الدولة. بدأوا في سن قوانين معينة على الشبكات الاجتماعية في عام 2012 لمنع أرباب العمل من طلب المرشحين لكلمات المرور الشخصية في شكل شرط أساسي للتوظيف. لقد أصدرت أكثر من عشرين ولاية قوانين من هذا النوع. ومع ذلك ، في مجال الحماية العامة للحياة الشخصية في إطار استخدام التكنولوجيات الجديدة في مكان العمل ، لم يلاحظ هذا النشاط. على وجه الخصوص ، سنت كاليفورنيا تشريعات قد تحد من قدرة صاحب العمل على استخدام بيانات المرشح أو الموظف. بشكل عام ، لم تعتمد محاكم الولايات والمحاكم الفيدرالية بعد منصة موحدة لتحليل حماية خصوصية الموظفين من التقنيات الحديثة. خلاصة القول هي أن مصير خصوصية الموظف في عصر البيانات الضخمة لا يزال غير مؤكد حتى الآن. هذا يضع أرباب العمل في حالة الصراع التي تتطلب الحذر. التكنولوجيات المتقدمة الناشئة يمكن أن تكون مفيدة للغاية. لكنهم يقدمون لأصحاب العمل معلومات سبق اعتبارها شخصية. هل هو قانوني لاستخدامه للتأجير؟ هل من الأخلاقي أن تدرسها دون موافقة المرشح؟

2) ما هي الإغراءات التي ستواجهها الشركات فيما يتعلق بخصوصية المرشحين المتعلقة بإعاقتهم؟

يشمل قانون الأشخاص ذوي الإعاقة الأمراض العقلية والبدنية على حد سواء ، ويحدد الشخص بأنه شخص معاق ، إذا كان المرض يحد بشكل كبير من نشاطه الحيوي ، إذا تم تسجيل هذه القيود في تاريخ الشخص ، أو شعر أشخاص آخرون أن لديه قيود. منذ حوالي عشر سنوات ، أصدرت لجنة تكافؤ فرص العمل في الولايات المتحدة (EEOC) توصيات تنص على أن القيود العقلية يجب أن تشمل قائمة الأمراض العقلية المتزايدة باستمرار الموصوفة في المؤلفات النفسية وتسهل على الأشخاص الخضوع لقانون الإعاقة. نتيجة لذلك ، يمكن للأشخاص الذين يعانون من مشاكل كبيرة في التواصل مع الآخرين أو التركيز أو السلوك في المجتمع أن يندرجوا ضمن فئة الأشخاص المحميين بموجب هذا القانون.

تقدم التكنولوجيا ، بالإضافة إلى طرح أسئلة جديدة حول الإعاقة ، معضلات جديدة فيما يتعلق بالاختلافات بين الناس ، سواء كانوا ديموغرافيين أو غير ذلك. لقد تم بالفعل تسجيل حالات أظهرت فيها هذه الأنظمة تشوهات مستفادة ، خاصة تلك المتعلقة بالعرق والجنس. على سبيل المثال ، طورت Amazon برنامجًا تلقائيًا للبحث عن الموظفين لدراسة السير الذاتية - وتخلت عنه عندما أدركت أنه ليس محايدًا من الناحية العرقية . لتقليل هذه التحيزات ، يقوم المطورون بموازنة البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي حتى يمثلوا جميع المجموعات بشكل كاف. لمزيد من المعلومات التي تمتلكها التكنولوجيا للتدريب ، كلما كان ذلك أفضل في التحكم في ظهور التشوهات المحتملة.

في الختام ، نلاحظ أن التكنولوجيا يمكنها بالفعل تجاوز حدود الممتلكات العامة والخاصة وخصائص وحالات الفرد ، وهناك كل الأسباب للاعتقاد بأن هذا سوف يزداد سوءًا في المستقبل. سيحصل أرباب العمل الذين يستخدمون الذكاء الاصطناعي والبيانات الضخمة والشبكات الاجتماعية والتعلم الآلي على فرص متزايدة للوصول إلى حياة المرشحين الشخصية وخصائصهم الشخصية والصعوبات والحالات النفسية. لا توجد إجابات سهلة للعديد من أسئلة الخصوصية الجديدة التي أثارناها أعلاه ، ولكننا نعتقد أنها تستحق المناقشة العامة.

Source: https://habr.com/ru/post/ar453452/


All Articles