
Inovasi digital dan kemajuan di bidang kecerdasan buatan (AI) telah melahirkan banyak
alat untuk menemukan dan mengenali kandidat potensial. Banyak teknologi berjanji untuk membantu organisasi menemukan orang yang tepat di tempat tertentu dan menyingkirkan orang yang salah lebih cepat dari sebelumnya.
Alat-alat ini memberikan peluang yang belum pernah terjadi sebelumnya bagi organisasi untuk membuat keputusan tentang sumber daya manusia berdasarkan pemrosesan data. Mereka juga memiliki potensi untuk mendemokratisasi tanggapan - jutaan kandidat dapat memperoleh penilaian tentang kekuatan mereka, arahan untuk pengembangan dan pilihan karier potensial dan organisasi yang sesuai. Secara khusus, kami
melihat pertumbuhan yang cepat (dan investasi terkait) dalam penilaian berdasarkan permainan, bot untuk memproses posting di jejaring sosial, analisis linguistik teks kandidat, wawancara video menggunakan algoritma untuk menganalisis konten pidato, nada suara, keadaan emosi, perilaku dan temperamen non-verbal .
Merusak dasar-dasar mempekerjakan dan mengevaluasi staf, alat-alat ini meninggalkan pertanyaan menggantung tentang keakuratan mereka, serta privasi dan implikasi etika dan hukum. Ini sangat jelas dibandingkan dengan teknik psikometrik yang teruji waktu seperti
NEO-PI-R ,
tes Vanderlik
, tes
matriks progresif Raven standar , atau tes kepribadian Hogan. Semuanya dibuat dengan menggunakan
pendekatan ilmiah dan diuji secara menyeluruh di tempat kerja yang relevan, sebagai akibatnya diperoleh korespondensi yang andal antara penilaian kandidat dan efektivitasnya di tempat kerja (dan bukti tersebut diterbitkan dalam jurnal ilmiah independen yang dapat diandalkan). Baru-baru ini, Senat AS bahkan khawatir tentang apakah teknologi baru (terutama analisis wajah) akan mempengaruhi kesetaraan semua kandidat.
Dalam artikel ini, kami fokus pada konsekuensi potensial dari teknologi baru yang terkait dengan privasi kandidat, serta perlindungan kandidat oleh undang-undang tentang non-diskriminasi penyandang disabilitas, dan undang-undang federal dan negara bagian lainnya. Pengusaha memahami bahwa mereka tidak dapat mengajukan pertanyaan kepada kandidat tentang status perkawinan atau pendapat politik mereka, kehamilan, orientasi seksual, penyakit fisik atau mental, masalah dengan alkohol, obat-obatan, atau kurang tidur. Namun, teknologi baru mungkin tidak dapat langsung memperhitungkan faktor-faktor ini tanpa persetujuan yang sesuai dari kandidat.
Sebelum mempelajari ambiguitas dunia baru dari peringkat kandidat, alangkah baiknya untuk melihat-lihat masa lalu. Evaluasi psikometrik telah ada selama lebih dari 100 tahun, dan mulai banyak digunakan setelah apa yang disebut. Tes Alpha untuk militer AS, yang membagi rekrutmen ke dalam kategori dan menentukan kemungkinan keberhasilan mereka dalam berbagai peran. Secara tradisional,
psikometri dibagi menjadi tiga kategori besar: kemampuan kognitif, atau kecerdasan; kepribadian atau temperamen; kesehatan mental atau diagnosis klinis.
Setelah adopsi Undang-Undang Penyandang Disabilitas Amerika (ADA) pada tahun 1990, pengusaha pada umumnya dilarang untuk menaruh minat pada kecacatan fisik orang, kesehatan mental atau diagnosa klinis mereka sebagai bagian dari penilaian awal para kandidat, dan perusahaan yang melanggar undang-undang ini diadili dan dicela. Faktanya, kecacatan - fisik atau mental - dianggap sebagai informasi "pribadi" yang tidak dapat diminati majikan selama wawancara, seperti halnya ia tidak dapat mengajukan pertanyaan tentang kehidupan pribadinya atau mempertimbangkan informasi demografis pribadi ketika membuat keputusan.
Tes kemampuan kognitif dan kecerdasan
diakui sebagai metode yang dapat diandalkan untuk memprediksi keberhasilan di berbagai profesi. Namun, penilaian semacam itu dapat terbukti diskriminatif jika mereka berdampak buruk pada beberapa
kelompok orang tertentu, ditentukan, misalnya, berdasarkan jenis kelamin, ras, usia atau kebangsaan. Jika pemberi kerja menggunakan penilaian yang
dampak buruknya ditemukan berdasarkan penilaian relatif untuk berbagai kelompok orang tertentu, ia harus membuktikan bahwa teknologi penilaian ini terkait dengan pekerjaan dan memprediksi keberhasilan di tempat kerja tertentu.
Penilaian kepribadian cenderung membawa tuntutan diskriminasi terhadap pemberi kerja, karena hampir tidak ada korelasi antara karakteristik kepribadian dan karakteristik demografis. Perlu juga dicatat bahwa hubungan antara kepribadian dan efektivitas di tempat kerja tergantung pada konteksnya (yaitu, pada jenis pekerjaan).
Sayangnya, jauh lebih sedikit informasi yang telah dikumpulkan mengenai generasi baru alat pencarian kandidat, yang semakin banyak digunakan dalam penilaian awal. Banyak alat muncul sebagai inovasi teknologi, dan bukan sebagai metode atau program penelitian yang diciptakan secara ilmiah. Akibatnya, tidak selalu jelas apa yang sebenarnya mereka evaluasi apakah hipotesis yang mendasarinya valid dan apakah mereka dapat diharapkan untuk memprediksi efektivitas kandidat di tempat kerja. Misalnya, sifat fisik ucapan dan suara manusia - yang telah lama dikaitkan dengan
sifat -
sifat kepribadian - dikaitkan dengan perbedaan dalam tingkat persalinan. Jika instrumen lebih menyukai fitur bicara seperti modulasi, nada atau suara βramahβ yang tidak menonjol di kelompok orang tertentu, maka ini tidak menyebabkan masalah hukum. Tetapi alat-alat semacam itu mungkin belum diuji secara ilmiah, dan karenanya tidak dipantau untuk kemungkinan diskriminasi - yang berarti bahwa pengusaha dapat dianggap bertanggung jawab untuk secara membabi buta mengikuti rekomendasi mereka. Selain itu, sementara tidak ada hipotesis yang meyakinkan atau kesimpulan tentang apakah itu
etis untuk menyaring orang berdasarkan suara mereka, properti yang ditentukan oleh fisiologi dan tidak dapat diubah.
Demikian pula, aktivitas di jejaring sosial - misalnya, penggunaan Facebook atau Twitter - mencerminkan
kecerdasan dan karakteristik kepribadian seseorang, termasuk
sisi gelapnya . Namun, apakah etis untuk memproses data ini untuk tujuan perekrutan, jika pengguna menggunakan aplikasi ini untuk tujuan yang berbeda, dan tidak memberikan persetujuan mereka untuk menganalisis data untuk menarik kesimpulan berdasarkan pos publik mereka?
Dalam konteks perekrutan, teknologi baru menimbulkan banyak masalah etika dan hukum baru tentang privasi, yang menurut pendapat kami perlu dibahas secara publik, yaitu:
1) Godaan apa yang dimiliki perusahaan tentang privasi kandidat terkait dengan karakteristik pribadi mereka?Dengan kemajuan teknologi, big data dan AI akan dapat lebih akurat menentukan karakteristik yang menggambarkan karakteristik pribadi. Misalnya, suka Facebook sekarang dapat digunakan dengan akurasi yang cukup untuk
menentukan orientasi dan ras seksual. Juga mudah untuk menentukan preferensi politik dan kepercayaan agama. Mungkinkah menggoda bagi perusahaan untuk menggunakan alat-alat semacam itu untuk mengeluarkan calon, jika mereka menganggap bahwa karena keputusan tidak dibuat langsung berdasarkan karakteristik ini, apakah itu sah? Mungkin saja majikan tidak melanggar undang-undang apa pun, mengevaluasi calon berdasarkan informasi pribadi, tetapi perusahaan dapat menanggung risiko hukum jika membuat keputusan untuk merekrut calon anggota dalam kelompok khusus - berdasarkan tempat kelahiran, ras atau bahasa ibu - atau atas dasar pribadi informasi yang dia tidak punya hak untuk mempertimbangkan, misalnya, penyakit fisik atau penyakit mental. Bagaimana pengadilan akan menangani situasi di mana pemberi kerja mengandalkan alat yang menggunakan karakteristik tidak langsung ini belum jelas; namun, dipahami bahwa bertindak berdasarkan karakteristik khusus atau pribadi tertentu, terlepas dari bagaimana mereka diidentifikasi.
Ini juga dapat berlaku untuk perangkat lunak pengenalan wajah, karena penelitian terbaru
memprediksi bahwa AI untuk pengenalan wajah akan segera dapat secara akurat menentukan orientasi seksual dan politik para kandidat, serta "keadaan internal" mereka, yang mencakup suasana hati dan emosi. Bagaimana penerapan undang-undang tentang penyandang cacat dapat berubah? Selain itu, Undang-Undang Kebohongan untuk karyawan pada umumnya melarang majikan untuk menggunakan tes tersebut saat merekrut, dan
Undang -
Undang Informasi Genetik yang tidak diungkapkan melarang mereka menggunakan informasi genetik untuk membuat keputusan perekrutan. Tetapi bagaimana jika informasi yang sama persis tentang kebenaran, kebohongan, dan sifat-sifat genetik dapat dikumpulkan dengan menggunakan alat-alat yang disebutkan?
2) Godaan apa yang akan dihadapi perusahaan mengenai privasi kandidat dalam gaya hidup dan pekerjaan mereka?Pengusaha sekarang memiliki akses ke informasi seperti check-in kandidat di gereja setiap Sabtu pagi, tinjauan pusat perawatan demensia di mana ia menempatkan orang tuanya yang sudah lanjut usia, atau pernyataan perceraian ketiga. Semua hal seperti itu, dan banyak lainnya, mudah dikenali di era digital. Data besar memantau kami di mana pun kami online dan mengumpulkan informasi yang dapat diproses oleh alat yang masih tidak dapat kami bayangkan - alat yang, pada prinsipnya, dapat memberi tahu majikan apakah kami cocok untuk peran tertentu. Dan data besar ini hanya akan semakin besar;
menurut para ahli , 90% dari semua data di dunia dibuat hanya dalam dua tahun terakhir. Dan perluasan data diikuti oleh potensi ekspansi penggunaannya yang tidak adil, yang mengarah pada diskriminasi - disengaja atau tidak disengaja.
Tidak seperti Uni Eropa, yang menyelaraskan pendekatannya terhadap privasi dengan Undang-Undang Perlindungan Data (GDPR), Amerika Serikat bergantung pada pendekatan untuk menambal lubang, terutama disediakan oleh undang-undang negara. Mereka mulai memberlakukan undang-undang tertentu di jejaring sosial pada 2012 untuk melarang majikan mewajibkan kandidat untuk kata sandi pribadi dalam bentuk prasyarat untuk perekrutan. Lebih dari dua puluh negara telah mengesahkan undang-undang semacam ini. Namun, di bidang perlindungan umum kehidupan pribadi dalam rangka penggunaan teknologi baru di tempat kerja, aktivitas tersebut tidak diamati. Secara khusus, California telah mengeluarkan undang-undang yang berpotensi membatasi kemampuan pengusaha untuk menggunakan data kandidat atau karyawan. Secara umum, pengadilan negara bagian dan federal belum mengadopsi platform terpadu untuk menganalisis perlindungan privasi karyawan dari teknologi baru. Intinya adalah bahwa, sejauh ini, nasib privasi karyawan di era big data tetap tidak pasti. Ini menempatkan pengusaha dalam situasi konflik yang membutuhkan kehati-hatian. Teknologi maju yang berkembang dapat terbukti sangat berguna. Tetapi mereka memberi majikan informasi yang sebelumnya dianggap pribadi. Apakah sah untuk menggunakannya untuk disewa? Apakah etis mempelajarinya tanpa persetujuan kandidat?
2) Godaan apa yang akan dihadapi perusahaan mengenai privasi kandidat terkait dengan kecacatan mereka?Undang-Undang tentang Penyandang Cacat mencakup penyakit mental dan fisik, dan mendefinisikan seseorang sebagai penyandang cacat, jika penyakit tersebut secara signifikan membatasi aktivitas vitalnya, jika pembatasan tersebut dicatat dalam sejarah orang tersebut, atau orang lain merasa bahwa ia memiliki keterbatasan. Sekitar sepuluh tahun yang lalu, Komisi Persamaan Kerja AS (EEOC) mengeluarkan rekomendasi yang menyatakan bahwa pembatasan mental harus mencakup daftar penyakit mental yang terus berkembang yang dijelaskan dalam literatur psikiatri dan membuatnya lebih mudah bagi orang untuk tunduk pada Undang-Undang Disabilitas. Akibatnya, orang yang memiliki masalah signifikan dalam berkomunikasi dengan orang lain, dengan konsentrasi atau dengan perilaku dalam masyarakat dapat masuk dalam kategori orang yang dilindungi oleh undang-undang ini.
Teknologi, selain menimbulkan pertanyaan baru tentang disabilitas, juga menghadirkan dilema baru mengenai perbedaan antara orang-orang, apakah mereka demografis atau bukan. Situasi telah dicatat di mana sistem tersebut menunjukkan distorsi yang dipelajari, terutama yang berkaitan dengan ras dan gender. Misalnya, Amazon mengembangkan program pencarian karyawan otomatis untuk mempelajari resume - dan meninggalkannya ketika mereka menyadari bahwa itu
tidak netral secara ras . Untuk mengurangi bias semacam itu, pengembang menyeimbangkan data yang digunakan untuk melatih model AI sehingga mereka cukup mewakili semua kelompok. Semakin banyak informasi yang dimiliki teknologi untuk pelatihan, semakin baik pula kemampuannya untuk mengendalikan penampilan dari distorsi potensial.
Sebagai kesimpulan, kami mencatat bahwa teknologi sudah dapat melintasi batas-batas properti publik dan pribadi, karakteristik dan keadaan individu, dan ada setiap alasan untuk percaya bahwa ini hanya akan semakin buruk di masa depan. Pengusaha yang menggunakan AI, data besar, jejaring sosial dan pembelajaran mesin akan menerima peluang yang semakin meningkat untuk akses ke kehidupan pribadi para kandidat, karakteristik pribadi mereka, kesulitan dan keadaan psikologis. Tidak ada jawaban mudah untuk banyak pertanyaan privasi baru yang telah kami kemukakan di atas, tetapi kami percaya bahwa semua itu layak untuk didiskusikan publik.