Facebook memaksa moderator untuk mendokumentasikan jam kerja mereka hingga detik - bahkan pergi ke toilet

"Orang-orang harus menandai waktu kedatangan dan keberangkatan bahkan ketika pergi ke toilet, dan menjelaskan mengapa mereka tinggal di sana memalukan dan menghina."




Ketika Valera Zaitsev mulai bekerja di Dublin beberapa tahun yang lalu sebagai moderator Facebook, ia tahu bahwa ia harus melihat konten yang paling keras dan terberat dari Internet. Apa yang tidak dia ketahui adalah bahwa Facebook akan menghitung durasi perjalanan toiletnya dalam hitungan detik.

"Orang-orang harus memperhatikan waktu kedatangan dan keberangkatan bahkan ketika pergi ke toilet, dan menjelaskan mengapa mereka tinggal di sana memalukan dan menghina," kata Zaitsev kepada VICE News.

Facebook, yang mengalihdayakan sebagian besar tugas moderasi kontennya ke perusahaan pihak ketiga, berjumlah lebih dari 15.000, tidak selalu membuat karyawannya tergesa-gesa. Ketika Zaitsev, yang saat itu berusia 33 tahun, bergabung dengan pasukan moderator Facebook pada Juli 2016, ia dihadapkan dengan alur kerja yang terorganisir secara profesional, di mana ia menjalani pelatihan terperinci dan memperlakukannya dengan sangat baik.

Namun segera semuanya berubah. Jumlah moderator di kantor Dublin mulai meningkat tajam - dari 120 menjadi 800 hanya dalam dua tahun - kondisinya mulai memburuk, dan pelatihan moderator hampir menghilang.

Pada 2018, jumlah moderator konten di seluruh dunia telah berkembang menjadi puluhan ribu, dan Facebook mulai menguji sistem manajemen waktu yang dirancang untuk melacak karyawan setiap menit sepanjang hari - termasuk istirahat makan siang, pelatihan, "istirahat kesehatan" untuk mengunjungi psikolog atau kereta api untuk yoga, dan bahkan waktu yang mereka habiskan di pot, menurut Zaitsev dan karyawan lain yang bekerja hari ini di perusahaan yang ingin tetap anonim.

Selama beberapa tahun terakhir, Facebook telah berjuang dengan kritik tentang bagaimana media sosial menangani konten yang mengerikan. Perusahaan telah menghabiskan setidaknya setengah miliar dolar untuk menyewa moderator manusia di samping algoritma yang memantau kebersihan halaman.

Karena kontrol yang terus meningkat dari pemerintah di berbagai negara, pekerjaan moderator ini sangat penting. Mereka adalah garis pertahanan pertama perusahaan terhadap bahan-bahan mengerikan dan ilegal, tetapi mereka mengeluh tentang gaji yang buruk dan kurangnya dukungan. Akibatnya, masalah kesehatan psikologis muncul satu demi satu, dan bulan lalu yang pertama dari banyak tuntutan hukum mungkin diajukan karena fakta bahwa perusahaan tidak memberikan keselamatan di tempat kerja.

Moderator Facebook semakin mengatakan bahwa setiap langkah yang mereka ikuti dilacak. Saat memutuskan konten, moderator harus mengikuti petunjuk dari dokumen yang selalu berubah, yang mereka sebut "bible." Dan setiap moderator diberi “penilaian kualitas”.

"Anda dapat membuat 4-5 kesalahan sebulan - ini 2% kesalahan, kualitas 98%," kata Chris Gray, mantan moderator Facebook yang bekerja di perusahaan selama 11 bulan. "Jika Anda datang untuk bekerja hari ini dan Selasa atau Rabu, dan Anda membuat lima kesalahan, maka seluruh bulan Anda masuk neraka, dan Anda hanya bisa memikirkan cara mendapatkan kembali tanda ini."

Gray menderita gangguan stres pasca-trauma setelah bekerja sebagai moderator, dan bulan lalu menggugat di Irlandia terhadap jejaring sosial dan melawan CPL, salah satu kontraktor Facebook, yang mempekerjakan ribuan peninjau konten di AS, Eropa dan Asia. Perusahaan dituduh menyebabkan "trauma psikologis" dalam gugatan karena kondisi kerja yang buruk dan kebutuhan untuk melihat materi yang tidak menyenangkan.

Lusinan, jika bukan ratusan, moderator diharapkan untuk mengajukan tuntutan hukum tersebut. Seorang sumber dari firma hukum Coleman & Partners yang bekerja untuk Gray memberi tahu kami bahwa dokumen baru akan dikirim ke Mahkamah Agung bulan ini.

CPL tidak menanggapi permintaan kami untuk pernyataan yang dibuat oleh moderator saat ini dan sebelumnya, dan Facebook menolak untuk mengomentari pernyataan yang mencatat setiap menit waktu karyawan.

Juru bicara Facebook Drew Pusateri mengatakan kepada kami bahwa "kesejahteraan orang yang meninjau konten Facebook telah dan tetap menjadi prioritas utama kami."

Tetapi moderator mengatakan bahwa ini tidak benar. Facebook memberikan akses ke konseling psikologis, banyak moderator berpikir bahwa mereka tidak dapat menggunakannya karena pengawasan terus-menerus, kebijakan yang terus berubah dan penegakan standar kualitas yang kejam.

"Ada ribuan moderator yang bekerja di Uni Eropa, dan semuanya memiliki kondisi kerja yang tidak aman untuk kesehatan psikologis mereka dan, menurut pendapat kami, adalah ilegal," kata Corey Crider, direktur kelompok lobi Inggris Foxglove. "Undang-undang Eropa sangat melindungi pekerja, dan kami percaya bahwa Facebook dan jejaring sosial lainnya harus berbuat lebih banyak untuk menciptakan pekerjaan yang aman bagi para moderator."

Mengikuti Injil


Moderator Facebook melihat dan menghapus konten yang ditandai oleh milyaran pengguna Facebook dari seluruh dunia, serta algoritma AI perusahaan. Sebagian besar konten cukup umum, tetapi beberapa contoh sangat tidak menyenangkan - pelecehan seksual, kebinatangan, kekerasan.

Setiap hari, ketika moderator ditandai di pagi hari di tempat kerja, ia menerima apa yang disebut "Rencana permainan" adalah rutin yang menunjukkan berapa banyak contoh konten yang perlu diproses oleh moderator, dan dari mana antrian - teks ofensif, pelecehan, ancaman melukai diri sendiri.

Gray mengatakan bahwa moderator CPL juga mengenakan waktu rata-rata untuk memproses permintaan, atau jumlah waktu yang dapat dihabiskan untuk masing-masing contoh. Waktu bervariasi tergantung pada jenis konten yang dipelajari, tetapi Gray mengatakan bahwa biasanya tidak lebih dari satu menit.

Dan jika beberapa contoh konten jelas melanggar aturan dan tidak memerlukan banyak pemikiran untuk diproses, yang lain tidak begitu jelas, itulah sebabnya Anda harus berkonsultasi dengan "standar eksekutif" Facebook, atau, sebagaimana beberapa moderator menyebutnya, dengan "alkitab".

Sebuah dokumen berisi 10.000 kata berisi 24 kategori berbeda, dibagi menjadi tiga kelompok: perilaku berbahaya, konten sensitif dan melanggar hukum - ini mengikuti salinan dokumen yang diterbitkan pada Maret 2018 dan ditinjau oleh VICE News.


Menurut aturan, moderator dapat memutuskan untuk mengabaikan konten atau menghapusnya. Jika dia memutuskan untuk menghapusnya, dia perlu menggambarkan konten ini dengan sangat terperinci, memberi tag dengan tag dari beberapa kategori dan subkategori. Informasi ini kemudian dimasukkan ke dalam algoritma Facebook. Ini berarti bahwa moderator sendiri yang melatih program, yang suatu hari dapat menggantikannya.

Meskipun "Alkitab" adalah panduan yang bermanfaat, itu diperbarui setiap dua minggu dan menjelaskan penggunaan generalisasi berkabut berbagai konten yang diterbitkan di Facebook.

"Anda harus memiliki aturan umum yang dapat diterapkan siapa saja dengan mudah dalam situasi yang berbeda," kata Gray.

Dan dalam banyak situasi, para moderator tidak tahu apa yang harus dilakukan.

"Ada hari-hari ketika kami berdiri dengan sepuluh orang di layar, seseorang memiliki kebijakan terbuka di layar lain, kami melihat layar dan berdebat tentang bagaimana politik diterapkan pada video ini," kata Gray.

Dalam kebanyakan kasus, moderator tidak memiliki kesempatan untuk menyampaikan masalah kepada karyawan yang lebih tua. Bagaimanapun, mereka harus membuat keputusan, dan jika ternyata salah, itu akan mempengaruhi penilaian kualitas pekerjaan mereka.

Standar kualitas yang tidak realistis


Tim auditor yang meninjau contoh keputusan moderator yang dipilih setiap bulan menentukan apakah moderator itu benar atau tidak. Namun, auditor ini adalah moderator yang sama yang penilaian kualitasnya di atas rata-rata.

Moderator memberikan satu kesempatan untuk naik banding ke keputusan auditor dari auditor yang sama, dan ini harus dilakukan dalam waktu 48 jam - dan semua moderator yang diwawancarai oleh editor VICE News mengatakan bahwa mereka harus naik banding untuk mempertahankan tingkat kualitas di 98 %

Auditor memberikan peringkat negatif untuk keputusan yang salah, karena konten yang akan dihapus tetap ada di Facebook, atau sebaliknya. Proses ini juga memungkinkan auditor untuk memilih moderator jika mereka membuat pilihan yang tepat untuk alasan yang salah.

Tetapi auditor jauh dari sempurna dan seringkali tidak dapat menjelaskan keputusan mereka. Menentukan apakah perlu untuk meninggalkan posting pengguna secara online di mana proposal "mungkin Anda harus bunuh diri" dibuat, salah satu auditor tidak dapat memberikan jawaban yang pasti - ini mengikuti screenshot dari diskusi dengan moderator yang siap membantu VICE News.

"Auditor tidak tahu apa-apa tentang pasar Anda, karena mereka datang dari berbagai negara dan berbicara bahasa yang berbeda," kata Zaitsev.

Namun, Facebook tidak hanya tidak dapat mempekerjakan orang dengan pengalaman yang memadai untuk moderasi. Perusahaan juga memungkinkan moderator untuk berbagi informasi pribadi dengan pihak ketiga.

Zaitsev adalah di antara lebih dari 1000 moderator Facebook yang identitasnya secara tidak sengaja diungkapkan kepada orang-orang yang akunnya mereka blokir. Facebook meminta maaf kepada Zaitsev dan berjanji untuk melindungi karyawan mereka dengan lebih baik. Ini adalah salah satu dari banyak janji yang dibuat oleh jejaring sosial baru-baru ini dalam terang banyak skandal.

Kebijakan Facebook


Terlepas dari kenyataan bahwa Facebook bersikeras memperbaiki kondisi kerja, kebijakan manajemen waktu baru dan persyaratan konstan untuk mencapai kualitas kerja tertentu bahkan lebih mengikis waktu yang dapat digunakan karyawan untuk menghilangkan stres setelah bekerja dengan konten traumatis.

Program manajemen waktu baru yang memaksa moderator untuk merekam setiap menit waktu kerja mereka telah menambah masalah pada lingkungan kerja yang sudah penuh tekanan. Facebook mulai menggunakan program ini tahun ini. Ini bekerja sangat efisien sehingga jika moderator meninggalkan komputernya, program mencatatnya meninggalkan tempat kerja. Dan kemudian dia harus menjelaskan celah ini kepada manajer.

Program ini juga mempersulit upaya moderator untuk mengambil keuntungan dari program untuk menjaga kesehatan. Dalam banyak kasus, alih-alih mengunjungi psikolog atau berlatih yoga, moderator menghabiskan waktu luang mereka berdebat dengan auditor tentang kebenaran keputusan yang dibuat atau perubahan pada "Alkitab".

Salah satu moderator Facebook, yang bekerja di sana hingga hari ini, mengatakan bahwa orang yang bekerja di "pasar sibuk", misalnya, di wilayah berbahasa Inggris, "tidak didorong" untuk menggunakan program untuk meningkatkan kesejahteraan mereka, dan bahwa karena ini sulit bagi mereka untuk bekerja secara keseluruhan. hari, tanpa merasa tertekan secara psikologis.

Dan di pasar yang berbeda, bebannya bisa sangat berbeda. Moderator di negara-negara seperti Filipina atau Thailand mengatakan mereka melihat 1.000 salinan konten per hari, sementara moderator Eropa dapat melihat kurang dari 150 salinan di bagian yang lebih kompleks, seperti eksploitasi anak.

Manajer mungkin tidak selalu memperhatikan penyebab masalah moderator - konsekuensi dari konten yang mereka tonton, mengalami tekanan, atau kombinasi dari kedua faktor.

Seorang moderator yang bekerja di CPL selama 14 bulan, dari 2017 hingga 2018, mengatakan kepada VICE News bahwa ia memutuskan untuk keluar dari perusahaan ketika manajer mendenda dia karena serangan panik di tempat kerja. Pada saat itu, moderator mengetahui bahwa ibunya yang sudah lanjut usia, yang tinggal di negara lain, menghilang setelah terkena stroke.

“Pada suatu hari ketika saya mengalami tekanan paling serius dalam hidup saya, ketika saya pikir saya bisa kehilangan ibu saya, pemimpin tim saya, seorang pria berusia 23 tahun tanpa pengalaman kerja, memutuskan untuk memberi lebih banyak tekanan pada saya, berjanji bahwa saya bisa kehilangan pekerjaan saya ", Kata sang moderator, yang ingin tetap anonim.

Sikap "sebagai penjahat"


Ketika stres akhirnya memaksa moderator untuk meninggalkan perusahaan, banyak dari mereka takut untuk mengkritik Facebook atau CPL karena perjanjian non-pengungkapan yang mereka tandatangani sebelum mulai bekerja. Zaitsev mengatakan bahwa ketika dia dipecat di CPL, dia dipaksa untuk menandatangani perjanjian kedua.

"Saya menolak untuk menandatangani, dan saya dipaksa untuk mendorong," katanya. "Setelah banyak kegagalan, mereka mengusir saya keluar dari gedung sebagai penjahat, meskipun shift saya belum berakhir dan saya tidak punya waktu untuk mengucapkan selamat tinggal kepada rekan-rekan saya."

Perusahaan juga memperingatkan karyawan untuk tidak berbicara kepada pers. VICE News menerima salinan email yang dikirim oleh CPL kepada para karyawannya di Dublin pada tahun 2018, yang memperingatkan tentang kisah perusahaan yang akan datang secara diam-diam di Channel 4. Surat itu menggambarkan bagaimana karyawan harus menjawab pertanyaan. "Anda mungkin lebih baik menjawab pertanyaan seperti" Keamanan orang yang menggunakan Facebook adalah salah satu prioritas utama kami, "" kata salah satu bagian dari dokumen.

Facebook juga mendesak moderator untuk menghapus tautan Facebook apa pun dari halaman LinkedIn mereka sehingga wartawan tidak dapat menghubungi mereka dan bertanya tentang kasus kontroversial, kata Zaitsev.

Facebook mengatakan kepada VICE News bahwa mereka menentang tautan ke perusahaan online “untuk alasan keamanan,” dan mengutip penembakan di kantor pusat YouTube di San Bruno, California, pada April 2018 sebagai contoh.

Terlepas dari paranoia Facebook, Zaitsev hari ini adalah bagian dari kelompok puluhan moderator saat ini dan mantan yang telah menghubungi Coleman Legal Partners mengenai tuntutan hukum terhadap perusahaan ini yang telah gagal memastikan lingkungan kerja yang aman. Tidak seperti gugatan tindakan kelas baru-baru ini di Amerika Serikat, setiap moderator di Irlandia diharuskan untuk mengajukan tindakan terpisah.

“Semakin jauh dari Facebook, semakin bahagia orang itu. Semakin Anda tidak bahagia, semakin banyak waktu yang akan Anda habiskan di Facebook, ”salah satu mantan moderator, bersiap untuk mengajukan gugatan dengan Facebook, kepada VICE News. “Dan kami, ibunya, menghabiskan sepanjang hari di Facebook. Anda dapat menebak bahwa ini adalah praktik yang tidak sehat. ”

Source: https://habr.com/ru/post/id484502/


All Articles