Mengapa Anda tidak harus menunggu manifestasi moral dari robomobiles



Sejak perusahaan mulai mengembangkan kendaraan robot, orang-orang mulai bertanya tentang bagaimana perancang akan menyelesaikan masalah moral , seperti siapa yang harus dibunuh robot jika terjadi kecelakaan yang tidak dapat dihindari. Sebuah studi baru-baru ini menunjukkan bahwa pertanyaan ini mungkin lebih sulit untuk dijawab daripada yang diperkirakan sebelumnya, karena preferensi moral orang berbeda-beda di berbagai negara.

Para peneliti di Universitas Harvard dan MIT telah mengembangkan game online yang mensimulasikan situasi di mana kecelakaan dengan para korban tidak dapat dihindari. Mereka mewawancarai 40 juta orang dari 200 negara, menawarkan untuk memilih berbagai opsi tentang bagaimana insiden seperti itu harus berakhir, misalnya, apakah penumpang mobil atau pejalan kaki harus mati.

Akibatnya, tiga kelompok budaya dengan preferensi etis yang berbeda ditemukan. Misalnya, di kluster selatan (yang mencakup sebagian besar Amerika Latin dan bekas koloni Prancis), paling disukai untuk membebaskan perempuan daripada merugikan laki-laki. Di kluster timur (yang mencakup banyak negara Islam, Cina, Jepang, dan Korea), orang-orang cenderung memilih untuk menyelamatkan kaum muda agar merugikan para lansia.

Para peneliti menyimpulkan bahwa informasi ini harus memengaruhi keputusan pengembang robomobiles. Tetapi haruskah itu? Karya ini, menyoroti penemuan menarik dari perbedaan global dalam preferensi moral, juga menunjukkan kesalahpahaman terus-menerus tentang AI dan kemampuannya. Mengingat tingkat teknologi AI saat ini yang digunakan dalam kendaraan robot, jelas bahwa mesin tidak dapat membuat keputusan moral.

Fantasi "mesin moral"


Robomobiles dilatih untuk membuat keputusan tentang kapan harus mengarahkan dan kapan harus memperlambat, menggunakan jenis khusus AI, juga dikenal sebagai " AI lemah (sempit), " yang berfokus pada satu tugas yang sangat khusus. Mereka dikembangkan menggunakan berbagai sensor, kamera, dan laser rangefinding (kapten) yang memberikan informasi ke komputer pusat. Komputer menggunakan AI untuk menganalisis data input dan membuat keputusan.

Dan meskipun saat ini teknologi ini relatif sederhana, sebagai akibatnya, mobil dapat melampaui seseorang dalam tugas paling sederhana yang terkait dengan mengendarai mobil. Tetapi tidak realistis untuk percaya bahwa robomobiles harus dapat membuat keputusan yang etis, yang bahkan orang yang paling bermoral pun tidak akan punya waktu jika terjadi kecelakaan. Jika kita menginginkan ini dari mobil, kita perlu memprogram kecerdasan buatan tujuan umum (IION).

IION setara dengan menjadikan kita manusia. Ini adalah kesempatan untuk berbicara, menikmati musik, menertawakan sesuatu atau menilai moralitas. Sekarang tidak mungkin membuat IION karena kompleksitas pemikiran dan emosi manusia. Jika kita menuntut penciptaan mobil otonom dengan moralitas, kita harus menunggu beberapa dekade, bahkan jika ini mungkin.

Masalah lain dengan studi baru ini adalah sifat tidak realistis dari banyak situasi yang dinilai oleh para peserta. Dalam satu skenario, " masalah troli " yang terkenal dimainkan, dan peserta ditanyai siapa mobil yang harus bergerak ketika rem gagal: tiga penumpang (seorang pria, seorang wanita dan seorang anak) atau tiga pejalan kaki tua (dua pria tua dan satu wanita tua).

Orang dapat dengan hati-hati merenungkan masalah seperti itu dengan mengisi kuesioner. Tetapi dalam sebagian besar insiden kehidupan nyata, pengemudi tidak akan punya waktu untuk membuat keputusan seperti itu dalam sepersekian detik yang akan terjadi. Jadi, perbandingannya salah. Mengingat tingkat teknologi AI saat ini yang digunakan dalam kendaraan robot, kendaraan ini juga tidak akan dapat membuat keputusan seperti itu.


AI yang sempit memungkinkan robot mobil membuat penilaian sederhana tentang objek di sekitarnya

Robomobiles modern memiliki kemampuan persepsi dunia yang kompleks, dan mereka dapat membedakan pejalan kaki dari objek lain, seperti lampu jalan atau rambu lalu lintas. Namun, penulis penelitian percaya bahwa robomobiles dapat, dan bahkan mungkin perlu membuat perbedaan yang lebih dalam. Misalnya, mereka dapat menghargai tingkat kegunaan orang-orang tertentu bagi masyarakat, misalnya, dokter atau atlet, dan memutuskan untuk menyelamatkan mereka jika terjadi kecelakaan.

Kenyataannya adalah bahwa untuk melakukan penalaran yang rumit seperti itu, Anda harus membuat IION, yang tidak mungkin hari ini. Selain itu, tidak jelas apakah ini harus dilakukan sama sekali. Sekalipun dimungkinkan untuk membuat program mesin kesempatan untuk memutuskan kehidupan siapa yang harus diselamatkan, saya percaya bahwa kita seharusnya tidak diizinkan untuk melakukan ini. Kita tidak boleh membiarkan preferensi ditentukan oleh penelitian, tidak peduli seberapa besar pemilihannya, untuk menentukan nilai kehidupan manusia.

Pada dasarnya, robomobiles dirancang untuk menghindari kecelakaan sebanyak mungkin atau untuk meminimalkan kecepatan tumbukan. Meskipun, seperti halnya manusia, mereka tidak akan dapat membuat keputusan berdasarkan moralitas jika terjadi tabrakan yang akan terjadi. Namun, robomobiles akan lebih aman daripada mobil yang digerakkan orang, lebih penuh perhatian, kecepatan reaksi mereka akan lebih tinggi, dan mereka akan dapat menggunakan potensi penuh dari sistem pengereman.

Sejauh ini, masalah etika terbesar di bidang robomobiles adalah apakah cukup bukti telah dikumpulkan dalam simulasi perilaku aman mereka untuk dapat melepaskan robomobiles di jalanan. Tetapi ini tidak berarti bahwa mereka akan "bermoral", atau akan menjadi seperti itu dalam waktu dekat. Mengatakan sebaliknya adalah mengacaukan AI yang sempit, dengan IION, yang mungkin tidak akan muncul selama hidup kita.

Pada akhirnya, robomobiles akan lebih aman daripada manusia. Ini akan tercapai berkat desain mereka dan kemampuan untuk menghindari insiden dengan sekuat tenaga, atau untuk mengurangi kerusakan jika terjadi keniscayaan. Namun, mesin tidak dapat membuat keputusan moral di mana bahkan kita tidak bisa. Gagasan ini tetap merupakan fiksi, dan Anda tidak boleh berharap untuk itu. Sebaliknya, kami fokus pada keamanan: iman di dalamnya akan dibenarkan.

Source: https://habr.com/ru/post/id441704/


All Articles