Pengembang AI dan robotika menulis surat terbuka menentang pembuatan senjata otonom
Para pemimpin dunia IT dan sains telah menandatangani surat terbuka yang menyerukan larangan pengembangan robot militer otonom , sebagaimana diketahui dari siaran pers resmi perusahaan FutureOfLife, yang membuat petisi dan mengumpulkan tanda tangan. Di antara kepribadian terkenal, seseorang dapat membedakan fisikawan brilian Stephen Hawking , pendiri Apple Steve Wozniak , dan kepala Tesla, Ilon Mask .Ini mengikuti dari teks yang diterbitkan bahwa keputusan untuk menandatangani muncul di benak orang-orang hebat karena ancaman "perlombaan senjata" lainnya.“Senjata otonom memilih dan menembak target tanpa campur tangan manusia. Mereka dapat, misalnya, memutuskan untuk menghapus seseorang yang tidak memenuhi kriteria tertentu sendiri, jadi ini tidak berlaku untuk pesawat tak berawak dan rudal jelajah. Teknologi Artificial Intelligence (AI) telah mencapai titik di mana penyebaran sistem tersebut - jika tidak dilarang - adalah proyek yang sepenuhnya layak selama sepuluh tahun ke depan. Mari kita ingat bahwa senjata otonom digambarkan sebelumnya sebagai revolusi ketiga dalam perang setelah bubuk mesiu dan senjata nuklir, ”bunyi teks surat itu."Tentu saja, banyak yang mengatakan mendukung senjata otonom. Misalnya, penggantian faktor manusia yang hampir lengkap di medan perang, dan karenanya menjaga sebagian besar kehidupan para peserta perang. Tetapi jangan lupa bahwa penciptaan AI semacam itu akan membawa konsekuensi yang paling menghancurkan: perlombaan senjata akan dimulai, dan kita ingat apa yang dibawa ke waktu terakhir (krisis Karibia - kira-kira penulis). Selain itu, senjata jenis ini akan menjadi sangat murah, dan kekuatan serupa akan muncul dalam pelayanan dengan banyak tentara dunia, dan bahkan itu - dengan teroris. Senjata otonom sangat cocok untuk tugas-tugas seperti membunuh, negara-negara yang tidak stabil, menundukkan penduduk dan secara selektif membunuh kelompok etnis tertentu.Sama seperti ahli kimia dengan ahli biologi pernah mendukung larangan senjata nuklir, maka karyawan perusahaan senjata cerdas harus menentang ini, karena penciptaan alat penghancur seperti itu hanya akan mengurangi signifikansi sosial kita.Kami percaya bahwa pengetahuan dan keterampilan AI tidak cukup untuk melakukan sesuatu yang benar-benar berharga dan berguna bagi umat manusia, jadi biarkan mereka fokus pada hal ini. Memulai perlombaan senjata otonom cerdas adalah ide yang sangat buruk dan harus dicegah dengan melarang penciptaan senjata mematikan di luar kendali manusia, ”seruan kepada masyarakat dunia berakhir.Petisi ini diharapkan akan dibacakan secara resmi di konferensi internasional tentang kecerdasan buatan di Buenos Aires.Source: https://habr.com/ru/post/id382357/
All Articles