
Puluhan artikel tentang perlunya membuat undang-undang untuk robot dan kecerdasan buatan (AI) terus-menerus diterbitkan di seluruh dunia. Menurut salah satu pemikir hukum terkemuka di bidang hukum baru, Profesor Ono Academic College (Israel) Gabriel Hallevy: β Hari ini kita berada dalam ruang hampa - kekosongan hukum. Kami tidak tahu bagaimana berhubungan dengan makhluk-makhluk ini . " Dan baru-baru ini, Bill Gates sendiri mengatakan bahwa karena robot mulai menduduki pekerjaan orang, mereka harus membayar pajak.
Menurut sebuah penelitian oleh Ryan Keilo , dalam hukum Amerika, robot diperlakukan sebagai mesin yang diprogram yang memenuhi kehendak seseorang. Karena itu, dalam semua kasus, pencipta yang bertanggung jawab atas tindakan robot. Pendekatan ini tidak kontroversial sampai sistem robot otonom digunakan secara luas. Tetapi bagaimana jika, misalnya, kita berbicara tentang pabrik Tesla , yang mempekerjakan 160 robot dari semua jenis? Untuk keadaan darurat apa pun, tanggung jawab dapat diletakkan pada programmer-developer, perusahaan pemasok, bengkel utama dan sebagainya.
Di semua benua, perselisihan bermunculan tentang bagaimana keluar dari situasi tersebut. Jika kita mengabaikan seruan ekstremis untuk memperpanjang hukum administrasi dan pidana saat ini menjadi robot dan menghukum mereka sampai pembongkaran, beberapa pendekatan tetap ada. Beberapa menyarankan robot yang menyinggung diambil dari pemilik dan ditransfer untuk melakukan layanan komunitas. Yang lain, lebih berhati-hati, melihat jalan keluar dalam pendaftaran robot wajib, dengan asuransi mereka selanjutnya untuk mengkompensasi kerusakan.
Dengan beragamnya pendekatan hukum untuk robot dan AI, pertanyaan yang belum terselesaikan adalah: siapa yang akan bertanggung jawab secara khusus jika robot atau AI tersebut merusak individu dan perusahaan. Ada tiga masalah yang belum terpecahkan yang menghambat pengembangan praktis legislasi untuk robot dalam hal menentukan tanggung jawab:
Masalah pertama . Sistem robot yang dikendalikan oleh AI dan mampu belajar adalah perangkat otonom yang sangat kompleks. Sejumlah besar orang dan perusahaan terlibat dalam penciptaan dan operasi mereka. Di antara pengacara, masalah ini dikenal sebagai masalah rantai panjang. Sebagai aturan, untuk setiap robot dan AI, perangkat keras dan perangkat lunak diproduksi oleh perusahaan yang berbeda. Selain itu, dalam sistem yang kompleks, produsen perangkat keras dan perangkat lunak juga bukan satu, tetapi beberapa perusahaan dan pengembang tunggal. Jangan lupa tentang penyedia yang menyediakan telekomunikasi. Seringkali sistem robot yang rumit diikat ke Internet hal . Namun, ini belum semuanya. Masih ada organisasi yang membeli dan menggunakan robot ini. Jadi panjang rantai mencapai 12-15 orang.
Masalah kedua. Kehidupan nyata berbeda dari permainan (seperti tidak hanya catur dan draft, tetapi juga, misalnya, poker) dengan karakter non-deterministik. Dalam kehidupan, konteks dan karakteristik situasi memainkan peran besar. Bergantung pada situasinya, pertanyaan tentang tanggung jawab, rasa bersalah, dll., Diputuskan secara berbeda. Dalam hukum untuk orang, konteks ini diperhitungkan melalui lembaga juri. Adalah juri yang membuat putusan, mengadili undang-undang dan preseden dengan konteks situasi tertentu.
Masalah ketiga. Dalam praktiknya, baik hari ini dan dalam waktu dekat, sistem robot yang kompleks akan sepenuhnya otonom hanya dalam sejumlah kecil kasus. Ini sebagian karena posisi lembaga negara dan opini publik. Oleh karena itu, sejumlah besar pencipta dan operator sistem robotik yang dikendalikan AI mengandalkan kecerdasan hibrid - karya gabungan antara manusia dan mesin. Dengan demikian, protokol interaksi manusia-mesin harus dimasukkan ke dalam undang-undang untuk robot. Seperti yang ditunjukkan oleh praktik, itu adalah seseorang dalam banyak sistem yang merupakan tautan yang paling rentan.
Selain itu, masalah ini memiliki sisi lain. Kekhawatiran utama terkait dengan penggunaan sistem robot otonom terkait dengan kerusakan yang disengaja atau tidak disengaja terhadap makhluk hidup. Dalam kasus kerusakan yang disengaja, situasinya jelas: penjahat cyber harus dicari. Dalam kasus kerusakan tidak disengaja - situasinya tidak begitu jelas. Berdasarkan sejarah interaksi manusia dengan teknologi, aman untuk mengatakan bahwa dalam sebagian besar masalah di masa depan dengan robot, orang yang melanggar prosedur keselamatan dan berbagai jenis aturan akan disalahkan.
Dengan semua diskusi sengit tentang preseden untuk pembentukan administrasi dan, mungkin, hukum pidana untuk robot dan AI, topik utama penentuan tanggung jawab tidak diperhatikan. Anda dapat berbicara lama tentang perlunya hukuman untuk kejahatan, tetapi sampai ada cara yang jelas dan diterima bagi masyarakat, perusahaan dan negara untuk menentukan tanggung jawab atas kejahatan dan tindakan yang dapat dihukum, diskusi akan bersifat teoretis.
Saat mengembangkan proposal untuk membuat undang-undang untuk robot dan AI, arus utama adalah keinginan untuk menggunakan solusi dan norma hukum yang berlaku bagi manusia untuk robot. Situasi sebaliknya telah berkembang dalam topik β kontrak pintar β. Di sini orang berusaha mengganti hukum kontekstual yang fleksibel dengan prosedur algoritmik. Tetapi algoritma yang ketat memiliki sedikit kesempatan untuk mengganti undang-undang yang fleksibel dan kontekstual yang digunakan oleh individu dan perusahaan.
Dalam hidup, dan juga dalam hitung, dari dua minus Anda bisa mendapatkan nilai tambah. Kontrak pintar berbasis blockchain adalah alat yang ideal untuk menyelesaikan masalah dalam menetapkan dan berbagi tanggung jawab dalam kerangka hukum untuk robot dan AI. Menjadi dasarnya sebuah database terdistribusi yang aman secara kriptografis, blockchain cocok sebagai dasar undang-undang untuk robot dan AI.
Sistem otonom otomatis yang dikendalikan oleh AI, meskipun memiliki kompleksitas dan multifungsi, tetap merupakan perangkat algoritmik. Interaksi antara berbagai blok perangkat lunak dan perangkat keras dari desain yang kompleks paling baik ditangkap dan dieksekusi melalui blockchain.
Dengan pendekatan ini, kontrak pintar bertindak sebagai modul hukum dalam kompleks robot yang kompleks, termasuk AI yang dikelola, yang menentukan ruang lingkup dan batas tanggung jawab semua yang terlibat dalam pembuatan dan pengoperasian kompleks ini.
Kontrak pintar untuk robot dapat secara bersamaan melakukan setidaknya tiga fungsi:
Pertama , mereka memungkinkan setiap produk untuk membuat semacam kotak hitam yang didistribusikan. Kotak hitam tidak dalam arti cybernetic, tetapi dalam arti kotak hitam yang digunakan dalam pesawat. Jika terjadi kesalahan, Anda dapat dengan jelas menentukan, berdasarkan pembacaan sensor, sensor, dan pelaksanaan program, komponen spesifik mana yang bertanggung jawab atas kegagalan dan siapa atau apa yang bertanggung jawab untuk itu. Dalam situasi seperti itu, kontrak pintar memberikan informasi yang diperlukan untuk penyelidik, perusahaan asuransi dan pengadilan.
Kedua, kontrak pintar dapat bertindak sebagai sistem keamanan terintegrasi untuk perangkat mandiri yang otomatis. Pelanggaran terhadap kondisi tertentu dapat mengganggu pelaksanaan transaksi dan seluruh operasi perangkat.
Berbeda dengan fungsi kotak hitam, fungsi keamanan dalam praktiknya agak lebih sulit untuk diterapkan. Untuk mengintegrasikan sirkuit ini ke dalam kontrak pintar yang berfungsi, perlu untuk menyinkronkan kecepatan transaksi dengan perintah program yang ditransmisikan dari satu komponen kompleks otonom ke komponen lainnya. Ketika ini bisa dilakukan, produsen akan dapat menyediakan robot yang lebih aman bagi konsumen.
- Ketiga , penggunaan kontrak pintar secara hipotesis dapat meningkatkan kesadaran orang ketika bekerja dengan robot. Memahami fakta bahwa setiap tindakan akan selamanya direkam di blockchain dapat membuat karyawan lalai berpikir seratus kali sebelum melanggar tindakan pencegahan keselamatan.
Aturan apa pun adalah algoritma yang ditentukan secara ketat. Mereka menyiratkan pelaksanaan tindakan yang didefinisikan secara ketat dalam situasi yang ditetapkan dengan ketat. Oleh karena itu, blockchain adalah yang paling cocok untuk menyimpulkan kontrak pintar antara produsen sistem otonom yang kompleks di satu sisi, dan dengan penggunanya di sisi lain. Ketika bekerja dengan sistem otonom, orang seharusnya tidak hanya menerima peluang yang tidak ada sebelumnya, tetapi juga memikul tanggung jawab atas tindakan mereka sendiri, yang ditulis dalam bahasa algoritmik. Jika terjadi insiden, kehadiran kontrak pintar bersama dengan pembacaan sensor dan sensor akan membantu menentukan siapa sebenarnya - sistem otomatis atau orang - yang harus disalahkan atas apa yang terjadi.
Kasing untuk kecil. Serahkan manusia kepada orang-orang, dan mesin ke mesin, dan mulai menerjemahkan standar, aturan teknis, aturan keselamatan, dll. ke dalam bahasa kontrak pintar untuk robot dan orang yang berinteraksi dengan mereka.