Pikiran terbaik planet ini: kecerdasan buatan dapat menghancurkan umat manusia

gambar
Dalam daftar skenario kiamat, robot pembunuh pintar yang dapat menghapus kemanusiaan dari muka bumi cukup tinggi. Dan dalam komunitas ilmiah, semakin banyak pakar kecerdasan buatan (AI) setuju bahwa orang pada akhirnya akan menciptakan kecerdasan buatan yang akan menjadi lebih pintar daripada mereka. Suatu momen yang disebut singularitas dapat menciptakan utopia di mana robot bekerja dan orang - orang bersantai di surga. Atau itu akan mengarah pada penghancuran semua bentuk kehidupan yang AI anggap pesaing untuk mengendalikan planet ini - yaitu, kita. Stephen Hawkingselalu berbicara tentang opsi terakhir dan baru-baru ini mengingatnya dalam sebuah wawancara dengan BBC. Kami menyarankan agar Anda membiasakan diri dengan beberapa komentar Hawking dan genius lainnya yang percaya bahwa AI dapat menjadi matahari terbenam umat manusia .


Stephen Hawking



gambar
Perkembangan kecerdasan buatan penuh dapat menandakan awal dari akhir bagi manusia. Ini akan dimulai dengan sendirinya dan akan berubah dengan kecepatan panik. Orang-orang yang dibatasi oleh evolusi biologis yang lambat tidak akan mampu melawan dan akan dikerumuni, ”kata seorang ahli fisika terkenal di dunia. Hawking telah lama mempresentasikan visi apokaliptiknya.

Menanggapi sebuah film tentang singularitas dengan "Keunggulan" Johnny Depp, ilmuwan mengkritik para peneliti untuk tidak melakukan apa pun untuk melindungi manusia dari AI: "Jika peradaban alien superior mengirimi kami pesan" Kami akan tiba dalam beberapa abad ", akankah kita jawab, kata mereka, yah, panggil kami, ketika kamu sampai di sini, pintunya akan terbuka? Mungkin tidak, tapi itulah yang terjadi dengan AI. ”

Elon Musk



gambar

Dikenal karena perusahaan-perusahaan teknologi mutakhir seperti Tesla dan SpaceX , Musk bukan penggemar kecerdasan buatan . Pada sebuah konferensi di MIT pada bulan Oktober, ia membandingkan penggunaan AI dengan "memanggil iblis" dan menyebutnya sebagai ancaman terbesar dan nyata bagi umat manusia. Dia juga memposting tweet bahwa AI bisa lebih berbahaya daripada senjata nuklir. Musk menyerukan pembentukan regulasi nasional dan internasional untuk pengembangan AI.

Nick Bostrom



gambar

Filsuf Swedia adalah direktur Institute for Future Humanity di Universitas Oxford, tempat ia menghabiskan banyak waktu untuk memikirkan kemungkinan hasil singularitas. Dalam buku barunya Superintellig, Bostrom menulis bahwa begitu mesin melampaui kecerdasan manusia, mereka dapat memobilisasi dan memutuskan untuk menghancurkan orang dengan kecepatan kilat menggunakan berbagai strategi (pengembangan yang tidak mencolok dari patogen, memikat orang ke pihak mereka atau hanya karena kekuatan kasar). Dunia masa depan akan menjadi lebih dan lebih teknologi dan kompleks, tetapi kita tidak akan melihat ini. "Masyarakat keajaiban ekonomi dan kecuraman teknologi di mana tidak akan ada orang. Disneyland tanpa anak. "

James barrat



gambar

Barrat adalah seorang penulis dan film dokumenter yang, dalam buku barunya, Our Latest Invention: Artificial Intelligence dan Akhir Zaman Manusia, menyajikan wawancara dengan para filsuf dan peneliti AI. Dia percaya bahwa makhluk pintar berdasarkan sifatnya mengumpulkan sumber daya dan melakukan tugas, yang, tidak diragukan lagi, akan membuat pesaing menjadi AI dan manusia yang super cerdas - konsumen utama sumber daya di planet ini. Ini berarti bahwa bahkan mesin yang seharusnya hanya bermain catur atau melakukan fungsi sederhana dapat memikirkan hal lain jika itu cukup pintar. "Tanpa instruksi penahanan yang dipikirkan dengan saksama, sistem bertujuan yang sadar diri dan meningkatkan diri untuk mencapai tujuannya akan berkembang dengan cara yang bahkan tidak bisa kita pikirkan sendiri," tulis penulis buku itu.

Varnor Wing



gambar

Sebagai matematikawan dan penulis fiksi ilmiah, Vindg menciptakan istilah "singularitas" untuk menggambarkan titik kritis di mana mesin akan menjadi lebih pintar daripada manusia. Dia melihat singularitas sebagai tidak dapat dibalikkan, bahkan jika aturan internasional mengendalikan perkembangan kecerdasan buatan. "Keuntungan dibandingkan pesaing dari otomatisasi - ekonomi, militer, bahkan budaya - sangat menarik sehingga undang-undang yang melarang hal-hal seperti itu hanya merangsang penggunaannya oleh orang lain," tulis penulis dalam esai 1999-nya. Tetapi apa yang terjadi ketika kita mencapai singularitas? "Penghancuran fisik umat manusia akan menjadi satu-satunya pilihan."

Source: https://habr.com/ru/post/id381157/


All Articles