Kelompok Penelitian Dana Elon Musk tentang Kecerdasan Buatan Aman

gambar
Poster promosi untuk film Terminator: Genesis

Minggu lalu, organisasi nirlaba swasta Future of Life Institute (FLI), yang berbasis di Boston, AS, mengumumkan menerima putaran pendanaan yang signifikan sebesar $ 10 juta. Bagian utama dari sumbangan $ 7 juta dibuat oleh Elon Musk, sisanya dari uang itu ditransfer oleh organisasi nirlaba lain, Proyek Filantropi Terbuka. Pekerjaan utama FLI adalah menemukan kelompok penelitian khusus yang bekerja di bidang kecerdasan buatan, dan pembiayaan mereka. Salah satu tujuan yang ditetapkan oleh para ilmuwan yang menerima hibah dari FLI adalah untuk mengembangkan "pikiran komputer" yang aman bagi umat manusia, yang tidak akan mengarah pada bencana global di masa depan.

Jutaan dolar dari kepala SpaceX dan kelompok Proyek Open Philantropy Project akan dibagi di antara mereka sendiri oleh 37 kelompok penelitian yang bekerja di universitas terkenal dan telah membuktikan diri. Daftar BusinessInsiderbeberapa proyek sains ini. Misalnya, sekelompok ilmuwan gabungan dari universitas Berkeley dan Oakford terlibat dalam pembuatan algoritma yang dilatih dalam preferensi manusia, yang di masa depan akan membantu kecerdasan buatan berperilaku "seperti manusia". Karyawan di Duke University (AS, North Carolina) memiliki tujuan yang lebih ambisius: mereka ingin mengembangkan sistem kecerdasan buatan yang dapat membuat keputusan berdasarkan "moral manusia". Di University of Denver, mereka benar-benar bekerja pada cara untuk melawan Skynet, berurusan dengan kemungkinan hilangnya kendali atas senjata robot.

Pada akhir November tahun lalu, Elon Musk mencatatdalam diskusi publik di Internet tentang keamanan kecerdasan buatan. Dilihat oleh kata-kata kepala SpaceX, ia waspada terhadap kemampuan komputer untuk berpikir dan memprediksi munculnya "sesuatu yang sangat berbahaya dalam 5-10 tahun," yang berarti hanya AI sebagai bahaya. Untuk beberapa alasan yang tidak diketahui, komentar Mask menghilang beberapa menit setelah publikasi, tetapi pengguna Edge.org lainnya berhasil menyimpannya sebagai tangkapan layar. Juru bicara Mask berjanji di masa depan untuk menyampaikan pendapat resmi bosnya tentang masalah ini, tetapi ini, tampaknya, belum terjadi.

Perlu dicatat bahwa Musk benar-benar menganut pendapat ilmuwan Inggris terkenal Stephen Hawking, yang bahkan sebelumnya berbicarasebagai berikut: “Semua pencapaian ini [dalam pengembangan kecerdasan buatan] memudar dengan latar belakang apa yang menanti kita dalam beberapa dekade mendatang. Keberhasilan penciptaan kecerdasan buatan akan menjadi peristiwa terbesar dalam sejarah umat manusia. Sayangnya, ini mungkin yang terakhir jika kita tidak belajar untuk menghindari risiko. ” Hawking percaya bahwa ada terlalu sedikit karya ilmiah serius yang ditujukan untuk mempelajari keamanan AI, dan ada terlalu sedikit organisasi ilmiah yang bisa melakukan ini. Menariknya, Hawking menyebut FLI di antara organisasi semacam itu. Apakah ada hubungan antara Stephen Hawking dan Elon Musk andal tidak diketahui.

Namun, ada sudut pandang alternatif dari para ilmuwan, tidak dengan nama besar seperti Profesor Hawking. Mereka percaya bahwa masalah mendapatkan kecerdasan buatan di luar kendali lebih merupakan topik untuk film fiksi ilmiah daripada masalah serius. Baca tandingan mereka di sini .

Source: https://habr.com/ru/post/id381497/


All Articles