Mengapa kecerdasan buatan tidak akan menyelesaikan semua masalah



Histeria seputar masa depan kecerdasan buatan (AI) telah mengambil alih dunia. Tidak ada kekurangan berita sensasional tentang bagaimana AI dapat menyembuhkan penyakit , mempercepat inovasi dan meningkatkan kreativitas seseorang. Jika Anda membaca berita utama media, Anda dapat memutuskan bahwa Anda sudah hidup di masa depan di mana AI telah menembus semua aspek masyarakat.

Meskipun tidak dapat dipungkiri bahwa AI telah membuka serangkaian peluang menjanjikan yang kaya bagi kita , AI juga telah menyebabkan munculnya pemikiran, yang dapat digambarkan sebagai keyakinan pada kemahakuasaan AI. Menurut filosofi ini, jika ada cukup data, algoritma pembelajaran mesin akan dapat menyelesaikan semua masalah umat manusia .

Namun ide ini memiliki masalah besar. Itu tidak mendukung kemajuan AI, tetapi lebih membahayakan nilai kecerdasan alat berat, mengabaikan prinsip-prinsip keselamatan penting dan mengatur orang untuk harapan yang tidak realistis tentang kemampuan AI.

Percaya pada kemahakuasaan AI


Hanya dalam beberapa tahun, kepercayaan pada kemahakuasaan AI membuat jalan dari percakapan penginjil teknologi Silicon Valley ke dalam pikiran perwakilan pemerintah dan anggota parlemen di seluruh dunia. Pendulum itu berayun dari konsep anti-utopis tentang AI yang menghancurkan umat manusia ke iman utopis tentang kedatangan penyelamat algoritmik kami .

Kami sudah melihat bagaimana pemerintah memberikan dukungan untuk program pengembangan AI nasional dan bersaing dalam teknologi dan perlombaan senjata retoris untuk mendapatkan keunggulan dalam sektor pembelajaran mesin booming (MO). Misalnya, pemerintah Inggris telah berjanji untuk menginvestasikan ยฃ 300 juta dalam penelitian AI untuk menjadi pemimpin di bidang ini. Terpesona oleh potensi transformatif AI, Presiden Prancis Emmanuel Macron memutuskan untuk mengubah Prancis menjadi pusat AI internasional . Pemerintah Cina meningkatkan kemampuan AI-nya dengan rencana pemerintah untuk menciptakan industri AI China senilai $ 150 miliar pada tahun 2030. Percaya pada kemahakuasaan AI adalah mendapatkan momentum dan tidak akan menyerah.



Jaringan saraf - lebih mudah diucapkan daripada dilakukan


Sementara banyak pernyataan politik memuji efek transformatif dari " revolusi AI, " mereka biasanya meremehkan kompleksitas memperkenalkan sistem MO canggih di dunia nyata.

Salah satu varietas teknologi AI yang paling menjanjikan adalah jaringan saraf . Bentuk pembelajaran mesin ini didasarkan pada tiruan teladan dari struktur saraf otak manusia, tetapi pada skala yang jauh lebih kecil. Banyak produk berbasis AI menggunakan jaringan saraf untuk mengekstraksi pola dan aturan dari sejumlah besar data. Tetapi banyak politisi tidak mengerti bahwa hanya dengan menambahkan jaringan saraf ke masalah, kita tidak harus segera mendapatkan solusinya. Jadi, dengan menambahkan jaringan saraf pada demokrasi, kita tidak akan secara instan membuatnya kurang terdiskriminasi, lebih jujur, atau dipersonalisasi.

Birokrasi Data yang Menantang


Sistem AI membutuhkan sejumlah besar data untuk bekerja, tetapi di sektor publik biasanya tidak ada infrastruktur data yang cocok untuk mendukung sistem MO canggih. Sebagian besar data disimpan dalam arsip offline. Sejumlah kecil sumber data digital yang ada tenggelam dalam birokrasi. Data ini paling sering tersebar di berbagai departemen pemerintah, yang masing-masing memerlukan izin khusus untuk akses. Antara lain, sektor publik biasanya tidak memiliki cukup bakat yang dilengkapi dengan kemampuan teknis yang diperlukan untuk sepenuhnya memetik manfaat AI .

Karena alasan ini, sensasionalisme terkait AI menerima banyak kritik. Stuart Russell, seorang profesor ilmu komputer di Berkeley, telah lama menganjurkan pendekatan yang lebih realistis, dengan fokus pada aplikasi AI sehari-hari yang paling sederhana , alih-alih pengambilalihan dunia secara hipotetis oleh robot superintelijen. Demikian pula, profesor robotika dari MIT, Rodney Brooks, menulis bahwa "hampir semua inovasi dalam robotika dan AI memerlukan waktu jauh lebih banyak untuk implementasi nyata daripada yang dibayangkan oleh spesialis di bidang ini dan semua orang."

Salah satu dari banyak tantangan untuk menggunakan sistem MO adalah bahwa AI sangat rentan terhadap serangan . Ini berarti bahwa AI jahat dapat menyerang AI lain untuk memaksanya mengeluarkan prediksi yang salah atau bertindak dengan cara tertentu. Banyak peneliti telah memperingatkan bahwa tidak mungkin untuk segera meluncurkan AI tanpa menyiapkan standar keselamatan dan mekanisme perlindungan yang tepat . Namun sejauh ini, topik keamanan AI belum mendapat perhatian.

Pembelajaran mesin bukanlah sihir


Jika kita ingin menuai manfaat AI dan meminimalkan risiko potensial, kita harus mulai merenungkan bagaimana kita dapat menerapkan IO secara bermakna pada bidang pemerintahan, bisnis, dan masyarakat tertentu. Dan ini berarti bahwa kita perlu mulai membahas etika AI dan ketidakpercayaan banyak orang di MO.

Yang paling penting, kita perlu memahami keterbatasan AI dan titik-titik di mana orang masih harus mengambil kendali. Alih-alih menggambar gambar yang tidak realistis dari kemampuan AI, Anda perlu mengambil langkah mundur dan memisahkan kemampuan teknologi nyata AI dari sihir.

Untuk waktu yang lama, Facebook percaya bahwa masalah seperti penyebaran disinformasi dan hasutan untuk kebencian dapat secara algoritmik dikenali dan dihentikan. Tetapi di bawah tekanan dari anggota parlemen, perusahaan dengan cepat berjanji untuk mengganti algoritmanya dengan pasukan 10.000 pengulas manusia .



Dalam kedokteran, mereka juga mengakui bahwa AI tidak dapat dianggap sebagai solusi untuk semua masalah. Program IBM Watson untuk Onkologi adalah AI yang seharusnya membantu dokter memerangi kanker. Dan meskipun itu dirancang untuk memberikan rekomendasi terbaik, para ahli merasa sulit untuk mempercayai mesin . Akibatnya, program ditutup di sebagian besar rumah sakit, tempat uji coba berlangsung.

Masalah serupa muncul di bidang legislatif ketika algoritma digunakan di pengadilan AS untuk mengucapkan kalimat. Algoritma menghitung nilai risiko dan memberikan rekomendasi hakim tentang hukuman. Tetapi ternyata sistem itu memperkuat diskriminasi rasial struktural, setelah itu ditinggalkan.

Contoh-contoh ini menunjukkan bahwa tidak ada solusi berbasis AI untuk semuanya. Menggunakan AI untuk kepentingan AI itu sendiri tidak selalu produktif atau bermanfaat. Tidak setiap masalah diselesaikan dengan menggunakan kecerdasan mesin. Ini adalah pelajaran paling penting bagi semua orang yang ingin meningkatkan investasi dalam program pengembangan AI pemerintah: semua keputusan memiliki harga, dan tidak semua yang dapat diotomatisasi perlu diotomatisasi.

Source: https://habr.com/ru/post/id416759/


All Articles