
Histeria seputar masa depan kecerdasan buatan (AI) telah mengambil alih dunia. Tidak ada kekurangan berita sensasional tentang bagaimana AI dapat
menyembuhkan penyakit ,
mempercepat inovasi dan
meningkatkan kreativitas seseorang. Jika Anda membaca berita utama media, Anda dapat memutuskan bahwa Anda sudah hidup di masa depan di mana AI telah menembus semua aspek masyarakat.
Meskipun tidak dapat dipungkiri bahwa AI telah membuka
serangkaian peluang menjanjikan yang kaya bagi kita , AI juga telah menyebabkan munculnya pemikiran, yang dapat digambarkan sebagai keyakinan pada kemahakuasaan AI. Menurut filosofi ini, jika ada cukup data, algoritma pembelajaran mesin
akan dapat menyelesaikan semua masalah umat manusia .
Namun ide ini memiliki masalah besar. Itu tidak mendukung kemajuan AI, tetapi lebih membahayakan nilai kecerdasan alat berat, mengabaikan prinsip-prinsip keselamatan penting dan mengatur orang untuk harapan yang tidak realistis tentang kemampuan AI.
Percaya pada kemahakuasaan AI
Hanya dalam beberapa tahun, kepercayaan pada kemahakuasaan AI membuat jalan dari percakapan penginjil teknologi Silicon Valley ke dalam pikiran perwakilan pemerintah dan anggota parlemen di seluruh dunia. Pendulum itu berayun dari konsep anti-utopis tentang
AI yang menghancurkan umat manusia ke iman utopis tentang
kedatangan penyelamat algoritmik kami .
Kami sudah melihat bagaimana pemerintah memberikan dukungan untuk program pengembangan AI nasional dan bersaing dalam teknologi dan
perlombaan senjata retoris untuk mendapatkan keunggulan dalam sektor pembelajaran mesin booming (MO). Misalnya, pemerintah Inggris telah
berjanji untuk menginvestasikan ยฃ 300 juta dalam penelitian AI untuk menjadi pemimpin di bidang ini. Terpesona oleh potensi transformatif AI, Presiden Prancis
Emmanuel Macron memutuskan untuk
mengubah Prancis menjadi pusat AI internasional . Pemerintah Cina meningkatkan kemampuan AI-nya dengan
rencana pemerintah untuk menciptakan industri AI China senilai $ 150 miliar pada tahun 2030. Percaya pada kemahakuasaan AI adalah mendapatkan momentum dan tidak akan menyerah.

Jaringan saraf - lebih mudah diucapkan daripada dilakukan
Sementara banyak pernyataan politik memuji efek transformatif dari "
revolusi AI, " mereka biasanya meremehkan kompleksitas memperkenalkan sistem MO canggih di dunia nyata.
Salah satu varietas teknologi AI yang paling menjanjikan adalah
jaringan saraf . Bentuk pembelajaran mesin ini didasarkan pada tiruan teladan dari struktur saraf otak manusia, tetapi pada skala yang jauh lebih kecil. Banyak produk berbasis AI menggunakan jaringan saraf untuk mengekstraksi pola dan aturan dari sejumlah besar data. Tetapi banyak politisi tidak mengerti bahwa hanya dengan menambahkan jaringan saraf ke masalah, kita tidak harus segera mendapatkan solusinya. Jadi, dengan menambahkan jaringan saraf pada demokrasi, kita tidak akan secara instan membuatnya kurang terdiskriminasi, lebih jujur, atau dipersonalisasi.
Birokrasi Data yang Menantang
Sistem AI membutuhkan sejumlah besar data untuk bekerja, tetapi di sektor publik biasanya tidak ada
infrastruktur data yang cocok untuk mendukung sistem MO canggih. Sebagian besar data disimpan dalam arsip offline. Sejumlah kecil sumber data digital yang ada tenggelam dalam birokrasi. Data ini paling sering tersebar di berbagai departemen pemerintah, yang masing-masing memerlukan izin khusus untuk akses. Antara lain, sektor publik biasanya tidak memiliki cukup bakat yang dilengkapi dengan kemampuan teknis yang diperlukan untuk sepenuhnya memetik
manfaat AI .
Karena alasan ini,
sensasionalisme terkait AI menerima banyak kritik. Stuart Russell, seorang profesor ilmu komputer di Berkeley, telah lama menganjurkan pendekatan yang lebih realistis, dengan fokus pada
aplikasi AI
sehari-hari yang paling sederhana , alih-alih pengambilalihan dunia secara hipotetis oleh robot superintelijen. Demikian pula, profesor robotika dari MIT,
Rodney Brooks, menulis bahwa "hampir semua inovasi dalam robotika dan AI memerlukan waktu jauh lebih banyak untuk implementasi nyata daripada yang dibayangkan oleh spesialis di bidang ini dan semua orang."
Salah satu dari banyak tantangan untuk menggunakan sistem MO adalah bahwa AI sangat
rentan terhadap serangan . Ini berarti bahwa AI jahat dapat menyerang AI lain untuk memaksanya mengeluarkan prediksi yang salah atau bertindak dengan cara tertentu. Banyak
peneliti telah memperingatkan bahwa tidak mungkin untuk segera meluncurkan AI tanpa menyiapkan
standar keselamatan dan mekanisme perlindungan yang tepat . Namun sejauh ini, topik keamanan AI belum mendapat perhatian.
Pembelajaran mesin bukanlah sihir
Jika kita ingin menuai manfaat AI dan meminimalkan risiko potensial, kita harus mulai merenungkan bagaimana kita dapat menerapkan IO secara bermakna pada bidang pemerintahan, bisnis, dan masyarakat tertentu. Dan ini berarti bahwa kita perlu mulai membahas
etika AI dan
ketidakpercayaan banyak orang di MO.
Yang paling penting, kita perlu memahami keterbatasan AI dan titik-titik di mana orang masih harus mengambil kendali. Alih-alih menggambar gambar yang tidak realistis dari kemampuan AI, Anda perlu mengambil langkah mundur dan
memisahkan kemampuan teknologi nyata AI dari sihir.
Untuk waktu yang lama,
Facebook percaya bahwa masalah seperti penyebaran disinformasi dan hasutan untuk kebencian dapat secara algoritmik dikenali dan dihentikan. Tetapi di bawah tekanan dari anggota parlemen, perusahaan dengan cepat berjanji untuk mengganti algoritmanya dengan
pasukan 10.000 pengulas manusia .

Dalam kedokteran, mereka juga mengakui bahwa AI tidak dapat dianggap sebagai solusi untuk semua masalah. Program
IBM Watson untuk Onkologi adalah AI yang seharusnya membantu dokter memerangi kanker. Dan meskipun itu dirancang untuk memberikan rekomendasi terbaik, para ahli merasa
sulit untuk mempercayai mesin . Akibatnya, program
ditutup di sebagian besar rumah sakit, tempat uji coba berlangsung.
Masalah serupa muncul di bidang legislatif ketika
algoritma digunakan di pengadilan AS untuk mengucapkan kalimat. Algoritma menghitung nilai risiko dan memberikan
rekomendasi hakim tentang hukuman. Tetapi ternyata sistem itu memperkuat diskriminasi rasial struktural, setelah itu ditinggalkan.
Contoh-contoh ini menunjukkan bahwa tidak ada solusi berbasis AI untuk semuanya. Menggunakan AI untuk kepentingan AI itu sendiri tidak selalu produktif atau bermanfaat. Tidak setiap masalah diselesaikan dengan menggunakan kecerdasan mesin. Ini adalah pelajaran paling penting bagi semua orang yang ingin meningkatkan investasi dalam program pengembangan AI pemerintah: semua keputusan memiliki harga, dan tidak semua yang dapat diotomatisasi perlu diotomatisasi.