
Histeria seputar masa depan kecerdasan buatan (AI) telah mengambil alih dunia. Tidak ada kekurangan berita sensasional tentang bagaimana AI dapat 
menyembuhkan penyakit , 
mempercepat inovasi dan 
meningkatkan kreativitas seseorang. Jika Anda membaca berita utama media, Anda dapat memutuskan bahwa Anda sudah hidup di masa depan di mana AI telah menembus semua aspek masyarakat.
Meskipun tidak dapat dipungkiri bahwa AI telah membuka 
serangkaian peluang menjanjikan yang kaya bagi kita , AI juga telah menyebabkan munculnya pemikiran, yang dapat digambarkan sebagai keyakinan pada kemahakuasaan AI. Menurut filosofi ini, jika ada cukup data, algoritma pembelajaran mesin 
akan dapat menyelesaikan semua masalah umat manusia .
Namun ide ini memiliki masalah besar. Itu tidak mendukung kemajuan AI, tetapi lebih membahayakan nilai kecerdasan alat berat, mengabaikan prinsip-prinsip keselamatan penting dan mengatur orang untuk harapan yang tidak realistis tentang kemampuan AI.
Percaya pada kemahakuasaan AI
Hanya dalam beberapa tahun, kepercayaan pada kemahakuasaan AI membuat jalan dari percakapan penginjil teknologi Silicon Valley ke dalam pikiran perwakilan pemerintah dan anggota parlemen di seluruh dunia. Pendulum itu berayun dari konsep anti-utopis tentang 
AI yang menghancurkan umat manusia ke iman utopis tentang 
kedatangan penyelamat algoritmik kami .
Kami sudah melihat bagaimana pemerintah memberikan dukungan untuk program pengembangan AI nasional dan bersaing dalam teknologi dan 
perlombaan senjata retoris untuk mendapatkan keunggulan dalam sektor pembelajaran mesin booming (MO). Misalnya, pemerintah Inggris telah 
berjanji untuk menginvestasikan ยฃ 300 juta dalam penelitian AI untuk menjadi pemimpin di bidang ini. Terpesona oleh potensi transformatif AI, Presiden Prancis 
Emmanuel Macron memutuskan untuk 
mengubah Prancis menjadi pusat AI internasional . Pemerintah Cina meningkatkan kemampuan AI-nya dengan 
rencana pemerintah untuk menciptakan industri AI China senilai $ 150 miliar pada tahun 2030. Percaya pada kemahakuasaan AI adalah mendapatkan momentum dan tidak akan menyerah.

Jaringan saraf - lebih mudah diucapkan daripada dilakukan
Sementara banyak pernyataan politik memuji efek transformatif dari " 
revolusi AI, " mereka biasanya meremehkan kompleksitas memperkenalkan sistem MO canggih di dunia nyata.
Salah satu varietas teknologi AI yang paling menjanjikan adalah 
jaringan saraf . Bentuk pembelajaran mesin ini didasarkan pada tiruan teladan dari struktur saraf otak manusia, tetapi pada skala yang jauh lebih kecil. Banyak produk berbasis AI menggunakan jaringan saraf untuk mengekstraksi pola dan aturan dari sejumlah besar data. Tetapi banyak politisi tidak mengerti bahwa hanya dengan menambahkan jaringan saraf ke masalah, kita tidak harus segera mendapatkan solusinya. Jadi, dengan menambahkan jaringan saraf pada demokrasi, kita tidak akan secara instan membuatnya kurang terdiskriminasi, lebih jujur, atau dipersonalisasi.
Birokrasi Data yang Menantang
Sistem AI membutuhkan sejumlah besar data untuk bekerja, tetapi di sektor publik biasanya tidak ada 
infrastruktur data yang cocok untuk mendukung sistem MO canggih. Sebagian besar data disimpan dalam arsip offline. Sejumlah kecil sumber data digital yang ada tenggelam dalam birokrasi. Data ini paling sering tersebar di berbagai departemen pemerintah, yang masing-masing memerlukan izin khusus untuk akses. Antara lain, sektor publik biasanya tidak memiliki cukup bakat yang dilengkapi dengan kemampuan teknis yang diperlukan untuk sepenuhnya memetik 
manfaat AI .
Karena alasan ini, 
sensasionalisme terkait AI menerima banyak kritik. Stuart Russell, seorang profesor ilmu komputer di Berkeley, telah lama menganjurkan pendekatan yang lebih realistis, dengan fokus pada 
aplikasi AI 
sehari-hari yang paling sederhana , alih-alih pengambilalihan dunia secara hipotetis oleh robot superintelijen. Demikian pula, profesor robotika dari MIT, 
Rodney Brooks, menulis bahwa "hampir semua inovasi dalam robotika dan AI memerlukan waktu jauh lebih banyak untuk implementasi nyata daripada yang dibayangkan oleh spesialis di bidang ini dan semua orang."
Salah satu dari banyak tantangan untuk menggunakan sistem MO adalah bahwa AI sangat 
rentan terhadap serangan . Ini berarti bahwa AI jahat dapat menyerang AI lain untuk memaksanya mengeluarkan prediksi yang salah atau bertindak dengan cara tertentu. Banyak 
peneliti telah memperingatkan bahwa tidak mungkin untuk segera meluncurkan AI tanpa menyiapkan 
standar keselamatan dan mekanisme perlindungan yang tepat . Namun sejauh ini, topik keamanan AI belum mendapat perhatian.
Pembelajaran mesin bukanlah sihir
Jika kita ingin menuai manfaat AI dan meminimalkan risiko potensial, kita harus mulai merenungkan bagaimana kita dapat menerapkan IO secara bermakna pada bidang pemerintahan, bisnis, dan masyarakat tertentu. Dan ini berarti bahwa kita perlu mulai membahas 
etika AI dan 
ketidakpercayaan banyak orang di MO.
Yang paling penting, kita perlu memahami keterbatasan AI dan titik-titik di mana orang masih harus mengambil kendali. Alih-alih menggambar gambar yang tidak realistis dari kemampuan AI, Anda perlu mengambil langkah mundur dan 
memisahkan kemampuan teknologi nyata AI dari sihir.
Untuk waktu yang lama, 
Facebook percaya bahwa masalah seperti penyebaran disinformasi dan hasutan untuk kebencian dapat secara algoritmik dikenali dan dihentikan. Tetapi di bawah tekanan dari anggota parlemen, perusahaan dengan cepat berjanji untuk mengganti algoritmanya dengan 
pasukan 10.000 pengulas manusia .

Dalam kedokteran, mereka juga mengakui bahwa AI tidak dapat dianggap sebagai solusi untuk semua masalah. Program 
IBM Watson untuk Onkologi adalah AI yang seharusnya membantu dokter memerangi kanker. Dan meskipun itu dirancang untuk memberikan rekomendasi terbaik, para ahli merasa 
sulit untuk mempercayai mesin . Akibatnya, program 
ditutup di sebagian besar rumah sakit, tempat uji coba berlangsung.
Masalah serupa muncul di bidang legislatif ketika 
algoritma digunakan di pengadilan AS untuk mengucapkan kalimat. Algoritma menghitung nilai risiko dan memberikan 
rekomendasi hakim tentang hukuman. Tetapi ternyata sistem itu memperkuat diskriminasi rasial struktural, setelah itu ditinggalkan.
Contoh-contoh ini menunjukkan bahwa tidak ada solusi berbasis AI untuk semuanya. Menggunakan AI untuk kepentingan AI itu sendiri tidak selalu produktif atau bermanfaat. Tidak setiap masalah diselesaikan dengan menggunakan kecerdasan mesin. Ini adalah pelajaran paling penting bagi semua orang yang ingin meningkatkan investasi dalam program pengembangan AI pemerintah: semua keputusan memiliki harga, dan tidak semua yang dapat diotomatisasi perlu diotomatisasi.