
Saya menyambut pembaca Habr. Perhatian Anda diundang ke terjemahan artikel
"Semua yang perlu Anda ketahui tentang AI - dalam waktu kurang dari 8 menit." . Konten tersebut ditujukan untuk orang-orang yang tidak terbiasa dengan bidang AI dan yang ingin mendapatkan ide umum tentang hal itu, kemudian, mungkin, mempelajari cabang-cabang spesifiknya.
Terkadang lebih berguna untuk mengetahui sedikit tentang segalanya (setidaknya untuk pemula yang mencoba bernavigasi di bidang teknis populer) daripada mengetahui banyak tentang satu hal.
Banyak orang berpikir mereka sedikit akrab dengan AI. Tetapi daerah ini sangat muda dan tumbuh sangat cepat sehingga berjerawat terjadi hampir setiap hari. Ada banyak hal yang dapat ditemukan dalam bidang ilmiah ini sehingga spesialis dari bidang lain dapat dengan cepat bergabung dengan penelitian AI dan mencapai hasil yang signifikan.
Artikel ini hanya untuk mereka. Saya menetapkan sendiri tujuan saya untuk membuat bahan referensi singkat yang akan memungkinkan orang-orang yang berpendidikan teknis untuk dengan cepat memahami terminologi dan alat yang digunakan untuk mengembangkan AI. Saya berharap bahwa materi ini akan bermanfaat bagi kebanyakan orang yang tertarik pada AI yang bukan spesialis di bidang ini.
Pendahuluan
Intelegensi buatan (AI), pembelajaran mesin dan jaringan saraf adalah istilah yang digunakan untuk menggambarkan teknologi yang kuat berdasarkan pembelajaran mesin yang dapat memecahkan banyak masalah dari dunia nyata.
Sambil berpikir, membuat keputusan, dll. Dibandingkan dengan kemampuan otak manusia dalam mesin, mereka jauh dari ideal (mereka tidak ideal, tentu saja, pada manusia juga), baru-baru ini, beberapa penemuan penting telah dibuat di bidang teknologi AI dan algoritma terkait. Peran penting dimainkan oleh semakin banyaknya sampel beragam data yang tersedia untuk pelatihan AI.
Bidang AI bersinggungan dengan banyak bidang lain, termasuk matematika, statistik, teori probabilitas, fisika, pemrosesan sinyal, pembelajaran mesin, visi komputer, psikologi, linguistik, dan ilmu otak. Masalah-masalah yang terkait dengan tanggung jawab sosial dan etika menciptakan AI menarik minat orang-orang yang terlibat dalam filsafat.
Motivasi untuk pengembangan teknologi AI adalah bahwa tugas-tugas yang bergantung pada banyak faktor variabel memerlukan solusi yang sangat kompleks yang sulit untuk dipahami dan sulit untuk melakukan algoritma secara manual.
Harapan perusahaan, peneliti dan orang-orang biasa untuk pembelajaran mesin tumbuh untuk mendapatkan solusi untuk masalah yang tidak mengharuskan seseorang untuk menggambarkan algoritma spesifik. Banyak perhatian diberikan pada pendekatan kotak hitam. Memprogram algoritma yang digunakan untuk memodelkan dan memecahkan masalah yang terkait dengan sejumlah besar data membutuhkan banyak waktu dari pengembang. Bahkan ketika kita berhasil menulis kode yang memproses sejumlah besar data yang beragam, sering kali ternyata sangat rumit, sulit untuk dipelihara dan sulit untuk diuji (karena kebutuhan untuk menggunakan sejumlah besar data bahkan untuk pengujian).
Teknologi modern dari pembelajaran mesin dan AI, ditambah dengan data "pelatihan" yang dipilih dan disiapkan dengan benar untuk sistem, dapat memungkinkan kita untuk mengajarkan komputer bagaimana memprogram untuk kita.

Ulasan
Kecerdasan - kemampuan untuk memahami informasi dan menyimpannya sebagai pengetahuan untuk membangun perilaku adaptif dalam lingkungan atau konteksDefinisi kecerdasan dari Wikipedia (Inggris) ini dapat diterapkan untuk otak organik dan mesin.
Kehadiran kecerdasan tidak menyiratkan adanya kesadaran . Ini adalah kesalahpahaman umum yang dibawa ke dunia oleh penulis fiksi ilmiah.
Coba cari di Internet untuk contoh-contoh AI - dan Anda mungkin akan mendapatkan setidaknya satu tautan ke IBM Watson, yang menggunakan algoritma pembelajaran mesin, yang menjadi terkenal setelah memenangkan permainan yang disebut "Jeopardy" pada 2011. Sejak itu, algoritme tersebut telah mengalami beberapa perubahan dan digunakan dalam sebagai templat untuk berbagai aplikasi komersial. Apple, Amazon dan Google secara aktif bekerja untuk menciptakan sistem serupa di rumah dan kantong kita.
Pemrosesan bahasa alami dan pengenalan ucapan adalah contoh pertama dari penggunaan pembelajaran mesin secara komersial. Mengikuti mereka muncul tugas, tugas lain otomatisasi pengenalan (teks, audio, gambar, video, wajah, dll.). Berbagai aplikasi teknologi ini terus berkembang dan mencakup kendaraan tak berawak, diagnostik medis, game komputer, mesin pencari, filter spam, kontrol kejahatan, pemasaran, kontrol robot, visi komputer, transportasi, pengenalan musik, dan banyak lagi.
AI tertanam begitu erat dalam teknologi modern yang kami gunakan sehingga banyak yang bahkan tidak menganggapnya sebagai "AI," yaitu, mereka tidak memisahkannya dari teknologi komputer konvensional. Tanyakan kepada orang yang lewat apakah ada kecerdasan buatan di ponsel cerdasnya, dan dia mungkin akan menjawab: "Tidak". Tetapi algoritma AI ada di mana-mana: dari memprediksi teks yang dimasukkan hingga fokus otomatis kamera. Banyak yang percaya bahwa AI akan muncul di masa depan. Tapi dia muncul beberapa waktu lalu dan sudah ada di sini.
Istilah "AI" cukup umum. Sebagian besar penelitian sekarang berfokus pada bidang yang lebih sempit dari jaringan saraf dan pembelajaran yang mendalam.
Bagaimana otak kita bekerja
Otak manusia adalah komputer karbon kompleks yang, menurut perkiraan kasar, melakukan satu miliar miliar operasi per detik (1.000 petaflops), sambil mengonsumsi energi 20 watt. Superkomputer Tiongkok bernama "Tianhe-2" (tercepat di dunia saat penulisan) melakukan 33.860 triliun operasi per detik (33.86 petaflops) dan mengkonsumsi 1.600.000 watt (17,6 megawatt). Kita harus melakukan sejumlah pekerjaan sebelum komputer silikon kita dapat membandingkannya dengan karbon yang terbentuk sebagai hasil evolusi.
Deskripsi akurat tentang mekanisme yang digunakan oleh otak kita untuk "berpikir" adalah topik diskusi dan penelitian lebih lanjut (saya pribadi menyukai teori bahwa kerja otak dikaitkan dengan efek kuantum, tetapi ini adalah topik untuk artikel lain). Namun, mekanisme kerja bagian otak biasanya dimodelkan menggunakan konsep neuron dan jaringan saraf. Diperkirakan otak mengandung sekitar 100 miliar neuron.

Neuron berinteraksi satu sama lain menggunakan saluran khusus yang memungkinkan mereka untuk bertukar informasi. Sinyal neuron individu ditimbang dan dikombinasikan satu sama lain sebelum mengaktifkan neuron lain. Pemrosesan pesan yang dikirimkan ini, kombinasi dan aktivasi neuron lain diulangi di berbagai lapisan otak. Mengingat ada 100 miliar neuron di otak kita, totalitas kombinasi-kombinasi yang tertimbang dari sinyal-sinyal ini cukup rumit. Dan itu untuk sedikitnya.
Tetapi ini tidak berakhir di sana. Setiap neuron menerapkan fungsi, atau transformasi, untuk sinyal input tertimbang sebelum memeriksa apakah ambang aktivasi tercapai. Konversi dari sinyal input dapat linear atau non-linear.
Awalnya, sinyal input berasal dari berbagai sumber: indera kita, sarana pemantauan internal terhadap fungsi tubuh (kadar oksigen dalam darah, isi lambung, dll.) Dan lainnya. Neuron tunggal dapat menerima ratusan ribu sinyal input sebelum memutuskan bagaimana merespons.
Pemikiran (atau pemrosesan informasi) dan instruksi yang dihasilkan darinya, ditransmisikan ke otot kita dan organ lain adalah hasil dari konversi dan transmisi sinyal input antara neuron dari berbagai lapisan jaringan saraf. Tetapi jaringan saraf di otak dapat berubah dan diperbarui, termasuk perubahan pada algoritma untuk menimbang sinyal yang ditransmisikan antar neuron. Ini karena pembelajaran dan pengalaman.
Model otak manusia ini digunakan sebagai templat untuk mereproduksi kemampuan otak dalam simulasi komputer - jaringan saraf tiruan.
Jaringan Saraf Tiruan (JST)
Jaringan Syaraf Tiruan adalah model matematika yang dibuat dengan analogi dengan jaringan saraf biologis. JST mampu memodelkan dan memproses hubungan nonlinear antara sinyal input dan output. Pembobotan sinyal adaptif antara neuron tiruan dicapai berkat algoritma pembelajaran yang membaca data yang diamati dan mencoba meningkatkan hasil pemrosesan mereka.

Untuk meningkatkan operasi JST, berbagai teknik optimasi digunakan. Optimalisasi dianggap berhasil jika JST dapat menyelesaikan tugas dalam waktu yang tidak melebihi kerangka kerja yang telah ditetapkan (kerangka waktu, tentu saja, berbeda dari tugas ke tugas).
JST dimodelkan menggunakan beberapa lapisan neuron. Struktur lapisan ini disebut arsitektur model. Neuron adalah unit komputasi terpisah yang dapat menerima data input dan menerapkan beberapa fungsi matematika untuk menentukan apakah akan mentransfer data ini lebih lanjut.
Dalam model tiga lapis yang sederhana, lapisan pertama adalah lapisan input, diikuti oleh lapisan tersembunyi, dan kemudian lapisan keluaran. Setiap lapisan mengandung setidaknya satu neuron.
Karena struktur model menjadi rumit dengan meningkatkan jumlah lapisan dan neuron, potensi untuk memecahkan masalah JST meningkat. Namun, jika model terlalu "besar" untuk tugas yang diberikan, itu tidak dapat dioptimalkan ke tingkat yang diinginkan. Fenomena ini disebut
overfitting .
Arsitektur, konfigurasi dan pemilihan algoritma pemrosesan data adalah komponen utama dari pembangunan JST. Semua komponen ini menentukan kinerja dan kinerja keseluruhan model.
Model sering ditandai oleh apa yang disebut
fungsi aktivasi . Ini digunakan untuk mengubah input tertimbang dari neuron menjadi outputnya (jika neuron memutuskan untuk mentransfer data lebih lanjut, ini disebut aktivasi). Ada banyak transformasi berbeda yang dapat digunakan sebagai fungsi aktivasi.
JST adalah sarana ampuh untuk menyelesaikan masalah. Namun, meskipun model matematika dari sejumlah kecil neuron cukup sederhana, model jaringan saraf dengan peningkatan jumlah bagian penyusunnya menjadi cukup membingungkan. Karena itu, penggunaan JST kadang-kadang disebut pendekatan kotak hitam. Pilihan JST untuk memecahkan masalah harus dipertimbangkan dengan hati-hati, karena dalam banyak kasus solusi akhir yang dihasilkan tidak dapat dibongkar dan dianalisis mengapa menjadi demikian.

Pembelajaran yang mendalam
Istilah
deep learning digunakan untuk menggambarkan jaringan saraf dan algoritma yang digunakan di dalamnya yang menerima data mentah (dari mana beberapa informasi yang berguna diperlukan). Data ini diproses melewati lapisan jaringan saraf untuk mendapatkan output yang diinginkan.
Pembelajaran yang tidak diawasi adalah bidang di mana teknik pembelajaran yang mendalam bekerja dengan sangat baik. JST yang dikonfigurasi dengan benar dapat secara otomatis menentukan fitur utama dari data input (apakah itu teks, gambar atau data lainnya) dan mendapatkan hasil yang berguna dari pemrosesan mereka. Tanpa pelatihan yang mendalam, pencarian informasi penting seringkali berada di pundak seorang programmer yang mengembangkan sistem untuk memprosesnya. Model pembelajaran yang mendalam, dengan sendirinya, dapat menemukan cara untuk memproses data yang memungkinkan Anda untuk mengekstrak informasi yang berguna dari mereka. Ketika sistem dilatih (yaitu, ia menemukan cara untuk mengekstrak informasi yang berguna dari data input), persyaratan untuk daya komputasi, memori dan energi untuk mempertahankan model berkurang.
Sederhananya, algoritma pembelajaran memungkinkan menggunakan data yang disiapkan khusus untuk "melatih" program untuk melakukan tugas tertentu.
Pembelajaran mendalam digunakan untuk memecahkan berbagai masalah dan dianggap sebagai salah satu teknologi AI yang inovatif. Ada juga jenis pelatihan lainnya, seperti
pembelajaran terawasi dan
pembelajaran semi-terawasi , yang dibedakan dengan pengenalan kontrol manusia tambahan atas hasil antara melatih jaringan saraf dalam pemrosesan data (membantu menentukan apakah dalam arah yang benar sistem bergerak).
Pembelajaran bayangan (
shadow learning ) - istilah yang digunakan untuk menggambarkan bentuk pembelajaran mendalam yang disederhanakan, di mana pencarian fitur-fitur utama dari data didahului oleh pemrosesan mereka oleh seseorang dan memasukkan informasi khusus ke bidang yang terkait dengan data ini. Model seperti itu lebih "transparan" (dalam arti memperoleh hasil) dan berkinerja tinggi karena peningkatan waktu yang diinvestasikan dalam desain sistem.
Kesimpulan
AI adalah alat pemrosesan data yang kuat dan dapat menemukan solusi untuk masalah kompleks lebih cepat daripada algoritma tradisional yang ditulis oleh programmer. JST dan teknik pembelajaran yang mendalam dapat membantu memecahkan sejumlah masalah yang beragam. Kelemahannya adalah bahwa model yang paling optimal sering berfungsi sebagai "kotak hitam", sehingga tidak mungkin untuk mempelajari alasan memilih satu atau solusi lain. Fakta ini dapat menyebabkan masalah etika terkait dengan transparansi informasi.