
Sejak zaman
Ornithopera karya Da Vinci, pikiran terbesar umat manusia telah mengambil inspirasi dari dunia alami. Di dunia modern, tidak ada yang berubah, dan pencapaian terbaru dalam pembelajaran mesin dan kecerdasan buatan diciptakan berdasarkan organ komputasi paling canggih: otak manusia.
Meniru materi abu-abu kita bukan hanya ide yang baik dalam menciptakan AI yang lebih maju. Ini mutlak diperlukan dalam pengembangan mereka selanjutnya. Jaringan saraf berbasis pembelajaran yang mendalam, seperti yang ada di
AlphaGo , serta generasi modern dari
pengenalan pola dan sistem
terjemahan , adalah sistem pembelajaran mesin terbaik yang telah kami kembangkan hingga saat ini. Mereka mampu melakukan hal-hal luar biasa, tetapi masih menghadapi tantangan teknologi yang signifikan. Misalnya, fakta bahwa mereka memerlukan akses langsung ke kumpulan data besar untuk mempelajari keterampilan tertentu. Selain itu, jika Anda ingin melatih ulang jaringan saraf untuk melakukan tugas baru, Anda pada dasarnya perlu menghapus ingatannya dan mulai dari awal - sebuah proses yang dikenal sebagai "lupa bencana".
Bandingkan ini dengan otak seseorang yang sedang belajar secara bertahap, dan tidak segera muncul terbentuk dari setumpuk data. Ini adalah perbedaan mendasar: AI yang didasarkan pada pembelajaran mendalam dihasilkan dari atas ke bawah, mengetahui semua yang Anda butuhkan dari awal, sementara pikiran manusia dibangun dari awal ketika pelajaran sebelumnya yang berlaku untuk pengalaman baru digunakan untuk menciptakan pengetahuan baru.
Selain itu, pikiran manusia sangat baik dalam melakukan penalaran relasional berdasarkan logika, membangun koneksi antara pengalaman masa lalu untuk memahami situasi baru dengan cepat. Statistik AI (mis., Pembelajaran mesin) mampu meniru keterampilan otak dalam pengenalan pola, tetapi tidak berfungsi saat menerapkan logika. Simbolis AI, di sisi lain, dapat menggunakan logika (dengan asumsi bahwa ia dilatih dalam aturan sistem penalaran ini), tetapi biasanya tidak dapat menerapkan keterampilan ini secara real time.
Tetapi bagaimana jika kita dapat menggabungkan fleksibilitas komputasi terbaik dari otak manusia dengan
kemampuan pemrosesan AI yang
kuat ? Inilah yang coba dilakukan oleh tim dari DeepMind. Mereka menciptakan jaringan saraf yang mampu menerapkan penalaran relasional untuk tugas-tugas mereka. Ia bekerja dengan cara yang hampir sama dengan jaringan neuron otak. Sementara neuron menggunakan hubungan yang berbeda satu sama lain untuk mengenali pola: "Kami jelas membuat jaringan mendeteksi hubungan yang ada antara pasangan objek dalam skenario ini," kata Timothy Lillycrap, seorang ilmuwan di DeepMind, kepada
Science Magazine .
Ketika pada bulan Juni ia
ditugasi dengan pertanyaan rumit tentang posisi relatif benda geometris dalam sebuah gambar, misalnya: "Apakah ada objek di depan objek biru, apakah benda itu memiliki bentuk yang sama dengan benda biru kecil di sebelah kanan bola logam abu-abu?" - Dia mengidentifikasi objek dengan benar dalam 96% kasus. Sistem pembelajaran mesin konvensional memberikan solusi yang tepat pada 42 - 77% kasus. Bahkan orang lulus tes hanya dalam 92% kasus. Itu benar,
AI hibrida ini
melakukan pekerjaan yang lebih baik daripada orang-orang yang membangunnya.
Hasilnya sama ketika AI mempresentasikan masalah dengan kata tersebut. Meskipun sistem konvensional mampu mencocokkan DeepMind pada pertanyaan sederhana, seperti "Sarah punya nyali. Sarah memasuki kantornya. Dimana bolanya? " sistem AI hibrida keluar dari persaingan pada masalah yang lebih kompleks seperti: “Lily adalah angsa. Lily putih. Greg adalah angsa. Apa warna Greg? " DeepMind menjawabnya dengan benar dalam 98% kasus dibandingkan dengan sekitar 45% pesaing.

DeepMind bahkan bekerja pada sistem yang
"mengingat" informasi penting dan menerapkan akumulasi pengetahuan ini untuk permintaan di masa depan. Tetapi IBM mengambil dua langkah maju. Dalam dua makalah penelitian yang dipresentasikan pada
Konferensi Kolaboratif Internasional 2017 tentang Kecerdasan Buatan yang diadakan di Melbourne, Australia minggu lalu, IBM mempresentasikan dua studi: satu mengeksplorasi
bagaimana memberikan "perhatian" AI dan yang lainnya mengeksplorasi pertanyaan tentang
penerapan proses biologis neurogenesis , yaitu, kelahiran dan kematian neuron, untuk sistem pembelajaran mesin.
“Pelatihan jaringan saraf biasanya dirancang, dan banyak pekerjaan diperlukan untuk benar-benar membuat arsitektur spesifik yang bekerja paling baik. Ini hampir merupakan metode coba-coba, ”kata Iradget Irina Rish, seorang peneliti IBM. "Alangkah baiknya jika jaringan ini bisa membangun sendiri."
Algoritma IBM Attention menginformasikan jaringan saraf tentang input mana yang memberikan hadiah tertinggi. Semakin tinggi hadiahnya, semakin banyak perhatian jaringan akan memberi mereka. Ini sangat berguna dalam situasi di mana kumpulan data tidak statis - yaitu, dalam kehidupan nyata. "Perhatian adalah mekanisme berbasis imbalan, itu bukan hanya sesuatu yang tidak terkait dengan pengambilan keputusan dan tindakan kita," kata Rish.
"Kita tahu bahwa ketika kita melihat gambar, mata manusia biasanya memiliki bidang pandang yang sangat kecil," kata Rish. “Jadi, tergantung pada resolusinya, Anda hanya melihat beberapa piksel gambar [tajam], tetapi yang lainnya terlihat buram. Faktanya adalah Anda menggerakkan mata dengan cepat, dan mekanisme untuk merakit berbagai bagian menjadi gambar dalam urutan yang benar akan memungkinkan Anda untuk dengan cepat mengenali gambar tersebut.

Penggunaan pertama dari fungsi perhatian cenderung dalam pengenalan pola, meskipun dapat digunakan di berbagai bidang. Misalnya, jika Anda melatih AI menggunakan
dataset Oxford , yang sebagian besar merupakan gambar arsitektur, ia dapat dengan mudah mengidentifikasi cityscapes dengan benar. Tetapi jika Anda menunjukkan kepadanya banyak gambar dari pedesaan (ladang dan bunga, dll), AI akan bingung karena dia tidak tahu apa bunga itu. Dan ketika Anda melakukan tes yang sama dengan manusia dan hewan, Anda akan merangsang neurogenesis, karena otak mereka mencoba menyesuaikan apa yang sudah mereka ketahui tentang kota dengan lanskap baru di negara itu.
Mekanisme memberi tahu sistem apa yang harus difokuskan. Misalnya, bawa dokter Anda, ia dapat melakukan ratusan tes yang memungkinkan bagi Anda untuk menentukan apa yang mengganggu Anda, tetapi ini tidak mungkin: baik tepat waktu atau dengan harga yang wajar. Jadi, pertanyaan apa yang harus dia tanyakan dan tes apa yang harus dilakukan untuk mendapatkan diagnosis terbaik dalam waktu paling sedikit? "Inilah yang sedang dipelajari oleh algoritma untuk mencari tahu," jelas Rich. Dia tidak hanya menentukan solusi mana yang mengarah ke hasil terbaik, tetapi juga mencari tahu ke mana harus mencari data. Dengan demikian, sistem tidak hanya membuat keputusan yang lebih benar, tetapi juga membuat mereka lebih cepat, karena tidak meminta bagian dari kumpulan data yang tidak berlaku untuk masalah saat ini. Sama seperti dokter Anda tidak menyentuh lutut Anda dengan palu kecil yang aneh ketika Anda datang dengan keluhan nyeri dada dan sesak napas.
Sementara sistem perhatian nyaman untuk memastikan bahwa jaringan melakukan tugas, IBM mengerjakan plastisitas saraf (seberapa baik "ingatan" diingat) berfungsi untuk menyediakan memori jaringan jangka panjang. Ini sebenarnya dimodelkan atas dasar mekanisme yang sama dari kelahiran dan kematian neuron yang diamati pada hippocampus manusia.
Dalam sistem ini, "Anda tidak perlu memodelkan jutaan parameter," jelas Rish. "Anda bisa mulai dengan model yang jauh lebih kecil, dan kemudian, tergantung pada data yang Anda lihat, mereka akan beradaptasi."
Ketika data baru disajikan kepadanya, sistem neurogenetik IBM mulai membentuk koneksi baru yang ditingkatkan (neuron), sementara beberapa yang lebih lama, yang kurang bermanfaat akan "terputus", seperti yang dikatakan Rish. Ini tidak berarti bahwa sistem secara harfiah menghapus data lama, itu hanya menjadi kurang melekat pada mereka - seperti ingatan lama Anda, sebagai suatu peraturan, menjadi kabur selama bertahun-tahun, tetapi mereka yang membawa tekanan emosi yang signifikan tetap hidup dalam selama bertahun-tahun.

"Neurogenesis adalah cara mengadaptasi jaringan yang dalam," kata Rish. "Jaringan saraf adalah model, dan Anda dapat membangun model ini dari awal, atau Anda dapat mengubah model ini bila perlu, karena Anda memiliki beberapa lapisan neuron tersembunyi, dan Anda dapat memutuskan berapa banyak (neuron) yang ingin Anda miliki ... tergantung pada data. "
Ini penting karena Anda tidak ingin perluasan jaringan saraf yang tak terbatas. Jika ini terjadi, dataset akan menjadi sangat besar sehingga tidak akan mampu membayar bahkan digital yang setara dengan hyperimesia. "Ini juga membantu normalisasi, jadi [AI] tidak 'berubah pikiran' tentang data," kata Rish.
Bersama-sama, prestasi ini bisa sangat berguna bagi komunitas riset AI. Tim Rish ingin mengerjakan apa yang mereka sebut "perhatian internal." Anda tidak hanya akan memilih data apa yang ingin Anda lihat di jaringan, tetapi juga bagian mana dari jaringan yang ingin Anda gunakan dalam perhitungan berdasarkan pada set data dan input. Pada dasarnya, model perhatian akan mencakup proses berpikir jangka pendek, aktif, sementara bagian dari memori akan memungkinkan jaringan untuk mengoptimalkan fungsinya tergantung pada situasi saat ini.
Tetapi jangan berharap bahwa dalam waktu dekat, AI akan mampu bersaing dengan pikiran manusia, memperingatkan Richard. “Saya akan mengatakan setidaknya beberapa dekade, tetapi, sekali lagi, ini hanya asumsi. Apa yang kita lakukan sekarang, dari sudut pandang pengenalan pola presisi tinggi, masih sangat, sangat jauh dari model dasar emosi manusia, ”katanya. "Kami baru saja mulai."

