
Kita semua ingat dari latihan menyiksa di sekolah di aritmatika. Setidaknya perlu satu menit untuk melipatgandakan angka seperti 3.752 dan 6.901 dengan pensil dan kertas. Tentu saja, hari ini, ketika kita memiliki telepon, kita dapat dengan cepat memeriksa bahwa hasil latihan kita harus 25.892.552. Prosesor telepon modern dapat melakukan lebih dari 100 miliar operasi seperti itu per detik. Selain itu, chip ini hanya mengkonsumsi beberapa watt, yang membuatnya jauh lebih efisien daripada otak lambat kami, mengonsumsi 20 watt dan membutuhkan lebih banyak waktu untuk mencapai hasil yang sama.
Tentu saja, otak tidak berevolusi untuk melakukan aritmatika. Karena itu, ia melakukannya dengan buruk. Tetapi dia mengatasi pemrosesan arus informasi yang datang dari lingkungan kita. Dan dia bereaksi terhadapnya - terkadang lebih cepat dari yang kita sadari. Tidak masalah berapa banyak energi yang dikonsumsi komputer biasa - akan sulit untuk mengatasi apa yang mudah diberikan ke otak - misalnya, memahami bahasa atau berlari menaiki tangga.
Jika mereka dapat membuat mesin yang kemampuan komputasi dan efisiensi energinya akan sebanding dengan otak, maka semuanya akan berubah secara dramatis. Robot akan dengan cekatan bergerak di dunia fisik dan berkomunikasi dengan kami dalam bahasa alami. Sistem skala besar akan mengumpulkan sejumlah besar informasi tentang bisnis, ilmu pengetahuan, kedokteran, atau pemerintah, menemukan pola-pola baru, menemukan hubungan kausal dan membuat prediksi. Aplikasi seluler pintar seperti Siri dan Cortana tidak bisa terlalu bergantung pada cloud. Teknologi seperti itu dapat memungkinkan kita untuk membuat perangkat dengan konsumsi energi yang rendah, melengkapi indera kita, memberi kita obat-obatan dan meniru sinyal saraf, mengkompensasi kerusakan organ atau kelumpuhan organ.
Tapi bukankah terlalu dini untuk menetapkan tujuan yang berani? Apakah pemahaman kita tentang otak terlalu terbatas sehingga kita dapat membuat teknologi berdasarkan prinsip-prinsipnya? Saya percaya bahwa meniru bahkan fitur paling sederhana dari sirkuit saraf dapat secara dramatis meningkatkan kinerja banyak aplikasi komersial. Seberapa akurat komputer harus menyalin rincian biologis dari struktur otak agar dapat mendekati tingkat kecepatannya adalah pertanyaan terbuka. Tetapi sistem saat ini, yang diilhami oleh struktur otak, atau neuromorfik, akan menjadi alat penting untuk menemukan jawabannya.
Fitur utama dari komputer konvensional adalah pemisahan fisik memori yang menyimpan data dan instruksi, dan logika yang memproses informasi ini. Tidak ada pembagian seperti itu di otak. Komputasi dan penyimpanan data terjadi secara simultan dan lokal, dalam jaringan luas yang terdiri dari sekitar 100 miliar sel saraf (neuron) dan lebih dari 100 triliun koneksi (sinapsis). Untuk sebagian besar, otak ditentukan oleh koneksi ini dan bagaimana masing-masing neuron merespon sinyal yang masuk dari neuron lain.
Berbicara tentang kemungkinan luar biasa dari otak manusia, biasanya kita maksudkan akuisisi baru-baru ini dari proses evolusi yang panjang -
neokorteks (korteks baru). Lapisan tipis dan terlipat ini membentuk cangkang luar otak dan melakukan tugas yang sangat berbeda, termasuk memproses informasi yang diterima dari indera, mengendalikan keterampilan motorik, bekerja dengan memori dan belajar. Berbagai macam kemungkinan tersedia dalam struktur yang agak homogen: enam lapisan horizontal dan sejuta kolom vertikal dengan lebar 500 Ξm, terdiri dari neuron yang mengintegrasikan dan mendistribusikan informasi yang dikodekan dalam pulsa listrik di sepanjang antena yang tumbuh dari mereka - dendrit dan akson.
Seperti semua sel tubuh manusia, neuron memiliki potensi listrik sekitar 70 mV antara permukaan luar dan bagian dalam. Ketegangan membran ini berubah ketika neuron menerima sinyal dari neuron lain yang terkait dengannya. Jika tegangan membran naik ke nilai kritis, itu membentuk pulsa, atau lonjakan tegangan yang berlangsung beberapa milidetik, dari urutan 40 mV. Impuls ini merambat di sepanjang akson neuron hingga mencapai sinaps, struktur biokimiawi kompleks yang menghubungkan akson satu neuron dengan dendrit yang lain. Jika impuls memenuhi batasan tertentu, sinaps mengubahnya menjadi impuls lain, menurunkan dendrit bercabang dari neuron yang menerima sinyal, dan mengubah tegangan membrannya ke arah positif atau negatif.
Konektivitas adalah fitur penting otak.
Neuron piramidal , jenis sel neokorteks manusia yang sangat penting, mengandung sekitar 30.000 sinapsis, yaitu, 30.000 saluran input dari neuron lain. Dan otak terus beradaptasi. Neuron dan sifat-sifat sinaps - dan bahkan struktur jaringan itu sendiri - terus berubah, terutama di bawah pengaruh data input dari indera dan umpan balik lingkungan.
Komputer serba guna modern adalah digital, bukan analog; klasifikasi otak tidak begitu sederhana. Neuron mengakumulasi muatan listrik, seperti kapasitor di sirkuit elektronik. Ini jelas merupakan proses analog. Tetapi otak menggunakan semburan sebagai unit informasi, dan ini pada dasarnya adalah skema biner: kapan saja, di mana saja, ada semburan atau tidak. Dalam hal elektronik, otak adalah sistem dengan sinyal campuran, dengan komputasi analog lokal dan transmisi informasi menggunakan semburan biner. Karena burst hanya memiliki nilai 0 atau 1, ia dapat menempuh jarak yang jauh tanpa kehilangan informasi dasar ini. Itu juga mereproduksi, mencapai neuron berikutnya dalam jaringan.
Perbedaan utama lainnya antara otak dan komputer adalah bahwa otak berupaya memproses informasi tanpa jam pusat yang menyinkronkan operasinya. Meskipun kami mengamati peristiwa sinkronisasi - gelombang otak - mereka mengatur diri mereka sendiri, muncul sebagai hasil dari kerja jaringan saraf. Menariknya, sistem komputer modern mulai mengadopsi asinkron yang melekat dalam otak untuk mempercepat perhitungan dengan melakukan secara paralel. Tetapi tingkat dan tujuan paralelisasi kedua sistem ini sangat berbeda.
Gagasan menggunakan otak sebagai model untuk komputasi memiliki akar yang dalam. Upaya pertama didasarkan pada
neuron ambang batas sederhana yang menghasilkan satu nilai jika jumlah data input tertimbang melebihi ambang batas, dan yang lainnya jika tidak. Realisme biologis dari pendekatan ini, dikandung oleh Warren McCullough dan
Walter Pitts pada tahun 1940-an, sangat terbatas. Namun, ini adalah langkah pertama menuju penerapan konsep neuron pemicu sebagai elemen perhitungan.
Pada tahun 1957,
Frank Rosenblatt mengusulkan versi lain dari neuron ambang,
perceptron . Jaringan node yang saling berhubungan (neuron buatan) terdiri dari lapisan. Lapisan yang terlihat di permukaan jaringan berinteraksi dengan dunia luar sebagai input dan output, dan lapisan tersembunyi di dalamnya melakukan semua perhitungan.
Rosenblatt juga menyarankan untuk menggunakan fitur inti otak: penahanan. Alih-alih menumpuk semua input, neuron dalam perceptron dapat membuat kontribusi negatif. Fitur ini memungkinkan jaringan saraf untuk menggunakan lapisan tersembunyi tunggal untuk menyelesaikan masalah XOR dalam logika, di mana output benar jika hanya satu dari dua input biner yang benar. Contoh sederhana ini menunjukkan bahwa penambahan realisme biologis dapat menambah kemampuan komputasi baru. Tetapi fungsi otak apa yang diperlukan untuk kerjanya, dan yang merupakan jejak evolusi yang tidak berguna? Tidak ada yang tahu
Kita tahu bahwa hasil komputasi yang mengesankan dapat dicapai tanpa berusaha menciptakan realisme biologis. Peneliti pembelajaran mendalam telah banyak menggunakan komputer untuk menganalisis sejumlah besar data dan mengekstraksi atribut tertentu dari gambar kompleks. Meskipun jaringan saraf yang mereka ciptakan memiliki lebih banyak input dan lapisan tersembunyi daripada sebelumnya, mereka masih didasarkan pada model neuron yang sangat sederhana. Kemungkinan luas mereka tidak mencerminkan realisme biologis, tetapi skala jaringan yang terkandung di dalamnya dan kekuatan komputer yang digunakan untuk pelatihan mereka. Tetapi jaringan pembelajaran yang mendalam masih sangat jauh dari kecepatan komputasi, efisiensi energi, dan kemampuan belajar otak biologis.
Kesenjangan besar antara otak dan komputer modern paling ditekankan oleh simulasi otak skala besar. Dalam beberapa tahun terakhir, beberapa upaya telah dilakukan, tetapi semuanya sangat dibatasi oleh dua faktor: energi dan waktu simulasi. Sebagai contoh, perhatikan
simulasi yang dilakukan oleh Markus Daisman dan rekan-rekannya beberapa tahun yang lalu menggunakan 83.000 prosesor pada komputer super K di Jepang. Simulasi 1,73 miliar neuron mengkonsumsi energi 10 miliar kali lebih banyak daripada area setara otak, meskipun mereka menggunakan model yang sangat sederhana dan tidak melakukan pelatihan apa pun. Dan simulasi seperti itu biasanya bekerja lebih dari 1000 kali lebih lambat daripada otak biologis real-time.
Mengapa mereka begitu lambat? Simulasi otak pada komputer konvensional membutuhkan perhitungan milyaran persamaan diferensial yang saling berhubungan dan menggambarkan dinamika sel dan jaringan: proses analog seperti memindahkan muatan melintasi membran sel. Komputer yang menggunakan logika Boolean - mengubah energi untuk akurasi - dan berbagi memori dan komputasi, sangat tidak efisien dalam memodelkan otak.
Simulasi ini dapat menjadi alat untuk kognisi otak, mentransfer data yang diperoleh di laboratorium ke simulasi yang dengannya kita dapat bereksperimen, dan kemudian membandingkan hasilnya dengan pengamatan. Tetapi jika kita berharap untuk pergi ke arah yang berbeda dan menggunakan pelajaran neurobiologi untuk menciptakan sistem komputasi baru, kita perlu memikirkan kembali bagaimana kita merancang dan membuat komputer.
Neuron dalam silikon.Menyalin kerja otak menggunakan elektronik bisa lebih layak daripada yang terlihat pada pandangan pertama. Ternyata sekitar 10 fJ (10
-15 joule) dihabiskan untuk menciptakan potensi listrik di sinaps. Gerbang dari transistor metal-oxide-semiconductor (MOS), yang jauh lebih besar dan mengkonsumsi lebih banyak energi daripada yang digunakan dalam CPU, hanya membutuhkan 0,5 fJ untuk mengisi daya. Ternyata transmisi sinaptik setara dengan pengisian 20 transistor. Terlebih lagi, pada level perangkat, sirkuit biologis dan elektronik tidak jauh berbeda. Pada prinsipnya, Anda dapat membuat struktur seperti sinapsis dan neuron dari transistor dan menghubungkannya sedemikian rupa untuk mendapatkan otak buatan yang tidak menyerap energi yang sangat banyak.
Gagasan membuat komputer menggunakan transistor yang bekerja seperti neuron muncul pada 1980-an dengan Profesor Carver Mead dari Caltech. Salah satu argumen utama Mead yang mendukung komputer "neuromorfik" adalah bahwa perangkat semikonduktor dapat, dalam mode tertentu, mengikuti hukum fisik yang sama dengan neuron, dan bahwa perilaku analog dapat digunakan untuk perhitungan dengan efisiensi energi yang tinggi.
Kelompok Mead juga menemukan platform komunikasi saraf di mana semburan hanya dikodekan oleh alamat jaringan dan waktu terjadinya. Pekerjaan ini merupakan terobosan, karena ini adalah yang pertama untuk membuat waktu fitur yang diperlukan dari jaringan saraf tiruan. Waktu adalah faktor kunci bagi otak. Sinyal memerlukan waktu rambat, membran perlu waktu reaksi, dan ini adalah waktu yang menentukan bentuk potensial pascasinaps.
Beberapa kelompok penelitian aktif hari ini, misalnya, kelompok
Giacomo Indiveri dari Sekolah Tinggi Teknik Swiss dan
Kwabena Bohen dari Stanford, mengikuti jejak Mead dan berhasil memperkenalkan unsur-unsur jaringan kortikal biologis. Kuncinya adalah bekerja dengan transistor menggunakan arus tegangan rendah yang tidak mencapai nilai ambangnya, membuat sirkuit analog yang menyalin perilaku sistem saraf, sambil mengonsumsi sedikit energi.
Penelitian lebih lanjut ke arah ini dapat menemukan aplikasi dalam sistem seperti antarmuka otak-komputer. Tetapi ada kesenjangan besar antara sistem ini dan ukuran nyata dari jaringan, konektivitas dan kemampuan belajar otak hewan.
Jadi di wilayah 2005, tiga kelompok peneliti secara independen mulai mengembangkan sistem neuromorfik yang sangat berbeda dari pendekatan asli Mead. Mereka ingin membuat sistem skala besar dengan jutaan neuron.
Paling dekat dengan komputer biasa adalah proyek
SpiNNaker , yang dipimpin oleh Steve Ferber dari University of Manchester. Kelompok ini mengembangkan chip digitalnya sendiri, yang terdiri dari 18 prosesor ARM yang beroperasi pada 200 MHz - sekitar sepersepuluh dari kecepatan CPU modern. Meskipun core ARM berasal dari dunia komputer klasik, mereka mensimulasikan ledakan yang dikirim melalui router khusus yang dirancang untuk mengirimkan informasi secara tidak sinkron - seperti otak. Implementasi saat ini, yang merupakan bagian dari Proyek Otak Manusia Uni Eropa, dan selesai pada tahun 2016, berisi 500.000 core ARM. Bergantung pada kompleksitas model neuron, setiap nukleus dapat mensimulasikan hingga 1000 neuron.
Chip TrueNorth, yang dikembangkan oleh
Darmendra Maud dan rekan-rekannya di IBM Research Laboratory di Almaden, menolak untuk menggunakan mikroprosesor sebagai unit komputasi, dan sebenarnya merupakan sistem neuromorfik di mana komputasi dan memori saling terkait. TrueNorth masih tetap merupakan sistem digital, tetapi didasarkan pada neurocontour yang dirancang khusus yang menerapkan model neuron tertentu. Chip ini mengandung 5,4 miliar transistor, ia dibangun di atas teknologi Samsung
CMOS 28-nm (struktur semikonduktor oksida-logam pelengkap). Transistor mengemulasi 1 juta sirkuit saraf dan 256 juta sinapsis sederhana (bit tunggal) pada satu chip.
Saya akan mengatakan bahwa proyek berikutnya,
BrainScaleS , berjalan cukup jauh dari komputer konvensional dan mendekati otak biologis. Kami mengerjakan proyek ini dengan rekan-rekan saya dari Universitas Heidelberg untuk inisiatif Eropa "Otak Manusia". BrainScaleS mengimplementasikan pemrosesan sinyal campuran. Ini menggabungkan neuron dan sinapsis, dalam peran yang transistor silikon bertindak sebagai perangkat analog dengan pertukaran informasi digital. Sistem berukuran penuh terdiri dari substrat silikon 8 inci dan memungkinkan Anda untuk meniru 4 juta neuron dan 1 miliar sinapsis.
Sistem ini dapat mereproduksi sembilan mode respons neuron biologis yang berbeda, dan dikembangkan dalam kerja sama erat dengan ilmuwan saraf. Tidak seperti pendekatan analog Mead, BrainScaleS bekerja dalam mode dipercepat, emulasinya 10.000 kali lebih cepat daripada waktu nyata. Ini sangat nyaman untuk mempelajari proses dan pengembangan pembelajaran.
Belajar cenderung menjadi komponen penting dari sistem neuromorfik. Sekarang chip yang dibuat dalam gambar otak, serta jaringan saraf yang berjalan pada komputer biasa, dilatih di samping dengan bantuan komputer yang lebih kuat. Tetapi jika kita ingin menggunakan sistem neuromorfik dalam aplikasi nyata - misalnya, dalam robot yang harus bekerja berdampingan dengan kita, mereka harus dapat belajar dan beradaptasi dengan cepat.
Dalam generasi kedua sistem BrainScaleS kami, kami menerapkan peluang pelatihan dengan menciptakan "prosesor fleksibel" pada chip. Mereka digunakan untuk mengubah berbagai parameter neuron dan sinapsis. Fitur ini memungkinkan kita menyempurnakan parameter untuk mengkompensasi perbedaan ukuran dan sifat listrik ketika berpindah dari satu perangkat ke perangkat lainnya - kira-kira bagaimana otak itu sendiri menyesuaikan diri dengan perubahan.
Tiga sistem skala besar yang saya jelaskan saling melengkapi. SpiNNaker dapat dikonfigurasi secara fleksibel dan digunakan untuk menguji berbagai neuromodel, TrueNorth memiliki kepadatan integrasi yang tinggi, BrainScaleS dirancang untuk pelatihan dan pengembangan yang berkelanjutan. Pencarian cara yang tepat untuk mengevaluasi keefektifan sistem semacam itu masih berlangsung. Namun hasil awalnya menjanjikan. Tim TrueNorth IBM baru-baru ini menghitung bahwa transmisi sinaptik dalam sistem mereka membutuhkan 26 pJ. Dan meskipun dibutuhkan 1000 kali lebih banyak energi dalam sistem biologis, namun hampir 100.000 kali lebih sedikit energi yang digunakan untuk transmisi dalam simulasi pada komputer untuk keperluan umum.
Kami masih pada tahap awal memahami apa yang dapat dilakukan sistem tersebut dan bagaimana menerapkannya untuk memecahkan masalah nyata. Pada saat yang sama, kita harus menemukan cara untuk menggabungkan banyak chip neuromorfik ke dalam jaringan besar dengan kemampuan belajar yang ditingkatkan, sambil menurunkan konsumsi daya. Salah satu masalah adalah konektivitas: otak tiga dimensi, dan sirkuit kita dua dimensi. Masalah integrasi tiga dimensi dari sirkuit sekarang sedang dipelajari secara aktif, dan teknologi seperti itu dapat membantu kita.
Perangkat yang tidak didasarkan pada CMOS -
memristor atau PCRAM (
memori dengan perubahan status fase ) dapat menjadi bantuan lain.
Saat ini, bobot yang menentukan respons sinapsis buatan terhadap sinyal yang masuk disimpan dalam memori digital biasa, yang menghabiskan sebagian besar sumber daya silikon yang diperlukan untuk membangun jaringan. Tetapi jenis memori lain dapat membantu kita mengurangi ukuran sel-sel ini dari mikrometer ke nanometer. Dan kesulitan utama dari sistem modern adalah untuk mendukung perbedaan antara perangkat yang berbeda. Prinsip kalibrasi yang dikembangkan oleh BrainScaleS dapat membantu.Kami baru saja memulai perjalanan kami di sepanjang jalan menuju sistem neuromorfik yang praktis dan bermanfaat. Tetapi usaha itu sepadan. Jika berhasil, kami tidak hanya akan menciptakan sistem komputasi yang kuat; kita bahkan dapat memperoleh informasi baru tentang kerja otak kita sendiri.