Halo, Habr! Saya mempersembahkan kepada Anda terjemahan artikel
"Keterbatasan Pembelajaran Mesin" oleh Matthew Stewart.
Sebagian besar orang yang membaca artikel ini mungkin akrab dengan pembelajaran mesin dan algoritma yang sesuai digunakan untuk mengklasifikasikan atau memprediksi hasil berdasarkan data. Namun, penting untuk dipahami bahwa pembelajaran mesin bukanlah solusi untuk semua masalah. Mengingat kegunaan pembelajaran mesin, bisa sulit untuk menerima bahwa kadang-kadang ini bukan solusi terbaik untuk masalah tersebut.
Pembelajaran mesin adalah cabang kecerdasan buatan yang merevolusi dunia seperti yang kita kenal selama dekade terakhir. Ledakan informasi telah menyebabkan pengumpulan sejumlah besar data, terutama oleh perusahaan besar seperti Facebook dan Google. Jumlah data ini, dikombinasikan dengan pengembangan cepat daya prosesor dan paralelisasi komputer, membuatnya relatif mudah untuk menerima dan mempelajari sejumlah besar data.
Saat ini, hiperbola pembelajaran mesin dan kecerdasan buatan ada di mana-mana. Mungkin ini benar, mengingat bahwa potensi untuk daerah ini sangat besar. Selama beberapa tahun terakhir, jumlah agen konsultasi AI telah meningkat, dan menurut Memang, jumlah pekerjaan terkait AI telah meningkat sebesar 100% antara 2015 dan 2018.
Pada Desember 2018, Forbes menemukan bahwa 47% bisnis memiliki setidaknya satu kemampuan untuk menggunakan AI dalam proses bisnis mereka, dan laporan Deloitte mengatakan bahwa tingkat penetrasi perangkat lunak perusahaan dengan AI terintegrasi dan layanan pengembangan AI berbasis cloud akan mencapai sekitar 87 dan 83 persen masing-masing. Angka-angka ini mengesankan - jika Anda berencana untuk mengubah karir Anda dalam waktu dekat, AI tampaknya menjadi bidang yang baik.
Segalanya tampak indah, bukan? Perusahaan senang, dan konsumen juga senang, jika tidak perusahaan tidak akan menggunakan AI.
Ini hebat, dan saya juga penggemar pembelajaran mesin dan kecerdasan buatan. Namun, ada kalanya penggunaan pembelajaran mesin tidak diperlukan, itu tidak masuk akal, dan kadang-kadang ketika implementasi dapat menyebabkan kesulitan.
Batas 1 - Etika
Sangat mudah untuk memahami mengapa pembelajaran mesin memiliki dampak mendalam pada dunia, tetapi yang kurang jelas adalah apa sebenarnya kemampuannya dan, yang lebih penting, apa keterbatasannya. Yuval Noah Harari, seperti yang Anda tahu, menciptakan istilah "datism", yang mengacu pada tahap baru peradaban yang diusulkan, yang kita masukkan ketika kita lebih mempercayai algoritma dan data daripada penilaian dan logika kita sendiri.
Meskipun ide ini mungkin tampak konyol, ingat ketika Anda terakhir pergi berlibur dan mengikuti instruksi GPS dan bukan penilaian Anda sendiri tentang peta - apakah Anda mempertanyakan peringkat GPS? Orang-orang benar-benar melaju ke danau karena mereka secara membabi buta mengikuti instruksi GPS mereka.
Gagasan mempercayai data dan algoritma lebih dari yang kita pikirkan memiliki pro dan kontra. Jelas, kami mendapat manfaat dari algoritma ini, jika tidak, kami tidak akan menggunakannya di tempat pertama. Algoritma ini memungkinkan kami untuk mengotomatisasi proses dengan membuat penilaian berdasarkan informasi menggunakan data yang tersedia. Namun, kadang-kadang, ini berarti mengganti pekerjaan orang lain dengan algoritma yang memiliki konsekuensi etis. Juga, siapa yang kita salahkan jika terjadi kesalahan?
Kasus yang paling sering dibahas saat ini adalah mobil self-driving: bagaimana kita memutuskan bagaimana kendaraan harus bereaksi jika terjadi tabrakan fatal? Akankah kita memiliki kesempatan di masa depan untuk memilih kerangka kerja etis untuk pembelian yang akan diikuti oleh mobil self-driving kita?
Siapa yang harus disalahkan jika mobil saya yang dikendarai sendiri membunuh seseorang di jalan?Meskipun ini semua adalah pertanyaan yang menarik, mereka bukan tujuan utama dari artikel ini. Namun, jelas bahwa pembelajaran mesin tidak dapat memberi tahu kita apa pun tentang nilai normatif apa yang harus kita adopsi, yaitu, bagaimana kita harus bertindak dalam situasi ini.
Batas 2 - Masalah Deterministik
Ini adalah batasan yang secara pribadi harus saya tangani. Bidang keahlian saya adalah ilmu lingkungan, yang sangat bergantung pada pemodelan komputer dan penggunaan sensor / perangkat IoT.
Pembelajaran mesin sangat efektif untuk sensor dan dapat digunakan untuk mengkalibrasi dan menyesuaikan sensor ketika terhubung ke sensor lain yang mengukur variabel lingkungan seperti suhu, tekanan, dan kelembaban. Korelasi antara sinyal dari sensor ini dapat digunakan untuk mengembangkan prosedur kalibrasi sendiri, dan ini adalah topik hangat dalam penelitian saya dalam kimia atmosfer.
Namun, hal-hal menjadi sedikit lebih menarik ketika datang ke pemodelan komputer.
Menjalankan model komputer yang mensimulasikan cuaca global, emisi dari planet ini dan mentransfer emisi ini sangat mahal secara komputasi. Bahkan, sangat sulit secara komputasi sehingga pemodelan pada tingkat penelitian dapat memakan waktu beberapa minggu bahkan ketika bekerja pada superkomputer.
Contoh bagus dari ini adalah MM5 dan WRF, yang merupakan model prediksi cuaca numerik yang digunakan untuk penelitian iklim dan untuk memberi Anda prakiraan cuaca di berita pagi. Saya ingin tahu apa yang dilakukan peramal cuaca sepanjang hari? Jalankan dan pelajari model-model ini.
Bekerja dengan model cuaca itu baik, tetapi sekarang setelah kita memiliki pembelajaran mesin, dapatkah kita menggunakannya untuk mendapatkan prakiraan cuaca? Bisakah kita menggunakan data dari satelit, stasiun cuaca dan menggunakan algoritma peramalan dasar untuk menentukan apakah besok akan turun hujan?
Jawabannya, ya, ya. Jika kita memiliki informasi tentang tekanan udara di sekitar wilayah tertentu, tingkat kelembaban di udara, kecepatan angin dan informasi tentang titik-titik tetangga dan variabel mereka sendiri, maka mungkin untuk melatih, misalnya, jaringan saraf. Tetapi berapa biayanya?
Menggunakan jaringan saraf dengan ribuan input memungkinkan Anda untuk menentukan apakah besok akan turun hujan di Boston. Namun, menggunakan jaringan saraf melewatkan seluruh fisika dari sistem cuaca.
Pembelajaran mesin adalah stokastik, bukan deterministik.
Jaringan saraf tidak memahami hukum kedua Newton, atau kepadatan itu tidak boleh negatif - tidak ada batasan fisik.Namun, ini tidak bisa menjadi batasan untuk waktu yang lama. Sudah ada sejumlah peneliti yang mempertimbangkan menambahkan kendala fisik ke jaringan saraf dan algoritma lain sehingga mereka dapat digunakan untuk tujuan seperti ini.
Batasan 3 - Data
Ini adalah batasan yang paling jelas. Jika Anda memberi makan model dengan buruk, itu hanya akan memberikan hasil yang buruk. Ada dua alasan untuk ini: kurangnya data dan kurangnya data yang dapat diandalkan. Jika Anda tidak memiliki masalah seperti itu, maka Anda dapat dengan aman mempelajari pemrosesan data dalam jumlah besar pada saluran Telegram
Big Data Books , di mana berbagai buku dan sumber daya pada Big Data diterbitkan.
Kurangnya data
Banyak algoritma pembelajaran mesin membutuhkan data dalam jumlah besar sebelum mereka mulai memberikan hasil yang bermanfaat. Contoh yang baik dari ini adalah jaringan saraf. Jaringan saraf adalah mesin pemakan data yang membutuhkan banyak data pelatihan. Semakin besar arsitektur, semakin banyak data yang diperlukan untuk menghasilkan hasil yang layak. Menggunakan kembali data adalah ide yang buruk, selalu lebih baik memiliki lebih banyak data.
Jika Anda bisa mendapatkan data, maka gunakan itu.
Kurangnya data yang baik
Terlepas dari penampilannya, ini tidak sama dengan yang tertulis di atas. Bayangkan Anda pikir Anda bisa menipu dengan menghasilkan sepuluh ribu titik data palsu untuk ditempatkan pada jaringan saraf. Apa yang terjadi ketika Anda memasukkan ini?
Dia akan belajar sendiri, dan kemudian ketika Anda datang untuk mengujinya pada dataset baru, dia tidak akan bekerja dengan baik. Anda memiliki data, tetapi kualitasnya lebih baik.
Sama seperti kurangnya fitur yang baik dapat menyebabkan kinerja algoritma Anda buruk, kurangnya data yang benar juga dapat membatasi kemampuan model Anda. Tidak ada perusahaan yang akan memperkenalkan model pembelajaran mesin yang bekerja lebih buruk daripada kesalahan manusia.
Demikian pula, menerapkan model yang dilatih pada kumpulan data dalam satu situasi mungkin tidak berlaku sama baiknya dengan situasi kedua. Contoh terbaik dari ini yang saya temukan sejauh ini adalah dalam memprediksi kanker payudara.
Database mamografi memiliki banyak gambar, tetapi mereka memiliki satu masalah serius yang telah menyebabkan masalah signifikan dalam beberapa tahun terakhir - hampir semua x-ray diambil dari wanita kulit putih. Ini mungkin tidak terlihat seperti masalah besar, tetapi kenyataannya telah ditunjukkan bahwa perempuan berkulit hitam 42 persen lebih mungkin meninggal karena kanker payudara karena berbagai faktor, yang mungkin termasuk perbedaan dalam deteksi dan akses ke perawatan. Dengan demikian, mempelajari algoritma terutama untuk wanita kulit putih dalam hal ini berdampak buruk pada wanita kulit hitam.
Dalam kasus khusus ini, lebih banyak gambar x-ray dari pasien kulit hitam diperlukan dalam database pelatihan, lebih banyak tanda terkait dengan peningkatan probabilitas 42%, dan algoritme lebih adil karena stratifikasi dari kumpulan data sepanjang sumbu yang sesuai.
Batas 4 - Penyalahgunaan
Mengenai batasan kedua yang dibahas sebelumnya, diasumsikan bahwa ini adalah "krisis pembelajaran mesin dalam penelitian akademik" ketika orang secara buta menggunakan pembelajaran mesin untuk mencoba menganalisis sistem yang bersifat deterministik atau stokastik.
Untuk alasan yang dibahas dalam batasan kedua, penerapan pembelajaran mesin dalam sistem deterministik akan berhasil, tetapi suatu algoritma yang tidak mempelajari hubungan antara dua variabel dan tidak akan tahu kapan itu melanggar hukum fisik. Kami baru saja memberikan beberapa input dan output ke sistem dan memintanya untuk mempelajari hubungan - sama seperti seseorang menerjemahkan kata demi kata dari kamus, algoritme tampaknya hanya akan menjadi pemahaman dangkal dari fisika dasar.
Untuk sistem stokastik (acak), semuanya sedikit kurang jelas. Krisis pembelajaran mesin untuk sistem acak memanifestasikan dirinya dalam dua cara:
- Peretasan
- Lingkup analisis
p-hacking
Ketika seseorang memiliki akses ke data besar, yang dapat memiliki ratusan, ribuan atau bahkan jutaan variabel, mudah untuk menemukan hasil yang signifikan secara statistik (mengingat bahwa tingkat signifikansi statistik yang diperlukan untuk sebagian besar studi ilmiah adalah p <0,05). Ini sering mengarah pada deteksi korelasi palsu yang biasanya diperoleh dengan menggunakan p-hacking (melihat melalui kumpulan data hingga ditemukan korelasi yang menunjukkan hasil yang signifikan secara statistik). Ini bukan korelasi yang benar, tetapi hanya respons terhadap kebisingan dalam pengukuran.
Ini mengarah pada fakta bahwa masing-masing peneliti βmenangkapβ korelasi yang signifikan secara statistik melalui kumpulan data besar dan menyamarkannya sebagai korelasi yang benar. Kadang-kadang ini adalah kesalahan yang tidak bersalah (dalam hal ini, ilmuwan harus lebih siap), tetapi dalam kasus lain ini dilakukan untuk meningkatkan jumlah artikel yang diterbitkan oleh peneliti - bahkan di dunia komunitas ilmiah, kompetisi tinggi, dan orang akan melakukan apa saja untuk meningkatkan metrik mereka.
Lingkup analisis
Ada perbedaan yang signifikan dalam lingkup analisis untuk pembelajaran mesin dibandingkan dengan pemodelan statistik - pemodelan statistik pada dasarnya mengkonfirmasikan, dan pembelajaran mesin pada dasarnya adalah penelitian.
Kita dapat mempertimbangkan analisis dan model konfirmasi sebagai apa yang dilakukan seseorang ketika menerima gelar Ph.D. atau dalam penelitian. Bayangkan Anda bekerja dengan seorang penasihat dan berusaha mengembangkan dasar teoretis untuk mempelajari sistem nyata apa pun. Sistem ini memiliki seperangkat atribut yang telah ditentukan yang memengaruhi, dan setelah dengan hati-hati merancang eksperimen dan mengembangkan hipotesis, Anda dapat menjalankan tes untuk menentukan validitas hipotesis Anda.
Analisis penelitian, di sisi lain, tidak memiliki sejumlah kualitas yang terkait dengan analisis konfirmasi. Bahkan, dalam kasus data dan informasi yang sangat besar, pendekatan pendukung benar-benar hancur karena jumlah data yang sangat besar. Dengan kata lain, tidak mungkin untuk secara akurat menyatakan set hipotesis terakhir yang dapat diuji di hadapan jutaan tanda.
Oleh karena itu, dan, sekali lagi, secara umum, algoritma dan pendekatan pembelajaran mesin paling cocok untuk pemodelan prediktif dan klasifikasi penelitian dengan sejumlah besar data dan fungsi komputasional yang kompleks. Beberapa akan berpendapat bahwa mereka dapat digunakan untuk data "kecil", tetapi mengapa melakukannya ketika metode statistik klasik dan multidimensi jauh lebih informatif?
Pembelajaran mesin adalah bidang yang sebagian besar memecahkan masalah yang terkait dengan teknologi informasi, ilmu komputer, dll., Dapat berupa masalah teoretis dan terapan. Dengan demikian, ini terkait dengan bidang-bidang seperti fisika, matematika, probabilitas, dan statistik, tetapi pembelajaran mesin sebenarnya mewakili bidang itu sendiri, bidang yang tidak dibebani dengan masalah yang diangkat dalam disiplin ilmu lain. Banyak solusi yang dihasilkan oleh para ahli dan praktisi pembelajaran mesin sangat salah, tetapi mereka melakukan pekerjaan mereka.
Batasan 5 - Interpretabilitas
Interpretabilitas adalah salah satu masalah utama pembelajaran mesin. Perusahaan konsultan AI yang mencoba menjangkau perusahaan yang hanya menggunakan metode statistik tradisional dapat dihentikan jika mereka tidak melihat model tersebut ditafsirkan. Jika Anda tidak dapat meyakinkan klien Anda bahwa Anda memahami bagaimana algoritma sampai pada keputusan yang dibuatnya, seberapa besar kemungkinan ia akan mempercayai Anda dan pengalaman Anda?
Seorang manajer bisnis lebih mungkin menerima rekomendasi pembelajaran mesin jika hasilnya dijelaskan dari perspektif bisnis.
Model-model ini dapat dibuat tidak berdaya jika tidak dapat ditafsirkan, dan proses penafsiran manusia mengikuti aturan yang jauh melampaui penguasaan teknis. Untuk alasan ini, interpretabilitas adalah kualitas terpenting yang harus dicapai metode pembelajaran mesin jika diterapkan dalam praktik.
Secara khusus, ilmu yang berkembang di bidang fisika (genomik, proteomik, metabolomik, dll.) Telah menjadi tujuan utama bagi para peneliti pembelajaran mesin tepatnya karena ketergantungan mereka pada database besar dan non-sepele. Namun, mereka menderita karena kurangnya interpretasi terhadap metode mereka, meskipun mereka terlihat sukses.
Kesimpulan
Seperti yang saya harapkan, saya telah dengan jelas menjelaskan dalam artikel ini bahwa ada batasan yang, setidaknya pada saat ini, menghambat solusi dari semua masalah kemanusiaan. Jaringan saraf tidak pernah bisa memberi tahu kita bagaimana menjadi orang baik, dan setidaknya belum memahami hukum gerak Newton atau teori relativitas Einstein.
Ada juga kendala mendasar berdasarkan teori yang mendasari pembelajaran mesin, yang disebut teori pembelajaran komputasi, yang terutama merupakan kendala statistik. Kami juga membahas masalah yang terkait dengan ruang lingkup analisis dan bahaya p-hacking, yang dapat mengarah pada kesimpulan yang salah.
Ada juga masalah dengan interpretabilitas hasil, yang dapat mempengaruhi perusahaan yang tidak dapat meyakinkan pelanggan dan investor bahwa metode mereka akurat dan dapat diandalkan.
Pembelajaran mesin dan kecerdasan buatan akan terus merevolusi industri dan hanya akan menjadi lebih umum di tahun-tahun mendatang. Meskipun saya menyarankan Anda memanfaatkan pembelajaran mesin dan AI secara penuh, saya juga menyarankan Anda mengingat keterbatasan alat yang Anda gunakan - setelah semua, tidak ada yang ideal.