
Eksperimen di Large Hadron Collider setiap detik menghasilkan sekitar satu juta gigabyte data. Bahkan setelah reduksi dan kompresi, data yang diperoleh di LHC hanya dalam satu jam, berdasarkan volume, dapat dibandingkan dengan data yang diterima oleh Facebook sepanjang tahun.
Untungnya, para ahli fisika partikel tidak harus berurusan dengan data ini secara manual. Mereka bekerja bersama dengan sejenis pembelajaran kecerdasan buatan untuk melakukan analisis data independen menggunakan teknologi pembelajaran mesin.
“Dibandingkan dengan algoritma komputer tradisional yang kami kembangkan untuk melakukan jenis analisis tertentu, kami membuat algoritma pembelajaran mesin sehingga memutuskan jenis analisis yang akan dilakukan, yang menyelamatkan kami dari jumlah jam kerja pengembangan dan analisis yang tak terhitung,” kata fisikawan Alexander Radovich dari College of William and Mary, yang bekerja dalam eksperimen Nova neutrino.
Radovic dan sekelompok peneliti menguraikan ruang lingkup aplikasi saat ini dan prospek masa depan MO dalam fisika partikel dalam ringkasan yang diterbitkan di Nature pada Agustus 2018.
Menyaring Data Besar
Untuk memproses sejumlah besar data yang diperoleh dalam eksperimen modern, seperti yang masuk ke LHC, para peneliti menggunakan "pemicu" - peralatan khusus yang bekerja dengan perangkat lunak, secara real time memutuskan data mana yang akan dianalisis, dan yang harus dibuang .
Menggunakan detektor
LHCb dalam percobaan yang dapat menjelaskan mengapa ada jauh lebih banyak masalah daripada antimateri di Semesta, algoritma MO membuat setidaknya 70% dari keputusan seperti itu, kata Mike Williams dari Massachusetts Institute of Technology, yang bekerja untuk LHCb, salah satu penulis ringkasan yang disebutkan. "MO berperan dalam hampir semua aspek bekerja dengan data dalam percobaan, dari pemicu hingga analisis data yang tersisa," katanya.
Pembelajaran mesin menunjukkan kemajuan yang signifikan dalam analisis. Detektor besar ATLAS dan CMS di LHC, berkat partikel Higgs yang ditemukan, memiliki jutaan sensor yang sinyalnya harus disatukan untuk mendapatkan hasil yang bermakna.
"Sinyal-sinyal ini membentuk ruang data yang kompleks," kata Michael Kagan dari Laboratorium Akselerator Energi Nasional (SLAC) Departemen Energi AS, detektor ATLAS, yang berkontribusi dalam laporan tersebut. "Kita perlu memahami hubungan di antara mereka untuk menarik kesimpulan - misalnya, bahwa jejak partikel tertentu dalam detektor ditinggalkan oleh elektron, foton, atau sesuatu yang lain."
MO juga bermanfaat untuk percobaan dengan neutrino. NOva, yang melayani
Fermilab , sedang mempelajari bagaimana neutrino berpindah dari satu spesies ke spesies lain ketika bepergian melalui Bumi.
Osilasi neutrino ini berpotensi mampu mengungkapkan keberadaan jenis baru neutrino, yang, menurut beberapa teori, mungkin berubah menjadi partikel-partikel materi gelap. Detektor NOva mencari partikel bermuatan yang muncul ketika neutrino bertabrakan dengan materi dalam detektor, dan algoritma MO menentukannya.
Dari pembelajaran mesin ke pembelajaran yang mendalam
Kemajuan baru-baru ini di bidang MO sering disebut pembelajaran mendalam, dan menjanjikan untuk memperluas cakupan MO dalam fisika partikel. Dokter biasanya berarti penggunaan jaringan saraf: algoritma komputer dengan arsitektur yang terinspirasi oleh jaringan padat neuron otak manusia.
Jaringan saraf ini secara mandiri mempelajari tugas-tugas analisis tertentu melalui pelatihan, ketika mereka memproses data uji, misalnya, dari simulasi, dan menerima umpan balik mengenai kualitas pekerjaan mereka.
Sampai baru-baru ini, keberhasilan jaringan saraf terbatas karena mereka sangat sulit untuk dilatih, kata rekan penulis Kazuhiro Terao, seorang peneliti SLAC yang bekerja dalam percobaan neutrino MicroBooNE, yang mempelajari osilasi neutrino sebagai bagian dari program jangka pendek Fermilab. Eksperimen ini akan menjadi bagian dari
Eksperimen Neutrino Bawah Tanah Mendalam di masa depan. "Kesulitan-kesulitan ini membatasi kemampuan kami untuk bekerja dengan jaringan saraf sederhana sedalam beberapa lapis," katanya. "Berkat kemajuan algoritma dan peralatan komputasi, kita sekarang tahu lebih banyak tentang cara membuat dan melatih jaringan saraf yang lebih mampu dengan ratusan atau ribuan lapisan."
Banyak terobosan dalam pertahanan sipil disebabkan oleh pengembangan komersial raksasa teknologi dan ledakan data yang telah mereka buat selama dua dekade terakhir. "Misalnya, NOva menggunakan jaringan saraf yang mirip dengan arsitektur GoogleNet," kata Radovic. "Ini telah meningkatkan percobaan sejauh yang bisa dicapai hanya dengan meningkatkan pengumpulan data hingga 30%."
Tanah yang subur untuk inovasi
Algoritma MoD menjadi lebih kompleks dan tersetel dari hari ke hari, membuka peluang yang belum pernah terjadi sebelumnya untuk memecahkan masalah di bidang fisika partikel. Banyak tugas baru yang dapat diaplikasikan terkait dengan visi komputer, kata Kagan. "Ini mirip dengan pengenalan wajah, tetapi hanya dalam fisika partikel sifat-sifat gambar lebih abstrak dan kompleks daripada telinga atau hidung."
Data dari beberapa percobaan, seperti NOvA dan MicroBooNE, dapat dengan mudah diubah menjadi gambar nyata, dan AI dapat segera digunakan untuk menentukan fitur-fiturnya. Di sisi lain, gambar dari hasil percobaan pada LHC pertama-tama harus direkonstruksi berdasarkan pada set data yang rumit yang diperoleh dari jutaan sensor.
"Tetapi bahkan jika data tidak terlihat seperti gambar, kita masih dapat menerapkan metode dari visi komputer jika kita memproses data dengan benar," kata Radovic.
Salah satu area di mana pendekatan ini bisa sangat berguna adalah analisis jet partikel yang timbul dalam jumlah besar di LHC. Jet adalah jet partikel yang sempit, yang jejaknya sangat sulit untuk dipisahkan satu sama lain. Teknologi visi komputer dapat membantu memahami jet ini.
Aplikasi baru GO lainnya adalah simulasi data fisika partikel, yang memprediksi, misalnya, apa yang akan terjadi dalam tabrakan partikel pada LHC, yang dapat dibandingkan dengan data nyata. Simulasi semacam ini biasanya berjalan lambat dan membutuhkan kekuatan pemrosesan yang sangat besar. AI dapat melakukan simulasi seperti itu jauh lebih cepat, yang pada akhirnya bisa menjadi pelengkap yang bermanfaat untuk metode penelitian tradisional.
"Hanya beberapa tahun yang lalu, tidak ada yang bisa berpikir bahwa jaringan saraf yang dalam dapat dilatih untuk" melihat "data berdasarkan kebisingan acak," kata Kagan. "Meskipun pekerjaan ini masih pada tahap yang sangat awal, itu sudah terlihat cukup menjanjikan, dan kemungkinan akan membantu memecahkan masalah data di masa depan."
Manfaat skeptisisme sehat
Terlepas dari terobosan yang jelas, para penggemar MO sering menghadapi keraguan dari rekan-rekan mereka, khususnya, karena algoritma MO untuk sebagian besar bekerja seperti "kotak hitam", hampir tidak memberikan informasi tentang bagaimana mereka sampai pada kesimpulan tertentu.
"Skeptisisme sangat sehat," kata William. "Jika kita menggunakan MO untuk pemicu yang menjatuhkan beberapa data, seperti pada LHCb, maka kita harus sangat berhati-hati dalam masalah ini dan meningkatkan standar sangat tinggi."
Oleh karena itu, untuk memperkuat posisi MOs dalam fisika partikel, perlu untuk terus berusaha meningkatkan pemahaman tentang bagaimana algoritma bekerja dan, jika mungkin, membuat perbandingan silang dengan data nyata.
"Kami terus-menerus perlu mencoba memahami apa yang dilakukan algoritma komputer dan mengevaluasi hasilnya," kata Terao. - Ini berlaku untuk algoritma apa pun, bukan hanya MO. Karena itu, skeptisisme seharusnya tidak menghambat kemajuan. "
Kemajuan yang cepat telah memungkinkan beberapa peneliti untuk bermimpi tentang apa yang mungkin terjadi dalam waktu dekat. "Hari ini, kami kebanyakan menggunakan MO untuk mencari fitur dalam data kami yang dapat membantu kami menjawab beberapa pertanyaan," kata Terao. "Dan dalam sekitar sepuluh tahun, algoritma MO mungkin dapat secara mandiri mengajukan pertanyaan mereka sendiri dan memahami bahwa mereka telah menemukan fisika baru."