Pengenalan gambar menggunakan jaringan saraf menjadi lebih baik, tetapi sejauh ini para peneliti belum mengatasi beberapa kekurangan mendasarnya. Di mana seseorang melihat dengan jelas dan jelas, misalnya, sepeda, bahkan AI yang terlatih dan maju dapat melihat seekor burung.
Seringkali alasannya adalah apa yang disebut "data berbahaya" (atau "elemen kompetitif", atau "salinan berbahaya" atau bahkan banyak pilihan, karena "contoh musuh" belum menerima terjemahan yang diterima secara umum). Ini adalah data yang dikelabui oleh pengklasifikasi jaringan saraf, tergelincirnya tanda-tanda kelas lain padanya - informasi tidak penting dan tidak terlihat oleh persepsi manusia, tetapi diperlukan untuk penglihatan mesin.
Para peneliti dari Google menerbitkan sebuah karya pada tahun 2015, di mana mereka menggambarkan masalah dengan contoh ini:
Gradien "berbahaya" diterapkan pada gambar panda. Orang dalam gambar yang dihasilkan, tentu saja, terus melihat panda, dan jaringan saraf mengenalinya sebagai owa, karena tanda-tanda kelas lain secara khusus dicampur di bagian-bagian gambar yang dengannya jaringan saraf belajar mengidentifikasi panda.
Di daerah di mana visi mesin harus sangat akurat, dan kesalahan, peretasan, dan tindakan penyerang dapat memiliki konsekuensi yang mengerikan, data berbahaya adalah hambatan serius untuk pengembangan. Kemajuan dalam pertarungan ini lambat, dan GoogleAI (unit penelitian AI Google) memutuskan untuk menarik kekuatan komunitas dan mengatur kompetisi.
Perusahaan menawarkan semua orang untuk membuat mekanisme mereka sendiri untuk perlindungan terhadap data yang berbahaya, atau sebaliknya - gambar yang rusak sempurna yang tidak dikenali oleh algoritma yang benar. Siapa pun yang dapat melakukan yang terbaik akan mendapatkan hadiah uang tunai besar (ukuran belum diumumkan).
Kompetisi akan dimulai dengan pemanasan dan menjalankan algoritma pertama pada serangan sederhana dengan data berbahaya. Google telah memilih tiga dataset dengan jenis kecurangan yang umum dan dipelajari dengan baik. Peserta harus membuat algoritma yang mengenali semua gambar yang diusulkan di dalamnya tanpa satu kesalahan atau jawaban yang tidak jelas.
Karena kondisi di mana data berbahaya dalam memanaskan dataset diketahui dan dapat diakses, panitia mengharapkan para peserta untuk dengan mudah membuat algoritma yang dirancang khusus untuk serangan ini. Karena itu, mereka memperingatkan - solusi yang paling jelas dari yang ada tidak memiliki peluang tunggal di babak kedua. Itu dimulai setelah pemanasan, dan sudah akan ada bagian kompetitif di dalamnya, di mana para peserta akan dibagi menjadi penyerang dan pembela.
Kompetisi akan dibangun di sekitar pengenalan gambar dengan burung dan sepeda. Pertama, setiap gambar yang diusulkan akan ditonton oleh orang-orang dan akan mengeluarkan vonis anonim yang digambarkan di sana. Sebuah gambar hanya akan masuk ke dalam dataset ketika semua hakim setuju bahwa itu dengan jelas menunjukkan burung atau sepeda, dan tidak ada tanda-tanda kebingungan yang jelas (misalnya, burung di atas sepeda atau hanya pola dan foto abstrak).
Di atas adalah contoh gambar yang cocok, di bawah ini tidak cocokPeserta yang bertahan harus membuat algoritma yang tanpa kesalahan tunggal akan mendistribusikan gambar ke dalam tiga kategori - "burung", "sepeda" dan "tidak terbatas".Yaitu, pada tahap kompetitif - tidak seperti pemanasan - algoritme dapat menahan diri untuk tidak menjawab, tetapi menurut hasil pemrosesan dataset, tidak lebih dari 20% gambar akan jatuh ke dalam waktu yang tidak ditentukan.
Persyaratan teknis untuk algoritma adalah sebagai berikut:
- 80% dari gambar harus dikenali. Tidak ada kesalahan yang diizinkan. Jika peserta sudah bergabung selama tahap kompetitif, mereka harus berhasil memproses 2 dataset sebelumnya.
- Bandwidth harus minimal 1 gambar per menit pada Tesla P100.
- Sistem harus mudah dibaca, ditulis dalam TensorFlow, PyTorch, Caffe atau NumPy. Sistem yang terlalu membingungkan dan sulit direproduksi dapat dihilangkan dari kompetisi dengan keputusan para juri.
Jika algoritma perlindungan berlangsung selama 90 hari tanpa kesalahan, pembuatnya akan mengambil setengah dari kumpulan hadiah.
Penyerang mendapatkan akses ke model yang tidak terlatih dan ke seluruh kode sumber algoritma.Tugas mereka adalah membuat gambar yang diterima semua hakim sebagai gambar sepeda atau burung yang tidak ambigu, dan algoritme akan membuat keputusan yang salah. Google akan mengumpulkan semua gambar yang diusulkan untuk setiap minggu, kemudian mengirimkannya untuk diperiksa dan hanya kemudian memasukkannya ke dalam dataset.
Jika penyerang berhasil menipu algoritma yang mengatasi tugas-tugas sebelumnya, mereka akan menerima uang dari paruh kedua kumpulan hadiah. Jika beberapa tim mencapai kesuksesan, maka uang akan dibagi di antara mereka sendiri.
Kompetisi tidak memiliki tenggat waktu yang jelas dan akan berlangsung hingga algoritma perlindungan terbaik muncul. Menurut penyelenggara, tujuan mereka bukan hanya sistem yang sulit dielakkan, tetapi jaringan saraf yang benar-benar kebal terhadap serangan apa pun. Pedoman untuk partisipasi dapat ditemukan di
halaman proyek di Github .