
Saat ini, teknologi yang dapat disebut "asisten digital" seseorang telah menjadi sangat populer. Kita berbicara tentang Siri, Cortana, dan speaker pintar - khususnya, dari Amazon. Banyak dari kita terbiasa dengan fakta bahwa hanya satu perintah suara dapat membuat asisten bertindak - misalnya, memberi tahu cuaca untuk besok, membaca teks atau menyanyikan lagu.
Bagi para pakar keamanan informasi, beberapa aspek pekerjaan asisten semacam itu menimbulkan sejumlah pertanyaan. Tidak diragukan lagi, layanannya cukup mudah, tetapi mereka rentan terhadap gangguan dari luar. Contoh paling sederhana - setelah melaporkan sistem TV Amazon Echo dari San Diego, yang "mendengarkan" saluran CW6 lokal, mulai memesan rumah boneka.
Masalahnya adalah bahwa di TV mereka mengatakan sesuatu tentang rumah boneka, mendiskusikan gadis yang memesan rumah seperti itu dari Alexa. Dan kolom itu memesan tidak lebih. Reporter itu mengatakan hal berikut di TV: "Saya menyukai gadis yang mengatakan" Alexa, pesankan saya rumah boneka. " Dan pembicara lain segera mulai memesan rumah boneka.
Kolom yang sama terlihat beberapa waktu lalu dalam kenyataan bahwa itu mulai
sangat menertawakan tanpa alasan. Kemungkinan besar, ada alasannya, dan ini adalah retasan ke dalam kolom itu sendiri (semacam bug hampir tidak dapat menyebabkan konsekuensi serupa).
Adapun pesanan yang tidak sah, alasan "kegagalan" terletak pada kenyataan bahwa Alexa tidak dilengkapi dengan sistem pengenalan teman atau lawan, sehingga dapat mendengarkan perintah suara orang lain, dan bukan hanya penggunanya. Situasinya mirip dengan Siri, Cortana, asisten Google. Ternyata, "pembantu" mematuhi perintah yang tidak bisa dibedakan dengan telinga manusia.
Tim peneliti gabungan dari Cina dan Amerika Serikat dapat mencapai aktivasi rahasia sistem kecerdasan buatan pada smartphone dan speaker pintar. Tim pria yang tidak terdengar memaksa asisten digital untuk memutar nomor yang berbeda dan membuka situs. Tetapi kemungkinannya jauh lebih luas - penyerang dapat menggunakan "kenaifan" kolom untuk melakukan transfer uang atau memesan barang (hanya bukan rumah boneka).
Tim-tim yang dijelaskan di atas dapat disematkan dalam rekaman lagu dengan panjang apa pun atau pidato percakapan. Beberapa penyerang dapat mulai memainkan rekaman musik, yang akan terdengar sangat biasa bagi seseorang, tetapi asisten digital akan mendengar perintah dan mulai menjalankan perintah. Para peneliti, yang telah mempublikasikan hasil pekerjaan mereka, percaya bahwa teknologi mereka cepat atau lambat akan diumumkan kepada publik. Ide ini tidak unik, jadi siapa pun bisa datang ke sana. Atau mungkin itu sudah berfungsi, digunakan oleh penyerang.
Peneliti keamanan informasi tidak mengungkapkan rincian teknologi, tetapi orang harus berpikir bahwa ancaman itu nyata. Beberapa waktu setelah publikasi informasi tentang kerentanan asisten suara, pengembang layanan seperti itu dari negara lain mulai berbicara tentang perbaikan awal untuk masalah tersebut. Amazon mengatakan masalah sudah diselesaikan.
Meski begitu, tetapi Siri yang sama mendengarkan perintah seperti itu sekarang. Selain itu, mereka berisi instruksi tentang kebutuhan untuk tetap diam untuk asisten digital. Lagi pula, apa gunanya memberi perintah jika telepon "bangun" dan mulai mengulangi dengan suara segala sesuatu yang disembunyikan dalam perintah yang tidak terdengar? Maka - perintahnya berbunyi, telepon diaktifkan, tetapi masuk ke mode diam dan tidak mengatakan apa-apa2 sebagai tanggapan.
Para peneliti menyebut teknologi DolphinAttack. Sekarang pengembang perangkat lunak asisten digital telah mulai mempelajari informasi yang diberikan oleh para ilmuwan untuk menyelesaikan masalah. Ini sulit dilakukan, tetapi mungkin mungkin. Jika tidak ada yang dilakukan, maka ide yang benar-benar menimbulkan potensi bahaya akan mulai menemukan pemahaman di antara semua jenis penyerang. Dan mereka, pada gilirannya, akan menggunakannya untuk mewujudkan tujuan mereka sendiri yang tidak sesuai dengan hukum. Sejauh ini, studi potensi "kerentanan suara" terus berlanjut.