Pernah mendengar "deepfakes"? AI, yang menutupi wajah satu orang di tubuh orang lain, digunakan untuk menggantikan Harrison Ford dengan Nicholas Cage dalam klip video yang tak terhitung jumlahnya, serta untuk tujuan yang lebih kejam: selebriti muncul dalam pornografi dan propaganda tanpa sepengetahuan mereka. Sekarang, baik atau buruk, para peneliti di Universitas Carnegie Mellon telah mengembangkan sistem baru, lebih kuat dan serbaguna.
Itu disebut "Recycle-GAN." Ini adalah sistem untuk mengubah konten dari satu video atau foto dalam bentuk yang lain, belajar secara eksklusif dari input data yang tidak terisi (pelatihan tanpa guru). "Tugas mengubah konten sambil mempertahankan gaya asli memiliki banyak kegunaan, misalnya, menerapkan gerakan dan ekspresi wajah satu orang ke orang lain, melatih robot menggunakan metode" do as I ", kata para peneliti, atau mengubah video hitam putih menjadi warna."
Sampai sekarang, bahkan metode transformasi paling maju telah ditujukan pada wajah manusia, dan menurut para peneliti, "mereka hampir mustahil untuk diterapkan di bidang lain", selain "mereka bekerja sangat buruk dengan wajah yang sebagian tersembunyi". Metode lain menggunakan transformasi frame-by-frame, yang membutuhkan pelabelan manual yang melelahkan dan penyelarasan data.

Recycle-GAN menggunakan jaringan generatif-kompetitif (GAN) dan "penanda ruang-waktu untuk" menghubungkan "dua gambar atau video. (GAN adalah model yang terdiri dari generator yang mencoba untuk "menipu" pembeda dengan menghasilkan hasil yang semakin realistis dari data input.) Ketika berlatih video dengan orang-orang, mereka membuat video dengan momen sulit seperti lesung pipi yang terbentuk ketika Anda tersenyum dan gerakan bibir.
βTanpa intervensi dan pengetahuan dasar yang terkait dengan spesifikasi video, pendekatan kami dapat belajar hanya dengan menggunakan video subjek yang dapat diakses publik dari Internet,β tulis tim pengembangan
Recycle-GAN mampu lebih dari sekadar mentransmisikan ekspresi wajah. Para peneliti menggunakannya untuk mengubah kondisi cuaca dalam sebuah video dengan mengonversi ketenangan penuh pada hari yang berangin. Mereka meniru bunga mekar dan sekarat, dan mensintesis matahari terbit yang meyakinkan dari sebuah video di Internet.
Hasil tes cukup baik: sistem berhasil menipu 15 subjek dalam 28,3% kasus, tetapi tim percaya bahwa produk versi masa depan sistem dapat lebih dipercaya jika mereka memperhitungkan kecepatan pemutaran, misalnya, seberapa cepat atau lambat orang mengatakan dalam video.
"Transfer gaya yang masuk akal harus dapat memperhitungkan bahkan perbedaan waktu yang dihasilkan dari reproduksi pidato / konten," tulis tim tersebut. "Kami percaya bahwa arsitektur spatio-temporal terbaik dari jaringan saraf dapat menyelesaikan masalah ini dalam waktu dekat."
Tidak mengherankan, deepfake tetap menjadi topik hangat yang diperdebatkan. Layanan yang tersedia untuk umum membuat kreasi mereka relatif mudah, dan tidak ada dasar hukum untuk melindungi korban video tersebut.
Reddit, Pornhub, Twitter, dan lainnya telah mengambil sikap menentang mereka, dan para peneliti (baru-baru ini bergabung dengan Departemen Pertahanan Amerika Serikat) terus mencari cara untuk mendeteksi deepfake. Tetapi, seperti Eric Goldman, seorang profesor hukum di Universitas Santa Clara dan direktur Institut Teknologi Tinggi, baru-baru ini mengatakan, yang terbaik adalah "bersiap-siap untuk hidup di dunia di mana foto dan video nyata dan palsu akan mengelilingi kita."