Investigadores de Carnegie Mellon han creado los "deepfakes" más creíbles

¿Has oído hablar de "deepfakes"? La IA, que superpone la cara de una persona en el cuerpo de otra, se usó para reemplazar a Harrison Ford con Nicholas Cage en innumerables videoclips, así como para fines más atroces: las celebridades aparecieron en el porno y la propaganda sin su conocimiento. Ahora, para bien o para mal, los investigadores de la Universidad Carnegie Mellon han desarrollado un sistema nuevo, más potente y versátil.


Se llama "Recycle-GAN". Este es un sistema para transformar los contenidos de un video o fotografía a semejanza de otro, aprendiendo exclusivamente de la entrada de datos no asignados (capacitación sin un maestro). "La tarea de cambiar el contenido mientras se preserva el estilo del original tiene muchos usos, por ejemplo, aplicar movimientos y expresiones faciales de una persona a otra, entrenar robots usando el método" haz lo que yo ", dicen los investigadores, o convertir videos en blanco y negro en colores".

Hasta ahora, incluso los métodos más avanzados de transformación se han dirigido a rostros humanos y, según los investigadores, "eran casi imposibles de aplicar en otras áreas", además de "funcionan muy mal con caras parcialmente ocultas". Otros métodos utilizan la transformación cuadro por cuadro, que requiere un laborioso etiquetado manual y alineación de datos.

imagen

Recycle-GAN utiliza redes generativas competitivas (GAN) y "marcadores de espacio-tiempo para" vincular "dos imágenes o videos. (Las GAN son modelos que consisten en un generador que intenta "engañar" al discriminador produciendo resultados cada vez más realistas a partir de los datos de entrada). Al entrenar en video con personas, crean videos con momentos tan esquivos como hoyuelos en las mejillas que se forman cuando sonríes y movimiento de labios.

"Sin ninguna intervención y conocimiento básico relacionado con los detalles específicos del video, nuestro enfoque es capaz de aprender simplemente usando videos de temas de acceso público desde Internet", escribe el equipo de desarrollo

Recycle-GAN es capaz de mucho más que transmitir expresiones faciales. Los investigadores lo usaron para cambiar las condiciones climáticas en un video al convertir la calma total en un día ventoso. Imitaron flores florecientes y moribundas, y sintetizaron un convincente amanecer a partir de un video en Internet.


Los resultados de la prueba son bastante buenos: el sistema logró engañar a 15 sujetos en el 28.3% de los casos, pero el equipo cree que los productos de futuras versiones del sistema pueden ser más creíbles si tienen en cuenta la velocidad de reproducción, por ejemplo, cuánto más rápido o más lento dicen las personas en el video

"Una transferencia de estilo plausible debería poder tener en cuenta incluso la diferencia horaria resultante de la reproducción del discurso / contenido", escribió el equipo. "Creemos que la mejor arquitectura espacio-temporal de una red neuronal puede resolver este problema en un futuro próximo".


No es sorprendente que los deepfakes sigan siendo un tema candente muy debatido. Los servicios disponibles públicamente hacen que su creación sea relativamente fácil, y no existe una base legal para proteger a las víctimas de tales videos.

Reddit, Pornhub, Twitter y otros han tomado una posición en contra de ellos, y los investigadores (que se unieron recientemente al Departamento de Defensa de los Estados Unidos) continúan buscando formas de detectar falsificaciones profundas. Pero, como dijo recientemente Eric Goldman, profesor de derecho de la Universidad de Santa Clara y director del Instituto de Alta Tecnología, es mejor "prepararse para vivir en un mundo donde nos rodearán tanto fotos como videos reales y falsos".

Source: https://habr.com/ru/post/es420541/


All Articles