Video: red neuronal describe un paseo por Amsterdam

El artista estadounidense demostró las capacidades de la red neuronal NeuroTalk, que describe las escenas de video en tiempo real. El sistema cometió errores, se corrigió a sí mismo, pero a veces dijo correctamente lo que estaba sucediendo. "Un hombre sostiene una salchicha en un moño con mostaza y salsa de tomate", "las tijeras están sentadas en la mesa al lado de la billetera" y "vista del tren desde la ventana del tren" - en el video debajo del gato.



En los últimos años, las computadoras han aprendido mucho sobre el reconocimiento de objetos en imágenes, ya sean caras, animales o muebles. Las redes neuronales capaces de aprender con el tiempo pueden describir escenas complejas. Del video grabado por el artista y programador estadounidense Kyle MacDonald, está claro que los sistemas están lejos de ser absolutamente precisos. MacDonald modificó la red neuronal desarrollada por investigadores de Stanford y Google para analizar videos capturados con una cámara web en las calles de Amsterdam.

El artista utilizó el software de código abierto NeuralTalk. Es capaz de describir escenas en tiempo real. El programa comete errores, a veces se corrige solo. A veces, a estos sistemas se les conoce como inteligencia artificial, pero lo hacen de manera exagerada: al describir imágenes y videos, el software no comprende lo que hay en la imagen, solo busca conexiones entre objetos.



Facebook está trabajando en un sistema similar . La compañía está desarrollando un sistema que reconoce objetos y personas en fotografías, que incluyen: hacer que la red social sea más accesible para las personas con discapacidad. El análisis de video de Facebook aún no se ha discutido, pero se puede suponer que la compañía está considerando esta idea para el entorno intelectual de las noticias.


Usando estas fotos, los desarrolladores de Facebook enseñan al sistema a reconocer las razas de perros.

Source: https://habr.com/ru/post/es387227/


All Articles