Quadrocopter canadiense obedece las muecas del operador


Ejemplos de personas que fueron utilizadas para controlar el quadcopter durante los experimentos. La fila superior muestra caras neutrales a las que la máquina no responde. En la fila inferior hay diferentes opciones para disparadores de muecas correspondientes al comando Inicio. Dos altavoces derechos: fotos remotas desde un multicopter. El programa de reconocimiento de rostros enfrenta con éxito una calidad de imagen deficiente, reconociendo rostros a una distancia de varios metros

Para controlar el UAV, generalmente se usa un dispositivo especializado o un programa especial en un teléfono inteligente / tableta. Pero en el futuro, para la interacción de las personas con los robots, se pueden necesitar interfaces más convenientes. Los estudiantes del Laboratorio de Sistemas Autónomos de la Facultad de Informática de la Universidad Simon Fraser han desarrollado un programa experimental para controlar un quadcopter utilizando expresiones faciales . En principio, no hay nada particularmente complicado en dicho programa, pero la idea es interesante.

Teóricamente, dicho control puede ser más intuitivo que controlar un joystick o botones en una tableta. Incluso ahora, en algunas situaciones, una persona es más fácil de administrar. Por ejemplo, en un experimento con lanzar un UAV a lo largo de una trayectoria parabólica (como lanzar una granada), es realmente conveniente conducir el automóvil con la cabeza inclinada.


Las trayectorias parabólicas del UAV se calculan según la dirección de la cara del operador.

Lanzar un dron usando una cierta expresión facial también es más conveniente que obtener un control remoto o abrir un programa en una tableta. Imagínese: es bastante formidable fruncir el ceño o fruncir el ceño, o hacer alguna otra expresión en su cara: el dispositivo despega inmediatamente y realiza las acciones para las que lo programó por adelantado ("lanzar una granada" o volar alrededor de un objetivo).

Además de los controles más simples, tampoco es necesario gastar dinero en un controlador, como es el caso de algunos multicopter. Todos tienen cara.


Dos etapas de entrenamiento. Izquierda - entrenamiento de expresión facial neutral. A la derecha, el cuadricóptero recuerda el gatillo de la mueca.

Las expresiones faciales para el control pueden ser arbitrarias. En la etapa preliminar, se entrena el programa de reconocimiento facial. Ella debería ver tu cara neutral, y una mueca para el equipo gatillo. Esto se hace de la siguiente manera. Debe elevar el dron al nivel de los ojos, colocarlo en posición horizontal y darle a la cara una expresión neutral. Esta expresión debe mantenerse hasta que el robot esté completamente satisfecho. Por lo general, lleva menos de un minuto. Luego, el dron gira 90 grados, y haces una mueca desencadenante, que es muy diferente de tu expresión neutral.


Luego viene la etapa de "apuntar". Después del despegue, el multicopter continúa monitoreando constantemente la expresión en la cara del operador usando una cámara de video. Incluso si el operador intenta escapar, el robot lo seguirá y seguirá la expresión de su rostro. En esta etapa, el operador le enseña al quadcopter la acción que realizará en el comando de disparo. Actualmente, se implementan tres tipos de acciones:

  • Ray Movimiento directo en un acimut dado y a una altura dada. La distancia está determinada por el tamaño de la cara del usuario en la etapa de puntería. Aquí la analogía de la "cuerda del arco" del arco es válida. Cuanto más se estira la cuerda del arco (cuanto más lejos está la cara), mayor es la energía del "disparo".
  • Honda Trayectoria balística. Puede ser útil si el operador desea enviar el multicopter a la zona de pérdida de línea de visión, por un obstáculo, por ejemplo, para tomar fotografías (vea el video de arriba). Los desarrolladores acertadamente "lanzaron" el robot a 45 metros, pero dicen que nada impide tirarlo a cientos de metros. Y si el UAV puede encontrar la cara del objetivo después del pico de la trayectoria balística, entonces el robot puede "lanzar" a dos operadores a una distancia de más de un kilómetro.
  • Boomerang El movimiento alrededor del círculo de un radio dado con un retorno al punto de partida. Aquí los parámetros de trayectoria se establecen manualmente en la etapa de puntería, dependiendo del ángulo de rotación del multicopter.

Los estudiantes usaron el quadrocopter Parrot Bebop, una tira de LED ligeramente modificada para retroalimentación visual.


Los resultados del experimento "Ray". Usuario marcado con un asterisco - experto (desarrollador del sistema)

En experimentos, el sistema demostró ser sorprendentemente bueno. Los participantes tuvieron que enviar el avión no tripulado a un aro con un diámetro de 0,8 ma una distancia de 8 m, y en la gran mayoría de los casos hicieron frente a la tarea.

En el futuro, dicen los autores del proyecto, las personas deberían "interactuar con robots y aplicaciones de IA tan naturalmente como ahora interactúan con otras personas y animales entrenados, como se describe en la ciencia ficción".

Se dan cuenta de que hacer muecas con robots es divertido, y esto se puede usar en aplicaciones de entretenimiento, y la gente se acostumbrará a la idea de que los robots son realmente divertidos en el futuro.

Source: https://habr.com/ru/post/es410093/


All Articles