Quadrocopter canadense obedece às caretas do operador


Exemplos de pessoas que foram usadas para controlar o quadcopter durante os experimentos. A linha superior mostra faces neutras às quais a máquina não responde. Na linha inferior, existem diferentes opções para fazer disparos de careta correspondentes ao comando Iniciar. Dois alto-falantes direitos - fotos remotas de um multicopter. O programa de reconhecimento de rosto lida com êxito com baixa qualidade de imagem, reconhecendo rostos a uma distância de vários metros

Para controlar o UAV, geralmente é usado um dispositivo especializado ou um programa especial em um smartphone / tablet. Porém, no futuro, para a interação de pessoas com robôs, podem ser necessárias interfaces mais convenientes. Os alunos do Laboratório de Sistemas Autônomos da Escola de Ciência da Computação da Universidade Simon Fraser desenvolveram um programa experimental para controlar um quadcopter usando expressões faciais . Em princípio, não há nada particularmente complicado em um programa como esse, mas a ideia é interessante.

Teoricamente, esse controle pode ser mais intuitivo do que controlar um joystick ou botões em um tablet. Mesmo agora, em algumas situações, uma pessoa é mais fácil de gerenciar. Por exemplo, em um experimento com o lançamento de um VANT ao longo de uma trajetória parabólica (a la jogando uma granada), é realmente conveniente dirigir o carro com a cabeça inclinada.


As trajetórias parabólicas dos UAV são calculadas dependendo da direção do rosto do operador

Iniciar um drone usando uma certa expressão facial também é mais conveniente do que obter um controle remoto ou abrir um programa em um tablet. Imagine: é bastante formidável franzir a testa ou fazer uma careta ou fazer outra expressão no rosto - o dispositivo decola imediatamente e executa as ações pelas quais você o programou com antecedência ("jogando uma granada" ou voando em torno de um alvo).

Além dos controles mais simples, também não há necessidade de gastar dinheiro em um controlador, como é o caso de alguns multicopter. Todo mundo tem um rosto.


Duas etapas de treinamento. Treinamento de expressão facial neutra esquerda. À direita, o quadcopter lembra o gatilho de careta

Expressões faciais para controle podem ser arbitrárias. Na fase preliminar, o programa de reconhecimento facial é treinado. Ela deve ver seu rosto neutro - e uma careta para a equipe de gatilhos. Isso é feito da seguinte maneira. Você precisa elevar o drone ao nível dos olhos, colocá-lo na posição horizontal e dar ao rosto uma expressão neutra. Essa expressão deve ser mantida até que o robô esteja completamente satisfeito. Geralmente, leva menos de um minuto. Então o drone gira 90 graus - e você faz uma careta de gatilho, que é muito diferente da sua expressão neutra.


Depois vem o estágio de "mira". Após a decolagem, o multicopter continua monitorando constantemente a expressão no rosto do operador usando uma câmera de vídeo. Mesmo que o operador tente fugir, o robô o seguirá e seguirá a expressão em seu rosto. Nesta fase, o operador ensina ao quadcopter a ação que ele executará no comando de disparo. Atualmente, três tipos de ações são implementados:

  • Ray . Movimento direto em um determinado azimute e em uma determinada altura. A distância é determinada pelo tamanho da face do usuário no estágio de mira. Aqui a analogia da "corda do arco" é válida. Quanto mais forte a corda do arco é esticada (mais longe o rosto) - maior a energia do "tiro".
  • Sling . Trajetória balística. Pode ser útil se o operador desejar enviar o multicóptero para a zona de perda de linha de visão, como um obstáculo, por exemplo, para tirar fotos (veja o vídeo acima). Os desenvolvedores “projetam” o robô apropriadamente a 45 metros, mas dizem que nada impede de jogá-lo a centenas de metros. E se o UAV puder encontrar a face do alvo após o pico da trajetória balística, dois operadores poderão ser "atirados" pelo robô a uma distância de mais de um quilômetro.
  • Bumerangue . O movimento ao redor do círculo de um determinado raio com retorno ao ponto inicial. Aqui, os parâmetros de trajetória são definidos manualmente no estágio de mira, dependendo do ângulo de rotação do multicóptero.

Os alunos usaram o quadrocóptero Parrot Bebop, uma faixa de LED ligeiramente modificada para feedback visual.


Os resultados do experimento "Ray". Usuário marcado com um asterisco - especialista (desenvolvedor do sistema)

Em experimentos, o sistema provou ser surpreendentemente bom. Os participantes tiveram que enviar o drone para um aro com um diâmetro de 0,8 m a uma distância de 8 m - e na grande maioria dos casos, eles lidaram com a tarefa.

No futuro, dizem os autores do projeto, as pessoas devem "interagir com robôs e aplicativos de IA tão naturalmente quanto agora interagem com outras pessoas e animais treinados - como descrito na ficção científica".

Eles percebem que fazer caretas com robôs é divertido, e isso pode ser usado em aplicativos de entretenimento - e as pessoas se acostumarão com a ideia de que os robôs são realmente divertidos no futuro.

Source: https://habr.com/ru/post/pt410093/


All Articles