Beispiele von Personen, die zur Steuerung des Quadcopters während der Experimente verwendet wurden. Die obere Reihe zeigt neutrale Flächen, auf die die Maschine nicht reagiert. In der unteren Reihe gibt es verschiedene Optionen zum Grimassieren von Triggern, die dem Startbefehl entsprechen. Zwei rechte Lautsprecher - Remote-Fotos von einem Multikopter. Das Gesichtserkennungsprogramm bewältigt erfolgreich schlechte Bildqualität und erkennt Gesichter in einer Entfernung von mehreren MeternZur Steuerung des UAV wird normalerweise entweder ein spezielles Gerät oder ein spezielles Programm auf einem Smartphone / Tablet verwendet. In Zukunft werden für die Interaktion von Menschen mit Robotern möglicherweise bequemere Schnittstellen benötigt. Studenten
des Autonomous Systems Laboratory an der Simon Fraser University School of Computer Science haben ein
experimentelles Programm zur Steuerung eines Quadcopters mithilfe von Gesichtsausdrücken entwickelt . Grundsätzlich ist ein solches Programm nicht besonders kompliziert, aber die Idee ist interessant.
Theoretisch kann eine solche Steuerung intuitiver sein als die Steuerung eines Joysticks oder von Tasten auf einem Tablet. In einigen Situationen ist eine Person sogar einfacher zu verwalten. In einem Experiment zum Werfen eines UAV entlang einer parabolischen Flugbahn (a la Werfen einer Granate) ist es beispielsweise sehr praktisch, das Auto mit geneigtem Kopf zu steuern.
Die parabolischen Flugbahnen des UAV werden in Abhängigkeit von der Gesichtsrichtung des Bedieners berechnetDas Starten einer Drohne mit einem bestimmten Gesichtsausdruck ist auch bequemer als das Erhalten einer Fernbedienung oder das Öffnen eines Programms auf einem Tablet. Stellen Sie sich vor: Es ist ziemlich beeindruckend, die Stirn zu runzeln, die Wangen zu runzeln oder einen anderen Ausdruck auf Ihrem Gesicht zu machen. Das Gerät hebt sofort ab und führt die Aktionen aus, für die Sie es im Voraus programmiert haben („Granate werfen“ oder um ein Ziel herumfliegen).
Neben einfacheren Steuerungen müssen Sie auch kein Geld für eine Steuerung ausgeben, wie dies bei einigen Multikoptern der Fall ist. Jeder hat ein Gesicht.
Zwei Ausbildungsstufen. Linksneutrales Gesichtsausdrucktraining. Rechts erinnert sich der Quadcopter an den GrimassenauslöserGesichtsausdrücke zur Kontrolle können beliebig sein. In der Vorstufe wird das Gesichtserkennungsprogramm geschult. Sie sollte dein neutrales Gesicht sehen - und eine Grimasse für das Abzugsteam. Dies geschieht wie folgt. Sie müssen die Drohne auf Augenhöhe heben, in eine horizontale Position bringen und dem Gesicht einen neutralen Ausdruck verleihen. Dieser Ausdruck sollte beibehalten werden, bis der Roboter vollständig zufrieden ist. Es dauert normalerweise weniger als eine Minute. Dann dreht sich die Drohne um 90 Grad - und Sie machen eine Trigger-Grimasse, die sich sehr von Ihrem neutralen Ausdruck unterscheidet.
Dann kommt die Zielphase. Nach dem Start überwacht der Multikopter den Ausdruck auf dem Gesicht des Bedieners ständig mit einer Videokamera. Selbst wenn der Bediener versucht wegzulaufen, folgt der Roboter ihm und folgt dem Ausdruck auf seinem Gesicht. In diesem Stadium bringt der Bediener dem Quadcopter die Aktion bei, die er für den Triggerbefehl ausführen wird. Derzeit werden drei Arten von Aktionen implementiert:
- Ray . Direkte Bewegung in einem bestimmten Azimut und in einer bestimmten Höhe. Die Entfernung wird durch die Größe des Gesichts des Benutzers in der Zielphase bestimmt. Hier gilt die Analogie der „Bogensehne“ des Bogens. Je stärker die Sehne gedehnt ist (je weiter das Gesicht entfernt ist), desto größer ist die Energie des „Schusses“.
- Sling . Ballistische Flugbahn. Dies kann nützlich sein, wenn der Bediener den Multikopter in die Sichtverlustzone schicken möchte, beispielsweise für ein Hindernis, zum Beispiel zum Aufnehmen von Bildern (siehe Video oben). Die Entwickler "werfen" den Roboter treffend auf 45 Meter, aber sie sagen, dass nichts verhindert, ihn auf Hunderte von Metern zu werfen. Und wenn das UAV nach dem Höhepunkt der ballistischen Flugbahn das Gesicht des Ziels findet, können zwei Bediener vom Roboter in einer Entfernung von mehr als einem Kilometer "geworfen" werden.
- Bumerang . Die Bewegung um den Kreis eines bestimmten Radius mit Rückkehr zum Startpunkt. Hier werden die Flugbahnparameter in der Zielphase je nach Drehwinkel des Multikopters manuell eingestellt.
Die Schüler verwendeten den Parrot Bebop Quadrocopter, einen leicht modifizierten LED-Streifen für visuelles Feedback.
Die Ergebnisse des "Ray" -Experiments. Benutzer mit Sternchen markiert - Experte (Systementwickler)In Experimenten erwies sich das System als überraschend gut. Die Teilnehmer mussten die Drohne in einen Reifen mit einem Durchmesser von 0,8 m in einer Entfernung von 8 m schicken - und in den allermeisten Fällen haben sie die Aufgabe gemeistert.
In Zukunft sollten die Autoren des Projekts sagen, dass Menschen „so natürlich mit Robotern und KI-Anwendungen interagieren sollten wie jetzt mit anderen Menschen und trainierten Tieren - wie in Science Fiction beschrieben“.
Sie bemerken, dass das Grimassen mit Robotern Spaß macht und dies in Unterhaltungsanwendungen verwendet werden kann - und die Leute werden sich daran gewöhnen, dass Roboter in Zukunft wirklich Spaß machen.