Roboterautos müssen lernen, Menschen zu verstehen.



Unternehmen, die immer mehr Roboterautos entwickeln. Das ist verständlich - schließlich sagen viele Wissenschaftler, Zukunftsforscher und Experten für künstliche Intelligenz voraus, dass Menschen in Zukunft mit selbstfahrenden Fahrzeugen ohne Fahrerkontrolle fahren werden. Roboterautos, und es geht um sie, sind bereits erschienen. Zwar verstehen sie die Situation auf den Straßen immer noch nicht genau, aber die Hardware und Software solcher Maschinen wird ständig verbessert und der allgemeine Fortschritt ist spürbar.

Algorithmen steuern die Bewegung autonomer Maschinen und sind recht komplex. Sie analysieren die Situation auf den Straßen und fahren ein Fahrzeug. Wenn das Auto grünes Licht „sieht“, lässt das Computersystem das Fahrzeug sich bewegen. Ist es an der Ampel rot? Dann musst du aufhören. Die Verkehrsregeln sind ziemlich klar, wenn auch mathematisch nicht korrekt. Im Prinzip ist es jedoch durchaus möglich, einem Computer das Fahren auf Straßen beizubringen. Oder nicht? Fachleute der Universität Stockholm argumentieren, dass die Entwickler autonomer Maschinensteuerungssysteme einen anderen Faktor nicht berücksichtigen - den sozialen. Autofahren, sagten sie, bewege sich nicht nur von Punkt A nach Punkt B, sondern auch die soziale Interaktion der Fahrer. Und ohne Berücksichtigung dieses Faktors funktioniert es nicht, einen Computer so zu trainieren, dass er ohne Zwischenfälle auf der Straße fährt.

Barry Brown, ein Spezialist für die Interaktion von Computersystemen und Menschen, erklärt Folgendes: „Autofahren ist nicht nur eine Reihe mechanischer Operationen, sondern auch eine komplexe soziale Aktivität. Bis alle Autos autonom werden, sind Autopiloten nur dann sicher und effektiv, wenn sie mit menschlichen Fahrern interagieren können. Autonome Autoentwickler müssen die Wahl und den Einfluss anderer Fahrer und Passagiere berücksichtigen. “

Der Wissenschaftler ist unglücklich darüber, dass die Entwickler von Roboterautos ihre Projekte nicht der Öffentlichkeit zugänglich machen wollen. Trotzdem können einige Daten aus Quellen gesammelt werden, die noch gemeinfrei sind. Wir sprechen über Videos von YouTube, die die Bewegung von Roboterautos zeigen. Die meisten Aufnahmen wurden von Tesla-Fahrern oder Personen gemacht, die aus dem einen oder anderen Grund beschlossen haben, Tesla während der Fahrt zu entfernen. Es gibt Videos mit Autos von Google, Volvo und Honda.

Laut Wissenschaftlern sind die Aufzeichnungen von YouTube-Nutzern eine hervorragende Informationsquelle über den Betrieb autonomer Fahrzeugsteuerungssysteme. Diese Videos zeigen auch, wie Menschen mit Roboterautos interagieren. Insgesamt analysierten Experten 69 verschiedene Videos, die von 63 Nutzern aus den USA, Großbritannien, Deutschland, Frankreich, Schweden, Hongkong, Island und Kanada auf YouTube hochgeladen wurden. Die durchschnittliche Dauer eines Videos betrug 9 Minuten. 7 Videos sind jedoch viel länger - in diesem Fall beträgt die Dauer jedes Clips mehr als eine halbe Stunde. In einem Fall hat der Autor des Videos mit einem System von 8 Registraren den ganzen Weg entlang gefilmt.

Zu Beginn haben Wissenschaftler einen wichtigen Punkt festgelegt: Sie werden Informationen über die Arbeit autonomer Maschinen nur aus Videos und nicht aus Nachrichtenressourcen oder Dokumenten von Unternehmen beziehen, die Robomobile entwickeln. Und dies führte zu Ergebnissen - die Funktionsweise der Systeme wurde ohne vorgefertigte Meinung untersucht. Es hat auch geholfen, dass viele Videos durch Kommentare von Filmemachern und YouTube-Nutzern ergänzt wurden.

Die Autoren untersuchten zwei Hauptaspekte der Bewegung von Robomobilen auf der Straße. Das erste ist die Interaktion des Fahrers mit einem Computersteuerungssystem. Befindet sich ein solches System im Auto, lernt der Fahrer, mit ihm zu interagieren. Wissenschaftler versuchten, die wichtigen Punkte dieser Wechselwirkung zu beobachten. Der zweite Aspekt ist die Interaktion des Autopiloten mit anderen Fahrern auf der Straße.


Die Situation auf der Straße, von den Projektteilnehmern untersucht. Das erste Bild ist eine Sonneneruption auf der Tesla-Kamera. Der zweite Frame - das System beginnt, eine Gefahr zu signalisieren. Drittens - der Autopilot lenkt das Auto auf die Gegenfahrbahn. Viertens - der Fahrer übernimmt die Kontrolle und korrigiert die Situation (Frames - Screenshots aus dem Video sind nicht von bester Qualität).

Wie sich herausstellte, funktionierten Autos mit automatischer Steuerung in vielen Fällen einwandfrei. Es wurden jedoch Probleme festgestellt. Zum Beispiel erkannte derselbe Autopilot in Tesla-Fahrzeugen manchmal fälschlicherweise Straßenmarkierungen, verwirrte Fahrspuren oder funktionierte im Allgemeinen nicht mehr normal, weil helles Sonnenlicht nach vorne schien (aufgrund von Sonnenblendung und einer Reihe erfolgloser Zufälle kam es zu einem Unfall mit einem Tesla-Fahrzeug und einem Lieferwagen in dem der Besitzer des Elektrofahrzeugs getötet wurde).


Im Allgemeinen stellte sich heraus, dass sich die meisten Autoren des Videos nicht zu 100% auf die Steuerungssysteme ihrer Maschinen verlassen. Und das ist gerechtfertigt, da es einige gefährliche Momente gab. Einer von ihnen war zum Beispiel mit der Interaktion des Autopiloten und anderer Fahrer verbunden. Der Motorradfahrer, der Tesla überholte, zeigte einen Übergang auf eine andere Spur. Die Geste des Computersystems erkannte und schnitt den Fahrer nicht.

Der zweite Fall zeigte den Unterschied zwischen den Handlungen eines Autofahrers und eines Computersteuerungssystems. Zwei Roboterautos fuhren die Straße entlang, zwischen denen ein durch die Regeln der SDA festgelegtes Intervall lag, das die Sicherheit sowohl der Fahrzeuge als auch ihrer Fahrer impliziert. Aber plötzlich erschien ein drittes Auto, das von einem Mann gefahren wurde. Sein Fahrer entschied, dass der Abstand zwischen den Autos vor ihm einfach perfekt für ihn war und wurde wieder aufgebaut. Autopiloten hingegen bemühen sich immer um einen Sicherheitsabstand, auch an Ampeln, wenn menschliche Fahrer ihre Autos direkt aufeinander zufahren und praktisch keinen freien Platz lassen.


Im Allgemeinen verwenden Fahrer auf der Straße häufig verbale Signale, z. B. wenn sie an einem Fußgänger oder einem anderen Auto vorbeifahren. Der Autopilot erkennt solche Signale natürlich nicht. Und der Unterschied im Verhalten des Robomobils und des menschlichen Fahrers auf der Straße ist sehr unterschiedlich.

Aus diesem Grund müssen die Entwickler computergestützter Fahrzeugsteuerungssysteme laut den Autoren der Studie einen sehr wichtigen Faktor berücksichtigen - die soziale Komponente des Straßenverkehrs. Dies ist schwierig, aber notwendig, da bisher viel mehr menschliche Fahrer auf den Straßen sind als Roboterautos. Die Entwickler der letzteren müssen ihren Systemen buchstäblich beibringen, Menschen zu "verstehen" und nicht nur Verkehrszeichen und Markierungen zu lesen. Man kann damit streiten, aber hier gibt es ein rationales Korn.

Wissenschaftler hoffen, dass die Ergebnisse ihrer Forschung von Entwicklern von Robomobilen genutzt werden, um effizientere Steuerungssysteme und vollwertige Autopiloten zu schaffen.

Source: https://habr.com/ru/post/de401907/


All Articles