
Seit Unternehmen mit der Entwicklung von Roboterfahrzeugen begonnen haben, stellten die Menschen Fragen, wie Designer
moralische Probleme lösen können, z. B. wer einen Roboter töten sollte, falls ein Unfall unvermeidlich ist. Eine kürzlich durchgeführte
Studie legt nahe, dass diese Frage möglicherweise noch schwieriger zu beantworten ist als bisher angenommen, da die moralischen Vorlieben der Menschen in verschiedenen Ländern unterschiedlich sind.
Forscher der Harvard University und des MIT haben ein Online-Spiel entwickelt, das Situationen simuliert, in denen ein Unfall mit den Opfern unvermeidlich war. Sie befragten 40 Millionen Menschen aus 200 Ländern und boten verschiedene Möglichkeiten an, wie solche Vorfälle enden sollten, beispielsweise ob Autopassagiere oder Fußgänger sterben sollten.
Als Ergebnis wurden drei kulturelle Cluster mit signifikant unterschiedlichen ethischen Präferenzen entdeckt. Zum Beispiel im südlichen Cluster (zu dem der größte Teil Lateinamerikas und die ehemaligen französischen Kolonien gehören), der es
am meisten vorgezogen hat , Frauen zum Nachteil der Männer zu verschonen. Im östlichen Cluster (zu dem viele islamische Länder, China, Japan und Korea gehörten) stimmten die Menschen weniger dafür, die Jungen zum Nachteil der Älteren zu retten.
Die Forscher kamen zu dem Schluss, dass diese Informationen die Entscheidungen der Entwickler von Robomobilen beeinflussen sollten. Aber sollte es? Diese Arbeit, die die interessante Entdeckung globaler Unterschiede in den moralischen Präferenzen hervorhebt, zeigt auch anhaltende Missverständnisse in Bezug auf KI und ihre Fähigkeiten. Angesichts des derzeitigen Niveaus der KI-Technologie in Roboterfahrzeugen ist klar, dass die Maschine keine moralischen Entscheidungen treffen kann.
Fantasie von "moralischen Maschinen"
Robomobile werden mithilfe einer speziellen Art von KI, auch als „
schwache (schmale) KI “ bezeichnet, die sich auf eine hochspezialisierte Aufgabe konzentriert, darin geschult, Entscheidungen darüber zu treffen, wann gelenkt und wann verlangsamt werden soll. Sie werden mit verschiedenen Sensoren, Kameras und Entfernungsmessern (Lidars) entwickelt, die Informationen an einen zentralen Computer liefern. Der Computer verwendet KI, um Eingabedaten zu analysieren und Entscheidungen zu treffen.
Und obwohl diese Technologie heutzutage relativ einfach ist, können Autos eine Person bei den einfachsten Aufgaben, die mit dem Autofahren verbunden sind, übertreffen. Es wäre jedoch unrealistisch zu glauben, dass Robomobile in der Lage sein sollten, ethische Entscheidungen zu treffen, für die selbst die moralischsten Menschen im Falle eines Unfalls keine Zeit hätten. Wenn wir dies von einem Auto wollen, muss es die
universelle künstliche Intelligenz (IION) programmieren.
IION ist gleichbedeutend damit, uns menschlich zu machen. Dies ist eine Gelegenheit zu reden, Musik zu genießen, über etwas zu lachen oder die Moral zu beurteilen. Aufgrund der Komplexität menschlicher Gedanken und Emotionen ist es jetzt
unmöglich , IION zu erstellen. Wenn wir die Schaffung autonomer Autos mit Moral fordern, müssen wir mehrere Jahrzehnte warten, auch wenn dies überhaupt möglich ist.
Ein weiteres Problem der neuen Studie ist der unrealistische Charakter vieler von den Teilnehmern bewerteter Situationen. In einem Szenario wurde das bekannte „
Trolley-Problem “ ausgespielt und die Teilnehmer wurden gefragt, wer das Auto bewegen soll, wenn die Bremsen ausfallen: drei Passagiere (ein Mann, eine Frau und ein Kind) oder drei ältere Fußgänger (zwei alte Männer und eine alte Frau).
Menschen können über solche Themen sorgfältig nachdenken, indem sie einen Fragebogen ausfüllen. In den meisten Fällen im wirklichen Leben hat der Fahrer jedoch keine Zeit, eine solche Entscheidung in Sekundenbruchteilen zu treffen, für die sie eintreten wird. Der Vergleich ist also falsch. Angesichts des derzeitigen Niveaus der in Roboterfahrzeugen verwendeten KI-Technologie werden diese Fahrzeuge auch solche Entscheidungen nicht treffen können.
Die schmale KI ermöglicht es Robomobilen, einfache Urteile über umgebende Objekte zu fällenModerne Robomobile verfügen über komplexe Wahrnehmungsfähigkeiten in der Welt und können Fußgänger von anderen Objekten wie Straßenlaternen oder Verkehrszeichen unterscheiden. Die Autoren der Studie glauben jedoch, dass Robomobile tiefere Unterschiede machen können und vielleicht sogar müssen. Zum Beispiel könnten sie den Grad der Nützlichkeit bestimmter Menschen für die Gesellschaft, zum Beispiel Ärzte oder Sportler, schätzen und beschließen, sie im Falle eines Unfalls zu retten.
Die Realität ist, dass Sie, um solch komplexe Überlegungen anzustellen, einen IION erstellen müssen, was heute
unmöglich ist. Darüber hinaus ist unklar, ob dies überhaupt erfolgen soll. Selbst wenn es möglich wäre, das Programm der Maschine zu einer Gelegenheit zu machen, zu entscheiden, wessen Leben gerettet werden soll, glaube ich, dass wir dies nicht tun dürfen. Wir dürfen nicht zulassen, dass die von der Studie festgelegten Präferenzen, egal wie groß ihre Auswahl ist, den Wert des menschlichen Lebens bestimmen.
Grundsätzlich sind Robomobile so konzipiert, dass Unfälle so weit wie möglich vermieden oder die Aufprallgeschwindigkeit minimiert werden. Obwohl sie wie Menschen im Falle einer bevorstehenden Kollision keine moralischen Entscheidungen treffen können. Robomobile sind jedoch
sicherer als Autos mit Personenantrieb, aufmerksamer, reagieren schneller und können das volle Potenzial des Bremssystems nutzen.
Bisher ist die größte ethische Frage im Bereich der Robomobile, ob in den Simulationen ihres sicheren Verhaltens genügend Beweise gesammelt wurden, um Robomobile auf der Straße freigeben zu können. Dies bedeutet jedoch nicht, dass sie "moralisch" sein werden oder in naher Zukunft solche werden können. Das Gegenteil zu sagen bedeutet, ein enges KI-Fahren mit einem IION zu verwechseln, das wahrscheinlich in unserem Leben nicht auftreten wird.
Letztendlich sind Robomobile sicherer als Menschen. Dies wird dank ihres Designs und der Fähigkeit erreicht, Vorfälle mit aller Kraft zu vermeiden oder Schäden im Falle der Unvermeidlichkeit zu reduzieren. Maschinen können jedoch keine moralischen Entscheidungen treffen, wo selbst wir nicht können. Diese Idee bleibt eine Fiktion, und Sie sollten nicht darauf hoffen. Stattdessen konzentrieren wir uns auf Sicherheit: Der Glaube daran wird gerechtfertigt sein.