Ist es möglich, Ethik in den Algorithmus von Robomobilen einzuführen?
Für den Mord an einem Robomobil werden das Programm (und die Programmierer) beurteilt
Jahr 2034. Ein betrunkener Mann wandert nachts auf dem Bürgersteig, stolpert und fällt direkt vor das Robomobil, das ihn trifft und sofort tötet. Wenn sich eine Person hinter dem Steuer eines Autos befindet, wird der Tod als Unfall erkannt, da der Fehler beim Fußgänger liegt und kein einziger Fahrer ihm ausweichen kann. Die Standards für den "Durchschnittsfahrer" (der Begriff " vernünftige Person " ist in der ausländischen Gesetzgebung enthalten ) verschwanden jedoch in den 2020er Jahren, als die Verbreitung von Robomobilen die Zahl der Unfälle um 90% verringerte. Jetzt müssen wir über den "durchschnittlichen Roboter" sprechen.Die Familie des Opfers verklagt den Hersteller von Roboterfahrzeugen und erklärt, dass das Auto, obwohl es keine Zeit zum Bremsen hatte, einen Fußgänger umrunden, einen Doppelkörper überqueren und mit einem entgegenkommenden Roboter kollidieren könnte. Die Rekonstruktion des Vorfalls anhand von Roboter-Fahrzeugsensoren bestätigt dies. Der Anwalt des Klägers, der einen führenden Auto-Software-Entwickler verhört, fragt: "Warum hat sich das Auto nicht abgewandt?"Heute fragt das Gericht die Fahrer nicht, warum sie etwas getan haben oder nicht. Das Problem ist umstritten, da sich die Person irrt - der Fahrer kann in Panik geraten, nicht daran denken, auf Instinkte reagieren. Aber wenn der Roboter das Auto fährt, lautet die Frage: "Warum?" durchaus akzeptabel. Die ethischen Standards von Menschen, die in Gesetzen nicht sehr gut formuliert sind, machen viele verschiedene Annahmen, zu denen Ingenieure einfach nicht gelangt sind. Das wichtigste von ihnen - eine Person kann verstehen, wann Sie vom Buchstaben des Gesetzes abweichen müssen, um seinen Geist zu bewahren. Jetzt müssen Ingenieure Maschinen und anderen Robotern beibringen, wie sie kluge Entscheidungen treffen können.Die Computerisierung des Steuerungsprozesses begann in den 1970er Jahren, als Antiblockiersysteme auftauchten . Jetzt gibt es jedes Jahr Entwicklungen wie automatische Lenkung, automatische Beschleunigung und Notbremsung. Das Testen von vollautomatischen Maschinen, wenn auch unter Beteiligung eines menschlichen Fahrers, ist an einigen Orten in Großbritannien, Holland, Deutschland und Japan bereits zulässig. In den Vereinigten Staaten ist es in vier Bundesstaaten und im District of Columbia gesetzlich zulässig , und im Übrigen ist es zumindest nicht verboten. Google, Nissan und Ford behaupten, dass Robomobile in 5-10 Jahren erscheinen werden.Automatische Fahrzeuge erfassen Umgebungsinformationen von Sensoren - Videokameras, Ultraschall-Entfernungsmesser, Radargeräte, Lidars. In Kalifornien müssen Robomobile dem Verkehrsministerium 30 Sekunden vor einer Kollision, die sich bereits ausreichend angesammelt hat, alle Sensordaten zur Verfügung stellen - einschließlich der von der Google-Maschine verursachten Kollision . Ingenieure haben die Möglichkeit, Ereignisse im Kollisionsbereich ziemlich genau wiederherzustellen, indem sie Aufzeichnungen darüber verwenden, was die Maschine erfassen könnte, welche Alternativen sie in Betracht zieht und welche Verhaltenslogik sie verwendet. Der Computer kann dazu gebracht werden, seine Überlegungen zu wiederholen - so wie er aufgefordert werden kann, die Person zu bestimmen, die das Spiel oder den Fahrsimulator gespielt hat.Aufsichtsbehörden und Prozessparteien werden in der Lage sein, übermenschliche Sicherheitsstandards für Roboterfahrzeuge einzuhalten und Kollisionen, die ohnehin auftreten werden, gründlich zu untersuchen - wenn auch selten. Hersteller und Programmierer werden die Aktionen ihrer Produkte auf eine Weise schützen, von der die heutigen Fahrer nie geträumt haben.Autofahren ist immer ein Risiko, und Entscheidungen über die Verteilung zwischen Fahrern, Fußgängern, Radfahrern und Eigentum enthalten eine ethische Komponente. Sowohl für Ingenieure als auch für alle Menschen ist es wichtig, dass das Entscheidungsfindungssystem der Maschine die ethischen Konsequenzen ihres Handelns abwägt.
Kollision Google Car mit einem BusDie übliche Reaktion auf moralisch mehrdeutige Situationen besteht darin, das Gesetz zu befolgen und gleichzeitig den Schaden zu minimieren. Die Strategie ist attraktiv - sie ermöglicht es dem Entwickler nicht nur, die Handlungen des Autos leicht zu verteidigen („Wir haben das Gesetz vollständig befolgt“), sondern überträgt auch die Verantwortung bei der Festlegung der Ethik auf den Gesetzgeber. Leider belastet es auch das Gesetz zu sehr.In den meisten Staaten beispielsweise stützt sich das Gesetz auf den gesunden Menschenverstand der Fahrer und sagt wenig über das Verhalten vor einer Kollision aus. In dem beschriebenen Beispiel überquert das Auto unter strikter Einhaltung des Gesetzes nicht den doppelten Festkörper und riskiert eine Kollision mit einem Betrunkenen - obwohl sich auf der anderen Straßenseite nur ein leeres Robomobil befindet. Das Gesetz macht in bestimmten Notsituationen selten Ausnahmen, beispielsweise wenn eine Person auf die Straße fällt - und wenn dies der Fall ist, wie dies beispielsweise in Virginia der Fall ist, impliziert der Gesetzestext, dass das Überqueren eines doppelten Festkörpers legal ist, bis das Auto abstürzt ("Wenn eine solche Bewegung sicher gemacht werden kann"). In diesem Fall müssen sich die Entwickler entscheiden - in welchen Fällen ist es sicher, den doppelten Körper zu überqueren.Ein Robomobil ist sich selten zu 100% sicher, dass die Straße leer ist und Sie ohne Angst einen Doppelkörper überqueren können. Er wird das Konfidenzniveau mit 98% oder 99,99% bewerten. Die Ingenieure müssen im Voraus entscheiden, welches Maß an Vertrauen ausreicht, um einen Doppelkörper zu überqueren, und wie der akzeptable Wert variieren kann, je nachdem, was das Robomobil auf der Straße zu vermeiden versucht - ist es eine Plastiktüte oder ein gefallener Fußgänger.Robomobile treffen bereits Entscheidungen über die Möglichkeit eines Gesetzesverstoßes. Google gab zudass seine Autos die Geschwindigkeit überschreiten dürfen, um im Strom zu bleiben - wo Verlangsamung gefährlich ist. Die meisten Menschen würden es vorziehen, die Geschwindigkeit in verschiedenen Situationen zu überschreiten, beispielsweise wenn sie versuchen, ins Krankenhaus zu eilen. Chris Gerdes [Chris Gerdes] und Sarah Thornton von der Stanford University gegen die strikte Einbeziehung von Gesetzen in Entscheidungsalgorithmen, da die Fahrer die Gesetze als flexibel genug betrachten, um die Kosten für deren Aufhebung im Vergleich zum potenziellen Gewinn zu bewerten Geschwindigkeit. Niemand möchte mehrere Kilometer hinter einem Radfahrer herkriechen, weil Ihr Auto sich weigert, zumindest ein wenig nach einem doppelten Feststoff zu rufen.Und selbst wenn das Robomobil im Rahmen des Gesetzes bleibt, kann es viele kleine Entscheidungen treffen, die aus Sicherheitsgründen sensibel sind. In der Regel sind die Fahrspuren auf der Autobahn fast doppelt so breit wie bei einem typischen Auto. Mit dieser Breite können Fahrer Müll vermeiden oder sich von ungleichmäßig fahrenden Autos entfernen.Im Patent von 2014 entwickelt Google diese Idee und beschreibt, wie ein Robomobil auf einem Streifen platziert werden kann, um Risiken zu reduzieren. Das Unternehmen gibt ein Beispiel für ein Robomobil auf einer dreispurigen Straße mit einem LKW rechts und einem Kleinwagen links. Um die Sicherheit zu optimieren, sollte sich das Robomobil in einer kleinen Maschine etwas nach links und näher bewegt haben.Es sieht gesund aus und normalerweise tut es jeder - bewusst oder unbewusst. Es stellen sich jedoch ethische Fragen. Das Robomobil bewegte sich auf die kleine Maschine zu, reduzierte das Risiko, verteilte es jedoch ungleichmäßig. Sollte eine kleine Maschine ein größeres Risiko eingehen, nur weil sie klein ist? Wenn es um Präferenzen für einen bestimmten Fahrer ginge, würde er nichts bedeuten. Wenn eine solche Umverteilung jedoch formalisiert und auf alle Robomobile ausgedehnt wird, sind die Folgen schwerwiegender.In jedem Beispiel berücksichtigt das Robomobil mehrere Werte - den Wert des Objekts, das es treffen kann, und den Wert seines Passagiers. Menschen treffen Entscheidungen instinktiv, und der Roboter wird dies auf der Grundlage einer sorgfältig durchdachten Risikomanagementstrategie tun, die das Risiko als die Höhe des Schadens durch ein unerwünschtes Ereignis definiert, multipliziert mit seiner Wahrscheinlichkeit.Im Jahr 2014 patentierte Google auch eine Risikomanagement-Anwendung. Das Patent beschreibt eine Maschine, die sich möglicherweise für einen Umbau entscheidet, um die Ampel besser sehen zu können. Oder das Auto kann sich dafür entscheiden, auf der Fahrspur zu bleiben, um das Risiko einer Kollision zu vermeiden - beispielsweise aufgrund von Anzeigen eines fehlerhaften Sensors -, aber auf Kosten dieser wird die Sicht auf die Ampel schlecht. Dem Ergebnis einer der Entscheidungen wird die Wahrscheinlichkeit sowie der positive oder negative Wert (Vorteil oder Verlust) zugewiesen. Jeder Wert wird mit der Wahrscheinlichkeit multipliziert und die erhaltenen Werte können summiert werden. Wenn die Vorteile die Verluste weit genug überwiegen, wird die Maschine manövrieren.Das Problem ist, dass das Kollisionsrisiko sehr gering ist - der durchschnittliche Fahrer in den USA gerät alle 257.000 Kilometer oder alle 12 Jahre ( in Russland - alle 1,6 Jahre) in einen Unfall. Vielleicht liegt dieser Unterschied daran, dass in den USA die Menschen viel häufiger auf der Autobahn unterwegs sind - ca. Selbst wenn wir auf der Straße einen riesigen Datenstrom von Robomobilen erhalten, können wir daher sehr bald Schätzungen der Wahrscheinlichkeiten verschiedener Ereignisse erhalten.Noch schwieriger ist es, die Schadenskosten abzuschätzen. Sachschäden sind leicht einzuschätzen - Versicherer verfügen über umfangreiche Erfahrung in dieser Angelegenheit -, aber Verletzungen und Todesfälle sind eine andere Angelegenheit. Die Geschichte der Aneignung des Lebens einer Person von irgendeinem Wert hat viele Jahre und wird normalerweise in der Menge an Geld ausgedrückt, die ausgegeben werden könnte, um das durchschnittliche Opfer zu verhindern. Eine Sicherheitsverbesserung mit einer Chance von 1%, das Leben von 100 Menschen zu retten, ist ein durchschnittliches Opfer. Das Verkehrsministerium empfiehlt, 9,1 Millionen US-Dollar auszugeben, um Verluste zu vermeiden. Die Zahl wird aus Marketingdaten abgeleitet, einschließlich der Zulagen, die Personen für gefährliche Arbeiten benötigen, und der Beträge, die Personen bereit sind, für Sicherheitsausrüstung auszugeben - beispielsweise Rauchmelder. Sie müssen nicht nur die Sicherheit abwägen, sondern auch den Verlust an Mobilität oder Zeit.auf der Straße verbracht, die die Abteilung auf 26,44 $ pro Stunde schätzt.In Worten sieht alles schön aus. Die Risikobewertung in Bezug auf verlorene Leben und Zeit auf der Straße beinhaltet jedoch keine unterschiedlichen moralischen Einschätzungen darüber, wie wir Menschen gefährden. Zum Beispiel müsste ein Robomobil, das das Leben aller Menschen gleichermaßen bewertet, einem Motorradfahrer ohne Helm mehr Platz geben als einem Motorradfahrer in voller Ausrüstung, da erstere weniger wahrscheinlich überleben werden. Aber das ist unfair - kann man dafür bestrafen, dass man sich um seine Sicherheit kümmert?Ein weiterer Unterschied zwischen der Ethik von Robotern und Menschen besteht darin, dass die Ethik der ersteren von Programmierern auch aus gutem Grund verzerrt werden kann. Stellen Sie sich vor, der Algorithmus hat die Größe der Pufferzone für Fußgänger in verschiedenen Bereichen auf der Grundlage der Analyse der Höhe der Entschädigung für Ansprüche von Fußgängern bei einem Unfall angepasst. Einerseits ist es vernünftig, effizient und gut gemeint. Andererseits können kleinere Strafen vom Durchschnittseinkommen der Menschen in einem bestimmten Gebiet abhängen. Dann wird der Algorithmus die Armen bestrafen, indem er ihnen eine kleinere Pufferzone gibt, wodurch ihr Risiko, abgeschossen zu werden, leicht erhöht wird.Es besteht die Versuchung, Fragen wie rein akademische beiseite zu schieben, aber Sie können sie nicht umgehen, da Programme alles wörtlich nehmen. Sie müssen die Konsequenzen von Aktionen bewerten, bevor sie ausgeführt werden müssen - in der Entwicklungsphase und nicht in der Phase der Erstellung von Patches für Software.Teilweise aus diesem Grund verwenden Forscher hypothetische Situationen, in denen eine Maschine zwischen zwei Übeln wählen muss. Eine der bekanntesten Aufgaben dieser Art ist das Problem eines Wagens.Ein schwerer unkontrollierter Wagen wird auf Schienen getragen. Unterwegs sind fünf Leute von einem verrückten Philosophen an die Schienen gebunden. Glücklicherweise können Sie den Pfeil wechseln - und dann fährt der Wagen auf einer anderen, alternativen Route. Leider befindet sich eine Person auf dem Abstellgleis, die ebenfalls an Schienen gebunden ist. Was sind deine Handlungen?Wirst du ein Leben für mehrere opfern? Wenn nicht, werden aufgrund Ihrer Untätigkeit immer noch Menschen sterben. Wie können Sie mit diesem Widerspruch umgehen?Zu den Themen solcher Experimente wurden Bücher geschrieben, mit denen Sie einfache und direkte Systeme testen können, die sich mit ethischen Fragen befassen, und Bereiche finden, in denen es schön wäre, sich mit einigen Nuancen zu befassen. Angenommen, wir haben ein Robomobil programmiert, um Fußgänger um jeden Preis zu vermeiden. Wenn eine Fußgängerin plötzlich in einem zweispurigen Tunnel auftaucht und das Auto nicht rechtzeitig bremsen kann, muss sie die Spur verlassen, auch wenn sie einem Bus mit Passagieren im Weg steht. Die Wahrscheinlichkeit eines solchen Ereignisses ist nicht so wichtig wie das Problem, das es in der Logik des Roboterautos aufwirft - dass die absolute Überlegenheit des Wertes eines Fußgängers gegenüber allen anderen Personen, die die Fahrbahn benutzen, sehr gefährlich sein kann.Ethik in der Robotik ist eine lösbare Aufgabe. Wir wissen das, weil wir in anderen Bereichen bereits die Möglichkeit gefunden haben, ungefähr dieselben Risiken und Vorteile sicher und vernünftig zu handhaben. Spenderorgane werden an Patienten verteilt, basierend auf einer Metrik, die aus den potenziellen Lebensjahren und der Lebensqualität berechnet wird. Menschen aus solchen notwendigen Berufen wie Landwirt und Lehrer sind vom militärischen Entwurf befreit.Die Aufgaben von Robomobilen sind komplizierter. Sie müssen auf der Grundlage unvollständiger Informationen schnell entscheiden, in Situationen, in denen Programmierer möglicherweise keine Ethik vorausgesehen haben, die zu wörtlich in den Algorithmus integriert werden muss. Glücklicherweise erwarten die Menschen keine übermenschliche Weisheit von ihnen - nur eine rationale Rechtfertigung für das Handeln einer Maschine, die ethische Fragen bewertet. Die Lösung sollte nicht perfekt sein - aber nachdenklich und eine, die geschützt werden könnte.Source: https://habr.com/ru/post/de395143/
All Articles