Wenn ein Roboter eine Person tötet, wer wird schuldig sein?

Bild

Wenn Sie nach Anzeichen einer bevorstehenden Apokalypse suchen, bei der die Roboter schuldig sein werden , achten Sie auf die entmilitarisierte Zone zwischen Nord- und Südkorea. Hier, entlang der am stärksten befestigten Grenze der Welt, sind mehr als nur Soldaten auf der Hut.


Lernen Sie den SGR-A1 kennen, einen von Samsung in Südkorea entwickelten Uhrenroboter. Die 1,2-Meter-Einheit sieht etwas größer aus als ein Paar schwarze Metallschuhkästen, aber ihre seelenlosen Augen, die mit Infrarotanschlüssen ausgestattet sind, können den Feind in einer Entfernung von bis zu vier Kilometern erkennen. Sein Maschinengewehr ist fertig. 

Bild

Derzeit benachrichtigt der Roboter seine Schöpfer über mutmaßliche Angreifer, die im Kontrollraum sitzen. Und damit er das Feuer eröffnen kann, ist die Zustimmung des Menschen notwendig. Dieser Roboter arbeitet aber auch im Automatikmodus und kann nach eigenem Ermessen zuerst schießen. Widerstand, meine Mitmenschen, ist nutzlos.

Das Pentagon und das Militär auf der ganzen Welt entwickeln eine zunehmend autonome Waffe, die weit über die ferngesteuerten Drohnen hinausgeht, die Washington in Pakistan, Afghanistan und anderen Ländern einsetzt. Dank des technologischen Fortschritts können diese neuen Waffentypen ein Ziel auswählen und ohne menschliche Zustimmung auf ein Ziel ihrer Wahl schießen. Einige sagen voraus, dass diese Roboter eines Tages Seite an Seite mit menschlichen Soldaten kämpfen werden.

Es überrascht nicht, dass die Nachricht von Robotern, die töten, manche Menschen nervös macht. Im April dieses Jahres startete eine internationale Koalition von Designern, Wissenschaftlern und Menschenrechtsverteidigern eine Kampagne gegen die Schaffung von Killerrobotern und appellierte an die Diplomaten der Vereinten Nationen in Genf. Aktivisten wollen die Entwicklung und den Einsatz von "tödlichen autonomen Waffen" verbieten, obwohl sie erkennen, dass solche Waffen, obwohl technisch möglich, nie eingesetzt wurden.  

"Es ist sinnvoll, eine Frage zu stellen: Wird der Wert des menschlichen Lebens durch die Tatsache sinken, dass Roboter Menschen töten dürfen?" Sagte Peter Asaro, Assistenzprofessor an der School of Media Studies in New York und Sprecher der Killer Robot Campaign.

Dies ist nur eine Frage, mit der Philosophen, Rechtswissenschaftler und Wissenschaftler seit jeher zu kämpfen haben, während sich die Welt auf den Ansturm neuer Roboter vorbereitet, die, wie man uns sagt, Rasen mähen, ältere Menschen pflegen und Kinder mit Autismus unterrichten werden und sogar unsere Autos fahren. Diese Roboter können nicht töten, aber Verkehrsbeamte wollen Regierungen und Gerichte dazu zwingen, eine Reihe von rechtlichen und ethischen Fragen zu berücksichtigen. Wen soll ich verklagen, wenn ich von einem Auto ohne Fahrer angefahren werde? Was ist, wenn der medizinische Roboter dem Patienten das falsche Medikament gibt? Was soll ich tun, wenn ein Roboterstaubsauger versehentlich an meinen Haaren saugt, während ich auf dem Boden döste (wie es tatsächlich einer Frau in Südkorea vor nicht allzu langer Zeit passiert ist)? Kann ein Roboter ein Kriegsverbrechen begehen?

Es ist diese letzte Frage, die Professor Asaro am meisten beunruhigt. Er und andere Mitglieder der Human Rights Watch-Koalition behaupten, dass es sehr schwierig sein wird, die Situation unter Kontrolle zu halten, wenn ein autonomes Computersystem, das zur Unterscheidung feindlicher Soldaten von Zivilisten programmiert ist, tatsächlich ohne „menschliche Zustimmung“ den Abzug drückt Kontrolle, wenn etwas schief geht.

Wenn ein Roboter abstürzt und ein ganzes Dorf tötet, können Sie ein lebloses Objekt nicht vor den Internationalen Strafgerichtshof stellen oder einem Militärfeldgericht übergeben. Und einige Experten sagen, dass Sie selbst Roboterentwicklern nicht die Schuld geben können, wenn sie nicht davon ausgehen, dass der Roboter verrückt werden könnte. 

Im Strafrecht müssen Gerichte das finden, was als Männerrea oder Schuldwille (aus dem Lateinischen) bekannt ist. Es ist jedoch unwahrscheinlich, dass sie Informationen finden, dass der Roboter - bei dem gegenwärtigen Entwicklungsstand der künstlichen Intelligenz - im Prinzip einen Willen hat. Roboterkonstrukteure können haftbar gemacht werden, wenn festgestellt wird, dass der Roboter aufgrund einer Fehlfunktion im Programm außer Kontrolle geraten ist. Sie können jedoch nicht für die Handlungen des Killerroboters zur Verantwortung gezogen werden.

Diese Killerroboter können wie alles aussehen, von autonomen Drohnen bis hin zu Roboterrovern mit Maschinengewehren. In einer Richtlinie von 2012 entschied das US-Verteidigungsministerium, dass autonome Systeme "so konzipiert sein sollten, dass Kommandeure und Betreiber ein angemessenes Maß an menschlicher Kontrolle über die Anwendung von Gewalt ausüben können". Auf eine E-Mail von einer Frage von The Globe and Mail antwortete das kanadische Verteidigungsministerium, dass "keine autonome tödliche Waffe entwickelt wird", aber ihre Forschungsagentur aktiv an einem "Forschungsprogramm für unbemannte Systeme" beteiligt ist.

Mindestens ein Robotikunternehmen, Waterloo, Clearpath Robotics Inc. mit Sitz in Ontario, hat sich gegen Killerroboter ausgesprochen, obwohl es Roboter für das kanadische und US-amerikanische Militär entwickelt hat. Ryan Gariepie, Mitbegründer von ClearPath und dessen Chief Technology Officer, sagte, dass Minenräumung oder Überwachung, aber nicht Töten, eine gute Verwendung für autonome Kampfroboter sei, insbesondere wenn sich solche Fahrzeuge nur auf einer Seite des Kampfes befinden: „Können Roboter entscheiden, wer sie tragen kann? "Todesurteil? Hat eine Person das Recht, auf diese Weise das Leben feindlicher Soldaten zu nehmen?"

Die Diskussion um Robotermörder dreht sich unweigerlich um die „drei Gesetze der Robotik“ aus den Geschichten des Science-Fiction-Schriftstellers Isaac Asimov. Das erste Gesetz verbietet Robotern, Menschen zu verletzen. der zweite befiehlt ihnen, den Menschen nur zu gehorchen, wenn dies nicht dem ersten Gesetz widerspricht; Der dritte befiehlt den Robotern, ihr eigenes Leben zu schützen - vorausgesetzt, dies verstößt nicht gegen die ersten beiden Gesetze. Die meisten Experten sagen jedoch, dass diese Gesetze in der realen Welt von geringem Nutzen sein werden: Selbst Asimov zeigt ihre Mängel in seinen Geschichten. 

Professor Ronald Arkin vom Georgia Institute of Technology, ein bekannter amerikanischer Roboterdesigner, der an Pentagon-Projekten arbeitet, behauptet jedoch, dass Killerroboter oder andere automatisierte Waffensysteme so programmiert werden können, dass sie den Kriegsgesetzen folgen - und ihnen besser folgen als Menschen . Ein Roboter, sagt er, wird niemals schießen, um sein Leben zu verteidigen oder aus Angst. Er wird Zugang zu Informationen und Daten haben, die kein menschlicher Soldat so schnell verarbeiten kann, was einen Fehler in der Hitze des Kampfes weniger wahrscheinlich macht. Er wird niemals absichtlich Zivilisten töten, um sich für den Tod eines Kameraden zu rächen. Und er kann die Soldaten wirklich beobachten, damit sie keine Gräueltaten begehen.

Professor Arkin behauptet auch, dass autonome Technologie im Wesentlichen bereits auf dem Schlachtfeld ist. Ihm zufolge wählen US-Patriot-Raketenbatterien automatisch Ziele aus und geben einer Person bis zu neun Sekunden Zeit, um das Ziel abzubrechen und die Rakete zu stoppen. Das Phalanx-System der US-Marine schützt Schiffe, indem es automatisch Raketen abschießt.

Aber selbst sie benötigen ein Moratorium für die Entwicklung autonomerer Waffen, solange nachgewiesen werden kann, dass sie die Opfer unter der Zivilbevölkerung verringern können. „Niemand will das Erscheinen des Terminators. Wer möchte ein System haben, das auf Mission geschickt werden kann und das unabhängig entscheidet, wer getötet werden muss? - sagt Professor Arkin. "Diese Systeme müssen sehr sorgfältig und sorgfältig entwickelt werden, und ich denke, es gibt Möglichkeiten, dies zu tun."

In letzter Zeit sind große Technologieunternehmen zunehmend besorgt über künstliche Intelligenz. Der Physiker Stephen Hawking warnte, dass das Aufkommen der KI "das Ende der Menschheit bedeuten könnte". Elon Musk, der Gründer von Tesla Motors, bezeichnete AI als "existenzielle Bedrohung" - nicht weniger gefährlich als Atomwaffen. Bill Gates, Gründer von Microsoft, ist ebenfalls besorgt.

Menschen, die wirklich an künstlicher Intelligenz arbeiten, sagen, dass es etwas gibt, worüber sie sich Sorgen machen müssen. Yoshua Bengio, ein führender KI-Forscher an der Universität von Montreal, stellt fest, dass die Fiktion von Star Wars und Star Trek die Fähigkeiten von Robotern und künstlicher Intelligenz stark überschätzt. Eines Tages könnten wir Maschinen bauen, die mit dem menschlichen Gehirn konkurrieren würden. Aber jetzt ist die KI noch nicht so entwickelt.

Es muss noch viel mehr getan werden, bevor die Roboter zu dem werden, was Sie in den Filmen sehen “, sagt Professor Bengio. - Wir sind noch weit davon entfernt, das Verständnis für die Welt zu erreichen, das wir beispielsweise von einem fünfjährigen Kind oder sogar einem Erwachsenen erwarten. Und um dieses Ziel zu erreichen, kann es Jahrzehnte oder länger dauern. Wir können nicht einmal die Intelligenz auf Mausebene wiederholen.


Ohne Zweifel ist die Entwicklung von Hardware und Software für Roboter ständig im Gange.

Die von Boston Dynamics entwickelten Roboter, die kürzlich von Google erworben wurden, können über Hunde wie Hunde huschen und wie Ratten in einem Katastrophengebiet kriechen. 



Ein Roboterhund namens Spot kann nach dem Schlagen auf den Beinen stehen und seine Metallbeine sehen unheimlich realistisch aus.  



Aber wenn Sie befürchten, dass eine Killerroboter-Revolution unvermeidlich ist, kann Atlas, ein 300 kg schwerer humanoider Roboter, Ihnen helfen, sich zu beruhigen. Es wurde ebenfalls von Boston Dynamics entwickelt und kann Treppen und Steine ​​hinaufgehen. Es sieht aus wie der Cyberman von Doctor Who, eine von Apple entwickelte Serie. Sein Akku hält jedoch nur 1 Stunde.



Laut Jan Kerr, Leiter der Abteilung für Ethik, Recht und Technologie an der Universität von Ottawa, werden die Menschen nach und nach die Kontrolle über Maschinen mit künstlicher Intelligenz übernehmen - Computer, die bestimmte Dinge letztendlich besser können als wir. Obwohl es einige Zeit dauern wird, bis Autos auftauchen, die keinen Fahrer benötigen, gibt es bereits Autos, die alleine parken können. IBM Watson Robot von International Business Machines Corp., der das Jeopardy-Quiz gewonnen hat! 2011 werden derzeit Millionen Seiten medizinischer Forschung analysiert, um Verfahren für Krebspatienten zu empfehlen.

— ...  - , , , , , - . — , , , … , , .

Source: https://habr.com/ru/post/de381437/


All Articles