Warum das Verbot autonomer Killerroboter nichts löst



Autonome Waffen - Killerroboter, die ohne menschliches Eingreifen angreifen können - dies ist ein sehr gefährliches Werkzeug. Daran besteht kein Zweifel. Wie in seinem offenen Brief an die UNO angegeben, unterzeichnete Ilon Musk, der unter ihm unterschrieb, Mustava Suleiman [ Mitbegründer der KI-Firma DeepMind / ca. perev. ] und anderen Autoren können autonome Waffen zu "Einschüchterungswaffen werden, Waffen, die Tyrannen und Terroristen gegen eine unschuldige Bevölkerung einsetzen können, Waffen, die gehackt und auf unerwünschte Weise zum Funktionieren gebracht werden können".

Dies bedeutet jedoch nicht, dass die Vereinten Nationen ein vorbeugendes Verbot der weiteren Erforschung solcher Waffen einführen sollten, wie die Autoren des Briefes fordern.

Erstens werden manchmal gefährliche Werkzeuge benötigt, um würdige Ziele zu erreichen. Erinnern Sie sich an den Völkermord in Ruanda, als die Welt bereit stand und nichts tat. Wenn es 1994 autonome Waffen gäbe, würden wir vielleicht nicht zur Seite schauen. Es ist wahrscheinlich, dass es einfacher wäre, öffentliche Unterstützung für solche Interventionen zu erhalten, wenn die Kosten für humanitäre Interventionen nur mit Geld gemessen werden könnten.

Zweitens ist es naiv zu glauben, dass wir die Vorteile der jüngsten Durchbrüche in der KI genießen können, ohne einige ihrer Mängel feststellen zu müssen. Angenommen, die UNO führt ein vorbeugendes Verbot jeglicher Technologie autonomer Waffen ein. Wir gehen auch - schon recht optimistisch - davon aus, dass alle Armeen der Welt dieses Verbot respektieren und die Entwicklung autonomer Waffenprogramme aufheben werden. Und selbst dann müssen wir uns noch darum kümmern. Ein Robomobil kann leicht in ein autonomes Waffensystem verwandelt werden: Anstatt Fußgänger zu umgehen, können Sie ihm beibringen, sie zu bewegen.

Im Allgemeinen sind KI-Technologien äußerst nützlich und dringen bereits in unser Leben ein, auch wenn wir dies manchmal nicht sehen und es nicht vollständig realisieren können. Angesichts dieser Durchdringung wäre es kurzsichtig zu glauben, dass der Missbrauch von Technologie einfach durch ein Verbot der Entwicklung autonomer Waffen verboten werden könnte. Vielleicht sind es gerade die ausgeklügelten und selektiv funktionierenden autonomen Waffensysteme, die von verschiedenen Armeen auf der ganzen Welt entwickelt wurden, die den raueren autonomen Waffen, die leicht zu entwickeln sind, durch Umprogrammierung der scheinbar friedlichen KI-Technologie wie der gleichen Robomobile wirksam entgegenwirken können.

Darüber hinaus bietet die Idee eines einfachen Verbots auf internationaler Ebene einen stark vereinfachten Ansatz für die Berücksichtigung autonomer Waffen. Ein solches Konzept erkennt nicht die lange Geschichte der Ursachen und Auswirkungen von Maßnahmen und Vereinbarungen verschiedener Länder untereinander und allein an, die durch Tausende kleiner Maßnahmen und Unterlassungen zur Entwicklung solcher Technologien geführt haben. Während die Debatte über autonome Waffen hauptsächlich auf UN-Ebene geführt wird, kann dem Durchschnittsbürger, Soldaten oder Programmierer vergeben werden, dass er keine moralischen Verpflichtungen für den durch autonome Waffen verursachten Schaden übernommen hat. Dies ist jedoch eine sehr gefährliche Annahme, die zu einer Katastrophe führen kann.

Alle Menschen, die in irgendeiner Weise mit automatischen Waffentechnologien verwandt sind, sollten die gebotene Sorgfalt walten lassen, und jeder von uns muss sorgfältig darüber nachdenken, welchen Beitrag sein Handeln oder seine Untätigkeit zur Liste der potenziellen Gefahren dieser Technologie leistet. Dies bedeutet nicht, dass Länder und internationale Agenturen ihre wichtige Rolle nicht spielen. Dies wird durch die Tatsache unterstrichen, dass, wenn wir die potenzielle Gefahr automatischer Waffen beseitigen wollen, die Ethik der persönlichen Verantwortung gefördert werden muss und diese Propaganda die niedrigsten Ebenen erreichen sollte, auf denen Entscheidungen getroffen werden. Zunächst ist es äußerst wichtig, ausführlich und vollständig über die Entwicklung autonomer Waffen zu sprechen - einschließlich der Konsequenzen des Handelns aller, die auf allen Ebenen Entscheidungen treffen.

Schließlich wird manchmal argumentiert, dass eine autonome Waffe nicht deshalb gefährlich ist, weil dieses Werkzeug an sich gefährlich ist, sondern weil es unabhängig werden und anfangen kann, in seinem eigenen Interesse zu handeln. Dies ist ein falscher Fehler, und außerdem wird das Verbot der Entwicklung autonomer Waffen nicht dazu beitragen, diese Gefahr zu verhindern. Wenn Superintelligenz eine Bedrohung für die Menschheit darstellt, müssen wir dringend nach Wegen suchen, um dieser Bedrohung wirksam entgegenzuwirken, und dies unabhängig davon, ob die Technologie der automatischen Waffen weiterentwickelt wird.

Offener Brief an das Übereinkommen der Vereinten Nationen über bestimmte konventionelle Waffen


Da einige Unternehmen Technologien im Zusammenhang mit künstlicher Intelligenz und Robotik entwickeln, die auf die Entwicklung autonomer Waffen umgeleitet werden können, fühlen wir uns besonders dafür verantwortlich, diesen Alarm auszulösen. Wir begrüßen die Entscheidung der UN-Konferenz über die Annahme des "Übereinkommens über bestimmte Arten konventioneller Waffen" zur Ernennung einer Gruppe von Regierungsexperten (Gruppe von Regierungsexperten, GGE) zu tödlichen autonomen Waffensystemen sehr. Viele unserer Forscher und Ingenieure sind bereit, technologische Ratschläge zu geben, um dieses Problem zu lösen.

Wir begrüßen die Ernennung von Botschafter Amandip Singh Gill aus Indien zum Vorsitzenden der GGE. Wir fordern die an der GGE beteiligten Hohen Vertragsparteien auf, aktiv daran zu arbeiten, Wege zu finden, um diese Art von Wettrüsten zu verhindern, die Bürger vor ihrem Missbrauch zu schützen und die destabilisierenden Auswirkungen dieser Technologien zu vermeiden. Wir bedauern, dass das erste GGE-Treffen, das für August 2017 geplant ist, abgesagt wurde, da einige Länder keinen finanziellen Beitrag zur UN geleistet haben. Wir fordern die Hohen Vertragsparteien nachdrücklich auf, ihre Bemühungen beim ersten GGE-Treffen im November zu verdoppeln.

Detaillierte autonome Waffen drohen eine dritte Revolution in militärischen Angelegenheiten herbeizuführen. Nach seiner Entwicklung wird es möglich sein, militärische Konflikte in einem bisher nicht gekannten Ausmaß und in kürzeren Zeiträumen als dem, was eine Person wahrnehmen kann, zu führen. Es kann eine Waffe der Einschüchterung werden, eine Waffe, die Tyrannen und Terroristen gegen eine unschuldige Bevölkerung einsetzen können, eine Waffe, die gehackt und auf unerwünschte Weise zum Funktionieren gebracht werden kann. Wir haben wenig Zeit übrig. Nach dem Öffnen der Büchse dieser Pandora wird es schwierig sein, sie zu schließen. Daher bitten wir die Hohen Vertragsparteien, Wege zu finden, um uns alle vor diesen Bedrohungen zu schützen.

Source: https://habr.com/ru/post/de409163/


All Articles