Militärische Drohnen sind sehr "intelligent", einige bedienen den Bediener nur von Zeit zu Zeit und den Rest der Zeit erledigen sie die Aufgabe selbstständigTechnologien für künstliche Intelligenz wachsen rasant. Fachleute haben der KI viel beigebracht, jetzt funktioniert ihre schwache Form (stark, glücklicherweise oder leider noch nicht geschaffen) in Industrie, Schifffahrt, Unterhaltung und vielen anderen Branchen. Aber was ist mit militärischen Angelegenheiten? Ja, KI wird auch hier verwendet, weil eine vorausschauende Analyse der Flugbahn einer Rakete oder eines Fahrzeugs, feindliche Aktionen, die Entwicklung einer eigenen Strategie - künstliche Intelligenz kann all dies bewältigen.
Aber was ist, wenn Sie KI einer beliebigen Stufe in eine Waffe einbauen, wird sie dann nicht effektiver? Höchstwahrscheinlich wird es sehr "produktiv". Aber hier tauchen bereits ethische Fragen auf. Kann eine Maschine das Schicksal von Menschen kontrollieren? Viele Technologieexperten glauben, dass dies nicht der Fall ist. Und diese "vielen" haben kürzlich eine Erklärung unterzeichnet - eine Art Versprechen, niemals an der Entwicklung intelligenter Waffen teilzunehmen.
Unter anderen Spezialisten,
die an der Erstellung und Unterzeichnung der Erklärung beteiligt waren, waren Elon Musk, Vertreter von DeepMInd und Mitarbeiter vieler anderer Unternehmen, bei denen Fragen der künstlichen Intelligenz auf die eine oder andere Weise angesprochen werden. Laut einer Gruppe von Wissenschaftlern und Unternehmern, die ihre Unterschriften im Rahmen des Memorandums hinterlassen haben, ist es Sache der anderen Person, zu entscheiden, ob sie die Person tötet oder nicht, und nicht die Maschine. Und die Last dieser Entscheidung liegt auf den Schultern desjenigen, der sie getroffen hat.
Bei der Maschine gibt es keine moralischen Bedenken - das System wurde zum Beispiel eingesetzt, um während des Krieges Landstraßen zu kämmen, und es schießt Feinde ab, wie die Computereinheit dem
Gewissen mitteilt. Experten zufolge kann die Entwicklung intelligenter Waffen mit KI-Elementen sowohl für jedes Land als auch für seine Bürger zu einem destabilisierenden Faktor werden.
Der Text der Erklärung zum Einsatz von KI bei der Herstellung von Waffen wurde nach der IJCAI-Konferenz (Internationale Gemeinsame Konferenz für Künstliche Intelligenz) in Stockholm veröffentlicht. Es wurde vom Future of Life Institute organisiert. Er untersucht die Risiken menschlicher Existenz. Das Institut hatte zuvor gefordert, die Idee der Schaffung einer intelligenten tödlichen Waffe aufzugeben. Jetzt hat diese Idee Verständnis gefunden und beginnt sich weiter zu verbreiten.
Zu den Unterzeichnern zählen der Leiter von SpaceX und Tesla, Ilon Musk, die drei Mitbegründer der Google-Tochter DeepMind, der Erfinder von Skype, Jaan Tallinn, sowie die weltberühmten Technologieforscher der künstlichen Intelligenz Stuart Russell, Joshua Benggio und Jürgen Schmidhuber.

Separat unterzeichnete Unterzeichner stellten fest, dass ihre gemeinsame Initiative dazu beitragen sollte, von Worten zu Taten überzugehen, um intelligente tödliche Waffen aufzugeben. Nein, niemand wird eine Revolution organisieren. Die Hauptaufgabe besteht darin, die Gefahr einer schrittweisen Intellektualisierung von Waffen jeglicher Art aufzuzeigen. „Eine Waffe, die unabhängig entscheidet, wer getötet werden soll, ist eine widerliche und destabilisierende Idee, wie eine biologische Waffe. Die Idee intelligenter Waffen sollte genauso behandelt werden wie biologische Waffen. “
Hier gibt es jedoch eine Schwierigkeit. Tatsache ist, dass es ziemlich schwierig ist, eine wirklich autonome und „intelligente“ Waffe von einer zu unterscheiden, die keine ist. Die Geisterlinie. Wenn konventionelle High-Tech-Waffen nicht mehr dumm sind, werden Sie klüger und entscheiden, wen Sie am Leben erhalten und wen Sie töten wollen? Automatischer Turm, der das Aussehen von Menschen durch Wärmestrahlung verfolgt - ist es möglich, eine solche Waffe zu verwenden? Und gibt es einen großen Unterschied zwischen intelligenten und konventionellen Waffen, wenn derselbe Turm automatisch ausgerichtet wird und eine Person nur auf den Abzug drückt?
Darüber hinaus war die Erklärung selbst verspätet - etwa 30 verschiedene Länder sind mit tödlichen Systemen bewaffnet, die mit oder ohne Dehnung, aber als intelligent bezeichnet werden können.
Interessant ist übrigens, dass die Entwickler von Google buchstäblich
rebellierten, als sie hörten, dass das Unternehmen autonome Systeme für das Pentagon entwickeln würde. Nämlich - nicht tödliche Drohne mit KI.
Wenn man über intelligente Waffen und ihre Zukunft spricht, muss man sich an eine Science-Fiction-Geschichte erinnern (Autor und Name, an die ich mich leider nicht erinnere), in der ein vernünftiger Sprengkopf mit einem Intelligenzniveau wie dem eines 5-jährigen Kindes geschickt wurde, um einen Auftrag abzuschließen. Aber als sie sich einer feindlichen Basis näherte, stellte sie fest, dass dort Menschen leben, genau wie auf ihrer eigenen Basis. Als sie dies erkannte, beschloss sie, ihrem Schöpfer über alles zu berichten und machte einen Rückflug. Die Geschichte endet mit der Tatsache, dass die Rakete in das Fenster des Hauses fliegt, in dem ihr Schöpfer lebt, aber aus offensichtlichen Gründen keine Zeit hat, etwas zu erzählen.