Gefährliche Leichtigkeit, mit der Sie militärische künstliche Intelligenz täuschen können

Der KI-Krieg beginnt die Strategien der USA und Chinas zu dominieren, aber sind die Technologien dafür bereit?




Im März letzten Jahres kündigten chinesische Forscher ihre Absicht an, einen brillanten und möglicherweise verheerenden Angriff auf eines der wertvollsten technologischen Vermögenswerte Amerikas zu starten: das Tesla-Elektroauto.

Ein Team aus dem Sicherheitslabor des chinesischen Technologieriesen Tencent zeigte verschiedene Möglichkeiten auf, um Teslas KI-Algorithmus auszutricksen. Durch eine geringfügige Änderung der Daten, die an die Sensoren des Autos gesendet wurden, gelang es den Forschern, die KI, die das Auto fährt, zu verwirren.

In einem Fall gab es ein verstecktes Muster auf dem Fernsehbildschirm, das die Scheibenwischer zum Laufen brachte.
In einem anderen Fall wurden die Markierungen auf der Straße leicht geändert, um das autonome Fahrsystem zu verwirren. Danach wurde das Auto auf eine angrenzende Fahrspur verschoben.

Tesla-Algorithmen können Regentropfen normalerweise hervorragend auf der Windschutzscheibe erkennen oder den Straßenmarkierungen folgen, aber ihr Funktionsprinzip unterscheidet sich grundlegend von der menschlichen Wahrnehmung. Aus diesem Grund wird es überraschend einfach, Deep-Learning-Algorithmen zu täuschen (die in Bereichen wie Gesichtserkennung und Krebsdiagnose schnell an Popularität gewinnen), wenn Sie ihre Schwächen kennen.

Es scheint, dass in der Verwirrung des Tesla-Autos keine strategischen Bedrohungen für die Vereinigten Staaten bestehen. Aber was wäre, wenn ähnliche Technologien verwendet würden, um Kampfdrohnen oder Software zu täuschen, die Satellitenbilder analysiert, damit sie Objekte sehen, die nicht in den Bildern enthalten sind, oder nicht sehen, was es wirklich ist?

Die Anhäufung künstlicher Intelligenz


Überall auf der Welt gilt KI bereits als nächster Schritt, um einen bedeutenden militärischen Vorteil zu erzielen.

In diesem Jahr kündigten die Vereinigten Staaten die Umsetzung einer Strategie an, bei der KI in vielen militärischen Bereichen eingesetzt wird, darunter Datenanalyse, Entscheidungsfindung, autonome Fahrzeuge, Logistik und Waffen. Von den vom Verteidigungsministerium für 2020 beantragten 718 Milliarden US-Dollar fließen 927 Millionen US-Dollar in KI und maschinelles Lernen. Unter den bestehenden Projekten gibt es sowohl langweilige (Überprüfung, ob KI die Notwendigkeit der Wartung von Panzern und Lastwagen vorhersagen kann) als auch die fortschrittlichsten Dinge auf dem Gebiet der Rüstung (Schwärme von Drohnen).

Das Pentagon befürwortet den Einsatz von KI, insbesondere aus Angst, dass seine Technologie von seinen Gegnern genutzt werden könnte. Im vergangenen Jahr sandte Jim Mattis als Verteidigungsminister Präsident Donald Trump ein Memo mit der Warnung, dass die USA in KI-Angelegenheiten bereits hinterherhinken. Seine Angst kann verstanden werden.

Im Juli 2017 stellte China seine KI-Strategie vor und erklärte: „Die größten Industrieländer der Welt akzeptieren die KI-Entwicklung als Hauptstrategie zur Verbesserung der Wettbewerbsposition und zum Schutz der staatlichen Sicherheit.“ Einige Monate später machte Wladimir Putin, der Präsident Russlands, die folgende Vorhersage: „Jeder, der führend in der KI wird, wird die Welt regieren“ [ dies ist eine wörtliche Übersetzung der zitierten Passage aus dem Originalartikel. Aber wie so oft ist das Zitat verzerrt. Sie klang so : "Wenn jemand ein Monopol auf dem Gebiet der künstlichen Intelligenz sichern kann, dann verstehen wir alle die Konsequenzen - er wird der Herrscher der Welt" / ca. perev. ].

Der Wunsch, die intelligenteste und tödlichste Waffe zu bauen, kann verstanden werden, aber wie Teslas Hack zeigt, kann ein Feind, der die Prinzipien des KI-Algorithmus kennt, sie neutralisieren oder sogar gegen die Besitzer wenden. Das Geheimnis, um KI-Kriege zu gewinnen, besteht möglicherweise nicht darin, die beeindruckendsten Waffen zu bauen, sondern die Kunst der tückischen Software-Täuschung zu beherrschen.

Battle Bots


An einem strahlend sonnigen Tag, im letzten Sommer in Washington, DC, saß Michael Canaan im Café des Pentagon, aß ein Sandwich und war erstaunt über die neuen leistungsstarken Algorithmen für maschinelles Lernen.

Einige Wochen zuvor hatte Kanaan ein Videospiel gesehen, in dem fünf KI-Algorithmen zusammengearbeitet hatten, und fünf Personen in einem Wettbewerb, in dem sie Streitkräfte, Lager und Ressourcen kontrollieren mussten, die über ein großes und komplexes Schlachtfeld verstreut waren, fast geschlagen und überlistet. Kanaan runzelte jedoch die Stirn unter seinem kurz geschnittenen blonden Haar, als er beschrieb, was geschah. Es war die beeindruckendste Demonstration der KI-Strategie von allem, was er sah - ein unerwarteter KI-Ruck, ähnlich dem, der bei Schach, Spielen für Atari usw. passiert ist.

Diese Kämpfe wurden in Dota 2 ausgetragen, einem beliebten NF-Videospiel, das für Computer unglaublich komplex bleibt. Teams müssen ihr Territorium verteidigen, indem sie das feindliche Lager in einer Umgebung angreifen, die komplexer und tückischer ist als jedes Brettspiel. Spieler können nur einen kleinen Teil des gesamten Feldes sehen, und es kann ungefähr eine halbe Stunde dauern, um festzustellen, ob ihre Strategie gewinnt.

Die Gegner unter der Kontrolle der KI wurden nicht vom Militär entwickelt, sondern von OpenAI, das von den Größen des Silicon Valley, darunter Elon Mask und Sam Altman, gegründet wurde, um Grundlagenforschung auf dem Gebiet der KI durchzuführen. Diese algorithmischen Krieger, bekannt als OpenAI Five, entwickelten ihre eigene Gewinnstrategie, übten das Spiel unermüdlich und verwendeten Moves, die sich als die besten erwiesen.

Diese Art von Software interessiert Canaan, einen derjenigen, die KI zur Modernisierung der amerikanischen Armee einsetzen müssen. Aus seiner Sicht zeigt diese Software, welche Vorteile die Armee erhalten wird, indem sie die Hilfe führender Weltforscher auf dem Gebiet der KI in Anspruch nimmt. Ob sie jedoch bereit sind, dies zu tun - diese Frage wird immer akuter.

Kanaan leitete das United States Air Force Project Maven, eine militärische Initiative, die darauf abzielte, mithilfe von KI die Erkennung von Objekten in Luftbildern zu automatisieren. Google war der Auftragnehmer des Projekts, und als 2018 einige Mitarbeiter des Unternehmens davon erfuhren, beschloss das Unternehmen, dieses Projekt abzubrechen. Danach veröffentlichte das Unternehmen die Regeln für die Verwendung von KI, in denen es schrieb, dass Google seine KI nicht zur Entwicklung von „Waffen oder anderen Technologien verwenden wird, deren Hauptzweck oder Implementierungsmethode darin besteht, Menschen zu verletzen“.

Auf Google folgten Mitarbeiter anderer großer Technologieunternehmen, die die Arbeitgeber aufforderten, keine militärischen Verträge abzuschließen. Viele prominente KI-Forscher haben Versuche unterstützt, ein globales Verbot vollständig autonomer Waffen zu organisieren.

Für Kanaan wird es jedoch ein großes Problem sein, wenn das Militär nicht mit Forschern zusammenarbeiten kann - beispielsweise mit denen, die OpenAI Five entwickelt haben. Die Aussicht, in der der Gegner Zugang zu solch fortschrittlicher Technologie erhält, erscheint noch unangenehmer. "Der Code ist gemeinfrei, jeder kann ihn verwenden", sagte er. Und er fügte hinzu: Krieg ist viel komplizierter als ein Videospiel. “



KI-Anstieg


Kanaan betont die Frage mit der KI besonders, weil er aus erster Hand weiß, wie nützlich sie für das Militär sein kann. Vor sechs Jahren war er Geheimdienstoffizier in Afghanistan bei der US Air Force und verantwortlich für den Einsatz eines neuen Geräts zur Erfassung von Informationen: eines Hyperspektralanalysators. Dieses Werkzeug kann Objekte erkennen, die vor dem normalen Blickfeld verborgen sind, z. B. mit Tarnstoff bedeckte Tanks oder Emissionen einer illegalen Sprengstofffabrik. Kanaan sagt, dieses System habe es dem Militär ermöglicht, Tausende Kilogramm Sprengstoff vom Schlachtfeld zu entfernen. Dennoch konnten Analysten in der Praxis häufig nicht die riesigen Datenmengen analysieren, die vom Analysegerät erfasst wurden. "Wir haben zu viel Zeit damit verbracht, die Daten zu betrachten, und zu wenig Zeit damit, Entscheidungen zu treffen", sagt er. "Manchmal zog es sich so lange hin, dass wir darüber nachdachten, ob wir noch mehr Leben retten könnten."

Die Lösung ist ein Durchbruch im Bereich Computer Vision, den ein Team der University of Toronto unter der Leitung von Joffrey Hinton erzielt hat. Wissenschaftler haben gezeigt, dass ein Algorithmus, der von einem mehrschichtigen neuronalen Netzwerk inspiriert ist, Objekte mit beispielloser Genauigkeit erkennen kann, wenn Sie ihm genügend Daten und Rechenleistung zur Verfügung stellen.

Das Erlernen eines neuronalen Netzwerks bedeutet, dass es Daten, z. B. Bildpixel, empfängt und verarbeitet und dabei die internen Verbindungen im Netzwerk mithilfe mathematischer Techniken ständig ändert, sodass die Ausgabe so nah wie möglich an einem bestimmten Ergebnis liegt, z. B. um festzustellen, ob Bild des Objekts. Mit der Zeit lernen diese tief lernenden neuronalen Netze, Muster anhand von Pixeln zu erkennen, die beispielsweise Personen oder Häuser anzeigen. Durchbrüche im Deep Learning lösten den aktuellen KI-Boom aus. Diese Technologie ist die Grundlage für eigenständige Systeme für Tesla- und OpenAI-Algorithmen.

Kanaan erkannte sofort das Potenzial für tiefes Lernen, um verschiedene Arten von Bildern und Sensordaten für militärische Operationen zu verarbeiten. Er und seine Kollegen von der Luftwaffe begannen bald, die Behörden dazu zu bewegen, in diese Technologie zu investieren. Ihre Bemühungen trugen zur Weiterentwicklung der KI-Entwicklungspläne durch das Pentagon bei.

Kurz nachdem tiefes Lernen in das Gebiet der KI eingedrungen war, stellten die Forscher fest, dass die gleichen Eigenschaften, die es zu einem so mächtigen Werkzeug machen, auch die Achillesferse sind.

Wenn es möglich ist, zu berechnen, wie die Netzwerkparameter so angepasst werden, dass das Objekt korrekt klassifiziert wird, kann berechnet werden, welche minimalen Änderungen im Bild dazu führen können, dass das Netzwerk einen Fehler macht. In solchen „Wettbewerbsbeispielen“ sieht es nach dem Ändern von nur wenigen Pixeln des Bildes für eine Person gleich aus, wird jedoch vom KI-Algorithmus auf eine völlig andere Weise wahrgenommen. Das Problem kann überall dort auftreten, wo Deep Learning verwendet wird - beispielsweise bei der Verwaltung von Roboterfahrzeugen, der Planung von Missionen oder der Erkennung von Netzwerk-Hacks.

Und inmitten all dieser aktiven Zunahme des Einsatzes von KI für militärische Zwecke bemerken nur wenige Menschen die mysteriösen Schwachstellen in Software.

Ziele bewegen


Ein bemerkenswertes Objekt zeigt die volle Kraft des wettbewerbsfähigen maschinellen Lernens. Dies ist ein Bild eines Fehlers.

Es scheint mir oder Ihnen normal zu sein, aber sie sieht eine Drohne oder einen Roboter mit einem bestimmten Bildverarbeitungsalgorithmus, der durch tiefes Training erhalten wurde ... als Waffe. Tatsächlich kann das eindeutige Muster der Markierungen auf der Schildpatt überarbeitet werden, sodass AI-basiertes Computer Vision, auf das über den Cloud-Dienst von Google zugegriffen werden kann, es mit allem verwechselt (seitdem hat Google seinen Algorithmus aktualisiert und Sie können ihn nicht einfach täuschen )

Gleichzeitig wurde die Schildkröte nicht vom Staatsfeind hergestellt, sondern von vier Männern vom MIT. Einer von ihnen ist Anish Ataliy, ein schlaksiger und sehr höflicher junger Mann, der im Bereich Computersicherheit im Labor für Informatik und künstliche Intelligenz (CSAIL) arbeitet. Ein Video, das sich auf seinem Laptop dreht, zeigt den Prozess des Testens von Schildkröten (einige dieser Modelle wurden auf einer Konferenz gestohlen), die um 360 Grad gedreht und ebenfalls auf den Kopf gestellt wurden. Und der Algorithmus sieht dort dasselbe: "Schrotflinte", "Schrotflinte", "Schrotflinte".

Die frühesten Wettbewerbsbeispiele waren fragil und weigerten sich oft zu arbeiten, aber Ataliy und seine Freunde glaubten, dass sie eine ziemlich zuverlässige Version eines solchen Beispiels entwickeln könnten, das sogar auf einem auf einem 3D-Drucker gedruckten Objekt funktionieren könnte. Es war notwendig, dreidimensionale Objekte zu simulieren und einen Algorithmus zu entwickeln, der eine Schildkröte erzeugt - ein Wettbewerbsbeispiel, das aus verschiedenen Blickwinkeln und in verschiedenen Entfernungen funktioniert. Einfach ausgedrückt, sie haben einen Algorithmus entwickelt, der etwas schafft, das maschinelles Lernen zuverlässig täuscht.

Militärische Anwendungen dieser Technologie liegen auf der Hand. Mit Hilfe von Tarnalgorithmen können sich Panzer und Flugzeuge mit KI vor Satelliten und Drohnen verstecken. KI-Raketen können mit Wettbewerbsdaten blind werden oder sogar zu befreundeten Zielen zurückkehren. Die Informationen, die intelligenten Algorithmen zugeführt werden, können vergiftet werden, indem eine terroristische Bedrohung getarnt oder Soldaten in der realen Welt gefangen werden.

Atalya ist überrascht, wie wenig er sich um wettbewerbsfähiges maschinelles Lernen kümmert. "Ich habe mit einigen Leuten aus dieser Branche gesprochen und sie gefragt, ob sie sich Sorgen um Wettbewerbsbeispiele machen", sagt er. "Fast alle antworteten negativ."

Glücklicherweise fängt das Pentagon an, darauf zu achten. Im August kündigte das DARPA-Projekt den Start mehrerer großer KI-Forschungsprojekte an. Darunter befindet sich GARD, ein Programm, das sich auf wettbewerbsfähiges maschinelles Lernen konzentriert. Hawa Shigelman, Professor an der University of Massachusetts und Programmmanager des GARD, sagt, dass diese Angriffe in militärischen Situationen verheerend sein können, weil die Menschen sie nicht erkennen können. "Wir sind angeblich blind", sagt er. "Und das macht die Situation sehr gefährlich."

Konkurrierende Probleme beim maschinellen Lernen erklären auch, warum das Pentagon so gerne mit Unternehmen wie Google und Amazon sowie mit Forschungsinstituten wie dem MIT zusammenarbeitet. Die Technologie entwickelt sich sehr schnell und die neuesten Durchbrüche finden in Labors statt, die von Unternehmen aus dem Silicon Valley und den besten Universitäten betrieben werden, und nicht in gewöhnlichen Verteidigungsunternehmen.

Wichtig ist, dass sie auch außerhalb der USA auftreten, insbesondere in China. "Ich denke, eine andere Welt kommt", sagt Kanaan. "Und wir müssen es mit KI bekämpfen."

Die verärgerte Reaktion auf die Verwendung von KI für militärische Zwecke ist verständlich, zeigt jedoch möglicherweise nicht das gesamte Bild. Die Menschen sind besorgt über intelligente Killerroboter. Es ist jedoch möglich, dass wir eher einem algorithmischen Kriegsnebel ausgesetzt sind, durch den selbst die intelligentesten Maschinen nichts sehen können.

Source: https://habr.com/ru/post/de473856/


All Articles