Google DeepMind brachte AI bei, Objekte auf einen Blick zu erkennen
Es ist bekannt, dass künstliche Intelligenz Tausende von Beispielen benötigt, um zu lernen, wie man neue Objekte erkennt. Dabei ist er einer Person mit seiner Fähigkeit, eine Klasse von Objekten von einem Vertreter zu erkennen, deutlich unterlegen. Darüber hinaus ist das Trainieren eines neuronalen Netzwerks sehr zeitaufwändig. Unternehmen DeepMind , das Gerät Google mit der Entwicklung auf dem Gebiet der künstlichen Intelligenz zu tun, hat herausgefunden , einen Weg , um diesen.Die Forscher von DeepMind haben mehrere Korrekturen für den Deep-Learning-Algorithmus vorgenommen, der es ihm ermöglicht, Objekte in Bildern oder anderen Dingen anhand eines Beispiels anhand der Verbindungen zwischen einem neuronalen Netzwerk und einem externen Speicher zu erkennen. Diese Technologie wird als einmaliges Training bezeichnet. Das Entwicklungsteam demonstrierte die Arbeit dieser Methode an einer großen Datenbank von Bildern mit Tags sowie in Schrift und Sprache.Die besten Algorithmen können Objekte zuverlässig erkennen, benötigen dafür jedoch viel Daten und Zeit. Der Algorithmus, der darauf trainiert ist, Autos auf der Straße zu erkennen, muss mehrere tausend Beispiele untersuchen, um in einem Auto mit Autopilot sicher arbeiten zu können. Das Sammeln so vieler Daten ist oft unpraktisch: Ein Roboter, der Ihnen beim Navigieren in einem unbekannten Bereich helfen soll, sollte nicht viel Zeit mit Lernen verbringen.Um dies zu beheben, fügte der DeepMind-Forscher Oriol Vinyals dem Deep-Learning-System eine Speicherkomponente hinzu - eine Art neuronales Netzwerk, das darauf trainiert ist, Dinge durch Anpassen einer Vielzahl miteinander verbundener Schichten zu erkennen. Seine Arbeit ähnelt Neuronen im menschlichen Gehirn. Damit ein solches Netzwerk effizient funktioniert, müssen viele Bilder angezeigt werden, um die Verbindung zwischen virtuellen Neuronen zu optimieren.Das DeepMind-Team demonstrierte die Funktionen des aktualisierten Systems basierend auf der ImageNet- Datenbank , die von Wissenschaftlern der Stanford and Princeton University entwickelt wurde. Es ist nach der Hierarchie der lexikalischen Datenbank des englischsprachigen WordNet organisiertRichtig, bisher funktioniert es nur mit Substantiven. Mit der neuen Software muss die künstliche Intelligenz noch mehrere hundert Bildkategorien analysieren, danach kann sie lernen, neue Objekte aus einem einzigen Bild zu erkennen. Der Algorithmus bestimmt effektiv die Eigenschaften des Objekts, die es einzigartig machen. Die Erkennungsgenauigkeit von ImageNet verbesserte sich im Vergleich zu konkurrierenden Ansätzen von 87,6% auf 93,2%.
Die neuronale Netzwerkarchitektur
von Vinyals besagt, dass ihre Entwicklung besonders nützlich sein wird, um die Bedeutung neuer Wörter zu erkennen. Er glaubt, dass dies für Google wichtig sein wird, da der Algorithmus es dem System ermöglicht, die Bedeutung neuer Suchkriterien schnell zu untersuchen."Ich denke, dies ist ein sehr interessanter Ansatz, mit dem Sie Netzwerke gleichzeitig mit einer so großen Datenmenge trainieren können", sagte Sang Wang Lee, Leiter des Labors für Gehirn- und Maschinenintelligenz am Korea Advanced Technology Institute ( KAIST)) Andere Wissenschaftler haben es jedoch nicht eilig, die Leistung des DeepMind-Teams zu loben. Sie stehen seiner Nützlichkeit skeptisch gegenüber, da die vorgestellte Methode noch weit von der Geschwindigkeit des menschlichen Lernens entfernt ist. Wie Sam Gershman, ein Assistenzprofessor an der Harvard Brain Department, zu Recht betont hat, tun Menschen, die lernen, ein Bild aus seinen Bestandteilen zusammenzusetzen, dies auf der Grundlage der Kenntnis der Welt oder des gesunden Menschenverstandes. Das heißt, ein Segway kann ganz anders aussehen als ein Fahrrad oder Motorrad, kann aber aus denselben Teilen zusammengebaut werden. Beide Wissenschaftler sind sich einig, dass es lange dauern wird, bis maschinelle Intelligenz menschliche Fähigkeiten erreicht.Die Wissenschaft ist noch weit davon entfernt, die Geheimnisse des „einmaligen“ Trainings des menschlichen Gehirns zu enthüllen. Die Leistung von Forschern von Google setzt jedoch neue Ziele für Wissenschaftler, die weitere Untersuchungen verdienen.Die Technologie des „einmaligen“ Trainings war bisher bekannt, wurde jedoch nicht für die Arbeit mit Deep-Learning-Algorithmen angepasst. In einem Schulungsprojekt im letzten Jahr wurden probabilistische Programmiertechniken verwendet , die diese Technologie umfassten. Tatsächlich erzeugte das Programm einen eindeutigen Algorithmus für jedes Zeichen unter Verwendung der Striche eines imaginären Stifts. Die Software ahmte das Schreiben und Lesen des Kindes nicht nach, ähnelte jedoch der Vorgehensweise von Erwachsenen beim Erlernen einer neuen Sprache.Systeme der eingehenden Untersuchung werden viel leistungsfähiger, wenn wir die Mechanismen des Auswendiglernen hinzufügen. Eine weitere Gruppe bei Google DeepMind hat sich kürzlich entwickeltEin Netzwerk mit Arbeitsspeicher ist ein differenzierbarer neuronaler Computer. Er kann nicht nur komplexe Aufgaben ausführen, sondern auch entscheiden, welche Informationen in seinem Gedächtnis bleiben sollen. Nachdem AI einige einfachere Netzwerkdiagramme studiert hatte, lernte AI, im Londoner U-Bahn-System zu navigieren. Wie ein normaler Computer verwendet ein solches Netzwerk seinen Speicher, um komplexe Datenstrukturen zu verwalten. Gleichzeitig kann das System wie ein neuronales Netzwerk auf der Basis von Daten trainiert werden. Wissenschaftler haben große Hoffnungen auf einen differenzierbaren neuronalen Computer. Eine verbesserte Version eines solchen Computers kann Wikipedia scannen, sich alle wichtigen Namen, Orte und Daten merken und dieses Wissen auf völlig neue Weise nutzen.Source: https://habr.com/ru/post/de399015/
All Articles