
Seit der Zeit von Da Vincis
Ornithopera haben sich die größten Köpfe der Menschheit von der natürlichen Welt inspirieren lassen. In der modernen Welt hat sich nichts geändert, und die neuesten Errungenschaften im Bereich maschinelles Lernen und künstliche Intelligenz wurden auf der Grundlage des fortschrittlichsten Computerorgans geschaffen: des menschlichen Gehirns.
Die Nachahmung unserer grauen Substanz ist nicht nur eine gute Idee, um eine fortgeschrittenere KI zu schaffen. Dies ist für ihre Weiterentwicklung unbedingt erforderlich. Deep Learning-basierte neuronale Netze wie die von
AlphaGo sowie die moderne Generation von
Mustererkennungs- und
Übersetzungssystemen sind die besten maschinellen Lernsysteme, die wir bisher entwickelt haben. Sie sind zu unglaublichen Dingen fähig, stehen aber immer noch vor bedeutenden technologischen Herausforderungen. Zum Beispiel die Tatsache, dass sie direkten Zugriff auf große Datenmengen benötigen, um eine bestimmte Fähigkeit zu erlernen. Wenn Sie ein neuronales Netzwerk neu trainieren möchten, um eine neue Aufgabe auszuführen, müssen Sie im Wesentlichen seinen Speicher löschen und von vorne beginnen - ein Prozess, der als „katastrophales Vergessen“ bezeichnet wird.
Vergleichen Sie dies mit dem Gehirn einer Person, die allmählich lernt und nicht sofort aus einem Datenstapel gebildet erscheint. Dies ist ein grundlegender Unterschied: AIs, die auf tiefem Lernen basieren, werden von oben nach unten generiert und wissen von Anfang an alles, was Sie brauchen, während der menschliche Geist von Grund auf neu aufgebaut wird, wenn frühere Lektionen, die auf neue Erfahrungen anwendbar sind, verwendet werden, um neues Wissen zu schaffen.
Darüber hinaus ist der menschliche Verstand besonders gut darin, relationales Denken auf der Grundlage von Logik durchzuführen und Verbindungen zwischen früheren Erfahrungen aufzubauen, um neue Situationen im laufenden Betrieb zu verstehen. Statistische KI (d. H. Maschinelles Lernen) kann Gehirnfähigkeiten bei der Mustererkennung imitieren, funktioniert jedoch nicht, wenn Logik angewendet wird. Symbolische KI hingegen kann Logik verwenden (vorausgesetzt, er wurde in den Regeln dieses Argumentationssystems geschult), kann diese Fähigkeit jedoch normalerweise nicht in Echtzeit anwenden.
Was aber, wenn wir die beste Rechenflexibilität des menschlichen Gehirns mit den
leistungsstarken KI-Verarbeitungsfunktionen kombinieren
können ? Genau das hat das Team von DeepMind versucht. Sie haben ein neuronales Netzwerk geschaffen, das in der Lage ist, relationale Argumente auf ihre Aufgaben anzuwenden. Es funktioniert ähnlich wie ein Netzwerk von Gehirnneuronen. Während Neuronen unterschiedliche Beziehungen zueinander verwenden, um Muster zu erkennen: „Wir lassen das Netzwerk die Beziehungen zwischen Objektpaaren in diesem Szenario eindeutig erkennen“, sagte Timothy Lillycrap, Wissenschaftler bei DeepMind, gegenüber dem
Science Magazine .
Als sie im Juni
mit komplexen Fragen zu den relativen Positionen geometrischer Objekte in einem Bild beauftragt wurde, zum Beispiel: „Befindet sich ein Objekt vor einem blauen Objekt, hat es die gleiche Form wie ein kleines blaues Objekt rechts von einer grauen Metallkugel?“ - In 96% der Fälle hat sie das Objekt korrekt identifiziert. Herkömmliche maschinelle Lernsysteme lieferten in 42 - 77% der Fälle die richtige Lösung. Sogar Menschen haben den Test in nur 92% der Fälle bestanden. Das ist richtig, diese
hybride KI macht einen besseren Job als die Leute, die sie gebaut haben.
Die Ergebnisse waren die gleichen, als AI Probleme mit dem Wort präsentierte. Obwohl herkömmliche Systeme DeepMind in einfachen Fragen wie „Sarah hat den Ball. Sarah betritt ihr Büro. Wo ist der Ball? " Das hybride KI-System war in komplexeren Fragen wie „Lily ist ein Schwan. Lily ist weiß. Greg ist ein Schwan. Was ist Gregs Farbe? " DeepMind hat sie in 98% der Fälle richtig beantwortet, verglichen mit etwa 45% der Wettbewerber.

DeepMind arbeitet sogar mit einem System, das
sich wichtige Informationen „merkt“ und dieses gesammelte Wissen auf zukünftige Anforderungen anwendet. IBM macht jedoch zwei weitere Schritte vorwärts. In zwei Forschungsarbeiten, die letzte Woche auf der
Internationalen Kollaborativen Konferenz für künstliche Intelligenz 2017 in Melbourne, Australien, vorgestellt wurden, präsentierte IBM zwei Studien: eine, in der untersucht wurde,
wie KI-Aufmerksamkeit erregt werden kann, und die andere, in der untersucht wird die Frage der
Anwendung des biologischen Prozesses der Neurogenese ,
dh der Geburt und des Todes von Neuronen, für maschinelle Lernsysteme.
„Das Training für neuronale Netze ist normalerweise so konzipiert, dass viel Arbeit erforderlich ist, um eine bestimmte Architektur zu erstellen, die am besten funktioniert. Es ist fast eine Versuch-und-Irrtum-Methode “, sagte Iradget Irina Rish, eine IBM-Forscherin. "Es wäre schön, wenn diese Netzwerke sich selbst aufbauen könnten."
Der IBM Attention Algorithm informiert das neuronale Netzwerk darüber, welche Eingaben die höchste Belohnung bieten. Je höher die Belohnung, desto mehr Aufmerksamkeit wird das Netzwerk ihnen schenken. Dies ist besonders nützlich in Situationen, in denen der Datensatz nicht statisch ist, dh im wirklichen Leben. "Aufmerksamkeit ist ein belohnungsbasierter Mechanismus, der nicht nur nicht mit der Entscheidungsfindung und unseren Handlungen zusammenhängt", sagte Rish.
"Wir wissen, dass das menschliche Auge normalerweise ein sehr kleines Sichtfeld hat, wenn wir ein Bild sehen", sagte Rish. „Abhängig von der Auflösung sehen Sie nur wenige Pixel des Bildes [scharf], aber alles andere sieht verschwommen aus. Tatsache ist, dass Sie Ihre Augen schnell bewegen und der Mechanismus zum Zusammenfügen verschiedener Teile zu einem Bild in der richtigen Reihenfolge es Ihnen ermöglicht, das Bild schnell zu erkennen. “

Die erste Verwendung der Aufmerksamkeitsfunktion erfolgt wahrscheinlich in der Mustererkennung, obwohl sie in verschiedenen Bereichen verwendet werden kann. Wenn Sie beispielsweise KI mithilfe des
Oxford-Datensatzes trainieren, bei dem es sich hauptsächlich um Architekturbilder handelt, können Stadtlandschaften leicht korrekt identifiziert werden. Wenn Sie ihm jedoch ein paar Bilder vom Land zeigen (Felder und Blumen usw.), ist die KI verwirrt, weil er nicht weiß, was Blumen sind. Und wenn Sie dieselben Tests mit Menschen und Tieren durchführen, stimulieren Sie die Neurogenese, da ihr Gehirn versucht, das, was sie bereits über Städte wissen, an die neuen Landschaften des Landes anzupassen.
Der Mechanismus teilt dem System mit, worauf es sich konzentrieren soll. Nehmen Sie zum Beispiel Ihren Arzt, er kann Hunderte von möglichen Tests für Sie durchführen, um festzustellen, was Sie stört. Dies ist jedoch nicht möglich: weder rechtzeitig noch zu angemessenen Preisen. Also, welche Fragen sollte sie stellen und welche Tests sollten durchgeführt werden, um die beste Diagnose in kürzester Zeit zu erhalten? "Dies ist, was der Algorithmus zu lernen lernt", erklärte Rich. Er bestimmt nicht nur, welche Lösung zum besten Ergebnis führt, sondern findet auch heraus, wo nach Daten gesucht werden muss. Somit trifft das System nicht nur korrektere Entscheidungen, sondern beschleunigt sie auch, da es keine Teile des Datensatzes anfordert, die für das aktuelle Problem nicht anwendbar sind. Genauso wie Ihr Arzt Ihre Knie nicht mit einem seltsamen kleinen Hammer berührt, wenn Sie Beschwerden über Brustschmerzen und Atemnot haben.
Während das Aufmerksamkeitssystem praktisch ist, um sicherzustellen, dass das Netzwerk die Aufgabe ausführt, dient die Arbeit von IBM zur neuronalen Plastizität (wie gut die „Speicher“ gespeichert werden) dazu, einen langfristigen Netzwerkspeicher bereitzustellen. Dies wird tatsächlich auf der Grundlage der gleichen Mechanismen von Geburt und Tod von Neuronen modelliert, die im menschlichen Hippocampus beobachtet werden.
In diesem System "müssen Sie nicht Millionen von Parametern modellieren", erklärte Rish. "Sie können mit einem viel kleineren Modell beginnen, und dann werden sie sich abhängig von den angezeigten Daten anpassen."
Wenn ihr neue Daten präsentiert werden, beginnt das neurogenetische System von IBM, neue verbesserte Verbindungen (Neuronen) zu bilden, während einige der älteren, weniger nützlichen Verbindungen "abgeschnitten" werden, wie Rish es ausdrückte. Dies bedeutet nicht, dass das System alte Daten buchstäblich löscht, es wird nur weniger an sie gebunden - genau wie Ihre alten Erinnerungen im Laufe der Jahre verschwimmen, aber diejenigen, die erheblichen emotionalen Stress tragen, bleiben lebendig seit vielen Jahren.

"Neurogenese ist ein Weg, um tiefe Netzwerke anzupassen", sagte Rish. „Ein neuronales Netzwerk ist ein Modell, und Sie können dieses Modell von Grund auf neu erstellen oder es bei Bedarf ändern, da Sie mehrere Schichten versteckter Neuronen haben und entscheiden können, wie viele (Neuronen) Sie haben möchten ... abhängig von den Daten. "
Dies ist wichtig, da Sie nicht die unendliche Erweiterung eines neuronalen Netzwerks wünschen. In diesem Fall würde der Datensatz so groß werden, dass er sich nicht einmal das digitale Äquivalent der Hyperimesie leisten könnte. "Es hilft auch bei der Normalisierung, sodass [AI] ihre Meinung zu den Daten nicht ändert", sagte Rish.
Zusammen könnten diese Erfolge für die KI-Forschungsgemeinschaft sehr nützlich sein. Rishs Team möchte an dem arbeiten, was sie "interne Aufmerksamkeit" nennen. Sie wählen nicht nur aus, welche Daten im Netzwerk angezeigt werden sollen, sondern auch, welche Teile des Netzwerks Sie für Berechnungen verwenden möchten, die auf einer Reihe von Daten und Eingaben basieren. Grundsätzlich wird das Aufmerksamkeitsmodell einen kurzfristigen, aktiven Denkprozess abdecken, während ein Teil des Speichers es dem Netzwerk ermöglicht, seine Funktion in Abhängigkeit von der aktuellen Situation zu optimieren.
Erwarten Sie jedoch nicht, dass die KI in naher Zukunft mit dem menschlichen Verstand konkurrieren kann, warnt Richard. „Ich würde mindestens ein paar Jahrzehnte sagen, aber auch dies ist nur eine Annahme. Was wir jetzt unter dem Gesichtspunkt der hochpräzisen Mustererkennung tun, ist immer noch sehr, sehr weit vom Grundmodell menschlicher Emotionen entfernt “, sagte sie. "Wir haben gerade erst angefangen."

