Die 8 besten Trends der Internationalen Konferenz für lernende Repräsentationen (ICLR) 2019

Das Thema Datenanalyse und Data Science entwickelt sich derzeit erstaunlich schnell. Um die Relevanz ihrer Methoden und Herangehensweisen zu verstehen, ist es notwendig, sich über die Arbeit der Kollegen auf dem Laufenden zu halten, und auf Konferenzen ist es möglich, Informationen über moderne Trends zu erhalten. Leider können nicht alle Veranstaltungen besucht werden. Daher sind Artikel zu früheren Konferenzen für Fachleute interessant, die keine Zeit und Gelegenheit für eine persönliche Anwesenheit gefunden haben. Wir freuen uns, Ihnen eine Übersetzung des Artikels von Chip Huyen auf der ICLR 2019 - Konferenz zu den neuesten Trends und Ansätzen im Bereich der Datenwissenschaft präsentieren zu können.


Repräsentationen lernen ist eine Reihe von Methoden, Techniken und Ansätzen, die automatisch die Repräsentationen erkennen, die zur Identifizierung von Merkmalen aus Rohdaten erforderlich sind. Das Erlernen von Übermittlungen ersetzt die manuelle Erfindung von Features und ermöglicht es Ihnen, die Schlüsseleigenschaften von Objekten anhand ihrer Attribute zu untersuchen und sie zur Lösung bestimmter Probleme zu verwenden.

Der Artikel gibt einen subjektiven Blick auf eine Reihe von Branchenproblemen. Man hofft jedoch, dass auch eine subjektive Bewertung einem interessierten Fachmann genügend Denkanstöße liefert. Weiter werden wir das Folgende diskutieren:

  • Künstliche Methoden zur Korrektur der soziodemografischen Zusammensetzung der Konferenz rufen eine Reihe von Gefühlen in der Gemeinschaft hervor: von aggressiver Empörung bis zu feiger Ignoranz. Das optimale Verhalten in einer solchen Umgebung zu wählen, wäre eine interessante Aufgabe für einen Spezialisten auf dem Gebiet der Spieltheorie.
  • Arbeiten in den Bereichen Repräsentationslernen und Transferlernen werden immer beliebter und wecken reges Interesse in der Community.
  • Rekursive neuronale Netze verlieren weiterhin an Popularität bei Forschern, werden jedoch in der Praxis nicht bald verworfen.
  • Der Bereich der GANs entwickelt sich weiterhin rasant, obwohl dies nicht allen Forschern gefällt. Das Potenzial von GANs wird erst aufgedeckt, und in naher Zukunft sind einige interessante Arbeiten in dieser Richtung zu erwarten.
  • Verstärktes Lernen erregt weiterhin die Köpfe der Forscher und bleibt das beliebteste Thema auf der Konferenz. Fachleute rücken näher an die Möglichkeit, RL-Methoden auf reale Aufgaben anzuwenden, was den Anhängern in diesem Bereich so fehlt.
  • Überraschenderweise gab es in letzter Zeit wenig Interesse an den biologischen und genetischen Anwendungen des maschinellen Lernens. Eine gute Gelegenheit für Forscher, die ein Thema für weiteres Wachstum suchen.
  • Die allgemein akzeptierten Artikel und Artikel über Retro-Methoden schaffen es immer noch, zur Konferenz zu gelangen. Die Konkurrenz zwischen ihnen ist jedoch höher und die Forscher müssen mehr Anstrengungen unternehmen, um interessante Ergebnisse zu erzielen, als in modischeren und populäreren Richtungen. Denken Sie damals daran, dass die Materialien für die Anwendung des klassischen maschinellen Lernens erschöpft sind.

Ein detaillierter Rückblick auf die Konferenz von Chip Hyun ist unten zu finden.

1. Einbeziehung


Die Organisatoren der [ Internationalen Konferenz über lernende Repräsentationen 2019 - Hrsg.] Betonten die Bedeutung der Inklusivität im Bereich der künstlichen Intelligenz. Die ersten beiden Grundsatzreden - eine Eröffnungsrede von Alexander Rush und der Gastrednerin Cynthia Dvork - waren der Gerechtigkeit und Gleichheit gewidmet.

Einige beunruhigende Statistiken aus dem ICLR 2019:

  • nur 8,6% der Sprecherinnen und 15% der Teilnehmerinnen,
  • 2/3 aller LGBTQ + -Forscher offenbaren ihre eigene Orientierung bei der Arbeit nicht,
  • Alle 8 eingeladenen Redner sind Vertreter der kaukasischen Rasse.


Leider [der Autorin] interessiert sich der Großteil der Forscher für künstliche Intelligenz überhaupt nicht für das Thema Gleichstellung. Wenn die Seminare zu anderen Themen überfüllt waren, war der KI-Workshop für das soziale Wohl ziemlich leer, bis Yoshua Benjio erschien . Während der vielen Gespräche, die ich am ICLR geführt habe, hat niemand von „Vielfalt“ gesprochen. Ein Fall war eine Ausnahme: Ich wurde zu einer ungeeigneten technischen Veranstaltung eingeladen, die mich sehr überraschte, und mein guter Freund antwortete: „Eine kleine beleidigende Antwort: Sie wurden eingeladen, weil Sie eine Frau sind.“

Der Grund für den beobachteten Sachverhalt ist, dass das Thema Vielfalt nicht „technisch“ ist und daher nicht zur Förderung einer wissenschaftlichen Karriere beiträgt. Ein weiterer Grund ist die Ablehnung von sozialer und öffentlicher Propaganda. Ein Freund von mir hat mir einmal geraten, nicht auf den Typen zu achten, der mich in einem Gruppenchat belästigt hat, weil "er sich gerne über Menschen lustig macht, die über Gleichheit und Vielfalt sprechen". Ich habe Freunde, die nicht gerne über Vielfalt im Internet diskutieren, weil sie nicht "mit diesem Thema in Verbindung gebracht" werden wollen.

2. Repräsentationslernen & Transferlernen


Der Hauptzweck des Lernens der unbeaufsichtigten Repräsentation besteht darin, Merkmale in nicht zugewiesenen Daten zu erkennen, die zur Verwendung in nachfolgenden Aufgaben nützlich sind. Im Bereich der Verarbeitung natürlicher Sprachen erfolgt das Leistungstraining häufig durch Sprachmodellierung. Die resultierenden Darstellungen werden dann für Aufgaben wie Stimmungsanalyse, Namenserkennung und maschinelle Übersetzung verwendet.

Einige der interessantesten Nicht-Lehrer-Präsentationen des letzten Jahres begannen mit ELMo (Peters et al.) , ULMFiT (Howard et al.) , GPT OpenAI (Radford et al.) , BERT. (Devlin et al.) Und natürlich das hochgefährliche GPT-2 (Radford et al.) .

Das vollständige GPT-2 wurde am ICLR demonstriert und es ist erstaunlich. Sie können eine beliebige Skizze des Textanfangs eingeben, und das Modell schreibt den Rest des Artikels. Ein Model kann Nachrichtenartikel, Fanfiction, wissenschaftliche Artikel und sogar Definitionen von fiktiven Wörtern schreiben. Bisher sieht das Ergebnis noch nicht menschlich aus, aber das Team arbeitet hart an der GPT-3. Ich freue mich auf die Fähigkeiten des neuen Modells.

Der Transfer Learning-Ansatz wurde in erster Linie von der Community der Computer Vision-Spezialisten übernommen. Die Ausbildung zum ImageNet-Bildklassifizierungsmodell findet jedoch weiterhin im Lehrermodus statt. Die Frage, die immer wieder von Vertretern beider Communities gestellt wird, lautet: „Wie würden wir das Präsentationstraining von Nicht-Lehrern für die Arbeit mit Bildern nutzen?“

Obwohl die meisten bekannten Forschungslaboratorien bereits an dieser Aufgabe arbeiten, wurde im ICLR nur ein Artikel vorgestellt: „Aktualisierung der Meta-Learning-Regeln für das Unterrichten von Nichtlehrerbeiträgen“ (Metz et al.). Anstatt die Gewichte zu aktualisieren, aktualisiert der Algorithmus die Lernregel. Die aus der Lernregel erhaltenen Ansichten werden dann im Bildklassifizierungsmodus auf eine kleine Stichprobe markierter Daten angewendet. Die Forscher konnten Lernregeln finden, die es ihnen ermöglichten, bei MNIST und Fashion MNIST eine Genauigkeit von mehr als 70% zu erzielen.

Die Autoren entdeckten einen Teil des Codes , aber nicht alle, weil "es an das Computing gebunden ist". Der externe Zyklus erfordert ungefähr 100.000 Trainingsschritte und 200 Stunden auf 256 Prozessoren.


Ich habe das Gefühl, dass wir in naher Zukunft noch viele solcher Werke sehen werden. Es ist möglich, das Unterrichten ohne Lehrer bei Aufgaben wie der automatischen Codierung, der Vorhersage der Bildrotation (das Dokument, das Gidaris et al. Im ICLR 2018 veröffentlicht hat), der Vorhersage des nächsten Frames in einem Video usw. zu verwenden.

3. Retro ML


Ideen im maschinellen Lernen sind wie Mode: Sie sind zyklisch. Das Anschauen einer Postersession ist wie ein Spaziergang in einem historischen Museum. Sogar die lang erwartete Debatte über das ICLR endete mit einer Debatte über das Thema „Priors vs. Structure“, die auf die Diskussion von Yann LeKun und Christopher Manning im letzten Jahr zurückgeht und der jahrhundertealten Debatte zwischen Bayes'schen Theoretikern und denen des Freventy-Ansatzes (Häufigkeit) in Bezug auf Wahrscheinlichkeiten ähnelt.

Das Projekt „Grounded Language Learning and Understanding“ am MIT Media Lab wurde 2001 eingestellt. In diesem Jahr präsentierte Grounded Language Learning jedoch zwei Arbeiten zum Thema „Reinforcement Learning“.

  • DOM-Q-NET: Grundlegende RL auf strukturierter Sprache (Jia et al.) - RL-Algorithmus zum Navigieren auf Webseiten durch Klicken auf Links und Ausfüllen von Feldern, während der Zweck der Navigation in einer natürlichen Sprache ausgedrückt wird.
  • BabyAI: Eine Plattform zur Untersuchung der Stichprobeneffizienz von fundiertem Sprachenlernen (Chevalier-Boisvert et al.) Ist eine OpenAI Gym-kompatible Plattform mit einem künstlichen Bot-Agenten, der einen menschlichen Lehrer imitiert, der Agenten beim Erlernen einer synthetischen Sprache hilft.

Meine Gedanken zu diesen beiden Artikeln wurden von AnonReviewer4 perfekt zusammengefasst:

„... die hier vorgeschlagenen Methoden sind den Methoden, die in der Literatur zum semantischen Parsen seit langem berücksichtigt werden, sehr ähnlich. Nur diese Arbeit zitiert Artikel über Deep RL. Ich denke, dass es für die Autoren sehr nützlich wäre, sich mit dieser Literatur vertraut zu machen. Ich denke, dass die Community der semantischen Analyse auch davon profitieren wird ... Aber diese beiden Communities haben anscheinend wenig Kontakt miteinander, obwohl sie in einigen Fällen an sehr ähnlichen Problemen arbeiten. "

DFA (Deterministic Finite Automata) haben in diesem Jahr auch in zwei Artikeln ihren Platz in der Welt des Deep Learning gefunden:

  • Repräsentation formaler Sprachen: Ein Vergleich zwischen endlichen Automaten und rekurrenten neuronalen Netzen (Mikhalenko et al.),
  • Finite-State-Repräsentationen wiederkehrender politischer Netzwerke lernen (Koul et al.) .

Die Hauptmotivation für beide Arbeiten ist folgende: Ist es in Verbindung mit dem riesigen Raum der verborgenen Zustände in RNNs möglich, die Anzahl der Zustände auf den endgültigen Zustand zu reduzieren? Ich bin skeptisch, dass das DFA RNN bei Sprachproblemen effektiv darstellen kann, aber ich mag die Idee, RNN während des Trainings zu unterrichten und es dann für logische Schlussfolgerungen in DFA umzuwandeln, wie in einem Artikel von Koul et al. Die endgültigen endgültigen Darstellungen erfordern nur drei diskrete Speicherzustände und 10 Beobachtungen, um Pong zu spielen. DFA hilft auch bei der Interpretation von RNN.


4. RNN verliert unter Forschern an Popularität


Betrachtet man den Wachstumsplan von Artikeln zu verschiedenen Themen im Jahr 2019 im Vergleich zu 2018, wird deutlich, dass RNN durch den größten Rückgang gekennzeichnet ist. Dies ist nicht überraschend, da die Verwendung von RNNs für serielle Datentypen zwar intuitiv ist, sie jedoch einen schwerwiegenden Fehler aufweisen: Sie können nicht parallelisiert werden. Infolgedessen kann der wichtigste Faktor, der den Forschungsfortschritt seit 2012 stimuliert, nicht ausgenutzt werden: die Rechenleistung. RNNs waren noch nie in CV oder RL beliebt und werden für NLP durch auf Aufmerksamkeit basierende Architekturen ersetzt.


Bedeutet das, dass RNN tot ist? In der Tat nein. Artikel "Geordnete Neuronen: Integration von Baumstrukturen in wiederkehrende neuronale Netze" (Shen et al.). erhielt eine der höchsten Auszeichnungen in diesem Jahr. Zusätzlich zu diesem und den beiden oben erwähnten Artikeln über Automaten werden in diesem Jahr neun weitere Arbeiten zu RNN betrachtet, von denen die meisten tiefer in die mathematischen Grundlagen eintauchen und keine neuen Möglichkeiten eröffnen.

RNNs bleiben voller Leben und sind Treiber in der Branche, insbesondere für Unternehmen, die sich mit Zeitreihen wie Handelsunternehmen befassen. Leider veröffentlichen Handelsunternehmen in der Regel keine Details ihrer Arbeit. Auch wenn RNNs für Forscher derzeit nicht sehr attraktiv sind, können sie in Zukunft wieder an Popularität gewinnen.

5. GANs sind immer noch an der Spitze


Obwohl das GAN-Thema in der relativen Skala gegenüber dem Vorjahr ein negatives Wachstum aufweist, stieg die Zahl der Werke in absoluten Zahlen von ~ 70 auf ~ 100. Ian Goodfellow hielt einen Vortrag über GAN und war ständig von Fans umgeben. Am letzten Tag musste er seinen Ausweis umdrehen, damit die Leute seinen Namen nicht sehen konnten.

Die gesamte erste Postersession war der GAN gewidmet. Es gibt neue GAN-Architekturen, Verbesserungen der alten GAN-Architektur, GAN-Analyse, GAN-Anwendungen von der Bilderzeugung über die Texterzeugung bis hin zur Audiosynthese. Es gibt PATE-GAN, GANSynth, ProbGAN, InstaGAN, RelGAN, MisGAN, SPIGAN, LayoutGAN, KnockoffGAN usw. und ich habe keine Ahnung, was das bedeutet. Leider nannte Andrew Brock sein Riesenmodell BigGAN, nicht giGANtic :)


Die Postersession zeigte, wie parteiisch die Community in Bezug auf GAN ist. Einige der Kommentare, die ich von Gegnern der GAN gehört habe, sahen folgendermaßen aus: "Ich kann es kaum erwarten, dass dieser Hype mit der GAN nachlässt." Meiner Meinung nach sind sie einfach neidisch.

6. Mangel an biologischen Themen in der eingehenden Untersuchung


Angesichts der großen Aufregung, die die Öffentlichkeit durch die Bestimmung der Sequenz von Genen in der DNA sowie des Auftretens von modifizierten Kindern mit der CRISPR-Technologie hervorrief, [war] es für mich überraschend, dass die Arbeiten zur Anwendung von Deep Learning in der Biologie auf ICLR nicht zugenommen haben. Es gab sechs Artikel zum Thema.

Zwei zu Fragen der Architektur aus der Biologie:

  • Biologisch plausible Lernalgorithmen können auf große Datensätze skaliert werden (Xiao et al.),
  • Eine vereinheitlichte Theorie früher visueller Darstellungen von der Retina bis zum Cortex durch anatomisch beschränkte tiefe CNNs (Lindsey et al.).

Ein Job zum Designtraining für RNA (Runge et al.) .

Drei Proteinmanipulationsjobs:

  • Proteinlokalisierung auf menschlicher Ebene mit Faltungsnetzwerken (Rumetshofer et al.),
  • Proteinstruktur mit einem differenzierbaren Simulator lernen (Ingraham et al.),
  • Erlernen der Einbettung von Proteinsequenzen anhand von Informationen aus der Struktur (Bepler et al.).


Es gab keine Artikel zum Thema Genome und es wurden keine Seminare abgehalten. Unabhängig davon, wie traurig dies auch aussehen mag, eröffnen sich für Tiefschuldidaktiker in der Biologie und Biologen in der Tiefschuldidaktik große Chancen.

Eine Tatsache: Jack Lindsay, der erste Autor des obigen Artikels über den Fingerabdruck, hat das Stanford College noch nicht abgeschlossen.

7. Verstärktes Lernen bleibt das beliebteste Thema.


Die auf der Konferenz präsentierten Beiträge zeigen, dass die RL-Community von modellfreien Methoden zu modellbasierten Algorithmen mit effizienten Sampling- und Meta-Learning-basierten Algorithmen übergeht. Die Verschiebung war wahrscheinlich auf die extrem hohen Ergebnisse bei den Mujoco-Benchmarks von TD3 (Fujimoto et al., 2018) und SAC (Haarnoja et al., 2018) sowie bei dem von R2D2 (Kapturowski et al.) Festgelegten diskreten Operationsraum in Atari zurückzuführen. , ICLR 2019) .

Während des Trainings verwenden modellbasierte Algorithmen die verfügbaren Daten, um ein Umgebungsmodell zu erhalten und die Strategien der Agenten in dieser Umgebung zu planen oder neue Daten zu generieren. Modellbasierte Algorithmen haben endlich die asymptotische Genauigkeit ihrer modellfreien Gegenstücke erreicht, indem sie 10-100-mal weniger Daten verwendet haben (MB-MPO (Rothfuss et al.) ). Durch den neuen Vorteil eignen sich modellbasierte Methoden für Aufgaben mit einer echten Komplexität. Wenn der Umweltsimulator nach dem Training sehr wahrscheinlich Mängel aufweist, können seine Mängel durch die Verwendung komplexerer Modelle wie des Simulatorensembles (Rajeswaran et al.) Ausgeglichen werden . Eine andere Möglichkeit, RL bei der Lösung von Problemen mit realer Komplexität zu verwenden, besteht darin, dem Simulator die Unterstützung komplexer Randomisierungsschemata zu ermöglichen. Die mit einer Vielzahl von Umweltsimulatoren erzielte Strategie kann die reale Welt als eine „andere Randomisierung“ betrachten und bei Aufgaben mit einem realen Komplexitätsgrad (OpenAI) erfolgreich sein .

Meta-Learning-Algorithmen, mit denen Sie schnell lernen können, sich neuen Aufgaben zuzuwenden, wurden sowohl in Bezug auf die Leistung als auch in Bezug auf die Probeneffizienz verbessert ( ProMP (Rothfuss et al.) , PEARL (Rakelly et al.) ). Diese Verbesserungen haben uns näher an das „ImageNet für RL-Moment“ gebracht, in dem wir Entscheidungsstrategien verwenden können, die aus anderen Aufgaben gelernt wurden, anstatt sie von Grund auf neu zu trainieren (was für komplexe Aufgaben unmöglich ist).


Ein eindrucksvoller Teil der akzeptierten Arbeit, zusammen mit einem Seminar über die Struktur und die A-priori-Wahrscheinlichkeit in RL, widmete sich der Integration von Umweltwissen in Lernalgorithmen. Wenn eine der Hauptstärken der frühen Deep-RL-Algorithmen die Verallgemeinerung war (zum Beispiel verwendet DQN für alle Atari-Spiele dieselbe Architektur, ohne etwas über ein bestimmtes Spiel zu wissen), verwenden neue Algorithmen jetzt die Integration von A-priori-Wissen, um komplexere Probleme zu lösen aufgaben. Beispielsweise verwendet ein Agent im Transporter-Netzwerk (Jakab et al.) A-priori-Wissen, um informativere Erkundungsarbeiten durchzuführen.

Zusammenfassend können wir sagen, dass die RL-Community in den letzten 5 Jahren viele effektive Tools zur Lösung der Probleme des Verstärkungstrainings im modellfreien Modus entwickelt hat. Jetzt ist es an der Zeit, transportablere und sampleeffizientere Algorithmen zu entwickeln, um RL auf reale Aufgaben anzuwenden.

Eine der Tatsachen: Sergey Levin ist wahrscheinlich derjenige, der in diesem Jahr am meisten an der ICLR arbeitet. Insbesondere 15 seiner Artikel wurden zur Veröffentlichung angenommen.

8. Allgemeine Artikel treten schnell in den Hintergrund


Als ich den berühmten Forscher fragte, was er von der angenommenen Arbeit in diesem Jahr halte, kicherte er: "Die meisten von ihnen werden vergessen, sobald die Konferenz endet." In einem schnelllebigen Bereich wie dem maschinellen Lernen werden die Ergebnisse in Wochen, wenn nicht in Tagen, widerlegt. Es überrascht nicht, dass die meisten akzeptierten Artikel zum Zeitpunkt der Einreichung bereits veraltet sind. Zum Beispiel laut Borealis AI für ICLR 2018: „ Sieben von acht Artikeln zur Verteidigung gegen gegnerische Angriffe wurden bereits vor Beginn der ICLR widerlegt . Dies zeigt, dass heuristische Methoden ohne theoretische Grundlage alles andere als zuverlässig sind, als es den Anschein haben mag. "

Während der Konferenz hörte ich oft Kommentare, in denen der konkrete Beitrag des Zufalls zur Entscheidung, Arbeiten anzunehmen / abzulehnen, erwähnt wurde. Ich werde keine spezifischen Artikel nennen, jedoch wurden einige der meist diskutierten und am häufigsten zitierten Artikel in den letzten Jahren von Konferenzen im ersten Beitrag abgelehnt. Viele der akzeptierten Arbeiten werden jedoch über Jahre hinweg relevant sein, ohne dass sie überhaupt zitiert werden.

Als Forscher auf diesem Gebiet stoße ich oft auf eine existenzielle Krise. Was auch immer mir einfällt, es scheint, dass jemand anderes dies bereits realisiert, und zwar besser und schneller. Was bringt es, einen Artikel zu veröffentlichen, wenn ihn niemand braucht?

Fazit


Natürlich gibt es immer noch Trends, auf die ich eingehen möchte.

  • Optimierung und Regularisierung: Adams Debatte gegen SGD geht weiter. Viele neue Methoden wurden vorgeschlagen, und einige von ihnen sind ziemlich aufregend. Es scheint, dass heutzutage jedes Labor seinen eigenen Optimierer entwickelt - sogar unser Team arbeitet an einem neuen Optimierer, der in naher Zukunft veröffentlicht werden soll.
  • : , - . , , . , , GAN , .

, . , (55 ) . ICLR 2019 , , .




ICLR. , , , . . NeurIPS , : « , , ».

, , — , . , , . , . 10 10, [ICLR — .].

- , , , , . « » (Oleksii Hrinchuk)



. CleverDATA , , . . Data Science , , . , , - , !

Source: https://habr.com/ru/post/de475720/


All Articles