OpenAI-Entwickler trainieren KI mit Reddit
Jen-San Huang, CEO von Nvidia, zeigt Ilon Mask, Mitbegründer von OpenAI OpenAI, einerOpen- Source- Organisation, die auf dem Gebiet der künstlichen Intelligenz forscht, DGX-1 und erhielt von Nvidia einen DGX-1-Supercomputer. OpenAI-Experten arbeiten derzeit an einer „schwachen“ Form der KI. Wissenschaftler entwickeln Systeme, die eine große Menge von Primärdaten verarbeiten und eine strukturierte Reihe von Informationen erzeugen können. Dies erfordert leistungsstarke Computer, und der DGX-1 ist ein sehr leistungsfähiger Computerkomplex. Nvidia behauptet, dass der DGX-1 auf einer neuen Generation von GPUs basiert, die Datenverarbeitungsgeschwindigkeiten bieten, die mit Servern mit 250 x86-Architektur vergleichbar sind.Die Schöpfer von OpenAI sind Elon Musk und Sam Altman. Die Hauptziele der Organisation sind es, Wissenschaftler, die auf dem Gebiet der KI arbeiten, für die Zusammenarbeit zu gewinnen. Die Forschungsergebnisse sollen offen und für alle Besucher zugänglich sein. Laut den Gründern wird all dies dazu beitragen, die Entstehung "böser" künstlicher Intelligenz zu verhindern. Musk hat diese Bedrohung schon oft angegeben.Positionierte DGX-1 als erster Supercomputer der Welt für tiefes Lernen mit genügend Rechenleistung für die Entwicklung von AI. Mit diesem Supercomputer können OpenAI-Forscher die schwache Form der KI viel schneller lernen als mit herkömmlichen Servern. In der ersten Phase wird der KI beigebracht, die Textkommunikation von Menschen zu verstehen. In diesem Fall wird eine Schatzkammer des Geistes als Reddit dienen. Nachrichten der Ressource „füttern“ die KI und er lernt, die Beziehung zwischen einzelnen Wörtern, ihren Gruppen und Sätzen zu verstehen. Die Aufgabe wird durch die Tatsache erschwert, dass der Text mit Reddita mit Jargon gesättigt ist, Abkürzungen, dies sind keine akademischen Texte.Andrej Karpathy, ein OpenAI-Forscher, sagt, dass die selbstlernende KI mit der Zeit intelligenter wird. „Deep Learning ist eine spezielle Klasse von Modellen, denn je größer das Modell selbst ist, desto besser funktioniert es“, sagt er.Die Sprache bleibt ein wichtiges Thema für Entwickler künstlicher Intelligenz. Und obwohl viele Probleme gelöst wurden, bleibt noch mehr zu lösen. Vor nicht allzu langer Zeit führte Google ein Experiment durch, bei dem ein selbstlernendes System mithilfe von Dialogen aus Filmen trainiert wurde. Nach einiger Zeit stellte sich heraus, dass KI ziemlich erträgliche Antworten auf relativ komplexe Fragen gibt. Manchmal führt ein Versuch, die schwache Form der KI und der Menschen näher zu bringen, zu unerwarteten Ergebnissen. Im März dieses Jahres, Microsoft ins Leben gerufenund auf Twitter lernte der Teenager-Bot Tay in nur einem Tag schlecht. Danach hielten es Microsoft-Mitarbeiter für am besten, fast alle Tay-Nachrichten zu löschen und ihn in den Ruhezustand zu schicken.OpenAI-Wissenschaftler möchten verstehen, ob ein Roboter eine Sprache lernen kann, indem er mit Menschen in der realen Welt interagiert. Das Experiment mit Reddit ist der erste Schritt in der beabsichtigten Versuchsreihe. Dank des DGX-1 wird das Training viel schneller als geplant sein. KI kann am Beispiel größerer als geplanter Datenfelder trainiert werden. Zusätzlich zum Text wird die KI durch Ausprobieren geschult, um eine Reihe von Aktionen auszuführen. Diese Methode kann verwendet werden, um künstliche Intelligenz in Videospielen zu unterrichten. Vielleicht kann er verstehen, dass die Ansammlung von Spielmünzen in einer Reihe von Spielen es Ihnen ermöglicht, die Anzahl der erzielten Punkte zu erhöhen und die Fähigkeiten des Charakters zu verbessern.
Warum ist das alles notwendig? In der Praxis kann eine schwache Form der KI in vielen Bereichen eingesetzt werden. Erstellen Sie beispielsweise einen Roboter, der Hausarbeit leisten kann. Und ein solcher Roboter wird mit der Zeit immer besser funktionieren, da er lernen kann. Eine schwache Form der KI ist auch erforderlich, um die Leistung autonomer Autos zu verbessern, die derzeit von einer Reihe von Unternehmen, einschließlich Google, entwickelt werden. Was die starke Form der KI betrifft, so ist hier zu befürchten, dass er nicht anfängt, Menschen für seine eigenen Zwecke einzusetzen, wie Musk wiederholt erwähnte.Eine Reihe von Forschern stellt die Machbarkeit der Mission von OpenAI in Frage, eine „gute“ künstliche Superintelligenz zu schaffen. Laut Vertretern der Organisation selbst wird die Gefahr der Schaffung einer böswilligen KI durch die Tatsache ausgeglichen, dass Technologien und Entwicklungsergebnisse für jedermann zugänglich sind. Gleichzeitig glaubt Nick Bostrom, ein Wissenschaftler aus Oxford, dass Offenheit zu negativen Ergebnissen führen kann. Die Tatsache, dass jeder die Forschungsergebnisse mit jedem teilt, sagt Bostrom, kann ein Problem sein. "Wenn Sie die Schaltfläche" Alle fühlen sich schlecht "haben, möchten Sie diese wahrscheinlich nicht mit allen teilen", sagt Bostrom. Bei OpenAI steht diese Schaltfläche jedoch allen zur Verfügung. Wenn die Organisation die Ergebnisse ihrer Arbeit verbirgt, die sie als gefährlich erachtet, verliert die Existenz von OpenAI ihre Bedeutung, da die Organisation nicht mehr offen ist.Dennoch ist Bostrom der Ansicht, dass es positive Ergebnisse geben sollte. Das Hauptergebnis ist eine Verringerung der Wahrscheinlichkeit, die Superintelligenz eines Unternehmens im Falle einer starken Form der KI zu kontrollieren. Die Monopolisierung einer starken Form der KI ist schlecht, und OpenAI wird wahrscheinlich die Wahrscheinlichkeit einer solchen Entwicklung von Ereignissen verringern.Source: https://habr.com/ru/post/de396947/
All Articles