Elon Musk Funds Forschungsgruppen für künstliche Intelligenz sind sicher

Bild
Werbeplakat für den Film Terminator: Genesis

Letzte Woche gab die private gemeinnützige Organisation Future of Life Institute (FLI) mit Sitz in Boston, USA, bekannt , dass sie eine bedeutende Finanzierungsrunde von 10 Millionen US-Dollar erhalten hat. Der Hauptteil der Spende in Höhe von 7 Millionen US-Dollar wurde von Elon Musk geleistet, der Rest des Geldes wurde von einer anderen gemeinnützigen Organisation, dem Open Philanthropy Project, überwiesen. Die Hauptbeschäftigung von FLI besteht darin, spezialisierte Forschungsgruppen zu finden, die auf dem Gebiet der künstlichen Intelligenz arbeiten, und deren Finanzierung. Eines der Ziele für Wissenschaftler, die Zuschüsse von FLI erhalten, ist die Entwicklung eines für die Menschheit sicheren „Computergeistes“, der in Zukunft nicht zu einer globalen Katastrophe führen würde.

Millionen von Dollar vom Leiter von SpaceX und der Open Philanthropy Project-Gruppe werden auf 37 Forschungsgruppen aufgeteilt, die an bekannten Universitäten arbeiten und sich bewährt haben. BusinessInsider- Listeneinige dieser wissenschaftlichen Projekte. Zum Beispiel beschäftigt sich eine gemeinsame Gruppe von Wissenschaftlern der Universitäten von Berkeley und Oakford mit der Entwicklung von Algorithmen, die auf menschliche Vorlieben ausgerichtet sind und in Zukunft dazu beitragen würden, dass sich künstliche Intelligenz „wie ein Mensch“ verhält. Mitarbeiter der Duke University (USA, North Carolina) haben sich ein ehrgeizigeres Ziel gesetzt: Sie wollen ein System der künstlichen Intelligenz entwickeln, das Entscheidungen auf der Grundlage der „menschlichen Moral“ treffen kann. An der Universität von Denver arbeiten sie tatsächlich an Möglichkeiten, Skynet entgegenzuwirken, um den möglichen Verlust der Kontrolle über Roboterwaffen zu bewältigen.

Ende November letzten Jahres stellte Elon Musk festin einer öffentlichen Diskussion im Internet über die Sicherheit künstlicher Intelligenz. Nach den Worten des Leiters von SpaceX zu urteilen, ist er besorgt über die Denkfähigkeit von Computern und sagt die Entstehung von "etwas sehr Gefährlichem innerhalb von 5-10 Jahren" voraus, was bedeutet, dass nur KI eine Gefahr darstellt. Aus einem unbekannten Grund verschwand der Kommentar von Mask einige Minuten nach der Veröffentlichung, aber andere Edge.org-Benutzer konnten ihn als Screenshot speichern. Der Maskensprecher versprach in Zukunft, die offizielle Meinung seines Chefs zu diesem Thema vorzulegen, aber dies ist anscheinend noch nicht geschehen.

Es sei darauf hingewiesen, dass Musk tatsächlich der Meinung des berühmten britischen Wissenschaftlers Stephen Hawking folgt, der noch früher gesprochen hatwie folgt: „Alle diese Errungenschaften [bei der Entwicklung der künstlichen Intelligenz] verblassen vor dem Hintergrund dessen, was uns in den kommenden Jahrzehnten erwartet. Die erfolgreiche Schaffung künstlicher Intelligenz wird das größte Ereignis in der Geschichte der Menschheit sein. Leider kann es das letzte sein, wenn wir nicht lernen, Risiken zu vermeiden. “ Hawking glaubt, dass es zu wenige ernsthafte wissenschaftliche Arbeiten gibt, die sich mit der Untersuchung der Sicherheit von KI befassen, und es gibt zu wenige wissenschaftliche Organisationen, die dies tun könnten. Interessanterweise erwähnte Hawking FLI unter solchen Organisationen. Ob es eine Verbindung zwischen Stephen Hawking und Elon Musk gibt, ist zuverlässig unbekannt.

Es gibt jedoch eine alternative Sichtweise von Wissenschaftlern, die nicht so bekannt ist wie Professor Hawking. Sie glauben, dass das Problem, künstliche Intelligenz außer Kontrolle zu bringen, eher ein Thema für Science-Fiction-Filme als für ernsthafte Bedenken ist. Lesen Sie ihre Gegenargumente hier .

Source: https://habr.com/ru/post/de381497/


All Articles