
Sundar Pichai, CEO von Google, einem der größten Unternehmen auf dem Gebiet der künstlichen Intelligenz, sagte in einem Interview in dieser Woche, dass Befürchtungen hinsichtlich des schädlichen Einsatzes von Technologie „völlig berechtigt“ seien - wir müssen jedoch der Technologiebranche vertrauen, dass dies möglich sein wird Alle Verantwortung für die Regulierung seiner Verwendung.
In einem Interview mit der Washington Post sagte Pichai, dass neue KI-Tools - die Grundlage für Innovationen wie Robomobile und Algorithmen zur Erkennung von Krankheiten - von Unternehmen verlangen
, einen ethischen Rahmen zu
definieren und sorgfältig zu überlegen, wie diese Technologie missbraucht werden kann.
"Ich denke, das Technologieunternehmen sollte verstehen, dass man es nicht zuerst erstellen und dann reparieren kann", sagte Pichai. "Ich denke, es wird nicht funktionieren."
Technologische Giganten müssen sicherstellen, dass KI „mit ihren Zielen“ der Menschheit keinen Schaden zufügt, sagte Pichai. Er sagte, er sei optimistisch hinsichtlich der langfristigen Vorteile der Technologie, aber seine Einschätzung der potenziellen Risiken der KI stimme mit einigen der Technologiekritiker überein, die behaupten, dass die Technologie verwendet werden könnte, um invasive Überwachung einzuführen, tödliche Waffen herzustellen und Fehlinformationen zu verbreiten. Andere Manager von Technologieunternehmen, wie der Gründer von SpaceX und Tesla, Elon Musk, machten mutige Vorhersagen, dass KI "viel gefährlicher als Atombomben" sein könnte.
Die KI-Technologie von Google steht im Mittelpunkt aller Aktivitäten, von einem umstrittenen chinesischen Unternehmensprojekt bis hin zu Hass- und Verschwörungstheorien auf YouTube, einer Abteilung des Unternehmens. Pichai versprach, dieses Problem nächstes Jahr zu lösen. Die Art und Weise, wie Google sich für die Verwendung von KI entscheidet, hat in
jüngster Zeit auch zu Unruhen bei den Mitarbeitern des Unternehmens geführt.
Pichais Aufruf zur Selbstregulierung folgte seiner
Rede im Kongress , wo der Gesetzgeber drohte, den Einsatz von Technologie als Reaktion auf deren Missbrauch einzuschränken, auch als Vermittler für die Verbreitung von Fehlinformationen und Hassreden [Hassreden]. Seine Anerkennung der Existenz möglicher Bedrohungen durch die KI-Seite war von entscheidender Bedeutung, da der in Indien geborene Programmierer früher oft ankündigte, wie die Konsequenzen der Einführung automatisierter Systeme, die ohne menschliche Aufsicht lernen und Entscheidungen treffen können, die Welt verändern würden.
Pichai sagte in einem Interview, dass Gesetzgeber auf der ganzen Welt immer noch versuchen, die Auswirkungen der KI und die potenzielle Notwendigkeit ihrer staatlichen Regulierung zu erkennen. "Manchmal stört es mich, dass die Leute das Ausmaß der kurz- und mittelfristigen Veränderungen unterschätzen, und ich denke, dass diese Probleme tatsächlich äußerst komplex sind", sagte er. Andere Technologie-Giganten, darunter Microsoft, haben kürzlich die KI-Regulierung übernommen, sowohl von den Unternehmen, die diese Technologie entwickeln, als auch von den Regierungen, die ihre Verwendung überwachen.
Bei richtiger Handhabung kann KI jedoch „enorme Vorteile“ bieten, erklärte Pichai, einschließlich der Unterstützung von Ärzten bei der Erkennung von Augenkrankheiten und anderen Krankheiten durch automatisches Scannen von Krankenakten. "Die Regulierung der Technologie in einem frühen Stadium der Entwicklung ist schwierig, aber ich denke, dass Unternehmen sich selbst regulieren sollten", sagte er. - Deshalb versuchen wir so aktiv, die Prinzipien der KI auszusprechen. Wir haben vielleicht nicht alles richtig gemacht, aber wir hielten es für wichtig, diesen Dialog zu beginnen. “
Pichai, der 2004 zu Google kam und nach seiner Übernahme als CEO AI im Januar als „eines der wichtigsten Dinge, an denen die Menschheit arbeitet“ bezeichnete, sagte, dass es für die Menschheit „wichtiger“ sein könnte als „Elektrizität oder Feuer. " Der Wettlauf um die Verbesserung von Maschinen, die selbstständig betrieben werden können, hat jedoch zu den bekannten Befürchtungen geführt, dass der Unternehmensgeist von Silicon Valley - „schnell machen, Schaden anrichten“, wie Facebook es einmal beschrieben hat - dazu führen könnte, dass leistungsstarke und unvollständige Technologien Arbeitsplätze beseitigen und Schaden anrichten zu Menschen.
Bei Google selbst sind Versuche, KI zu erstellen, ebenfalls umstritten: Das Unternehmen wurde in diesem Jahr wegen der Arbeit an einem Vertrag für das Verteidigungsministerium heftig kritisiert, wonach KI, die Autos, Gebäude und andere Objekte automatisch markieren kann, in Militärdrohnen eingesetzt wird. Einige Mitarbeiter kündigten sogar und nannten den Grund dafür die Einnahmen des Unternehmens im "Militärgeschäft".
Pichai antwortete der Zeitung auf Fragen zu dieser
Reaktion der Mitarbeiter, dass diese Mitarbeiter „ein wichtiger Teil unserer Kultur seien. Sie haben die Möglichkeit, ihr Wort zu sagen, und das ist wichtig für das Unternehmen, das schätzen wir “, sagte er.
Im Juni, nach der Ankündigung, dass das Unternehmen diesen Vertrag nicht verlängern werde, enthüllte Pichai bei der Schaffung von KI eine Reihe ethischer Grundsätze, darunter ein Verbot der Entwicklung von Systemen, die dazu dienen könnten, Schaden zu verursachen, Menschenrechte zu verletzen oder Menschen zu überwachen. " unter Verstoß gegen international anerkannte Standards. “
Das Unternehmen wurde dafür kritisiert, KI-Tools für den allgemeinen Gebrauch freizugeben, die zum Nachteil eingesetzt werden können. Das 2015 veröffentlichte TensorFlow-Softwarepaket, Googles internes maschinelles Lernsystem, beschleunigte die massive Entwicklung der KI, automatisierte jedoch die Erstellung gefälschter Videos, die dann zur Fehlinformation und Belästigung verwendet wurden.
Google und Pichai verteidigten die Veröffentlichung persönlich und argumentierten, dass eine Einschränkung der Verbreitung von Technologie bedeuten würde, dass die Öffentlichkeit sie nicht sorgfältig genug kontrollieren würde und Entwickler und Forscher ihre Fähigkeiten nicht verbessern könnten, so dass sie davon profitieren würde.
"Ich glaube, dass es im Laufe der Zeit wichtig ist, ethische Fragen und kognitive Vorurteile zu diskutieren und gleichzeitig zu entwickeln, um Technologie erfolgreich zu entwickeln", sagte Pichai in einem Interview.
"In gewissem Sinne wollen wir eine ethische Plattform entwickeln, um Wissenschaftler anzuziehen, die nicht aus dem Bereich der Informatik in einem frühen Stadium der Entwicklung stammen", sagte er. "Es ist notwendig, die Menschheit aktiver einzubeziehen, da diese Technologie die Menschheit beeinflussen wird."
Pichai verglich die frühen Versuche, KI-Parameter festzulegen, mit den Bemühungen der wissenschaftlichen Gemeinschaft, die Genforschung in den frühen Stadien dieses Gebiets einzuschränken. "Viele Biologen haben begonnen, Unterscheidungen zu treffen, die angeben, wo sich die Technologie entwickeln sollte", sagte er. "Die akademische Gemeinschaft hat eine aktive Selbstregulierung aufgenommen, die meiner Meinung nach äußerst wichtig war."
Google Director sagte, dass ein solcher Ansatz für die Entwicklung autonomer Waffen absolut notwendig wäre - und dieses Problem quält Direktoren und Mitarbeiter von Technologieunternehmen. Im Juli unterzeichneten Tausende von Industriearbeitern, die Unternehmen wie Google vertraten, eine Petition zum Verbot von KI-Tools, die zum Töten programmiert werden könnten.
Pichai sagte, er finde die von YouTube gehassten Verschwörungstheorien, die im
WP-Artikel "ekelhaft" beschrieben sind, "ekelhaft" und machte klar, dass das Unternehmen daran arbeiten werde, Systeme zu verbessern, die problematische Inhalte erkennen. In diesen Videos, deren Gesamtansicht seit ihrem Erscheinen im April mehrere Millionen Mal überschritten wurde, diskutierten sie die unbegründeten Anschuldigungen von Hillary Clinton und ihrer langjährigen Assistentin Hume Abedin, sie hätten das Mädchen angegriffen, sie getötet und ihr Blut getrunken.
Pichai sagte, dass er selbst diese Videos nicht gesehen habe, denen ihm im Kongress
Fragen gestellt wurden, und weigerte sich zu berichten, ob solche YouTube-Fehler das Ergebnis von Einschränkungen für Systeme sind, die unangemessene Inhalte oder Regeln für die Bewertung der Notwendigkeit zum Entfernen von Videos erkennen. Aber er fügte hinzu: "2019 werden Sie von unserer Seite aus mehr Arbeit in diesem Bereich sehen."
Pichai beschrieb auch die Versuche von Google, ein
neues Produkt im von China kontrollierten Segment des Internets zu entwickeln, als vorläufig und sagte nicht, um welche Art von Produkt es sich handeln könnte und wann es, wenn überhaupt, auf den Markt kommen könnte.
Er heißt "Project Dragonfly" und hat eine starke Gegenreaktion von Mitarbeitern und Rechtsaktivisten ausgelöst, die vor Googles möglicher Unterstützung bei der staatlichen Überwachung von Bürgern warnen, die gegenüber politischen Dissidenten intolerant sind. Als Antwort auf die Frage nach der Möglichkeit, dass Google ein Produkt entwickelt, mit dem chinesische Beamte herausfinden können, wann eine Person nach sensiblen Wörtern wie
dem Massaker am Platz des Himmlischen Friedens sucht
, sagte Pichai, es sei zu früh, um solche Urteile zu fällen.
"Dies sind alles hypothetische Überlegungen", sagte Pichai. "Wir sind furchtbar weit von diesem Zustand entfernt."