Google hat 7 KI-Ethikprinzipien veröffentlicht


Seit einigen Monaten kämpft Google mit Microsoft und Amazon um einen Pentagon-Vertrag über mehrere Millionen Dollar für Cloud-Dienste und Systeme für künstliche Intelligenz (siehe das Leck der internen Korrespondenz von Top-Managern ). Leider werden zur Orientierung Stöcke in die Räder eingeführt ... von unseren eigenen Mitarbeitern. Im März 2018 begannen sie bei Google mit dem Sammeln von Unterschriften gegen die Entwicklung der Militärtechnologie, deren Hauptmotto zuvor das Prinzip „Sei nicht böse“ war.

Das Management musste teilweise Zugeständnisse machen. Gestern gab Sundar Pichai, CEO, eine Reihe von Grundsätzen bekannt , die Google weiterhin einhalten will. Darunter befindet sich ein Verbot der Verwendung interner Entwicklungen im Bereich der künstlichen Intelligenz für Waffen, illegale Überwachung und Technologien, die "gemeinsamen Schaden" verursachen. Google wird jedoch weiterhin mit dem Militär in anderen Bereichen zusammenarbeiten. Somit behält die Cloud-Abteilung weiterhin die Chancen, die Ausschreibung zu gewinnen.


Amerikanisches Militär-UAV

Sundar Pichai schrieb in einem offiziellen Blog, dass Google stark in die Forschung und Entwicklung von KI investiert und diese Technologien mithilfe von Tools und Open Source für alle zugänglich macht. „Wir sind uns bewusst, dass eine solch leistungsstarke Technologie ebenso ernste Fragen hinsichtlich ihrer Verwendung aufwirft. Die Art und Weise, wie KI entwickelt und eingesetzt wird, wird für viele Jahre erhebliche Auswirkungen auf die Gesellschaft haben, sagt der CEO. "Als führendes Unternehmen in der KI fühlen wir uns tief verantwortlich." Deshalb geben wir heute die sieben Prinzipien unserer Arbeit bekannt. Dies sind keine theoretischen Konzepte; Dies sind spezifische Standards, die unsere Forschung und Produktentwicklung aktiv steuern und unsere Geschäftsentscheidungen beeinflussen. “

Hier sind sieben der KI-Prinzipien von Google in Kurzform.

1. Sozialleistungen


KI-Erfolge werden sich in einer Vielzahl von Bereichen, einschließlich Gesundheitswesen, Sicherheit, Energie, Transport, Fertigung und Unterhaltung, transformativ auswirken. In Anbetracht der potenziellen Entwicklung und Nutzung von KI-Technologien wird das Unternehmen eine Vielzahl von sozialen und wirtschaftlichen Faktoren berücksichtigen und dort handeln, wo der wahrscheinliche Gesamtnutzen die prognostizierten Risiken und Nachteile erheblich übersteigt.

2. Bekämpfung von Diskriminierung


KI-Algorithmen und -Datensätze können Diskriminierung widerspiegeln, verstärken oder reduzieren. Google erkennt an, dass es nicht immer einfach ist, nur von unfairen Vorurteilen zu unterscheiden, und dass sie sich in verschiedenen Kulturen und Gesellschaften unterscheiden. Das Unternehmen verspricht, "sich zu bemühen, unfaire Konsequenzen für Menschen zu vermeiden, insbesondere für diejenigen, die mit sensiblen Merkmalen wie Rasse, ethnischer Zugehörigkeit, Geschlecht, Nationalität, Einkommen, sexueller Orientierung, Fähigkeiten und politischen oder religiösen Überzeugungen verbunden sind."

3. Sicherheit


Die Systeme für künstliche Intelligenz von Google werden "angemessen geschützt" und "in Übereinstimmung mit den Best Practices auf dem Gebiet der Sicherheitsforschung für künstliche Intelligenz" entwickelt.

4. Rechenschaftspflicht


KI-Systeme bieten geeignete Möglichkeiten für Rückmeldungen, relevante Erklärungen ihrer Handlungen und mögliche Einsprüche. Der Mensch wird die Kontrolle über sie behalten.

5. Grundsätze der Privatsphäre


Google verspricht, seine Datenschutzgrundsätze bei der Entwicklung und Nutzung von KI-Technologie zu verwenden sowie eine angemessene Transparenz und Kontrolle über die Verwendung von Daten sicherzustellen.

6. Hohe Standards für wissenschaftliche Exzellenz


Technologische Innovation entspringt einer wissenschaftlichen Methode und dem Engagement für offene Forschung, intellektuelle Genauigkeit, Integrität und Zusammenarbeit. KI-Tools haben das Potenzial, neue Forschungs- und Wissensbereiche in kritischen Bereichen wie Biologie, Chemie, Medizin und Umweltwissenschaften zu erschließen. Google verspricht, hohe Standards für wissenschaftliche Spitzenleistungen anzustreben, verantwortungsbewusst KI-Wissen zu teilen, Schulungsmaterialien, Best Practices und Forschungsergebnisse zu veröffentlichen, die es mehr Menschen ermöglichen, nützliche KI-Anwendungen zu entwickeln.

7. Stellen Sie KI-Technologie nur für diejenigen bereit, die diese Grundsätze einhalten.


Viele Technologien haben zwei Verwendungszwecke, einschließlich KI. Google verspricht, daran zu arbeiten, potenziell schädliche oder anstößige Anwendungen einzuschränken und deren wahrscheinliche Verwendung zu bewerten.

Sundar Pichai zitierte eine Liste von Technologien, die für die künstliche Intelligenz von Google nicht akzeptabel sind.

  1. Technologien, die allgemeinen Schaden verursachen oder verursachen können.
  2. Waffen oder andere Technologien, deren Hauptzweck oder Implementierung darin besteht, Menschen Schaden zuzufügen oder sie direkt zu lindern.
  3. Technologien, die Überwachungsinformationen sammeln oder verwenden, verstoßen gegen international anerkannte Standards.
  4. Technologien, deren Zweck den allgemein anerkannten Grundsätzen des Völkerrechts und der Menschenrechte widerspricht.

In gewisser Weise ähneln diese Prinzipien den Gesetzen von Asimovs Robotik. Es ist zu hoffen, dass auch andere KI-Systemunternehmen ihre Verpflichtung zu diesen Grundsätzen offiziell bekannt geben und diese einhalten werden.

Source: https://habr.com/ru/post/de413637/


All Articles