KI-Rechenschaftspflicht: Die Rolle der ErlÀuterung

Systeme der kĂŒnstlichen Intelligenz (KI) gewinnen an Boden. In diesem Zusammenhang diskutieren AnwĂ€lte und Gesetzgeber das Problem, wie solche Systeme reguliert werden sollten, die fĂŒr ihre Handlungen verantwortlich sind. Dieses Problem erfordert eine sorgfĂ€ltige Untersuchung und einen ausgewogenen Ansatz, da KI-Systeme große Datenmengen generieren können und in Anwendungen mit unterschiedlichen Funktionen verwendet werden - von medizinischen Systemen und Autopiloten in Autos bis hin zur Vorhersage von Verbrechen und zur Berechnung potenzieller Krimineller. Gleichzeitig bemĂŒhen sich Wissenschaftler, eine „starke KI“ zu schaffen, die zum Denken fĂ€hig ist, und es stellt sich die Frage, wie das Vorhandensein von Absichten in seinen Handlungen festgestellt werden kann - oder ob Handlungen als unbeabsichtigt erkannt werden.

Es gibt viele Möglichkeiten, das KI-System zur Rechenschaft zu ziehen und Verantwortung zu ĂŒbernehmen. Zu diesem Thema wurden mehrere Studien veröffentlicht. In einem neuen Forschungsbericht diskutieren Informatiker, Kognitionswissenschaftler und AnwĂ€lte der UniversitĂ€ten Harvard und Cambridge (USA) eine Komponente des zukĂŒnftigen KI-Verantwortlichkeitssystems, nĂ€mlich die Rolle einer ErlĂ€uterung der KI, dh eine Bewertung, wie das System der kĂŒnstlichen Intelligenz seine Handlungen erklĂ€rt . Wissenschaftler kamen zu dem Schluss, dass das Modul zur ErklĂ€rung von Aktionen vom allgemeinen KI-System getrennt werden sollte.

Die Autoren der wissenschaftlichen Arbeit beschreiben alle Probleme, die auftreten, wenn versucht wird, das KI-System um eine ErklÀrung seiner Handlungen zu bitten.

Erstens sollte eine solche Gelegenheit in der Phase der Systementwicklung geboten werden, da die KI sonst möglicherweise ihre Handlungen ablehnt oder nicht erklÀren kann.

Zweitens verarbeitet das KI-System eine große Anzahl von Daten unter Verwendung komplexer proprietĂ€rer Algorithmen oder Methoden, die es selbst im Lernprozess entwickelt hat. Wenn sie versucht, ihre Handlungen so vollstĂ€ndig wie möglich zu erklĂ€ren, kann sie zu viele Daten generieren, die fĂŒr eine Person unverstĂ€ndlich sind. Oder - wie das andere Extrem - ein zu vereinfachtes Modell liefern, das nicht die wirklichen Absichten der KI und die Motive der Handlungen widerspiegelt. DarĂŒber hinaus können die Betriebsalgorithmen des KI-Systems geistiges Eigentum des sich entwickelnden Unternehmens sein. Daher ist es erforderlich, eine solche Methode zur Erstellung einer ErlĂ€uterung bereitzustellen, um die Ursachen des Systems zu ermitteln, die zugrunde liegenden Algorithmen jedoch nicht herauszugeben.

Forscher glauben, dass eine ErklÀrung möglich ist, ohne die Algorithmen und Regeln aufzudecken, die der Funktionsweise des KI-Systems zugrunde liegen. Im Falle eines Vorfalls sollte das System Antworten auf die folgenden Fragen geben:

  • Was sind die Hauptfaktoren, die die Entscheidung beeinflussen?
  • WĂŒrde eine Änderung eines bestimmten Faktors zu einer Änderung der Entscheidung fĂŒhren?
  • Warum fĂŒhrten zwei Ă€hnliche FĂ€lle zu unterschiedlichen Lösungen?

Antworten auf solche Fragen erfordern nicht unbedingt die Offenlegung von proprietÀren Geheimnissen und internen Systemalgorithmen, sondern vermitteln gleichzeitig ein klares VerstÀndnis der Motive.

Wissenschaftler argumentieren, in welchen FĂ€llen es angebracht ist, von der KI eine ErklĂ€rung ihrer Handlungen zu verlangen. Dies ist in der Tat erforderlich, wenn der Nutzen der ErklĂ€rung den Preis ihrer Quittung ĂŒberwiegt: „Wir glauben, dass es drei Bedingungen fĂŒr Situationen gibt, in denen das Unternehmen es fĂŒr erforderlich hĂ€lt, eine ErklĂ€rung vom EntscheidungstrĂ€ger einzuholen. Dies sind moralische, soziale oder rechtliche GrĂŒnde “, erklĂ€rt Finale Doshi-Velez, Hauptautor des Papiers.

Gleichzeitig sollte man nicht in jeder Situation buchstĂ€blich ErklĂ€rungen von der KI verlangen. Wie oben erwĂ€hnt, erhöht dies das Risiko der Herausgabe von GeschĂ€ftsgeheimnissen und belastet die Entwickler von KI-Systemen zusĂ€tzlich. Mit anderen Worten, die stĂ€ndige Rechenschaftspflicht der KI gegenĂŒber dem Menschen wird die Entwicklung dieser Systeme behindern, auch in Bereichen, die fĂŒr den Menschen wichtig sind.

Im Gegensatz zu der weit verbreiteten Annahme, dass das KI-System eine Black Box ist, deren Ursachen fĂŒr den Menschen unverstĂ€ndlich sind, sind sich die Autoren der wissenschaftlichen Arbeit sicher, dass ein normal funktionierendes Modul zur ErklĂ€rung der Aktionen der KI entwickelt werden kann. Dieses Modul wird in das System integriert, arbeitet jedoch unabhĂ€ngig von den Entscheidungsalgorithmen und befolgt diese nicht.

Wissenschaftler glauben, dass es einige Punkte in der ErklĂ€rung von Handlungen gibt, die fĂŒr Menschen leicht darzulegen sind und fĂŒr Maschinen schwierig sind und umgekehrt.

Vergleich der menschlichen FÀhigkeiten und KI zu erklÀren
MannAI
Die VorteileKann den hinteren Akt erklÀrenReproduzierbarkeit, mangelnder sozialer Druck
NachteileKann ungenau und unzuverlĂ€ssig sein, fĂŒhlt sozialen DruckErfordert eine vorlĂ€ufige Programmierung des ErklĂ€rungsmoduls, zusĂ€tzliche Taxonomien und die Erweiterung des Speichersystems

Die Expertengruppe empfiehlt jedoch, dass das erste Mal, das fĂŒr KI-Systeme festgelegt wird, derselbe Standard fĂŒr die ErklĂ€rung ihrer Handlungen ist, der heute fĂŒr Menschen festgelegt ist (dieser Standard ist im US-Recht festgelegt: Insbesondere bei strikter Haftung, Scheidung und Diskriminierung ist eine ErklĂ€rung erforderlich.) fĂŒr Verwaltungsentscheidungen und von Richtern und Jurys, um ihre Entscheidungen zu erlĂ€utern - obwohl der Detaillierungsgrad der ErlĂ€uterung in jedem Fall sehr unterschiedlich ist).

Wenn die GrĂŒnde fĂŒr die Handlungen der KI ĂŒber das VerstĂ€ndnis des Menschen hinausgehen, kann, um die KI in Zukunft zu berĂŒcksichtigen, ein anderer Standard fĂŒr ihre ErlĂ€uterungen entwickelt werden, sagen Wissenschaftler.

Der wissenschaftliche Artikel wurde am 3. November 2017 auf der Preprint-Website arXiv.org (arXiv: 1711.01134v1) veröffentlicht.

Source: https://habr.com/ru/post/de408247/


All Articles