
Müssen wir Angst vor künstlicher Intelligenz (KI) haben? Für mich ist dies eine einfache Frage mit einer noch einfacheren Antwort: Nein. Aber nicht jeder stimmt mir zu - viele Menschen, einschließlich Stephen Hawking, haben Bedenken geäußert, dass die Entstehung leistungsfähiger KI-Systeme das Ende der Menschheit bedeuten könnte.
Ihre Sicht auf die Frage, ob die KI die Welt erobern wird oder nicht, hängt natürlich davon ab, ob die KI ein vernünftiges Verhalten entwickeln kann, das dem menschlichen Verhalten überlegen ist - etwas, das als „Superintelligenz“ bezeichnet wird. Schauen wir uns die Wahrscheinlichkeit dieses Prozesses an und warum die Zukunft der KI so besorgniserregend ist.
Menschen haben normalerweise Angst vor dem, was sie nicht verstehen. Angst wird oft für Rassismus, Homophobie und andere Ursachen von Diskriminierung verantwortlich gemacht. Es ist nicht verwunderlich, dass dies für neue Technologien gilt - sie sind oft von bestimmten Rätseln umgeben. Einige technologische Fortschritte scheinen völlig unrealistisch, übertreffen die Erwartungen und in einigen Fällen die menschlichen Fähigkeiten.
Es ist kein Geist im Auto
Lassen Sie uns das Rätsel der beliebtesten KI-Technologien lösen, die als „maschinelles Lernen“ bekannt sind. Sie ermöglichen es der Maschine, das Ausführen einer Aufgabe zu lernen, ohne bestimmte Anweisungen programmieren zu müssen. Es mag beängstigend aussehen, aber tatsächlich kommt es auf ziemlich langweilige Statistiken an.
Eine Maschine, dh ein Programm oder genauer gesagt ein Algorithmus, ist so konzipiert, dass sie die in den Eingabedaten verfügbaren Beziehungen aufdecken kann. Es gibt viele verschiedene Methoden, um diesen Effekt zu erzielen. Zum Beispiel können wir der Maschine Bilder von handgeschriebenen Buchstaben zur Verfügung stellen und sie bitten, die Reihenfolge dieser Buchstaben zu erkennen. Wir haben ihr bereits mögliche Antworten gegeben - dies können nur Buchstaben des Alphabets sein. Zuerst benennt die Maschine den Buchstaben zufällig, und wir korrigieren ihn und geben die richtige Antwort. Wir haben das Gerät auch für die Selbstoptimierung programmiert. Wenn sie das nächste Mal den Buchstaben geben, ist es wahrscheinlicher, dass wir die richtige Antwort erhalten. Infolgedessen verbessert die Maschine im Laufe der Zeit ihre Effizienz und "lernt", das Alphabet zu erkennen.
Tatsächlich haben wir die Maschine so programmiert, dass sie die gemeinsamen Beziehungen in den Daten verwendet, um ein bestimmtes Ziel zu erreichen. Beispielsweise sehen alle Varianten des Buchstabens "a" strukturell ähnlich aus, unterscheiden sich jedoch von "b", das der Algorithmus nutzen kann. Interessanterweise kann die Maschine nach der Trainingsphase das erworbene Wissen auf neue Beispiele von Briefen anwenden, die beispielsweise von einer Person geschrieben wurden, deren Handschrift zuvor noch nicht gesehen wurde.
Wir geben KI-AntwortenDie Leute können jedoch bereits gut lesen. Ein vielleicht interessanteres Beispiel wäre der künstliche Spieler im Go-Projekt Google Deepmind, der alle menschlichen Spieler besiegt hat. Offensichtlich lernt er nicht wie Menschen - er spielt das Spiel so oft mit sich selbst, dass niemand in seinem ganzen Leben spielen wird. Er war darauf programmiert zu gewinnen und erklärte, dass der Gewinn von seinen Handlungen abhängt. Ihm wurden auch die Spielregeln beigebracht. Indem er immer wieder dasselbe Spiel spielt, kann er in jeder Situation den besten Zug entdecken und Erfindungen erfinden, die Menschen noch nie zuvor gemacht haben.
Kleinkinder gegen Roboter
Macht das eine KI, die spielt, schlauer als Menschen? Auf keinen Fall. KI ist sehr spezialisiert, für eine bestimmte Art von Aufgabe konzipiert und hat nicht die Vielseitigkeit von Menschen. Im Laufe der Jahre beginnen die Menschen, die Welt auf eine Weise zu verstehen, die keine KI geschafft hat und in naher Zukunft wahrscheinlich nicht in der Lage sein wird.
Die Tatsache, dass KI "Intelligenz" genannt wird, beruht auf der Tatsache, dass sie lernfähig ist. Aber im Training erreicht er keine Menschen. Die Kleinen können lernen, indem sie zusehen, wie jemand anderes das Problem löst. KI erfordert Datenautos und viele Versuche, bei sehr spezifischen Aufgaben Erfolg zu haben, und es ist sehr schwierig, die Daten für Aufgaben zu verallgemeinern, die sich zu stark von denen unterscheiden, für die er trainiert hat. Wenn Menschen in den ersten Jahren ihres Lebens relativ schnell erstaunliche Intelligenz entwickeln, unterscheiden sich die Schlüsselkonzepte des maschinellen Lernens nicht wesentlich von denen vor zehn oder zwanzig Jahren.
Das Gehirn eines kleinen Kindes ist erstaunlichDie Erfolge der modernen KI sind weniger mit technologischen Durchbrüchen verbunden und hängen mehr von der einfachen Datenmenge und der Rechenleistung ab. Es ist wichtig anzumerken, dass selbst eine unendliche Datenmenge keine KI-Intelligenz für den Menschen liefert - zuerst müssen wir erhebliche Fortschritte bei der Entwicklung von Technologien für "generalisierte Intelligenz" erzielen - und wir haben dieses Problem nicht einmal annähernd gelöst.
Im Allgemeinen folgt aus der Tatsache, dass KI lernfähig ist, nicht, dass sie plötzlich alle Aspekte der menschlichen Intelligenz untersucht und uns übertrifft. Es gibt nicht einmal eine einfache Definition dessen, was menschliche Intelligenz ist, und wir haben kein klares Verständnis dafür, wie sie im Gehirn erscheint. Aber selbst wenn wir es herausfinden und dann eine KI schaffen könnten, die intelligenter werden würde, folgt daraus keineswegs, dass sie erfolgreicher werden würde.
Persönlich mache ich mir mehr Sorgen darüber, wie Menschen KI benutzen. Algorithmen für maschinelles Lernen werden oft als Black Boxes betrachtet, und es werden nur wenige Versuche unternommen, die Details der vom Algorithmus gefundenen Lösung zu verstehen. Dies ist ein wichtiger Aspekt, der oft ignoriert wird, während wir mehr von Effizienz und weniger von Verständnis besessen sind. Es ist wichtig, die Lösungen zu verstehen, die diese Systeme bieten, denn dann können wir bewerten, ob dies die richtigen Entscheidungen sind und ob wir sie anwenden möchten.
Wenn wir beispielsweise unser System falsch trainieren, können wir eine Maschine erhalten, die die Beziehungen gelernt hat, die im Allgemeinen nicht existieren. Angenommen, wir möchten eine Maschine herstellen, die die potenziellen Studenten bewertet, um im Ingenieurwesen erfolgreich zu sein. Die Idee ist wahrscheinlich schlecht, aber gehen wir einfach so weit wie ein Beispiel bis zum Ende. Traditionell dominieren Männer in diesem Bereich, was bedeutet, dass Trainingsbeispiele wahrscheinlich männlichen Studenten entnommen werden. Wenn wir nicht von der Ausgewogenheit der Trainingsdaten überzeugt sind, kann die Maschine zu dem Schluss kommen, dass nur Männer Ingenieure sein können, und es ist falsch, sie auf zukünftige Entscheidungen anzuwenden.
Maschinelles Lernen und KI sind Werkzeuge. Sie können wie alles andere richtig oder falsch verwendet werden. Wir sollten uns Gedanken über die Art und Weise machen, wie sie verwendet werden, nicht über die Methoden selbst. Die Gier und Dummheit eines Menschen stört mich viel mehr als künstliche Intelligenz.