
Ich begrüße Leser von Habr. Ihre Aufmerksamkeit wird auf die Übersetzung des Artikels
"Alles, was Sie über KI wissen müssen - in weniger als 8 Minuten" gebeten. . Der Inhalt richtet sich an Personen, die mit dem Gebiet der KI nicht vertraut sind und sich einen allgemeinen Überblick darüber verschaffen möchten, um sich dann vielleicht mit einem ihrer spezifischen Zweige zu befassen.
Manchmal ist es nützlicher, ein wenig über alles zu wissen (zumindest für Anfänger, die versuchen, in beliebten technischen Bereichen zu navigieren), als viel über eine Sache zu wissen.
Viele Leute denken, dass sie mit KI ein wenig vertraut sind. Aber dieses Gebiet ist so jung und wächst so schnell, dass fast jeden Tag Ausbrüche auftreten. Auf diesem wissenschaftlichen Gebiet gibt es so viel zu entdecken, dass Spezialisten aus anderen Bereichen schnell in die KI-Forschung einsteigen und signifikante Ergebnisse erzielen können.
Dieser Artikel ist nur für sie. Ich habe mir zum Ziel gesetzt, ein kurzes Referenzmaterial zu erstellen, mit dem technisch ausgebildete Personen die Terminologie und die Tools zur Entwicklung der KI schnell verstehen können. Ich hoffe, dass dieses Material für die meisten KI-Interessierten nützlich sein wird, die keine Spezialisten auf diesem Gebiet sind.
Einführung
Künstliche Intelligenz (KI), maschinelles Lernen und neuronale Netze sind Begriffe, mit denen leistungsstarke Technologien beschrieben werden, die auf maschinellem Lernen basieren und viele Probleme aus der realen Welt lösen können.
Beim Denken, Treffen von Entscheidungen usw. Im Vergleich zu den Fähigkeiten des menschlichen Gehirns in Maschinen sind sie alles andere als ideal (sie sind natürlich auch beim Menschen nicht ideal). In letzter Zeit wurden mehrere wichtige Entdeckungen auf dem Gebiet der KI-Technologien und verwandter Algorithmen gemacht. Eine wichtige Rolle spielt die zunehmende Anzahl großer Stichproben verschiedener Daten, die für das Training der KI verfügbar sind.
Das Gebiet der KI überschneidet sich mit vielen anderen Bereichen, einschließlich Mathematik, Statistik, Wahrscheinlichkeitstheorie, Physik, Signalverarbeitung, maschinelles Lernen, Computer Vision, Psychologie, Linguistik und der Wissenschaft des Gehirns. Themen im Zusammenhang mit sozialer Verantwortung und der Ethik der Schaffung von KI ziehen interessierte Personen an, die sich mit Philosophie befassen.
Die Motivation für die Entwicklung der KI-Technologie besteht darin, dass Aufgaben, die von vielen variablen Faktoren abhängen, sehr komplexe Lösungen erfordern, die schwer zu verstehen und schwer manuell zu algorithmisieren sind.
Die Hoffnungen von Unternehmen, Forschern und gewöhnlichen Menschen auf maschinelles Lernen wachsen, um Lösungen für Probleme zu finden, bei denen keine Person bestimmte Algorithmen beschreiben muss. Dem Black-Box-Ansatz wird viel Aufmerksamkeit geschenkt. Das Programmieren der Algorithmen zum Modellieren und Lösen von Problemen, die mit großen Datenmengen verbunden sind, nimmt den Entwicklern viel Zeit in Anspruch. Selbst wenn es uns gelingt, Code zu schreiben, der eine große Menge verschiedener Daten verarbeitet, erweist es sich häufig als sehr umständlich, schwierig zu warten und schwer zu testen (da selbst für Tests eine große Datenmenge verwendet werden muss).
Moderne Technologien des maschinellen Lernens und der KI in Verbindung mit korrekt ausgewählten und vorbereiteten „Trainingsdaten“ für Systeme können es uns ermöglichen, Computern das Programmieren für uns beizubringen.

Rückblick
Intelligenz - die Fähigkeit, Informationen wahrzunehmen und als Wissen zu speichern, um adaptives Verhalten in einer Umgebung oder einem Kontext aufzubauenDiese Definition von Intelligenz aus der (englischen) Wikipedia kann sowohl auf das organische Gehirn als auch auf die Maschine angewendet werden.
Das Vorhandensein von Intelligenz impliziert nicht das Vorhandensein von Bewusstsein . Dies ist ein weit verbreitetes Missverständnis, das von Science-Fiction-Autoren auf die Welt gebracht wurde.
Wenn Sie im Internet nach Beispielen für KI suchen, erhalten Sie wahrscheinlich mindestens einen Link zu IBM Watson, der den Algorithmus für maschinelles Lernen verwendet, der nach dem Gewinn einer Spielshow mit dem Titel „Jeopardy“ im Jahr 2011 berühmt wurde. Seitdem hat der Algorithmus einige Änderungen erfahren und wurde in verwendet als Vorlage für viele verschiedene kommerzielle Anwendungen. Apple, Amazon und Google arbeiten aktiv daran, ähnliche Systeme in unseren Häusern und Taschen zu schaffen.
Die Verarbeitung natürlicher Sprache und die Spracherkennung waren die ersten Beispiele für die kommerzielle Nutzung des maschinellen Lernens. Darauf folgten Aufgaben, andere Aufgaben der Erkennungsautomatisierung (Text, Audio, Bilder, Video, Gesichter usw.). Das Anwendungsspektrum dieser Technologien wächst ständig und umfasst unbemannte Fahrzeuge, medizinische Diagnostik, Computerspiele, Suchmaschinen, Spamfilter, Kriminalitätsbekämpfung, Marketing, Robotersteuerung, Computer Vision, Transport, Musikerkennung und vieles mehr.
KI ist so eng in die modernen Technologien eingebettet, dass viele sie nicht einmal als „KI“ betrachten, das heißt, sie trennen sie nicht von herkömmlichen Computertechnologien. Fragen Sie jeden Passanten, ob sein Smartphone künstliche Intelligenz enthält, und er wird wahrscheinlich antworten: „Nein“. Aber KI-Algorithmen gibt es überall: von der Vorhersage des eingegebenen Textes bis zum automatischen Fokus der Kamera. Viele glauben, dass KI in Zukunft erscheinen sollte. Aber er ist vor einiger Zeit aufgetaucht und schon da.
Der Begriff "KI" ist ziemlich verallgemeinert. Die meisten Forschungsarbeiten konzentrieren sich jetzt auf ein engeres Feld neuronaler Netze und tiefes Lernen.
Wie unser Gehirn funktioniert
Das menschliche Gehirn ist ein komplexer Kohlenstoffcomputer, der nach groben Schätzungen eine Milliarde Milliarden Operationen pro Sekunde (1000 Petaflops) ausführt und dabei 20 Watt Energie verbraucht. Ein chinesischer Supercomputer namens "Tianhe-2" (der zum Zeitpunkt des Schreibens schnellste der Welt) führt 33.860 Billionen Operationen pro Sekunde (33,86 Petaflops) aus und verbraucht 1.600.000 Watt (17,6 Megawatt). Wir müssen eine gewisse Menge Arbeit leisten, bevor unsere Siliziumcomputer mit den durch die Evolution gebildeten Kohlenstoffcomputern verglichen werden können.
Eine genaue Beschreibung des Mechanismus, den unser Gehirn zum „Denken“ verwendet, ist Gegenstand von Diskussionen und weiteren Forschungen (ich persönlich mag die Theorie, dass die Arbeit des Gehirns mit Quanteneffekten verbunden ist, aber dies ist ein Thema für einen anderen Artikel). Der Arbeitsmechanismus von Teilen des Gehirns wird jedoch normalerweise unter Verwendung des Konzepts von Neuronen und neuronalen Netzen modelliert. Es wird geschätzt, dass das Gehirn ungefähr 100 Milliarden Neuronen enthält.

Neuronen interagieren miteinander über spezielle Kanäle, über die sie Informationen austauschen können. Die Signale einzelner Neuronen werden gewogen und miteinander kombiniert, bevor andere Neuronen aktiviert werden. Diese Verarbeitung übertragener Nachrichten, die Kombination und Aktivierung anderer Neuronen wiederholt sich in verschiedenen Schichten des Gehirns. Angesichts der Tatsache, dass unser Gehirn 100 Milliarden Neuronen enthält, ist die Gesamtheit der gewichteten Kombinationen dieser Signale ziemlich kompliziert. Und das ist gelinde gesagt.
Aber das endet nicht dort. Jedes Neuron wendet eine Funktion oder Transformation auf gewichtete Eingangssignale an, bevor überprüft wird, ob seine Aktivierungsschwelle erreicht ist. Die Umwandlung des Eingangssignals kann linear oder nicht linear sein.
Anfänglich kommen Eingangssignale aus verschiedenen Quellen: unseren Sinnen, Mitteln zur internen Überwachung der Funktion des Körpers (Sauerstoffgehalt im Blut, Mageninhalt usw.) und anderen. Ein einzelnes Neuron kann Hunderttausende von Eingangssignalen empfangen, bevor es entscheidet, wie es reagiert.
Das Denken (oder die Informationsverarbeitung) und die daraus resultierenden Anweisungen, die an unsere Muskeln und andere Organe übertragen werden, sind das Ergebnis der Umwandlung und Übertragung von Eingangssignalen zwischen Neuronen aus verschiedenen Schichten des neuronalen Netzwerks. Neuronale Netze im Gehirn können sich jedoch ändern und aktualisiert werden, einschließlich Änderungen des Algorithmus zur Gewichtung von Signalen, die zwischen Neuronen übertragen werden. Dies ist auf Lernen und Erfahrung zurückzuführen.
Dieses Modell des menschlichen Gehirns wurde als Vorlage für die Reproduktion der Fähigkeiten des Gehirns in der Computersimulation verwendet - einem künstlichen neuronalen Netzwerk.
Künstliche Neuronale Netze (ANNs)
Künstliche Neuronale Netze sind mathematische Modelle, die in Analogie zu biologischen Neuronalen Netzen erstellt wurden. ANNs können nichtlineare Beziehungen zwischen Eingangs- und Ausgangssignalen modellieren und verarbeiten. Die adaptive Gewichtung von Signalen zwischen künstlichen Neuronen wird dank eines Lernalgorithmus erreicht, der die beobachteten Daten liest und versucht, die Ergebnisse ihrer Verarbeitung zu verbessern.

Um den Betrieb von ANNs zu verbessern, werden verschiedene Optimierungstechniken verwendet. Die Optimierung wird als erfolgreich angesehen, wenn der ANN die Aufgabe in einer Zeit lösen kann, die den festgelegten Rahmen nicht überschreitet (Zeitrahmen variieren natürlich von Aufgabe zu Aufgabe).
ANN wird unter Verwendung mehrerer Schichten von Neuronen modelliert. Die Struktur dieser Schichten wird als Modellarchitektur bezeichnet. Neuronen sind separate Recheneinheiten, die Eingabedaten empfangen und eine mathematische Funktion auf sie anwenden können, um zu bestimmen, ob diese Daten weiter übertragen werden sollen.
In einem einfachen dreischichtigen Modell ist die erste Ebene eine Eingabeebene, gefolgt von einer verborgenen Ebene und einer Ausgabeebene. Jede Schicht enthält mindestens ein Neuron.
Da die Struktur des Modells durch Erhöhen der Anzahl von Schichten und Neuronen kompliziert wird, steigt das Potenzial zur Lösung von ANN-Problemen. Wenn das Modell jedoch für eine bestimmte Aufgabe zu "groß" ist, kann es nicht auf das gewünschte Niveau optimiert werden. Dieses Phänomen wird als
Überanpassung bezeichnet .
Die Architektur, Konfiguration und Auswahl von Datenverarbeitungsalgorithmen sind die Hauptkomponenten des Aufbaus von ANN. Alle diese Komponenten bestimmen die Leistung und die Gesamtleistung des Modells.
Modelle zeichnen sich häufig durch die sogenannte
Aktivierungsfunktion aus . Es wird verwendet, um die gewichtete Eingabe eines Neurons in seine Ausgabe umzuwandeln (wenn ein Neuron beschließt, Daten weiter zu übertragen, wird dies als Aktivierung bezeichnet). Es gibt viele verschiedene Transformationen, die als Aktivierungsfunktionen verwendet werden können.
ANNs sind ein leistungsfähiges Mittel zur Lösung von Problemen. Obwohl das mathematische Modell einer kleinen Anzahl von Neuronen recht einfach ist, wird das Modell eines neuronalen Netzwerks mit einer Zunahme der Anzahl seiner Bestandteile ziemlich verwirrend. Aus diesem Grund wird die Verwendung von ANN manchmal als Black-Box-Ansatz bezeichnet. Die Wahl von ANN zur Lösung des Problems sollte sorgfältig abgewogen werden, da in vielen Fällen die resultierende endgültige Lösung nicht zerlegt und analysiert werden kann, warum sie zu einer solchen geworden ist.

Tiefes Lernen
Der Begriff
Deep Learning wird verwendet, um neuronale Netze und die darin verwendeten Algorithmen zu beschreiben, die Rohdaten empfangen (von denen einige nützliche Informationen benötigt werden). Diese Daten werden verarbeitet, indem sie durch die Schichten des neuronalen Netzwerks laufen, um die gewünschte Ausgabe zu erhalten.
Unbeaufsichtigtes Lernen ist ein Bereich, in dem Deep-Learning-Techniken sehr gut
funktionieren . Ein korrekt konfigurierter ANN kann die Hauptmerkmale der Eingabedaten (ob Text, Bilder oder andere Daten) automatisch ermitteln und ein nützliches Ergebnis ihrer Verarbeitung erhalten. Ohne gründliches Training fällt die Suche nach wichtigen Informationen häufig auf die Schultern eines Programmierers, der ein System für deren Verarbeitung entwickelt. Das Deep-Learning-Modell allein kann einen Weg finden, Daten zu verarbeiten, mit dem Sie nützliche Informationen daraus extrahieren können. Wenn das System trainiert wird (dh es findet genau den Weg, nützliche Informationen aus den Eingabedaten zu extrahieren), werden die Anforderungen an Rechenleistung, Speicher und Energie zur Wartung des Modells reduziert.
Einfach ausgedrückt, ermöglichen Lernalgorithmen die Verwendung speziell vorbereiteter Daten, um ein Programm für die Ausführung einer bestimmten Aufgabe zu „trainieren“.
Deep Learning wird zur Lösung einer Vielzahl von Problemen eingesetzt und gilt als eine der innovativen KI-Technologien. Es gibt auch andere Arten von Training, wie z. B.
überwachtes Lernen und
halbüberwachtes Lernen , die sich durch die Einführung einer zusätzlichen menschlichen Kontrolle über die Zwischenergebnisse des Trainings des neuronalen Netzwerks in der Datenverarbeitung auszeichnen (um festzustellen, ob es in die richtige Richtung geht bewegliches System).
Schattenlernen (
Schattenlernen ) - ein Begriff, der zur Beschreibung einer vereinfachten Form des Tiefenlernens verwendet wird, bei der der Suche nach Schlüsselmerkmalen der Daten die Verarbeitung durch eine Person und die Eingabe von Informationen vorausgeht, die für das Feld spezifisch sind, auf das sich diese Daten beziehen. Solche Modelle sind „transparenter“ (im Sinne der Erzielung von Ergebnissen) und leistungsstärker, da mehr Zeit für den Entwurf des Systems aufgewendet wird.
Fazit
AI ist ein leistungsstarkes Datenverarbeitungswerkzeug und kann Lösungen für komplexe Probleme schneller finden als herkömmliche Algorithmen, die von Programmierern geschrieben wurden. ANNs und Deep-Learning-Techniken können helfen, eine Reihe verschiedener Probleme zu lösen. Der Nachteil ist, dass die am besten optimierten Modelle häufig als „Black Boxes“ fungieren, sodass es unmöglich ist, die Gründe für die Wahl der einen oder anderen Lösung zu untersuchen. Diese Tatsache kann zu ethischen Fragen im Zusammenhang mit der Transparenz von Informationen führen.