Die unerzählte Geschichte der KI

Die Geschichte der KI wird oft erzählt, wie die Geschichte der Maschinen allmählich intelligenter wird. Aber der menschliche Faktor geht in der Geschichte verloren, die Frage nach dem Entwerfen und Trainieren von Maschinen und wie sie aussehen, dank der Bemühungen des Menschen, geistig und körperlich.


Lassen Sie uns diese menschliche Geschichte der KI untersuchen - wie Innovatoren, Denker, Arbeiter und manchmal Spekulanten Algorithmen entwickelten, die menschliches Denken und Verhalten reproduzieren können (oder so tun, als wären sie reproduziert). Die Idee von superintelligenten Computern, die kein menschliches Engagement erfordern, kann aufregend sein - aber die wahre Geschichte intelligenter Maschinen zeigt, dass unsere KI so gut ist wie wir.

Als Charles Babbage mit dem ersten mechanischen Türken Schach spielte


Der berühmte Ingenieur des 19. Jahrhunderts wurde möglicherweise vom ersten Beispiel des Hype um KI inspiriert




1770 demonstrierte der Erfinder Wolfgang von Kempelen am Hof ​​der österreichischen Kaiserin Maria Theresia eine Schachmaschine . Der "Türke", wie Kempelen seine Erfindung nannte, war eine lebensgroße menschliche Figur aus Zeder [nach anderen Quellen - Wachs / ca. transl.], als Vertreter des Osmanischen Reiches verkleidet, hinter einem Holzschrank sitzend, auf dessen Arbeitsplatte sich ein Schachbrett befand.

Kempelen erklärte, sein Auto könne jeden Höfling besiegen, und dieser Anruf wurde von einer der Beraterinnen von Maria Theresa angenommen. Kempelen öffnete die Schranktüren und demonstrierte einen Mechanismus ähnlich einem Uhrwerk - ein komplexes Netzwerk von Hebeln und Zahnrädern. Dann steckte er einen Schlüssel in das Auto und startete es. Das Maschinengewehr erwachte zum Leben und hob eine Holzhand, um die erste Figur zu bewegen. Innerhalb von 30 Minuten besiegte er seinen Gegner.

Der Türke machte eine Sensation. In den nächsten zehn Jahren trat Kempelen mit seiner Schachmaschine in Europa auf und besiegte viele der klügsten Leute dieser Zeit, darunter Benjamin Franklin und Friedrich II. Nach dem Tod von Kempelen im Jahr 1804 erwarb Johann Nepomuk Melzel , Student an einer deutschen Universität und Musikinstrumentendesigner, der seine Leistungen weltweit fortsetzte, Turku.

Einer derjenigen, die sich das Auto genauer ansehen durften, war Charles Babbage , ein berühmter britischer Ingenieur und Mathematiker. 1819 spielte Babbage zweimal mit Turk und verlor beide Male. Laut dem Historiker Tom Standage, der die detaillierte Geschichte von Turk schrieb, vermutete Babbage, dass die Maschine keine intelligente Maschine, sondern nur ein listiger Scherz war und dass er einen Mann versteckte, der die Bewegungen des Türken von innen kontrollierte.



Babbage hatte recht. Hinter dem Bildschirm des türkischen Mechanismus befand sich Folgendes: Kempelen und Melzel stellten Großmeister ein, um heimlich in einer großen Kiste zu sitzen. Der Großmeister konnte dank Magneten, die ein Spiegelbild der platzierten Teile lieferten, sehen, was auf dem Brett geschah.

Um die Hand von Turk zu kontrollieren, benutzte ein versteckter Spieler einen Stromabnehmer, ein Blocksystem, das die Bewegungen seiner Hand mit einem hölzernen Türken synchronisierte. Der Spieler bewegte den Hebel auf der Magnettafel, drehte ihn, um die Finger des Türken zu öffnen und zu schließen, und bewegte die Figur dann an die richtige Stelle. Der Raum, in dem der Großmeister saß, enthielt mehrere Schiebetafeln und einen Stuhl auf Rädern, die sich auf gefetteten Schienen bewegten, so dass er sich vorwärts und rückwärts bewegen konnte, als Melzel die Schachtel öffnete, damit alle sie sehen konnten.

Und obwohl Babbage solche Tricks vermutete, verschwendete er keine Zeit damit, ihn wie viele seiner Zeitgenossen zu entlarven. Sein Treffen mit Turk bestimmte jedoch offenbar sein Denken für viele Jahre.


Charles Babbage entwickelte die Differenzmaschine Nr. 2 von 1847 bis 1849, aber während seines Lebens wurde sie nicht gebaut.

Bald darauf begann er mit der Arbeit an einem automatischen mechanischen Rechner namens " Differenzmaschine ", mit dem er fehlerfreie logarithmische Tabellen erstellen wollte. Die erste Konstruktion der Maschine, die 4 Tonnen wiegen konnte, enthielt 25.000 Metallkomponenten. In den 1830er Jahren gab er es auf und begann mit der Arbeit an einem noch komplexeren Mechanismus, der "analytischen Maschine". Sie hatte ein „Repository“ und eine „Mühle“, die als Speicher und Prozessor fungierten, sowie die Fähigkeit, auf Lochkarten enthaltene Softwareanweisungen zu interpretieren.

Zunächst hoffte Babbage, dass die Analysemaschine einfach als verbesserte Version des Unterschieds funktionieren würde. Seine Begleiterin Ada Lovelace erkannte jedoch, dass die Programmierbarkeit der Maschine es ermöglicht, in einem allgemeineren Modus zu arbeiten. Sie erklärte, dass eine solche Maschine zu einer neuen Art von „poetischer Wissenschaft“ führen würde und Mathematiker die Maschine trainieren würden, um Aufgaben durch Programmieren auszuführen. Sie sagte sogar voraus, dass die Maschine "komplexe wissenschaftliche Musikwerke" komponieren könne.


Ada Lovelace und Charles Babbage

Babbage stimmte schließlich Lovelace zu und stellte sich vor, wie das Potenzial einer Allzweckmaschine, die nicht nur Zahlen schleifen kann, die Welt verändern könnte. Natürlich kehrten seine Gedanken zu einem Treffen mit Turk zurück. 1864 schrieb er in ein Tagebuch über seinen Wunsch, eine „mechanische Aufzeichnung“ zu verwenden, um völlig neue Probleme zu lösen. "Nach ernsthaften Überlegungen habe ich für meinen Test eine listige Maschine ausgewählt, die ein intellektuelles Spiel wie Schach erfolgreich spielen kann."

Obwohl technisch gesehen die Türken- und die Babbage-Maschine in keiner Weise miteinander verbunden sind, scheint die Möglichkeit der Existenz von Maschinenintelligenz, die in der Mystifizierung von Kempelens enthalten ist, Babbage dazu inspiriert zu haben, Autos in einem völlig neuen Licht zu betrachten. Wie sein Begleiter später schrieb, David Brewster: "Diese automatischen Spielzeuge, die einst die Bürger unterhielten, tragen jetzt dazu bei, die Fähigkeiten und die Entwicklung unserer Zivilisation zu verbessern."

Das Treffen von Babbage mit dem Türken zu Beginn der Computergeschichte erinnert daran, dass Hype und Innovation manchmal Hand in Hand gehen. Aber es lehrt uns noch eines: Die Intelligenz, die Maschinen zugeschrieben wird, basiert fast immer auf verborgenen menschlichen Errungenschaften.

Unsichtbare Computerprogrammiererinnen ENIAC


Die Leute, die ENIAC leiten, haben kaum Anerkennung erhalten



Marilyn Veskov (links) und Ruth Lichterman waren zwei weibliche Programmierer von ENIAC

Am 14. Februar 1946 versammelten sich Journalisten an der Moore's Engineering School der University of Pennsylvania, um eine offene Demonstration eines der ersten elektronischen Universalcomputer der Welt zu sehen: ENIAC (Electronic Numeric Integrator and Computer).

Arthur Burks, Mathematiker und Chefingenieur des ENIAC-Teams, war für die Demonstration der Fähigkeiten der Maschine verantwortlich. Zuerst wies er den Computer an, 5000 Zahlen hinzuzufügen, was in 1 Sekunde erledigt war. Dann zeigte er, wie eine Maschine die Flugbahn eines Projektils schneller berechnen kann, als das Projektil selbst von der Waffe zum Ziel fliegen müsste.

Reporter waren erstaunt. Es schien ihnen, dass Burks nur einen Knopf drücken musste, und das Auto würde zum Leben erweckt, um in wenigen Augenblicken zu zählen, wofür die Leute Tage gebraucht hatten.

Was sie während der Demonstration nicht wussten oder was verborgen war, war, dass hinter der offensichtlichen Intelligenz der Maschine die harte und fortschrittliche Arbeit eines Teams von Programmierern stand, das aus sechs Frauen bestand, die zuvor als „Computer“ gearbeitet hatten.


Betty Jennings (links) und Francis Bilas arbeiten mit dem ENIAC-Hauptbedienfeld

Der Plan, eine Maschine zu bauen, mit der die Flugbahn von Granaten berechnet werden kann, wurde in den ersten Jahren des Zweiten Weltkriegs geboren. Moores School of Engineering arbeitete mit dem Ballistic Research Laboratory (BRL) zusammen, wo ein Team von 100 ausgebildeten „menschlichen Taschenrechnern“ manuell Artillerie-Feuertabellen berechnete.

Die Aufgabe erforderte gute Kenntnisse in Mathematik, einschließlich der Fähigkeit, nichtlineare Differentialgleichungen, Differentialanalysatoren und Rechenschieber zu lösen. Gleichzeitig galten Berechnungen als Büroarbeit, eine Aufgabe, die für männliche Ingenieure zu langwierig war. Aus diesem Grund stellte BRL Frauen - hauptsächlich solche mit Universitätsabschluss und einer Vorliebe für Mathematik - für diesen Job ein.

Im Verlauf des Krieges war die Fähigkeit, die Flugbahn von Granaten vorherzusagen, zunehmend mit der militärischen Strategie verbunden, und die BRL forderte zunehmend Ergebnisse.

1942 schrieb der Physiker John Mowchley ein Memo, in dem er vorschlug, einen universellen programmierbaren elektronischen Taschenrechner zu erstellen, der Berechnungen automatisieren könnte. Bis Juni 1943 hatte Mouchley zusammen mit dem Ingenieur J. Presper Eckert Mittel für den Bau des ENIAC erhalten.


J. Presper Eckert, John Mouchley, Betty Jean Jennings und Herman Goldstein vor ENIAC

Das Ziel des elektronischen Computers war es, Hunderte von Personencomputern von BRL zu ersetzen und die Geschwindigkeit und Effizienz des Rechnens zu erhöhen. Mauchly und Eckert erkannten jedoch, dass ihre neue Maschine so programmiert werden musste, dass Pfade mithilfe von Lochkarten berechnet werden. Dabei wurde die Technologie verwendet, die IBM seit mehreren Jahrzehnten für seine Maschinen verwendet.

Adele und Herman Goldstein, ein Ehepaar, das die Arbeit der menschlichen Taschenrechner bei BRL beaufsichtigte, schlugen vor, dass die mächtigsten Mathematiker ihres Teams diese Arbeit machen sollten. Sie wählten sechs aus - Kathleen McNulty, Francis Bilas, Betty Jean Jennings, Ruth Lichterman, Elizabeth Schneider und Marilyn Veskov - und beförderten sie von menschlichen Taschenrechnern zu Bedienern.


Elizabeth Betty Schneider arbeitet für ENIAC

Ihre erste Aufgabe war es, ENIAC gründlich kennenzulernen. Sie studierten die Zeichnungen der Maschine, um ihre elektronischen Schaltkreise, ihre Logik und ihre physikalische Struktur zu verstehen. Es gab etwas zu lernen: Ein 30 Tonnen schweres Monster nahm ungefähr 140 Quadratmeter ein. m. verwendet mehr als 17.000 elektronische Röhren, 70.000 Widerstände, 10.000 Kondensatoren, 1.500 Relais und 6.000 manuelle Schalter. Ein Team von sechs Bedienern war dafür verantwortlich, die Maschine einzurichten und zu installieren, um bestimmte Berechnungen durchzuführen, mit Geräten zu arbeiten, die Lochkarten bedienen, und nach Fehlern bei der Arbeit zu suchen. Zu diesem Zweck mussten die Bediener manchmal in die Maschine klettern und eine ausgefallene elektronische Lampe oder Verkabelung ersetzen.

ENIAC hatte keine Zeit, rechtzeitig fertig zu werden, um den Flug der Granaten während des Krieges zu berechnen. Doch bald nutzte John von Neumann ihre Kraft, um die Kernfusion zu berechnen. Dies erforderte die Verwendung von mehr als einer Million Lochkarten. Physiker aus Los Alamos verließen sich ausschließlich auf die Programmierkenntnisse des Bedieners, da nur sie wussten, wie man mit einer so großen Anzahl von Operationen umgeht.


ENIAC-Programmiererin Kathleen McNulty

Der Beitrag weiblicher Programmierer erhielt jedoch nur sehr wenig Anerkennung oder Dank. Insbesondere, weil die Programmierung der Maschine noch eng mit manuellen Berechnungen verbunden war und daher als nicht ganz professioneller Job angesehen wurde, der nur für Frauen geeignet war. Führende Ingenieure und Physiker konzentrierten sich auf die Entwicklung und Herstellung von Eisen, das sie für die Zukunft der Computer als wichtiger erachteten.

Als ENIAC 1946 schließlich der Presse vorgestellt wurde, blieben sechs weibliche Betreiber vor der Öffentlichkeit verborgen. Der Beginn des Kalten Krieges rückte näher und das US-Militär demonstrierte eifrig seine technologische Überlegenheit. Als Vertreter von ENIAC als autonome intelligente Maschine zeichneten die Ingenieure ein Bild von technologischer Exzellenz und versteckten die eingesetzte menschliche Arbeit.

Die Taktik funktionierte und beeinflusste die Berichterstattung der Medien über die Arbeit von Computern in den folgenden Jahrzehnten. In den weltweit verbreiteten ENIAC-Nachrichten stand das Auto im Mittelpunkt und erhielt Beinamen wie „elektronisches Gehirn“, „Zauberer“ und „vom Menschen hergestelltes Robotergehirn“.

Die harte und mühsame Arbeit von sechs Fahrerinnen, die im Auto krochen und Kabel und Lampen austauschten, damit die Maschine ihre „vernünftigen“ Aktionen ausführen konnte, war extrem leicht.

Warum Alan Turing wollte, dass künstliche Intelligenz Fehler macht


Unfehlbarkeit und Intelligenz sind nicht dasselbe.




1950, zu Beginn des digitalen Zeitalters, veröffentlichte Alan Turing einen Artikel, der später das berühmteste seiner Werke, Computing Machines and Mind , wurde, in dem er die Frage stellte : "Können Maschinen denken?"

Anstatt zu versuchen, die Konzepte „Maschine“ und „Denken“ zu definieren, beschreibt Turing eine andere Methode, um eine Antwort auf diese Frage zu finden, die vom Salonspiel der viktorianischen Ära inspiriert ist - Nachahmung. Gemäß den Spielregeln sprechen ein Mann und eine Frau in verschiedenen Räumen miteinander und geben Notizen über einen Vermittler weiter. Der Mediator, der auch die Rolle eines Richters spielt, muss erraten, welcher von ihnen ein Mann und welcher eine Frau ist, und seine Aufgabe wird durch die Tatsache erschwert, dass der Mann versucht, eine Frau nachzuahmen.

Inspiriert von diesem Spiel entwickelte Turing ein Gedankenexperiment, bei dem einer der Teilnehmer durch einen Computer ersetzt wurde. Wenn ein Computer so programmiert werden kann, dass er die Simulation so gut spielt, dass der Richter nicht erkennen kann, ob er über eine Maschine oder eine Person spricht, wäre es ratsam, zu dem Schluss zu kommen, dass die Maschine über Intelligenz verfügt, argumentierte Turing.

Dieses Gedankenexperiment wurde als Turing-Test bekannt und ist bis heute eine der bekanntesten und umstrittensten Ideen in der KI. Er verliert seine Attraktivität nicht, da er eine sehr philosophische Frage eindeutig beantwortet: "Können Maschinen denken?" Wenn der Computer den Turing-Test besteht, lautet die Antwort Ja. Wie der Philosoph Daniel Dennett schrieb , sollte der Turing-Test die philosophische Debatte stoppen. "Anstatt endlos über die Natur und das Wesen des Denkens zu streiten", schreibt Dennett, "warum sind wir uns nicht einig, dass alles, was diesen Test bestehen kann, es zweifellos hat, was auch immer diese Natur ist."

Eine gründlichere Lektüre von Turings Werk zeigt jedoch ein kleines Detail, das ein wenig Unklarheit in den Test einführt, was darauf hindeutet, dass Turing möglicherweise keinen praktischen Test der Maschine auf Intelligenz, sondern eine philosophische Provokation bedeutete.

In einem Teil des Papiers bietet Turing eine Simulation, wie ein Test mit einem imaginären intelligenten Computer der Zukunft aussehen könnte. Die Person stellt Fragen und der Computer antwortet.

F: Bitte schreiben Sie ein Sonett über die Brücke über das Fort.

A: Hier muss ich mich weigern. Ich habe nie Gedichte bekommen.

F: Fügen Sie 34957 und 70764 hinzu.

A: (Antwort nach einer Pause von 30 Sekunden): 105621.

F: Spielst du Schach?

Oh ja.

F: Mein König steht auf e1; Ich habe keine anderen Zahlen. Dein König ist bei e3 und der Turm bei a8. Dein Umzug. Wie wirst du gehen?

O: (Nach ungefähr fünfzehn Sekunden): La1, mat.

In diesem Gespräch hat der Computer einen Rechenfehler gemacht. Die reale Summe der Zahlen wird 105721 sein, nicht 105621. Es ist unwahrscheinlich, dass Turing, ein brillanter Mathematiker, es versehentlich geschafft hat. Es ist vielmehr ein Osterei für den aufmerksamen Leser.

An anderer Stelle im Artikel scheint Turing darauf hinzudeuten, dass dieser Fehler ein Programmiertrick ist, der einen Richter austricksen soll. Turing verstand, dass aufmerksame Leser von Computerantworten, die einen Fehler sahen, entscheiden würden, dass sie mit einer Person sprechen würden, vorausgesetzt, die Maschine würde keinen solchen Fehler machen. Turing schrieb, dass die Maschine so programmiert werden kann, dass "absichtlich Fehler in die Antworten aufgenommen werden, um den Interrogator zu verwirren".

Und wenn die Idee, Fehler zu verwenden, um auf den menschlichen Geist hinzuweisen, in den 1950er Jahren schwer zu verstehen war, ist sie heute zu einer Entwurfspraxis für Programmierer geworden, die mit der Verarbeitung natürlicher Sprache arbeiten. Zum Beispiel bestand der Chatbot Zhenya Gustman im Juni 2014 als erster Computer den Turing-Test. Kritiker wiesen jedoch darauf hin, dass Zhenya dies nur dank des eingebauten Tricks schaffte: Er gab vor, ein 13-jähriger Junge zu sein, der Englisch und nicht seine Muttersprache hatte. Dies bedeutete, dass seine Fehler in Syntax und Grammatik sowie unvollständiges Wissen fälschlicherweise auf Naivität und Unreife zurückgeführt wurden, anstatt auf die Unfähigkeit, natürliche Sprachen zu verarbeiten.

Nachdem der Duplex- Sprachassistent von Google das Publikum mit Gesprächspausen und der Verwendung von Tönen getroffen hatte, gaben viele an, dass dieses Verhalten nicht das Ergebnis des Systemdenkens war, sondern eine speziell programmierte Aktion, die den Prozess des menschlichen Denkens simulieren sollte.

In beiden Fällen wird Turings Idee umgesetzt, dass Computer speziell dafür gemacht werden können, Fehler zu machen, um eine Person zu beeindrucken. Wie Turing haben auch die Programmierer Zhenya Gustman und Duplex verstanden, dass eine oberflächliche Nachahmung menschlicher Unvollkommenheit uns täuschen kann.

Vielleicht bewertet der Turing-Test nicht die Präsenz des Geistes der Maschine, sondern unsere Bereitschaft, dies als vernünftig zu betrachten. Wie Turing selbst sagte : „Die Idee der Vernunft an sich ist emotionaler als mathematisch. "Wie vernünftig wir das Verhalten von etwas betrachten, hängt nicht weniger von unserem eigenen Geisteszustand und unseren Fähigkeiten ab als von den Eigenschaften des betreffenden Objekts."

Und vielleicht ist der Geist keine Substanz, die von der Maschine programmiert werden kann - was Turing anscheinend im Sinn hatte -, sondern ein Merkmal, das sich durch soziale Interaktion manifestiert.

DARPA-Träumer mit kybernetischer Intelligenz


Joseph Karl Robnett Liklider machte Vorschläge für die Schaffung einer „Symbiose von Mensch und Maschine“, die zur Erfindung des Internets führte




10:30 29 1969 - , , SDS Sigma 7 , , -.

: «LO».

«LOGIN», , , ARPANET, , .

-. , ARPANET , .

, , 1950- , . , , . , , «» , , , .

. , . , . – – , .

, , , . , ( ) .

1960 " " . «, , , , , ». , -, , « », SAGE, .

1963 ( ARPA, – DARPA), . , , " ".

, , ARPA , , , . , . , , : « ?»


, MIT,

ARPA , . ARPANET. , ARPANET , , , , , , , , « ».

. , , - . Uber , , , , .

, . , , : , , « , ». , , , .

1980-


, ,




In den 1970er Jahren wurde Dr. Joffrey Franglen von der Medical School of St. George in London begann einen Algorithmus zu schreiben, um Bewerbungen für Bewerber abzubrechen.

Zu diesem Zeitpunkt wurden drei Viertel der 2.500 Personen, die jährlich Einführungsanträge einreichten, von speziellen Personen gescreent, die ihren schriftlichen Antrag bewerteten, wodurch die Antragsteller das Stadium des Interviews nicht erreichten. Ungefähr 70% der Personen, die den ersten Schulabbruch abgeschlossen haben, haben sich an der medizinischen Fakultät eingeschrieben. Daher war das erste Screening ein äußerst wichtiges Stadium.

Franglen war der stellvertretende Dekan und kümmerte sich auch um Anträge. Das Lesen von Anwendungen erforderte einen Durchbruch in der Zeit, und es schien ihm, dass dieser Prozess automatisiert werden konnte. Er studierte die von ihm und anderen Zertifizierern verwendete Technik für Studienabbrecher und schrieb dann ein Programm, das, wie er sagte, „das Verhalten der Bescheinigung von Menschen nachahmt“.

Franglens Hauptmotivation bestand darin, die Effizienz des Adoptionsprozesses zu steigern, und er hoffte auch, dass sein Algorithmus die inkonsistente Qualität der Mitarbeiterarbeit beseitigen würde. Er hoffte, dass durch die Übergabe dieses Prozesses an das technische System genau die gleiche Bewertung aller Bewerber erreicht und ein ehrlicher Abbruchprozess geschaffen werden könne.

Tatsächlich lief alles umgekehrt.

Franglen vervollständigte seinen Algorithmus 1979. In diesem Jahr wurden die Anträge der Antragsteller gleichzeitig von einem Computer und von Personen geprüft. Franglen stellte fest, dass sein System in 90-95% der Fälle mit den Bewertungen der Prüfer übereinstimmte. Die Verwaltung entschied, dass diese Nummern es ermöglichen, Beamte durch einen Algorithmus zu ersetzen. Ab 1982 wurden alle Hauptanträge auf Zulassung zur Schule vom Programm bewertet.

Nach einigen Jahren waren einige Mitarbeiter besorgt über die mangelnde Vielfalt unter den Studenten, die eintraten. Sie führten eine interne Untersuchung des Franglen-Programms durch und fanden bestimmte Regeln, nach denen Antragsteller auf scheinbar nicht zusammenhängende Faktoren wie Geburtsort oder Name untersucht wurden. Franglen überzeugte den Ausschuss jedoch davon, dass diese Regeln auf der Grundlage der Erhebung von Daten über die Arbeit von Attestanten erhoben wurden und die Stichprobe nicht wesentlich beeinflussten.

Im Dezember 1986 erfuhren zwei Schuldozenten von dieser internen Untersuchung und gingen zur British Racial Equality Commission. Sie teilten der Kommission mit, dass sie Grund zu der Annahme hätten, dass das Computerprogramm zur verdeckten Diskriminierung von Frauen und Farbigen eingesetzt werde.

Die Kommission leitete eine Untersuchung ein. Es wurde festgestellt, dass der Algorithmus Kandidaten für Kaukasier und Nicht-Europäer anhand ihrer Namen und Geburtsorte trennte. Wenn ihre Namen nicht europäisch waren, ging es ihnen mit einem Minus. Das bloße Vorhandensein eines außereuropäischen Namens zog 15 Punkte vom Gesamtbetrag des Antragstellers ab. Die Kommission stellte außerdem fest, dass Frauen um durchschnittlich 3 Punkte unterschätzt wurden. Basierend auf diesem System wurden täglich bis zu 60 Anträge abgelehnt.

Zu dieser Zeit war die Diskriminierung aufgrund der Rasse und des Geschlechts an britischen Universitäten sehr stark - und St. Georg war nur deshalb davon betroffen, weil sie diese Tendenz einem Computerprogramm anvertraute. Da es fraglich war, ob der unten stehende Algorithmus Frauen und Personen mit außereuropäischen Namen bewertet, erhielt die Kommission solide Beweise für Diskriminierung.

Die medizinische Fakultät wurde der Diskriminierung beschuldigt, kam aber recht leicht davon. Das College versuchte, Abhilfe zu schaffen, und kontaktierte Personen, die sie rechtswidrig diskriminieren konnten. Drei der abgelehnten Bewerber erhielten eine Schulausbildung. Die Kommission stellte fest, dass das Problem an der medizinischen Fakultät nicht nur technischer, sondern auch kultureller Natur war. Viele Mitarbeiter betrachteten den Sortieralgorithmus als die ultimative Wahrheit und verschwendeten keine Zeit damit, herauszufinden, wie er Bewerber sortiert.

Auf einer tieferen Ebene ist klar, dass der Algorithmus die Vorurteile unterstützte, die bereits im Zulassungssystem existierten. Immerhin überprüfte Franglen das Auto mit Hilfe von Menschen und fand einen Zufall von 90-95%. Durch die Kodierung der Diskriminierung, die die Zertifizierer in der Maschine hatten, stellte er jedoch eine endlose Wiederholung dieser Verzerrung sicher.

Der Diskriminierungsfall in St. Georg bekam viel Aufmerksamkeit. Infolgedessen verbot die Kommission die Aufnahme von Informationen über Rasse und ethnische Zugehörigkeit in Anträge von Antragstellern. Dieser bescheidene Schritt hat jedoch die Ausbreitung der algorithmischen Vorspannung nicht gestoppt.

Algorithmische Entscheidungssysteme werden zunehmend in Bereichen mit einem hohen Maß an Verantwortung eingesetzt, beispielsweise im Gesundheitswesen und in der Strafjustiz, und die Wiederholung sowie die Stärkung bestehender sozialer Vorurteile aufgrund historischer Daten sind ein ernstes Problem. Im Jahr 2016 gaben ProPublica-Reporter bekannt, dass die in den USA zur Vorhersage künftiger Verbrechen verwendete Software gegen Afroamerikaner voreingenommen war. Die Forscherin Joy Bulamvini enthüllte später, dass die Gesichtserkennungssoftware von Amazon eher mit schwarzen Frauen falsch ist.

Und während Machine Bias schnell zum am meisten diskutierten Thema in der KI wird, gelten Algorithmen immer noch als mysteriöse und unbestreitbare mathematische Objekte, die vernünftige und unvoreingenommene Ergebnisse liefern. Wie die KI-Kritikerin Kate Crawford sagt, ist es Zeit zuzugeben, dass Algorithmen „menschliche Kreationen“ sind und unsere Vorurteile erben. Der kulturelle Mythos eines unbestreitbaren Algorithmus verbirgt oft diese Tatsache: Unsere KI ist so gut wie wir.

Wie Amazon mechanische Türken in eine Maschine schob


Die heutigen unsichtbaren digitalen Arbeiter ähneln dem Mann, der den mechanischen Türken des 18. Jahrhunderts regierte




Um die Jahrtausendwende begann Amazon, seine Dienstleistungen über den Verkauf von Büchern hinaus zu erweitern. Angesichts der wachsenden Anzahl verschiedener Produktkategorien auf der Website des Unternehmens war es notwendig, neue Wege zu ihrer Organisation und Kategorisierung zu finden. Ein Teil dieser Aufgabe war die Entfernung von Zehntausenden von doppelten Produkten, die auf der Website erscheinen.

Programmierer haben versucht, ein Programm zu erstellen, mit dem Duplikate automatisch entfernt werden können. Das Definieren und Löschen von Objekten schien eine einfache Aufgabe zu sein, die der Maschine zur Verfügung stand. Die Programmierer ergaben sich jedoch bald und nannten die Datenverarbeitungsaufgabe " unmöglich ". Für eine Aufgabe, bei der geringfügige Inkonsistenzen oder Ähnlichkeiten in Bildern und Texten festgestellt werden konnten, war menschliche Intelligenz erforderlich.

Amazon ist auf ein Problem gestoßen. Das Entfernen doppelter Produkte war für die Menschen trivial, aber eine große Menge von Gegenständen würde erhebliche Arbeit erfordern. Die Verwaltung von Arbeitnehmern, die mit einer solchen Aufgabe befasst sind, wäre nicht trivial.

Unternehmensleiter Venki Harinarayan hat eine Lösung gefunden. Sein Patent beschreibt eine „Hybrid-Computing-Zusammenarbeit zwischen Mensch und Maschine“, bei der eine Aufgabe in kleine Teile und Unteraufgaben zerlegt und über ein Netzwerk menschlicher Mitarbeiter verteilt wird.

Wenn Duplikate gelöscht werden, kann der Hauptcomputer die Amazon-Website in kleine Abschnitte unterteilen - beispielsweise 100 Seiten mit Öffnern - und Abschnitte an Personen im Internet senden. Anschließend mussten sie Duplikate in diesen Abschnitten identifizieren und die Puzzleteile zurückschicken.

Ein verteiltes System bot einen entscheidenden Vorteil: Die Mitarbeiter mussten sich nicht an einem Ort ansammeln, sondern konnten ihre Unteraufgaben auf ihren Computern ausführen, wo immer sie waren und wann immer sie wollten. Tatsächlich hat Harinarayan einen effektiven Weg gefunden, um gering qualifizierte, aber schwer zu automatisierende Arbeiten auf ein breites Netzwerk von Menschen zu verteilen, die parallel arbeiten können.

Diese Methode erwies sich für die interne Arbeit des Unternehmens als so effektiv, dass Jeff Bezos beschloss, das System als Service an Drittorganisationen zu verkaufen. Bezos verwandelte die Harinarayan-Technologie in einen Markt für Arbeiter. Dort konnten Unternehmen, deren Aufgaben für Menschen einfach (für Roboter jedoch schwierig) waren, ein Netzwerk von freiberuflichen Mitarbeitern finden, die diese Aufgaben gegen eine geringe Gebühr ausführen.

So entstand Amazon Mechanical Turk , kurz mTurk . Der Dienst wurde 2005 gestartet und die Benutzerbasis begann schnell zu wachsen. Unternehmen und Forscher auf der ganzen Welt begannen, das sogenannte hochzuladen "Aufgaben für die menschliche Intelligenz" auf der Plattform, z. B. Entschlüsseln von Audio oder Beschriften von Bildern. Die Aufgaben wurden von einer internationalen und anonymen Gruppe von Arbeitnehmern gegen eine geringe Gebühr ausgeführt (ein frustrierter Mitarbeiter beschwerte sich, dass die durchschnittliche Vergütung 20 Cent betrug).

Der Name des neuen Dienstes bezog sich auf eine Schachmaschine aus dem 18. Jahrhundert - den Mechanical Turk, der vom Kleinunternehmer Wolfgang von Kempelen erfunden wurde. Und genau wie in dieser gefälschten Automatisierung, in der sich eine Person befand, die Schach spielte, wurde die mTurk-Plattform entwickelt, um menschliche Arbeit zu verbergen. Anstelle von Namen haben Plattformarbeiter Nummern, und die Kommunikation zwischen Arbeitgeber und Arbeitnehmer ist nicht personalisierbar. Bezos selbst nannte diese unmenschlichen Arbeiter " künstliche künstliche Intelligenz ".

Heute ist mTurk ein florierender Markt mit Hunderttausenden von Mitarbeitern aus der ganzen Welt. Und obwohl die Plattform eine Einkommensquelle für Menschen darstellt, die möglicherweise keinen Zugang zu anderer Arbeit haben, sind die Arbeitsbedingungen dort sehr zweifelhaft. Einige Kritiker argumentieren, dass Amazon durch das Verstecken und Trennen von Arbeitern die Bedienung erleichtert. In einem Forschungsbericht vom Dezember 2017 wurde festgestellt, dass das Durchschnittsgehalt eines Mitarbeiters etwa 2 USD pro Stunde beträgt und nur 4% der Mitarbeiter mehr als 7,25 USD pro Stunde verdienen.

Interessanterweise ist mTurk zu einem wichtigen Dienst für die Entwicklung des maschinellen Lernens geworden. Im MO-Programm wird ein großer Datensatz ausgegeben, anhand dessen er lernt, nach Mustern zu suchen und Schlussfolgerungen zu ziehen. MTurk-Mitarbeiter werden häufig verwendet, um diese Kits zu erstellen und zu kennzeichnen, und ihre Rolle bei der Entwicklung von MO bleibt häufig im Schatten.

Die Dynamik zwischen der KI-Community und mTurk stimmt mit der in der Geschichte des Maschinengeistes vorhandenen überein. Wir bewundern gerne das Erscheinen autonomer „intelligenter Maschinen“, die die menschliche Arbeit, die sie erzeugt, ignorieren oder absichtlich verbergen.

Vielleicht können wir aus den Ausführungen von Edgar Allan Poe lernen. Als er den mechanischen Türken von Kempelen studierte, erlag er dieser Illusion nicht. Stattdessen fragte er sich, wie es für einen versteckten Schachspieler war , in dieser Kiste zu sitzen und in einer "schmerzhaften und unnatürlichen Pose" zwischen den Zahnrädern und Hebeln "gequetscht" zu werden.

Gerade jetzt, wenn Schlagzeilen über KI-Durchbrüche das Nachrichtenfeld prägen, ist es wichtig, sich an Poes nüchternen Ansatz zu erinnern. Es kann ziemlich aufregend - wenn auch gefährlich - sein, dem Hype um KI zu erliegen und sich übermäßig von den Ideen von Maschinen mitreißen zu lassen, die keine bloßen Sterblichen erfordern. Bei sorgfältiger Überlegung können Sie jedoch Spuren menschlicher Arbeit erkennen.

Source: https://habr.com/ru/post/de454064/


All Articles