Auf der Suche nach einem optimalen Einsatzort der Humanressourcen

Eines der Paradoxe moderner Internetplattformen ist, dass sie zwar im Wesentlichen automatisiert sind und die Inhalte, die Endbenutzer sehen, ohne menschliche Mäßigung angezeigt werden, jedoch vollständig vom menschlichen Verhalten abhängig sind, weil Tatsächlich beobachten sie nur Informationen, erhalten Informationen und ziehen Schlussfolgerungen, die auf den Handlungen von Hunderten von Millionen oder Milliarden von Menschen beruhen.


Der Ursprung dieses Prinzips war PageRank. Anstatt sich auf manuell erstellte Regeln zu verlassen, die ein Verständnis der Bedeutung jeder einzelnen Seite vermitteln, oder mit dem Originaltext zu arbeiten, beobachtet PageRank, was genau die Leute über eine solche Seite getan oder gesagt haben. Wer ist in irgendeiner Weise damit verbunden, welchen Text haben sie verwendet und wer ist mit Personen verbunden, die mit dieser Seite verbunden sind? Gleichzeitig bietet Google jedem Nutzer die Möglichkeit, jeden Satz von Suchergebnissen manuell zu bewerten (Index, Bewertung): Sie erhalten 10 blaue Links und teilen Google einfach mit, welcher geeignet ist. Gleiches gilt für Facebook: Facebook weiß nicht wirklich, wer Sie sind oder woran Sie interessiert sind oder worum es bei diesem oder jenem Inhalt geht. Aber er weiß, wem du folgst, was du magst, wer außer dir das mag und was sie sonst noch mögen und was sie abonniert haben. Facebook ist ein menschlich orientierter PageRank. Im Allgemeinen gilt das Gleiche für YouTube: Er wusste nie, worum es in dem bestimmten Video ging, sondern nur, was die Leute darunter schrieben und was sie sonst noch sahen und mochten.


Im Kern sind diese Systeme riesige „mechanische Türken“. Schließlich verstehen sie den Inhalt des Inhalts, mit dem sie arbeiten, absolut nicht, sie versuchen nur, das menschliche Gefühl in Bezug auf diesen Inhalt zu erzeugen, zu erfassen und zu vermitteln. Es handelt sich um riesige verteilte Computersysteme, in denen Menschen als Prozessoren fungieren, und die Plattform selbst ist eine Kombination aus Routern und Verbindungen. (Dies erinnert mich ein wenig an die Idee aus dem Buch „Per Anhalter durch die Galaxis“, dass die ganze Erde tatsächlich ein riesiger Computer ist, der bestimmte Funktionen ausführt, und unsere täglichen Aktivitäten sind Teil der Berechnungen).


Dies bedeutet, dass ein Großteil des Systemdesigns daran gebunden ist, die optimalen Einsatzpunkte der Humanressourcen bei der Arbeit mit einem automatisierten System zu finden. Erfassen Sie, was bereits passiert? Also begann Google, bereits vorhandene Links zu verwenden. Müssen Sie die Aktivität anregen, um ihren Wert zu offenbaren? Facebook musste selbst eine Aktivität erstellen, bevor sie davon profitieren konnten. Vielleicht sind Sie stark auf Humanressourcen angewiesen? Dieser Ansatz wird in Apple Music mit manuell ausgewählten Wiedergabelisten verwendet, die automatisch an zig Millionen Benutzer ausgegeben werden. Oder müssen Sie die Leute bezahlen, um überhaupt alles zu tun?


Ursprünglich war das Internet Resource Directory von Yahoo ein Versuch, den Ansatz "Pay People to Do All" zu verfolgen - Yahoo Pay People für die Katalogisierung des gesamten Internets. Anfangs schien es erreichbar zu sein, aber als das Internet zu schnell wuchs, stellte es sich bald als überwältigende Herausforderung heraus, und als Yahoo aufgab, überschritt die Kataloggröße bereits 3 Millionen Seiten. PageRank hat dieses Problem gelöst. Im Gegenteil, Google Maps verwendet eine große Anzahl von Autos mit Kameras, die (vorerst) von Menschen gesteuert werden und fast alle Straßen der Welt befahren. Viele weitere Menschen sehen sich diese Fotos an. Dies ist keine überwältigende Aufgabe - es kostet nur viel. Google Maps ist so ein privater "mechanischer Türke". Jetzt untersuchen wir genau dieselbe Frage und sprechen über die Moderation von Inhalten durch Personen - wie viele Zehntausende von Personen benötigen Sie, um jeden Beitrag anzuzeigen, und wie viel kann diese Aufgabe automatisiert werden? Ist diese Aufgabe überwältigend oder ist ihre Implementierung nur sehr teuer?


Wenn Sie diese Plattformen so betrachten, dass Milliarden von Menschen für echte Computer eingesetzt werden, sollte dies zwei interessante Fragen aufwerfen: Welche Sicherheitslücken bestehen auf solchen Plattformen und wie kann maschinelles Lernen diesen Bereich verändern?


In der Vergangenheit hatten wir, als wir über das Hacken von Computersystemen nachdachten, die Idee verschiedener technischer Schwachstellen - gestohlene oder schwache Passwörter, offene Schwachstellen in Systemen, Fehler, Pufferüberläufe, SQL-Injektionen. Wir haben „Hacker“ vertreten, die nach Lücken in der Software suchen. Wenn Sie sich jedoch vorstellen, dass YouTube oder Facebook verteilte Computersysteme sind, in denen die übliche Software als Router fungiert, die Menschen jedoch die Rolle von Prozessoren spielen, wird jeder Angreifer sofort darüber nachdenken, Schwachstellen nicht nur in Software, sondern auch in Menschen zu finden. Typische kognitive Verzerrungen spielen die gleiche Rolle wie typische Softwarefehler.


Das heißt, es gibt zwei Möglichkeiten, eine Bank auszurauben: Sie können das Alarmsystem umgehen und einen Hauptschlüssel für einen Safe abholen oder einen Bankangestellten bestechen. In jedem dieser Beispiele ist das System ausgefallen, aber jetzt sind Sie und ich eines der Systeme. Wie ich in diesem Artikel über die jüngste Änderung des Kurses von Facebook in Richtung Datenschutz und Benutzersicherheit schrieb, ähnelt die Moderation von Inhalten durch lebende Menschen auf solchen Plattformen von Natur aus der Arbeit von Virenschutzprogrammen, die sich vor zwei Jahrzehnten als Reaktion auf das Auftreten von Malware unter Windows rasch zu entwickeln begannen . Ein Teil des Computers beobachtet, ob der andere Teil etwas tut, was er nicht tun sollte.


Auch wenn wir nicht über absichtliches Hacken von Systemen sprechen, treten andere Probleme auf, wenn versucht wird, die Aktivität einer Person mit Hilfe einer anderen Person zu analysieren. Wenn Sie also einen Computer zur Analyse eines anderen Computers verwenden, besteht die Gefahr, dass Rückkopplungsschleifen entstehen. Dies spiegelt sich in Konzepten wie "Filterblase", "Radikalisierung von YouTube" oder Such-Spam wider. Gleichzeitig ist eines der Probleme, auf die Facebook gestoßen ist, dass manchmal die Verfügbarkeit und Produktion einer großen Datenmenge den Wert dieser Daten ausgleicht. Wir nennen dies das Problem der Überlastung des Newsfeeds: Sie haben beispielsweise 50 oder 150 Freunde und veröffentlichen jeden Tag 5 oder 10 Einträge oder ähnliches, aber alle Ihre Freunde tun genau das Gleiche und jetzt haben Sie jeden Tag 1.500 Einträge in Ihrem Feed. Dunbar-Nummer + Zuckerberg-Gesetz = Überlastung ... was uns zu Goodhart Law bringt.


"Jedes beobachtete statistische Muster ist anfällig für Zerstörung, sobald Druck auf es ausgeübt wird, um es zu kontrollieren." - Charles Goodhart

Doch wie kann maschinelles Lernen etwas bewirken? Ich habe bereits zuvor gesagt, dass die Hauptschwierigkeit darin besteht, die Humanressourcen für die optimale Arbeit mit Software optimal einzusetzen, obwohl es eine andere Option gibt: Lassen Sie den Computer einfach die ganze Arbeit erledigen. Bis vor kurzem bestanden die Schwierigkeiten und Gründe, warum solche Systeme existierten, hauptsächlich aus einer großen Klasse von Aufgaben, die Computer nicht lösen konnten, obwohl die Leute sie sofort lösten. Wir nannten es „Aufgaben, die für eine Person einfach, aber für einen Computer schwierig sind“, aber in Wirklichkeit waren es Aufgaben, die für eine Person einfach waren, die eine Person einem Computer jedoch praktisch nicht beschreiben kann . Ein Durchbruch beim maschinellen Lernen besteht darin, dass die Computer selbst die erforderliche Beschreibung entwickeln können.


Der folgende Comic (direkt aus dem Jahr 2014, als sich maschinelles Lernen und Computer-Vision-Systeme schnell zu entwickeln begannen) veranschaulicht diese Änderungen perfekt. Die erste Aufgabe war im Gegensatz zur zweiten zumindest bis zum Aufkommen des maschinellen Lernens leicht zu erledigen.



Der alte Weg, um dieses Problem zu lösen, besteht darin, Leute zu finden, die das Image klassifizieren - um auf eine Art Crowdsourcing zurückzugreifen. Mit anderen Worten, verwenden Sie einen "mechanischen Türken". Aber heute brauchen wir möglicherweise niemanden mehr, der sich dieses Bild ansieht, da wir mit Hilfe des maschinellen Lernens die Lösung dieses speziellen Problems sehr oft automatisieren können.


Also: Wie viele Probleme könnten Sie lösen, bevor Sie eine Analyse der Aktionen von Millionen oder Hunderten von Millionen Menschen verwenden, die Sie jetzt mithilfe von maschinellem Lernen und im Allgemeinen ohne die Notwendigkeit, Benutzer einzubeziehen, lösen können?


Dies ist natürlich widersprüchlich, da Sie beim maschinellen Lernen immer eine große Datenmenge benötigen. In diesem Fall könnte natürlich jemand sagen, dass Sie bei einer großen Plattform automatisch viele Daten haben, sodass der maschinelle Lernprozess auch einfacher wird. Dies ist definitiv richtig, zumindest am Anfang, aber ich denke, es wäre nicht unangebracht zu fragen, wie viele Aufgaben nur mit Hilfe bestehender Benutzer gelöst werden könnten. Wenn Sie in der Vergangenheit ein Katzenfoto hatten, konnte es nur dann als „Katze“ markiert werden, wenn Sie genügend Benutzer hatten, und einer von ihnen hat sich dieses bestimmte Foto angesehen und es markiert. Heutzutage benötigen Sie überhaupt keine echten Benutzer, um dieses bestimmte Bild einer Katze zu verarbeiten. Sie müssen lediglich irgendwann in der Vergangenheit andere Benutzer auf der ganzen Welt haben, die bereits genügend andere Bilder klassifiziert haben Katzen, um das notwendige Erkennungsmodell zu generieren.


Dies ist nur eine weitere Möglichkeit, die Humanressourcen optimal zu nutzen: In jedem Fall müssen Personen Objekte klassifizieren (und Regeln schreiben, nach denen Personen sie klassifizieren). Aber hier bewegen wir bereits den Hebel und möglicherweise die Anzahl der benötigten Personen radikal, und daher ändern sich die Spielregeln in gewissem Maße aufgrund des Effekts „Der Gewinner bekommt alles“. Letztendlich sind all diese großen sozialen Netzwerke der Plattform nur riesige Sammlungen manuell klassifizierter Daten, da sich am Ende herausstellt, dass ihr Glas halb voll oder halb leer ist? Einerseits ist es halb voll: Sie verfügen über die größte Sammlung manuell klassifizierter Daten (in ihrem jeweiligen Tätigkeitsbereich). Andererseits ist das Glas halb leer: Diese Daten wurden manuell ausgewählt und klassifiziert.


Selbst wenn die Daten eine dieser Plattformen bilden könnten (was höchstwahrscheinlich nicht passieren wird - sicherlich nicht passieren wird - wie ich hier geschrieben habe ), würden sie dennoch eine Plattform werden. Wie bei AWS, das Startups ermöglichte, die nicht mehr Millionen von Benutzern benötigten, um Skaleneffekte für ihre Infrastruktur zu erzielen, würde das Erstellen solcher Tools bedeuten, dass Sie nicht mehr Millionen oder Milliarden Benutzer benötigen würden, um eine Katze zu erkennen. Sie können den Prozess automatisieren.


Übersetzung: Alexander Tregubov
Redaktion: Alexey Ivanov
Community: @ponchiknews

Source: https://habr.com/ru/post/de452716/


All Articles