Es wird schwieriger zu beweisen, dass Sie kein Roboter sind
Irgendwann im letzten Jahr wurden die ständigen Forderungen von Google, zu beweisen, dass ich ein Mensch bin, immer aggressiver. Für einen einfachen und etwas zu niedlichen Knopf „Ich bin kein Roboter“ tauchten zunehmend Anforderungen auf, um dies zu beweisen - indem alle Ampeln, Übergänge oder Fenster im Bildraster ausgewählt wurden. Bald begannen sich Ampeln im Laub zu verstecken, Übergänge verzerrten sich und gingen um die Ecke, und die Ladenschilder wurden verschwommen und wechselten auf Koreanisch. Es ist sehr enttäuschend, wenn erfolglose Versuche unternommen werden, einen Hydranten im Bild zu finden.
Diese Tests werden als CAPTCHA bezeichnet, eine Abkürzung für "Turings vollautomatischer öffentlicher Test zur Unterscheidung zwischen Personen und Computern", und sobald sie einen ähnlichen Grad an Unleserlichkeit erreicht haben. In den frühen 2000er Jahren reichten einfache Bilder mit Text aus, um die meisten Spam-Bots zu stoppen. Zehn Jahre vergingen, und nachdem Google das Programm von Forschern der Carnegie Mellon University gekauft und zur Digitalisierung im Google Books-Projekt verwendet hatte, mussten die Texte immer mehr verzerrt und versteckt werden, um die verbesserten optischen Zeichenerkennungsprogramme - genau die Programme - zu überholen die dazu beigetragen haben, genau die Leute zu verbessern, die all diese Captcha lösen mussten.
Da CAPTCHA ein elegantes Werkzeug zum Trainieren von KI ist, kann jeder erfundene Test nur eine Weile dauern, was seine Erfinder zugeben. Mit all diesen Forschern, Betrügern und gewöhnlichen Menschen, die Milliarden von Rätseln bis an den Rand der KI lösen, mussten uns die Maschinen irgendwann einfach überholen. Im Jahr 2014 stellte Google seinen besten Algorithmus zur Lösung der am meisten verzerrten Texte und Personen vor: In 99,8% der Fälle erkannte der Computer den Text korrekt und in
nur 33% .
Danach wechselte Google zu
NoCaptcha ReCaptcha , das das Verhalten von Personen überwacht und deren Daten sammelt. Einige von ihnen können einfach weitergehen, indem sie einfach auf die Schaltfläche „Ich bin kein Roboter“ klicken, während andere ihnen Aufgaben zur Suche nach Bildern geben, die wir heute sehen. Aber die Autos überholen uns wieder. Alle diese Markisen, die Schaufenster sein können oder nicht, sind die letzte Phase des Wettrüstens zwischen Waffen und Menschen.
Jason Polakis, Professor für Informatik an der Universität von Illinois in Chicago, ist persönlich für die jüngste Komplikation von Captcha verantwortlich. 2016 veröffentlichte er eine Arbeit, in der er vorgefertigte Bilderkennungsprogramme, einschließlich seiner eigenen Bildsuche von Google, verwendete, um eine Captcha-Genauigkeit von 70% zu lösen. Andere Forscher haben sich mit der Erkennung von Audio-Captcha von Google unter Verwendung von Spracherkennungsprogrammen des Unternehmens selbst befasst.
Maschinelles Lernen ist nicht schlechter als Menschen, wenn es darum geht, einfache Texte, Bilder und Stimmen zu erkennen, sagt Polakis. Algorithmen machen es vielleicht sogar besser: „Wir haben den Punkt erreicht, an dem die Komplikation von Aufgaben für Software dazu führt, dass Aufgaben für Menschen übermäßig kompliziert werden. Wir brauchen eine Alternative, aber es gibt noch keinen klaren Plan. “
Die CAPTCHA-Literatur ist voll von Fehlstarts und seltsamen Versuchen, etwas anderes als Text und Bilder zu finden, was alle Menschen gut und Autos schlecht machen. Die Forscher
versuchten den Nutzern anzubieten, die Bilder von Menschen nach Gesichtsausdruck, Geschlecht und ethnischer Zugehörigkeit zu sortieren (Sie können sich vorstellen, wie es lief). Es gab Vorschläge, Captcha mit Quiz zu organisieren, Captcha basierend auf
Schlafliedern , häufig an Orten, an denen der Benutzer erwartungsgemäß aufgewachsen ist. Diese kulturell gefangenen Captchas richten sich nicht nur an Roboter, sondern auch an Menschen aus anderen Ländern, die sich für einen Cent Captcha entscheiden. Die Menschen versuchten, Bilderkennungsalgorithmen in eine Sackgasse zu treiben, und forderten den Benutzer auf, beispielsweise ein Schwein zu identifizieren, das jedoch gleichzeitig gezeichnet und mit einer Sonnenbrille versehen war. Forscher haben Optionen untersucht, z. B. die Einladung von Benutzern, Objekte in einem
Kaleidoskop-Hash zu erkennen . Bei einer der interessanten Optionen im Jahr 2010 schlugen die Forscher vor, Captcha zum Sortieren
alter Petroglyphen zu verwenden - Computer erkennen Skizzen oder Bilder von Hirschen an Höhlenwänden nur schlecht.
In letzter Zeit gab es Versuche,
Spiel-Captchas zu entwickeln
, bei denen der Benutzer Objekte in bestimmten Winkeln drehen oder Puzzleteile bewegen muss, und Anweisungen zum Lösen des Captchas wurden nicht in Form von Text, sondern in Form von Symbolen gegeben oder durch den Kontext des Spielfelds impliziert. Die Hoffnung ist, dass die Leute die Logik des Puzzles verstehen und Computer ohne klare Anweisungen stolpern. Andere Forscher versuchten, die Tatsache, dass Menschen Körper haben, zu nutzen, und verwendeten Gerätekameras oder Augmented Reality, um die Anwesenheit einer Person interaktiv zu bestätigen.
Das Problem bei vielen dieser Tests ist nicht, dass die Roboter zu intelligent sind, sondern dass die Leute nicht gut mit ihnen umgehen. Und es ist nicht so, dass die Leute dumm sind; Sie unterscheiden sich einfach stark in Sprache, Kultur und Erfahrung. Nachdem wir all dies beseitigt haben, um einen Test zu machen, den jeder ohne Training und lange Überlegungen bestehen kann, bleiben uns so unhöfliche Aufgaben wie die Bilderkennung - und genau das wird die speziell zugeschnittene KI gut können.
"Tests sind durch menschliche Fähigkeiten begrenzt", sagt Polakis. - Es geht nicht nur um körperliche Fähigkeiten - Sie müssen etwas Interkulturelles, Intersprachliches finden. Wir brauchen eine Aufgabe, die gut mit einer Person aus Griechenland, mit einer Person aus Chicago, mit einer Person aus Südafrika, dem Iran und Australien gleichzeitig funktioniert. Und es sollte nicht von kulturellen Nuancen und Unterschieden abhängen. Wir brauchen eine Aufgabe, mit der die durchschnittliche Person gut zurechtkommt, die nicht auf eine bestimmte Untergruppe von Menschen beschränkt sein sollte und die für einen Computer schwierig sein sollte. All dies schränkt die Auswahl an Optionen stark ein. Und es sollte auch etwas sein, mit dem die Leute schnell fertig werden, und das ist nicht sehr ärgerlich. "
Versuche, diese Rätsel mit verschwommenen Bildern zu lösen, übertragen eine Person schnell auf philosophische Schienen: Gibt es eine universelle menschliche Qualität, die einer Maschine demonstriert werden kann und die die Maschine nicht nachahmen kann? Was bedeutet es, menschlich zu sein?
Vielleicht wird unsere Menschlichkeit nicht daran gemessen, wie wir Aufgaben ausführen, sondern daran, wie wir uns verhalten, wie wir uns durch die Welt bewegen - oder in diesem Fall durch das Internet. Spiel-Captcha, Video-Captcha und alle Captcha, die Sie erstellen können, werden gehackt, sagt Shuman Ghosemajumder, Googles Anti-Klick-Automatisierungsteam, der später Shape Securitys Technologiedirektor für Robotererkennung wurde. Er tendiert eher zur „permanenten Autorisierung“ als zu einzelnen Tests - um das Benutzerverhalten zu überwachen und nach Anzeichen von Automatisierung zu suchen. „Eine reale Person kontrolliert die motorischen Fähigkeiten nicht sehr gut und kann die Maus während mehrerer Interaktionen nicht viele Male auf dieselbe Weise bewegen, selbst wenn sie dies versucht“, sagt Gosmahumder. Der Roboter wird mit der Seite interagieren, ohne die Maus zu bewegen oder sehr genau zu bewegen, und bei den Handlungen einer Person wird es eine "Entropie" geben, die schwer zu fälschen ist, sagt Gosmahumder.
Das Captcha-Team von Google arbeitet in eine ähnliche Richtung. Die neueste Version von
reCaptcha v3 , die Ende letzten Jahres angekündigt wurde, verwendet die "adaptive Risikoanalyse", um den Datenverkehr auf Verdacht zu untersuchen. Websitebesitzer können verdächtigen Benutzern Aufgaben wie die Eingabe eines Kennworts oder eine Zwei-Faktor-Autorisierung anbieten. Laut Cy Khormaee, Produktmanager des Teams, gibt Google nicht bekannt, welche Faktoren in den Schätzungen berücksichtigt werden, außer dass das Unternehmen bewertet, wie „guter Verkehr“ auf der Website aussieht, und diese Informationen verwendet, um „schlechten Verkehr“ zu filtern CAPTCHA. Sicherheitsforscher sagen, dass es wahrscheinlich eine Mischung aus Cookies, Browserattributen, Verkehrsmustern und anderen Faktoren ist. Ein Nachteil des neuen Robotererkennungsmodells besteht darin, dass das Navigieren im Internet beim Versuch, Benutzerbeobachtungen zu minimieren, etwas ärgerlich sein kann, da Dinge wie VPNs und Erweiterungen, die das Verfolgen eines Benutzers erschweren, möglicherweise verdächtig sind.
Aaron Malenfant, Googles leitender Ingenieur für das CAPTCHA-Team, sagt, dass die Abkehr von Turings Tests dazu beitragen sollte, die Konkurrenz zu umgehen, die die Leute ständig verlieren. "Je mehr wir in maschinelles Lernen investieren, desto schwieriger werden diese Aufgaben für die Menschen. Insbesondere deshalb haben wir CAPTCHA V3 eingeführt, um dieser Kurve einen Schritt voraus zu sein." Malenfant sagt, dass nach 5-10 Jahren die Aufgaben im Captcha überhaupt keinen Sinn mehr ergeben werden. Der größte Teil des Webs hängt von Turings ständigem, verstecktem Test ab, der im Hintergrund ausgeführt wird.
In seinem Buch „The Most Humane Man“ nimmt Brian Christian als Lockvogel am Turing-Test teil und stellt fest, dass es sehr schwierig ist, seine Menschlichkeit in Gesprächen zu beweisen. Auf der anderen Seite stellten Bot-Entwickler fest, dass diese Tests leicht zu bestehen sind, ohne sich als beredter oder intelligenter Gesprächspartner auszugeben, aber Fragen mit unlogischen Witzen zu beantworten, Tippfehler zu machen oder, wie im Fall eines Bots,
der 2014 den Turing-Wettbewerb gewann , dies zu behaupten Sie sind ein 13-jähriger ukrainischer Junge, der nicht gut Englisch spricht. Es liegt schließlich in der Natur des Menschen, Fehler zu machen. Es ist möglich, dass Captcha auf eine solche Zukunft wartet, den häufigsten Turing-Test der Welt - das neue Wettrüsten wird keine Roboter schaffen, die den Menschen beim Sortieren von Bildern und beim Parsen von Text überlegen sind, sondern Roboter, die Fehler machen, die Schaltflächen verpassen, abgelenkt sind und die Registerkarten wechseln. "Ich denke, die Leute beginnen zu verstehen, dass es Anwendungsbereiche gibt, um den durchschnittlichen menschlichen Benutzer zu simulieren ... oder dumme Leute", sagt Gosmakhumder.
CAPTCHAs können in dieser Welt bestehen bleiben. Im Jahr 2017 meldete Amazon
ein Patent für ein System an, das optische Täuschungen und logische Rätsel verwendet, die für Menschen schwer zu handhaben sind. Dieser Test wird als "Turing-Through-Error-Test" bezeichnet. Der einzige Weg, ihn zu bestehen, besteht darin, die falsche Antwort zu geben.