Anfang April veröffentlichte ein Forscher am Massachusetts Institute of Technology, Arnav Kapoor, vierundzwanzig Jahre lang ein
kurzes Video auf YouTube. Das Video zeigt, wie er auf dem Campus herumläuft und sich von einem Ort zum anderen bewegt. Auf der rechten Seite seines Gesichts ist ein weißes Plastikgerät befestigt.
Zuerst kommt er an einer Reihe von Fahrrädern vorbei, die in der Nähe von geschmolzenen Schneeverwehungen geparkt sind, seine Lippen sind geschlossen und nicht geäußerte Gedanken werden auf dem Bildschirm angezeigt. Eine Inschrift erscheint: "Zeit?", Und die Stimme eines Mannes antwortet: "Zehn Stunden, fünfunddreißig Minuten." In der nächsten Szene kauft Kapoor in einem örtlichen Geschäft ein. Der Preis für jedes Produkt, das er in den Korb wirft (Toilettenpapier, italienisches Sandwich, Pfirsichkonserven), wird auf dem Bildschirm angezeigt. "Der Gesamtbetrag beträgt 10,07 US-Dollar", antwortet die männliche Stimme. In der letzten Szene bewegt Kapoor den Cursor auf dem Bildschirm nach allen Angaben und nach der Kraft des Denkens.
Kapoor kam aus Neu-Delhi, um im Mass Lab des Massachusetts Institute of Technology zu arbeiten und tragbare Geräte zu entwickeln, die Technologie nahtlos in unser tägliches Leben integrieren. Um nicht mehr nach dem Telefon zu greifen, nicht auf den Bildschirm zu starren, nicht mit gesenkten Augen zu gehen und nicht aus der Realität herauszufallen, um sich auf den Prozess einzulassen.
Das klingt unplausibel, aber AlterEgo - ein Gerät, das lautlos arbeitet, ohne Sprachsteuerung und Kopfhörer, die Kapoor in den letzten zwei Jahren entwickelt hat - liest seine Gedanken jetzt so erfolgreich, dass er in Uber ein Taxi bestellen kann, ohne ein Wort zu sagen.
Die aktuelle Version des Geräts (Kapoor hat es in Zusammenarbeit mit seinem Bruder Shreya, einem Studenten am selben Institut, mehreren Kollegen aus der Abteilung Fluid Interfaces und seinem Mentor, Professor Patti Maes, erstellt) ist ein Gerät, das auf einem mit elektromagnetischen Sensoren ausgestatteten 3D-Drucker gedruckt wurde. Es passt genau auf eine Seite des Gesichts auf den Kiefer und stellt mithilfe von Bluetooth eine Verbindung zu dem her, was Maes unser Computergehirn nennt - dem kolossalen Informationsnetzwerk, auf das wir bis zu 80 Mal am Tag über Smartphones zugreifen.
Diese Erfindung kann als revolutionär angesehen werden, da sie keine tiefe Implantation (d. H. Implantate) erfordert und nonverbale Signale der menschlichen Kommunikation mit einem extrem hohen Grad an Genauigkeit verarbeiten kann. Kapoor verspricht, dass es in Zukunft auch für andere fast unsichtbar wird.
* *
Einige Monate nach Veröffentlichung des Videos gab Kapoor dem Medium-Team ein Interview in einem kleinen Büro, in dem er mit anderen Forschern zusammenarbeitet, im fünften Stock des Media Lab-Gebäudes. Er ist glatt rasiert, ordentlich gekleidet und dünn wie ein Student. der blick wirkt schläfrig oder sengend nah - das macht eindruck. In den Trümmern von Büchern und Teilen im Büro sieht man eine rosa Ukulele, wie er behauptet, nicht seine.
Kapoor neigt natürlich zu Ausführlichkeit, aber seit seine Erfindung die Aufmerksamkeit der Presse auf sich zog, begann er deutlich, seine Erzählung zu verfeinern. "Künstliche Intelligenz ist meine Leidenschaft", sagt er. - "Ich glaube, dass die Zukunft der Menschheit auf der Zusammenarbeit mit Computern beruht."
Seit dem Markteintritt von Smartphones haben zweieinhalb Milliarden Menschen bereits auf das Computergehirn zurückgegriffen, wenn sie irgendwohin gehen, etwas kochen, jemanden kontaktieren oder sich an die Hauptstadt von Missouri erinnern müssen. Kognitive Verstärkung in Form von Technologie ist ein wesentlicher Bestandteil unseres Lebens geworden. Es gibt ein organisches Gehirn und einen Computer. Laut Kapoor arbeiten sie bereits zusammen, nur nicht so effizient wie sie könnten.
Moderne Geräte sind jedoch so konzipiert, dass sie uns eher ablenken als unterstützen. Um die notwendigen Informationen in einer grenzenlosen Welt zu finden, die immer zur Hand ist, müssen wir dem Prozess unsere ganze Aufmerksamkeit widmen. Bildschirme erfordern Augenkontakt. Wenn Sie mit dem Telefon arbeiten, müssen Sie Kopfhörer tragen. Geräte ziehen uns von der physischen Realität in ihre eigene.
Kapoor möchte ein Gerät perfektionieren, mit dem Menschen so intuitiv mit künstlicher Intelligenz interagieren können wie die rechte Hemisphäre mit der linken, damit wir die Möglichkeiten, die das Internet bietet, auf verschiedenen Ebenen in unseren Denkprozess integrieren können. "So wird unser Leben in Zukunft aussehen", sagt er.
Frühes DesignKapoor arbeitete am Designkonzept von AlterEgo und ließ sich von mehreren Prinzipien leiten. Das Gerät sollte nicht das Einbringen von Elementen in den Körper erfordern: Laut dem Forscher ist dies unpraktisch und nicht in großem Maßstab anwendbar. Die Interaktion damit sollte sich natürlich anfühlen und für andere unmerklich sein - dementsprechend sollte das Gerät in der Lage sein, nonverbale Signale zu lesen. Er erkannte klar, wie einfach es ist, diese Technologie für unangemessene Zwecke anzuwenden, und wollte auch, dass der Benutzer die Fähigkeit, den Prozess zu steuern, in das Design selbst einbettet, dh nur absichtlich gelieferte und nicht unbewusste Signale erfasst werden. Mit anderen Worten, das Gerät sollte Ihre Gedanken nur lesen, wenn Sie sie selbst teilen möchten.
Andere Pioniere auf diesem Gebiet haben bereits Schnittstellen für die Kommunikation zwischen Mensch und Computer entwickelt, aber es gab immer einige Einschränkungen. Um mit Siri oder Alexa zu kommunizieren, müssen Sie laut auf die Maschine zugreifen, was unnatürlich erscheint und es Ihnen nicht erlaubt, die Privatsphäre zu wahren. Die Verbreitung dieser Technologie wird durch die obsessive Angst behindert, dass Sie mit solchen Geräten nie sicher sein können, wer uns zuhört und was sie hören.
Kapoor musste einen Ausweg aus dieser Situation finden. Was wäre, wenn der Computer lernen würde, unsere Gedanken zu lesen?
* *
Als Forscher, der „sich in verschiedenen Disziplinen selbst ausprobiert hat“ (nachdem er versucht hatte, kurz über sich selbst für die Website zu schreiben, aber keinen Erfolg hatte - er wollte sich nicht auf eine Spezialität beschränken), begann Kapoor, den menschlichen Körper nicht als eine Reihe von Einschränkungen wahrzunehmen aber als Dirigent. Er sah es so: Das Gehirn ist eine Energiequelle für ein komplexes elektrisches neuronales Netzwerk, das unsere Gedanken und Bewegungen steuert. Wenn das Gehirn braucht, dass wir unseren Finger bewegen, sendet es einen elektrischen Impuls entlang des Arms zum gewünschten Punkt, und die Muskeln reagieren entsprechend. Sensoren sind Möglichkeiten, diese elektrischen Signale zu erfassen - es bleibt nur zu bestimmen, wo und wie eine Verbindung zum Prozess hergestellt werden soll.
Kapoor wusste, dass unsere inneren Artikulationsmuskeln beim Lesen für sich selbst in Bewegung sind und unbewusst die Wörter reproduzieren, die wir sehen. „Wenn Sie laut sprechen, sendet das Gehirn Impulsanweisungen an mehr als hundert Muskeln im Sprachapparat“, erklärt er. Interne Vokalisierung - das heißt, wir lesen uns selbst vor - ist der gleiche Prozess, der nur viel schwächer ausgedrückt wird: Neuronale Signale treten nur in die inneren Muskeln des Sprachapparats ein. Diese Gewohnheit entwickelt sich bei Menschen, wenn sie gerade lesen lernen und die Buchstaben und dann die Wörter laut aussprechen. Dies kann in Zukunft zu Störungen führen. Bei Schnelllesekursen wird häufig besonders darauf geachtet, dass Menschen entwöhnt werden, um Wörter in ihren Köpfen auszusprechen, wenn sie mit den Augen durch den Text fahren.
Diese neuronalen Signale, die erstmals Mitte des 19. Jahrhunderts aufgezeichnet wurden, sind der einzige physische Ausdruck intellektueller Aktivität, den wir heute kennen.
Kapoor fragte sich, ob die Detektoren die physischen Manifestationen des internen Monologs - mikroskopisch kleine elektrische Entladungen, die vom Gehirn ausgehen - durch die Haut des Gesichts in Mund und Rachen erkennen konnten, obwohl die beteiligten Muskeln viel tiefer waren. Und trotz der Tatsache, dass sie nicht vollständig funktionieren.
Kontaktpunkte identifizierenIn seiner Prototypform war AlterEgo ein Framework, das 30 Sensoren an Gesicht und Kiefer eines Objekts befestigte, damit sie neuromuskuläre Bewegungen lesen konnten. Das Objekt sagte unterdessen die notwendigen Nachrichten zu sich. Das Team hat spezielle Programme entwickelt, um Signale zu analysieren und in bestimmte Wörter zu übersetzen.
Es gab ein Problem: Zuerst haben AlterEgo-Sensoren überhaupt nichts erfasst.
Nachdem Kapoor die Software geschrieben und das Gerät zusammengebaut hatte, hoffte er auf das Beste. Die myoelektrischen Signale, die die interne Sprache erzeugten, waren jedoch äußerst schwach. In diesem Moment wäre es sehr einfach, diese Idee aufzugeben. „Aber wir wollten die Interaktion so nah wie möglich am Stadium des reinen Denkens festhalten“, erklärt Kapoor. Er bewegte die Sensoren zu verschiedenen Teilen des Gesichts, machte sie empfindlicher, konfigurierte die Programme neu - alles war nutzlos.
Eines Abends testeten die Brüder das Gerät in ihrer Wohnung in Cambridge. Kapoor legte es auf sich selbst und Shreya beobachtete die Situation auf dem Computerbildschirm. Sie haben das Gerät so eingerichtet, dass es Signale in Echtzeit überträgt, sodass Shreya genau bestimmen kann, wann etwas in Betracht gezogen wird, wenn es überhaupt passiert.
Es ging zur Nacht. Kapoor hatte ungefähr zwei Stunden lang still mit dem Gerät gesprochen. Bisher wurde er so programmiert, dass er zwei Wörter interpretiert: "Ja" und "Nein", und es wurden keine signifikanten Ergebnisse erzielt. Aber dann dachte Shreya, er hätte etwas gesehen. Auf dem Bildschirm flackerte etwas.
"Wir konnten unseren Augen nicht trauen", sagt Kapoor. Er drehte seinem Bruder den Rücken zu und wiederholte den Vorgang. „Der Signalsprung wurde immer wieder wiederholt, aber wir dachten, es sei nur eine Fehlfunktion in den Drähten. Wir waren uns sicher, dass alles auf Störungen im System zurückzuführen ist. “ Haben sie wirklich etwas gesehen, das sich lohnt? Nach einer Stunde endloser Tests stellte Kapoor sicher, dass der Kontakt hergestellt wurde.
"Wir sind fast verrückt geworden", sagt er. Am nächsten Tag wurde die Veranstaltung mit Pizza gefeiert.
* *
Kapoor und seine Kollegen brauchten zwei Jahre, um Hardware und Software für AlterEgo zu entwickeln. Das Gerät wurde so konzipiert, dass es problemlos getragen werden kann. Das Team verbesserte die Sensoren und überarbeitete die Kontaktpunkte, um die Schale kompakt und nicht zu auffällig zu machen. Kapoor lehnte Kopfhörer ab, die seiner Meinung nach den normalen Verlauf des menschlichen Lebens stören; Stattdessen entwickelte er ein auf Knochenleitung basierendes akustisches System. Das Gerät flüstert Antworten auf Anfragen, wie eine Art übertriebener Schutzengel.

Als das Gerät begann, myoelektrische Impulse zu erkennen, konzentrierte sich Kapoor darauf, ein Datenvolumen zu sammeln, auf dessen Grundlage AlterEgo trainiert werden konnte, um charakteristische Signale mit bestimmten Wörtern zu vergleichen. Es war ein zeitaufwändiger Prozess: Ich musste lange Zeit mit einem Gerät im Gesicht im Labor sitzen und mir die notwendigen Worte wiederholen, bis der Computer sie beherrschte. AlterEgo verfügt derzeit über ein Vokabular von 100 Wörtern, einschließlich der Namen von Zahlen von 1 bis 9 und der Befehle: "Hinzufügen", "Subtrahieren", "Antworten", "Anrufen".
Aus dem Video auf YouTube ging hervor, dass das Gerät Kapoors Gedanken las, sodass eine deutliche Panik auftrat. "Tatsächlich ist es sehr beängstigend, dass jetzt jemand anderes auf das zugreifen kann, was wir denken", schrieb ein besorgter Kommentator über einen
Artikel, der über diese Technologie sprach . "Mit dieser Technologie kann die Polizei der Gedanken Realität werden."
Kapoor und Maes, ein Experte für KI, reagieren sehr sensibel auf solche ethischen Fragen. Kapoor glaubt, dass er als Schöpfer der Technologie die Möglichkeit hat, ihre Verwendung für unmoralische Zwecke zu verhindern, indem er Sicherungen direkt in das Konzept einbettet. Kapoor betont, dass AlterEgo Gedanken nicht buchstäblich lesen kann und niemals eine solche Gelegenheit erhalten wird. Er hat bewusst ein System geschaffen, das nur auf absichtlich gegebene Signale reagiert - also auf freiwillige Kommunikation. Um mit dem Computergehirn zu interagieren, müssen Sie selbst diese oder jene Informationen weitergeben wollen. Dies ist der Unterschied zwischen AlterEgo und beispielsweise Google Glass. Außerdem verfügt das Gerät nicht über eine Kamera, da Kapoor möchte, dass seine tragbaren Geräte nur die Daten enthalten, die Sie aktiv an sie übertragen.
"Künstliche Intelligenz selbst schadet niemandem, aber Sie sollten nicht die Tatsache vertuschen, dass diese Technologie in Böses verwandelt werden kann", sagt Kapoor. "Deshalb versuchen wir sicherzustellen, dass unsere Geräte den Grundsätzen entsprechen, die wir einhalten." Aus diesem Grund haben wir AlterEgo von Grund auf neu entwickelt - wir hatten eine bestimmte Vorstellung davon, was passieren sollte, und wir wollten, dass die Leute es so verwenden, wie es beabsichtigt war. “
Kapoor, der in Zusammenarbeit mit der Harvard Medical School an einer Reihe von Projekten gearbeitet hat, möchte in erster Linie Menschen mit gesundheitlichen Problemen das Leben erleichtern. Zum Beispiel könnten Menschen mit Alzheimer dieses Gerät tragen, um Gedächtnisstörungen auszugleichen. Gleichzeitig könnte er dank seiner Fähigkeit, neuronale Mikrosignale zu lesen, Menschen mit körperlichen Behinderungen - taub und stumm, mit Schlaganfall, anfällig für Charcot-Krankheit oder Autismus - bei der Interaktion mit der Außenwelt helfen.
Um AlterEgo in einen wirklich funktionierenden Zustand zu versetzen, muss Kapoor ihn lange trainieren und seinen Wortschatz weit über hundert Wörter erweitern. Außerdem muss er genügend Daten sammeln, um sicherzustellen, dass das Gerät auf jedem Kopf und mit jedem internen Monolog funktioniert. Gleichzeitig ist er überzeugt, dass die Technologie so gut ist, dass sie früher oder später lernen wird, Informationen zu synthetisieren und die Bedeutung neuer Wörter aus dem Kontext zu extrapolieren.
* *
In den funkelnden modernen Büros von Media Lab ist es sehr einfach, sich ein Bild von einer strahlenden wolkenlosen Zukunft machen zu lassen, wenn wir sofort zwei Gehirne verwenden - das, mit dem wir geboren wurden, und den Computer, an den wir uns freiwillig gebunden haben.
Maes bietet eine Vielzahl hypothetischer Beispiele dafür, wie ein perfekt integriertes KI-System unser Leben verändern könnte, wenn Programme erstellt würden, um unsere Fähigkeiten zu erweitern und uns nicht nur zu unterhalten. Sie sagt, dass solche Technologien viele unserer Träume erfüllen können. (Sie gilt zu Recht als IT-Mentorin mit einer utopischen Tendenz - diese Haltung zieht zusammen mit anderen Überlegungen ehrgeizige Studenten wie Kapoor an das Massachusetts Institute of Technology). AlterEgo könnte uns Fremdsprachen beibringen, die umgebende Realität mit ihren Mitteln und in Echtzeit beschreiben oder Unebenheiten in der Kommunikation ausgleichen und Namen und grundlegende Informationen über die Personen vorschlagen, mit denen wir grüßen.
Dann weicht Maes wie durch ein Signal abrupt von dem von Kapoor vorgeschlagenen Konzept der reinen Verschmelzung des Geistes ab. Wenn Sie Kanäle zum Sammeln physiologischer Informationen (Puls, Schwitzen, Körpertemperatur) bereitstellen, kann das Gerät unser Verhalten vorhersagen und uns leise zu Maßnahmen führen, mit denen unsere Ziele erreicht werden. Er konnte bemerken, dass wir bei der Arbeit langsam einschlafen und einen belebenden Geruch nach Minze ausstoßen. Er konnte unser Verhalten korrigieren, indem er versuchte, den dritten Cupcake mit dem Geruch von faulen Eiern zu nehmen. Er konnte feststellen, dass wir nervös sind, und sich mit ermutigenden Worten an uns wenden, die für andere unhörbar sind. Dieser Entwicklungspfad unterscheidet sich erheblich von dem, was der Maes-Student anbietet - er konzentriert sich mehr auf die Bildung des gewünschten Verhaltensmodells und bietet mehr Möglichkeiten zur Monetarisierung. Maes scheint zu der Tatsache zu führen, dass wir diese zusätzlichen fünf Kilo verlieren könnten, wenn wir KI und alle Informationen, die das weltweite Netzwerk hat, in unser bewusstes Denken einbeziehen.
Es ist leicht vorstellbar, dass die Erfindung von Kapoor in einigen Jahren zu einer Idee werden könnte, die Milliarden bringen wird, und welche Konsequenzen dies für die Verteidigungsindustrie und Technologie-Giganten wie Facebook und Amazon haben wird. Weniger offensichtlich ist das andere: Wessen geistiges Eigentum ist AlterEgo? Kapoor selbst beantwortet diese Frage ausweichend. Ihm zufolge könnte er, wenn er sich entschließen würde, das Institut zu verlassen, alle Erfolge mitnehmen, aber im Moment plant er so etwas nicht. Er beabsichtigt, in der Wissenschaft zu bleiben und die Erfindung zu verfeinern, was seiner Meinung nach der Menschheit zugute kommen kann, anstatt sie nur an teurere Menschen zu verkaufen. Dies ist seine Idee, und er möchte bis zum Ende mit ihm gehen.
Aber was ist, wenn jemand seine technischen Lösungen koordiniert, seine Version des Geräts zusammenbaut und ohne seine Teilnahme ein weiteres Startup-Einhorn erstellt? "Ich weiß nicht, was ich antworten soll", sagt Kapoor mit undurchdringlichem Gesicht und zuckt mit den Schultern.