Kognitive Technologien helfen Blinden, zu „sehen“, was um sie herum passiert



Chieko Asakawa ist Wissenschaftler bei IBM Research. Sie befasst sich mit Entwicklungen im Bereich der Unterstützung von Menschen mit Behinderungen. Zum größten Teil sprechen wir von denen, die ihre Sehkraft ganz oder teilweise verloren haben. Für Asakawa ist ihre Arbeit mehr als ein berufliches Interesse. Tatsache ist, dass sie selbst im Alter von 14 Jahren ihr Augenlicht völlig verloren hat.

Danach gab das Mädchen nicht auf, sondern versuchte, sich in einer neuen Welt wiederzufinden. Sie musste "Schrift für Blinde" im mehrbändigen Enzyklopädie-Wörterbuch lernen, weil Dann gab es keine PCs, keine Smartphones, keine einfachen Braille-Lerngeräte. „Ich erinnere mich, dass ich, als ich ein englisches Wort finden musste, das mit„ s “beginnt, durch mehrere Bände des englisch-japanischen Wörterbuchs in Blindenschrift scrollen musste. Versuchen Sie es sich vorzustellen “, sagt Asakawa.

Früher war es komplizierter, weil Blinde nur von anderen Menschen Hilfe bekommen konnten. Alles begann sich 1984 zu ändern, als Asakawa im Rahmen eines Studienprogramms in IBM Research eintrat und Forschungsstudent wurde. 1985 wechselte sie offiziell zu IBM und wurde Mitarbeiterin von IBM Research. Sie nahm die Entwicklung von Systemen auf, die englischen Text in englischen Braille-Text übersetzten. Bald schufen sie und ihre Kollegen ein Computersystem, das Papier-Braille-Wörterbücher unnötig machte. Natürlich arbeiten auch jetzt noch viele Blinde mit Papier, aber die Computertechnologie vereinfacht das Lesen und die Orientierung im Raum. 1997 entwickelte Asakawa auch einen Browser, der den Inhalt von Webseiten sprach und ihn als Home Page Reader bezeichnete.



Heute hat sich die Situation radikal geändert. Smartphones haben jederzeit Zugriff auf Netzwerkressourcen ermöglicht. Und jetzt entwickelt Asakawa einen digitalen Assistenten für Blinde. Seit einigen Jahren perfektioniert er als Teil des Teams der Carnegie Mellowna University ein Programm, das die kognitiven Technologien von IBM verwendet.

„Mein Traum ist es, einen kognitiven Assistenten zu schaffen, der alles erkennt, was mich umgibt, mich wissen lässt, wer den Raum betreten hat, wer sich mit mir treffen möchte und welche Hindernisse auf meinem Weg sichtbar sind“, sagt das Mädchen. Die Arbeit an einem solchen Assistenten dauert schon lange an. Vor einigen Jahren erstellte Asakawa zusammen mit Kollegen von der Carnegie Mellown University einen Prototyp eines ähnlichen Programms mit dem Namen NavCog-Anwendung. Es hilft Blinden, in einem unbekannten Bereich zu navigieren. Dies erfordert zwar spezielle drahtlose Tags, die die Bewegungsrichtung mithilfe eines Funksignals anzeigen.

NavCog wurde seit der Beta-Version im Jahr 2015 mit mehreren neuen Funktionen erheblich verbessert. Bisher hat die Anwendung unter Verwendung der Sensoren und kognitiven Technologien des Telefons von IBM den Benutzer nur über seinen Standort informiert. Informationen werden über den Lautsprecher oder die Kopfhörer des Geräts geflüstert, die an das Telefon angeschlossen sind.

Jetzt kann dieser digitale Assistent den Benutzer bereits warnen, wer den Raum betritt oder auf die Straße kommt und in welcher Stimmung, mit welchem ​​Ausdruck. Dies hilft blinden Menschen, stärker am gesellschaftlichen Leben der Gesellschaft teilzunehmen. „Computer helfen Menschen, in vollen Zügen zu leben und zu arbeiten“, sagt Asakawa. "Die Technologie hat mir geholfen, einige Träume zu verwirklichen, darunter das Lesen von Büchern oder das eigene Surfen im Internet." Die kognitive Technologie ist für mich ein großer Fortschritt. “



In Kürze planen die Entwickler, eine Reihe neuer Funktionen hinzuzufügen, die die Anwendung noch universeller machen werden. Sie können die Entwicklung des Projekts auf seiner Facebook-Seite verfolgen.

Source: https://habr.com/ru/post/de403781/


All Articles