Cómo las nuevas interfaces reemplazan el teclado

Este artículo está dedicado a las interfaces, así como a las tecnologías que vienen después de las pantallas táctiles y los dispositivos de reconocimiento de voz.


Apple Watch, que, por cierto, está lejos de ser la computadora más poderosa en la actualidad, es capaz de procesar gigabytes de datos cada segundo. Nuestro cerebro tiene decenas de miles de millones de neuronas y más de cuatro billones de compuestos, mientras que la cantidad de información que puede procesar cada segundo es tan grande que ni siquiera podemos estimarla aproximadamente. Sin embargo, el puente entre el cerebro humano increíblemente poderoso y el mundo igualmente rápido de 0s y 1s de alta tecnología no es más que dispositivos modestos, como el teclado y el mouse de una computadora, que se han convertido en algo común durante mucho tiempo.



Apple Watch es 250 veces más potente que la computadora con la que el módulo lunar Apollo pudo aterrizar en la superficie de la luna. A medida que las computadoras evolucionaron, su campo de aplicación se extendió cada vez más: desde la informatización de edificios enteros hasta los nanómetros ordinarios. Sin embargo, el teclado sigue siendo el medio de interacción más confiable y ampliamente utilizado entre una persona y una computadora.

El desarrollo del primer teclado de computadora comenzó hace más de 50 años .



¿Qué reemplazará el teclado y el mouse?


Ya hoy podemos observar la adopción generalizada de las computadoras en todo tipo de objetos que nos rodean, sin embargo, dado que conectar un teclado y un mouse a dichos objetos computarizados no siempre es conveniente, se deben encontrar otras formas para garantizar la interacción. Por el momento, la solución más relevante es la interacción con objetos inteligentes o IoT: dispositivos de reconocimiento de voz. Bueno, echemos un vistazo más de cerca a los métodos de interacción en los que los desarrolladores y las compañías de investigación están trabajando hoy.

Interacción táctil


Los avances en la tecnología multisensor y la interacción a través de gestos multisensor han hecho de la pantalla táctil un favorito entre las interfaces. Los investigadores y propietarios de nuevas empresas están llevando a cabo investigaciones destinadas a mejorar la interacción con la ayuda de toques: por ejemplo, los dispositivos podrán determinar cuánto presionas la pantalla, qué parte de tu dedo estás haciendo esto y también quién toca exactamente el dispositivo.


El 3D Touch de iPhone puede determinar la fuerza con la que toca la pantalla.


Qeexo es capaz de entender qué parte de su dedo está tocando la pantalla.


Uno de mis favoritos es el método de interacción Swept Frequency Capacitive Sensing (SFCS) desarrollado por el profesor Chris Harrison de la Universidad Carnegie Mellon.

Interacción de voz


DARPA financió la investigación en esta área desde los años 70 (!), Pero hasta hace poco, dicha investigación no se había aplicado en la vida. Sin embargo, gracias a la tecnología de aprendizaje profundo, los dispositivos modernos de reconocimiento de voz han sido ampliamente utilizados. Por el momento, el mayor problema con el reconocimiento de voz no está en decodificarlos, sino en la percepción y comprensión por parte de los dispositivos del significado del mensaje que se les transmite.


Hound hace un gran trabajo con el reconocimiento de voz contextual.

Interacción Ocular


Los sistemas de seguimiento ocular miden la dirección del ojo o el movimiento del ojo en relación con la cabeza. Debido al costo reducido de las cámaras y sensores, y también teniendo en cuenta la creciente popularidad de las gafas de realidad virtual, la interacción de los usuarios y las computadoras que usan sistemas de seguimiento ocular se está volviendo más relevante que nunca.


La tecnología Eyefluence de Google le permite interactuar con la realidad virtual con sus movimientos oculares.


Tobii, que lanzó su Oferta Pública Inicial (IPO) en 2015, y los fabricantes de productos electrónicos de consumo están realizando investigaciones conjuntas sobre sistemas de seguimiento ocular.

Interacción gestual


En mi opinión, los sistemas de seguimiento de gestos son los mejores entre los sistemas de interacción humano-computadora. Personalmente realicé una investigación sobre varios métodos de seguimiento de gestos, y aquí están algunas de las tecnologías utilizadas hoy:

Unidad de medida inercial (IIU)


Los datos del acelerómetro, el giroscopio y la brújula (todos juntos o solo algunos de ellos) se utilizan para rastrear los gestos. La necesidad de recalibración y un coeficiente de correspondencia bastante bajo entre la información entrante y la receptora son algunos de los problemas inherentes a este método.


El resultado de un estudio realizado por el CMU Future Interfaces Group, fue una clasificación vívida utilizando datos con una alta tasa de muestreo.

Iluminadores infrarrojos + cámaras (sensor de profundidad)


Muchos de los geniales sistemas de seguimiento de gestos presentados anteriormente usan una combinación de cámaras de alta resolución, iluminadores infrarrojos y cámaras infrarrojas. Dichos sistemas funcionan de la siguiente manera: un sistema de este tipo proyecta miles de pequeños puntos en cualquier objeto, y la distorsión varía según la distancia a la que se encuentre dicho objeto (hay muchos otros métodos similares, por ejemplo ToF, pero no entiendo el principio de su trabajo Lo haré) Se utilizan varias versiones de esta tecnología en las siguientes plataformas: Kinect, RealSense de Intel, Leap Motion, Tango de Google.


Leap Motion es un dispositivo de seguimiento de gestos.


Apple ha dado un paso hacia la introducción de un sistema similar en la cámara frontal del iPhone X para FaceID.

Campo electromagnetico


En este método, el dedo u otras partes del cuerpo son un objeto conductor que distorsiona el campo electromagnético que se crea cuando las antenas transmisoras tocan el objeto.


Los relojes inteligentes AuraSense usan 1 transmisor y 4 antenas para rastrear gestos.

Radar


Los radares se han utilizado durante mucho tiempo para rastrear los movimientos de varios objetos, desde aviones hasta barcos y automóviles. Google ATAP literalmente realizó trabajos de joyería, creando un radar en forma de microchip de 8 por 10 mm. Este chipset versátil se puede integrar en relojes inteligentes, televisores y otros dispositivos para rastrear movimientos.


Proyecto Google Proyecto ATAP Soli.


Interfaz de máquina muscular de Thalmic Labs.

Bioseñales


Si estas tecnologías modernas aún no lo han hundido en un estupor ligero, entonces no nos detengamos allí. Todos los métodos anteriores miden y detectan un subproducto de nuestros gestos.

El procesamiento de señales directamente desde los nervios musculares es otro paso adelante hacia la mejora de la interacción entre la persona y la computadora.
El procesamiento de la señal electromiográfica de superficie (sEMG) se proporciona mediante la instalación de sensores en la piel de los bíceps / tríceps o antebrazo, mientras que las señales de varios grupos musculares se envían al dispositivo de seguimiento. Debido al hecho de que la señal sEMG es bastante ruidosa, es posible determinar ciertos movimientos.


Thalmic Labs fue una de las primeras compañías en desarrollar un dispositivo personalizado basado en sEMG: el brazalete Myo.

Habiendo comprado un dispositivo de este tipo, por supuesto, querrá usarlo en su muñeca, sin embargo, los músculos de la muñeca son lo suficientemente profundos, por lo que será difícil para el dispositivo obtener una señal precisa para rastrear los gestos.

CTRL Labs, que ha estado en el mercado durante tanto tiempo, ha creado un dispositivo de seguimiento de gestos sEMG que puede usar en su muñeca. Tal dispositivo de CTRL Labs mide la señal sEMG y detecta un impulso neural que ingresa al cerebro después del movimiento. Este método es el siguiente paso hacia una interacción efectiva entre la computadora y el cerebro humano. Gracias a la tecnología de esta empresa, puede escribir un mensaje en su teléfono con las manos en los bolsillos.

Interfaz de neurocomputadora


Han sucedido muchas cosas durante el año pasado: DARPA invirtió $ 65 millones en el desarrollo de interfaces neuronales; Elon Musk recaudó $ 27 millones para Neuralink; El fundador de Kernel, Brian Johnson, invirtió $ 100 millones en su proyecto; y Facebook ha comenzado a trabajar en el desarrollo de una interfaz de neurocomputadora (NCI). Hay dos tipos de NCI:

NCI no invasivo


Un dispositivo de electroencefalografía (ElectroEncephaloGraphy) recibe señales de sensores montados en el cuero cabelludo.

Imagine un micrófono montado sobre un estadio de fútbol. No sabrá de qué está hablando cada persona presente, pero con un fuerte saludo y un golpe puede comprender si se ha logrado el objetivo.

Las interfaces basadas en ElectroEncephaloGraphy (EEG) en realidad no pueden leer literalmente su mente. El paradigma NQI más utilizado es el P300 Speller. Por ejemplo, desea escribir la letra "R"; la computadora muestra al azar diferentes caracteres; Tan pronto como vea la "R" en la pantalla, su cerebro se sorprenderá y emitirá una señal especial. Esta es una forma bastante ingeniosa, pero no diría que la computadora "lee tus pensamientos", porque no puedes determinar qué piensa una persona sobre la letra "R", sino que parece un truco de magia que, sin embargo, funciona.

Empresas como Emotiv, NeuroSky, Neurable y muchas otras han desarrollado auriculares EEG para un amplio mercado de consumo. El Building 8 de Facebook anunció un proyecto de Brain Typing que utiliza otro método para determinar las señales del cerebro llamado Espectroscopía Funcional de Infrarrojo Cercano (fNIRS), cuyo objetivo es rastrear 100 palabras por minuto.


Interfaz Neuro Neurable.

NCI invasivo


Por el momento, este es el paso más alto en el campo de la interfaz hombre-máquina. La interacción entre una persona y una computadora que usa un NCI invasivo se asegura conectando electrodos directamente al cerebro humano. Sin embargo, vale la pena señalar que los proponentes de este enfoque enfrentan una serie de problemas no resueltos que aún deben resolver en el futuro.



Desafíos a resolver


Quizás, al leer este artículo, se te ocurrió la idea: dicen que si todas las tecnologías anteriores ya existen, ¿por qué todavía usamos el teclado y el mouse? Sin embargo, para que una nueva tecnología que permita la interacción entre humanos y computadoras, pueda convertirse en un producto de consumo, debe tener algunas características.

Precisión


¿Usaría la pantalla táctil como interfaz principal si solo respondiera a 7 de cada 10 toques? Es muy importante que la interfaz, que será totalmente responsable de la interacción entre el dispositivo y el usuario, tenga la mayor precisión posible.

Tiempo de espera


Imagínese: escribe un mensaje en el teclado, mientras que las palabras en la pantalla aparecen solo 2 segundos después de presionar las teclas. Incluso un segundo retraso afectará negativamente la experiencia del usuario. Una interfaz hombre-máquina con una respuesta retrasada de incluso unos pocos cientos de milisegundos es simplemente inútil.

Entrenamiento


La nueva interfaz hombre-máquina no debe implicar que los usuarios aprendan muchos gestos especiales. Por ejemplo, ¡imagine que tendría que aprender un gesto diferente para cada letra del alfabeto!

Retroalimentación


El sonido de un clic del teclado, la vibración del teléfono, una pequeña señal de sonido del asistente de voz: todo esto sirve como una especie de advertencia para el usuario sobre la finalización del ciclo de retroalimentación (o la acción que llama). El ciclo de retroalimentación es uno de los aspectos más importantes de cualquier interfaz a la que los usuarios a menudo ni siquiera prestan atención. Nuestro cerebro está tan ordenado que está esperando la confirmación de que se haya completado alguna acción y obtuvimos algún resultado.

Una de las razones por las que es muy difícil reemplazar el teclado con cualquier otro dispositivo de seguimiento de gestos es la falta de la capacidad de dichos dispositivos para notificar explícitamente al usuario la acción completada.


En este momento, los investigadores ya están trabajando arduamente para crear pantallas táctiles que puedan proporcionar retroalimentación táctil en formato 3D, de modo que la interacción con las pantallas táctiles alcance un nuevo nivel. Además, Apple ha hecho un trabajo realmente tremendo en esta dirección.

Lo que nos espera en el futuro


Debido a todo lo anterior, puede parecerle que no veremos cómo algo nuevo cambiará el teclado, al menos en el futuro cercano. Entonces, quiero compartir con ustedes mis pensamientos sobre las características que debería tener la futura interfaz:
  • Multimodalidad Usaremos diferentes interfaces en diferentes casos. Para ingresar texto, todavía usaremos el teclado; pantallas táctiles: para dibujar y diseñar; dispositivos de reconocimiento de voz: para interactuar con nuestros asistentes personales digitales; sistemas para rastrear gestos usando el radar, mientras se conduce; sistemas de interfaz muscular-máquina - para juegos y realidad virtual; y la interfaz de la neurocomputadora: para seleccionar la música más adecuada para nuestro estado de ánimo.
  • Reconocimiento del contexto. Por ejemplo, lee un artículo en su computadora portátil sobre incendios forestales en el norte de California, y luego usa los auriculares inteligentes para hacer una pregunta de un asistente de voz virtual: "¿Qué tan fuerte es el viento en esta área en este momento?" Por lo tanto, el asistente virtual debe entender que está preguntando exactamente sobre el área donde hay incendios en este momento.
  • Automatismo En vista del desarrollo de la IA, la computadora podrá predecir mejor lo que planeas hacer y, por lo tanto, ni siquiera tendrás que darle comandos. Él sabrá qué música encender cuando te despiertes, por lo que no necesitas ninguna interfaz para buscar y reproducir tu pista favorita.


- Primer servicio de promoción de Reddit : Compre votos a favor de Reddit

Source: https://habr.com/ru/post/es409203/


All Articles