新界面如何取代键盘

本文专门介绍界面以及触摸屏和语音识别设备之后的技术。


顺便说一句,Apple Watch距离当今功能最强大的计算机还很远,它能够每秒处理千兆字节的数据。 我们的大脑有数百亿个神经元和四种以上的四方化合物,而它每秒能处理的信息量是如此之大,以至于我们甚至无法大概估计它。 尽管如此,强大的人脑与同样快速的高科技数字0和1之间的桥梁不过是很普通的设备,例如计算机键盘和鼠标,它们早已司空见惯。



Apple Watch的功能是阿波罗登月舱模块能够在月球表面着陆的计算机的250倍。 随着计算机的发展,它们的应用领域变得越来越广泛:从整个建筑物的计算机化到普通的计算机纳米。 但是,键盘仍然是人与计算机之间交互的最可靠,使用最广泛的方式。

第一个计算机键盘的开发始于50多年前。



什么将取代键盘和鼠标?


今天,我们已经可以观察到计算机在周围各种物体中的广泛应用,但是,由于将键盘和鼠标连接到此类计算机化对象并不总是很方便,因此必须找到其他方式来确保交互。 目前,最相关的解决方案是使用智能对象或IoT(语音识别设备)进行交互。 好吧,让我们仔细看一下开发人员和研究公司正在研究的交互方法。

触摸互动


多传感器技术的进步以及通过多传感器手势进行交互已使触摸屏成为界面中的最爱。 初创公司的研究人员和所有者正在进行研究,目的是借助触摸来改善交互性:例如,设备将能够确定您按下屏幕的次数,手指在触摸屏幕的哪一部分以及究竟是谁真正触摸设备。


iPhone的3D Touch可以确定您触摸屏幕的力度。


Qeexo能够了解您正在触摸屏幕的手指的哪一部分。


我最喜欢的一种方法是卡内基梅隆大学的克里斯·哈里森教授开发的扫频电容传感(SFCS)相互作用方法。

语音互动


DARPA早在70年代就资助了该领域的研究(!),但是直到最近,这种研究才在生活中得到应用。 然而,由于深度学习技术,现代语音识别设备已被广泛使用。 目前,语音识别的最大问题不是解码它们,而是设备感知和理解传输给他们的消息的含义。


猎犬在上下文语音识别方面做得很好。

眼神互动


眼睛跟踪系统可以测量眼睛的方向或眼睛相对于头部的运动。 由于降低了相机和传感器的成本,并且考虑到虚拟现实眼镜的日益普及,使用眼睛跟踪系统的用户和计算机的交互变得比以往任何时候都更加重要。


Google的Eyefluence技术可让您通过眼部动作与虚拟现实进行交互。


Tobii于2015年启动了首次公开募股(IPO),消费电子制造商正在联合进行眼动追踪系统研究。

手势互动


我认为,手势跟踪系统是人机交互系统中最酷的。 我亲自研究了各种跟踪手势的方法,以下是当今使用的一些技术:

惯性测量单元(IIU)


来自加速度计,陀螺仪和指南针(全部或仅一部分)的数据用于跟踪手势。 该方法固有的一些问题是需要重新校准以及传入和接收的信息之间的对应系数相当低。


CMU未来接口小组进行的一项研究结果是使用高采样率的数据进行了生动的分类。

红外照明器+摄像头(深度传感器)


上面介绍的许多酷手势跟踪系统都使用高分辨率相机,红外照明器和红外相机的组合。 这样的系统的工作方式如下:这样的系统会在任何对象上投射数千个小点,并且失真会因对象的位置而异(还有许多其他类似的方法,例如ToF,但我不讨论它们的工作原理我会的。 以下平台使用了该技术的各种版本:Kinect,Intel的RealSense,Leap Motion,Google的Tango。


Leap Motion是一种手势跟踪设备。


苹果已经迈出了一步,在前置摄像头iPhone X for FaceID中引入了类似的系统。

电磁场


在这种方法中,手指或身体其他部位是导电物体,会使发射天线接触物体时产生的电磁场失真。


AuraSense智能手表使用1个发射器和4个天线来跟踪手势。

雷达


长期以来,雷达一直用于跟踪各种物体的运动-从飞机到轮船和汽车。 Google ATAP实际上进行了珠宝工作,以尺寸为8 x 10毫米的微芯片形式制造了雷达。 该多功能芯片组可以集成到智能手表,电视和其他设备中,以跟踪运动。


Google Project ATAP Project Soli。


Thalmic Labs的肌肉机界面。

生物信号


如果这些现代技术仍然没有使您陷入昏迷,那么我们就不要就此止步。 以上所有方法都可以测量和检测我们手势的副产品。

直接处理来自肌肉神经的信号是朝着改善人与计算机之间的交互迈出的又一步。
通过在二头肌/三头肌或前臂的皮肤上安装传感器来提供表面肌电信号(sEMG)处理,同时将来自各种肌肉组的信号发送到跟踪设备。 由于sEMG信号非常嘈杂,因此可以确定某些运动。


Thalmic Labs是最早开发基于sEMG的自定义设备-Myo手镯的公司之一。

购买了这样的设备后,您当然希望将其戴在手腕上,但是手腕的肌肉足够深,因此该设备很难获得准确的信号来跟踪手势。

进入市场已有很长时间的CTRL Labs已创建了sEMG手势跟踪设备,您可以戴在手腕上。 CTRL Labs提供的这种设备可测量sEMG信号并检测运动后进入大脑的神经驱动。 此方法是迈向计算机与人脑之间有效交互的下一步。 借助该公司的技术,您可以用手在口袋里在手机上键入一条消息。

神经计算机接口


在过去的一年中发生了很多事情:DARPA投资了6,500万美元用于神经接口的开发; Elon Musk为Neuralink筹集了2700万美元; 内核创始人Brian Johnson在他的项目中投资了1亿美元; Facebook已经开始开发神经计算机接口(NCI)。 NCI有两种类型:

非侵入性NCI


脑电图设备(ElectroEncephaloGraphy)从安装在头皮上的传感器接收信号。

想象一下在足球场上方安装的麦克风。 您将不会知道在座的每个人都在谈论什么,但是通过大声的问候和刘海,您可以了解目标是否实现。

实际上,基于脑电图(EEG)的界面无法真正读懂您的思想。 最常用的NQI范例是P300 Speller。 例如,您要输入字母“ R”; 计算机随机显示不同的字符; 只要在屏幕上看到“ R”,您的大脑就会感到惊讶并发出特殊信号。 这是一种相当机智的方式,但是我不会说计算机会“读懂您的想法”,因为您无法确定人们对字母“ R”的看法,但是它看起来像是个魔术,它仍然可以工作。

Emotiv,NeuroSky,Neurable等公司已经为广泛的消费者市场开发了EEG耳机。 Facebook的8号楼宣布了“大脑打字”项目,该项目使用另一种方法来确定大脑发出的信号,即功能近红外光谱(fNIRS),该方法旨在每分钟跟踪100个单词。


神经接口可调节。

侵袭性NCI


目前,这是人机界面领域中的最高一步。 通过将电极直接连接到人脑,可以确保使用侵入性NCI的人与计算机之间的交互。 但是,值得注意的是,这种方法的支持者面临着许多未解决的问题,他们将来仍然需要解决这些问题。



要解决的挑战


也许,在阅读本文时,您就想到了这个主意:他们说,如果上述所有技术已经存在,那么为什么我们仍然使用键盘和鼠标。 但是,为了使人机交互的新技术成为消费产品,它必须具有某些功能。

准确度


如果触摸屏仅响应10个触摸中的7个,您是否将触摸屏用作主界面? 完全负责设备与用户之间交互的界面具有尽可能高的准确性非常重要。

等待时间


试想一下:您在键盘上键入一条消息,而屏幕上的单词仅在按下按键2秒钟后出现。 即使延迟一秒钟也会对用户的体验造成负面影响。 人机界面即使延迟了几百毫秒也没有用。

培训课程


新的人机界面不应暗示用户会学习很多特殊手势。 例如,假设您必须为字母表的每个字母学习一个单独的手势!

意见反馈


敲击键盘的声音,电话的振动,语音助手的一小声信号-所有这些都向用户发出有关反馈周期(或他调用的动作)完成的警告。 反馈循环是用户经常不注意的任何界面中最重要的方面之一。 我们的大脑如此安排,以至于等待确认某些动作已经完成并且我们得到了一些结果。

很难用任何其他手势跟踪设备替换键盘的原因之一是缺乏此类设备将已完成操作明确通知用户的能力。


目前,研究人员已经在努力创建可以提供3D格式的触觉反馈的触摸屏,因此与触摸屏的交互应该达到一个新的水平。 此外,苹果在这一方向上确实做了巨大的工作。

未来等待着我们


由于上述所有原因,在您看来,至少在不久的将来,我们看不到有什么新东西会改变键盘。 因此,我想与您分享我对未来界面应具有的功能的看法:
  • 多模式。 在不同情况下,我们将使用不同的接口。 要输入文本,我们仍将使用键盘; 触摸屏-用于绘图和设计; 语音识别设备-用于与我们的数字个人助理进行交互; 驾驶时使用雷达跟踪手势的系统; 肌肉机接口系统-用于游戏和虚拟现实; 和神经计算机界面-选择最适合我们情绪的音乐。
  • 识别上下文。 例如,您在笔记本电脑上阅读了一篇关于加利福尼亚北部森林大火的文章,然后使用智能耳机向虚拟语音助手提出了一个问题:“现在该地区的风有多强?” 因此,虚拟助手应该了解您正在确切询问当前发生火灾的区域。
  • 自动机 。 鉴于AI的发展,计算机将能够更好地预测您打算做什么,因此您甚至不必向其发出命令。 他会在您醒来时知道要打开什么音乐,因此您不需要任何界面即可搜索和播放自己喜欢的曲目。


-首次Reddit推广服务: 购买Reddit Upvotes

Source: https://habr.com/ru/post/zh-CN409203/


All Articles