再来看他的操控方法。
这种AR电脑的操控。与21世纪初的操控方式大不相同。
它的主要方式有语音、手势、眼球交互、脑电波输入。
语音方式,这个好理解。就是不用键盘了,直接说出来,电脑就能理解。
你可以通过语音下达各种指令,这个电脑足够聪明,能够听得懂你各种不靠谱的,带着地方口音的话。
而手势交互,就是在自己面前虚空乱划拉。
当然实际上,在增强现实的显示作用下,操作者视野中会出现一个虚拟界面,然后你的手就可以在上面点击,拖动,等等操作。
这种手势操作,到了21世纪二十年代,就非常成熟了。当时的人们使用手机,或者对着摄像头的时候,就可以用自己的手势,来进行各种操作。
当然还可以调出虚拟键盘,采用世纪初的最通用的输入方式——键盘输入。只不过,这个键盘是虚拟的,你的手指只能在虚空乱动,再也没有那种键盘按键把手指弹起来的感觉了。
到了三十年代,立体全息显示成为了主流。此时的手势操作,就从平面转为了立体。
若是本世纪初的人来看,那就会发现一个人在在那里,双手在虚空乱点乱移,电脑却诡异地相应起他的动作,一如拿着世纪初那种笨重鼠标移动一般。
眼球交互,则是相对较先进。
这种交互技术,在十几年代开始出现,二十年代就开始逐步普及。
它主要是通过设备发出红外光,来确定用户眼睛的位置。然后捕捉用户的视网膜和角膜状态,通过这些数据,构建用户眼睛的实时3D模型。并通过三维空间,来跟踪眼球的焦点,最终实现了眼球控制的交互输入。
就拿本世纪初的手机操作来简单说吧。
盯着看,那就是手指头在手机上触了一下。
盯住一两秒或更长,那就是手指头在手机上按着不放。
如果眨巴一下眼睛,嗯,那就是手指头双击了。
它与手势控制比起来,就各有所长。手势控制最灵活,易于精确控制。眼球控制可以不用动手,不过缺点是眼球控制的确认和移动反应会略慢。根据自己的需要来选择了。
脑电波输入,则是个新奇货色。
脑电波输入,是二十一世纪初就有开始研究,但是在三十年代后才逐渐成熟的交互技术。它是指人类直接通过脑波交互,读取思维,由此更加准确而深度地,来解读到人们内心深处的真正想法。
说白了,就是你脑子里意念默念一个东西,电脑就能知道你想啥。
这种技术,有侵入式的,也是非侵入式的。
侵入式,就是在你的脑子里装一个芯片,在体内检测脑电波。
很神奇么?
但这真是科学,而且已经被实现了。
早在2017年,美国著名互联网公司Facebook,就已经在他的开发者大会上,向全世界展示了一项炫酷的脑电波打字技术。
一位全身不能动的病人,通过植入大脑的电子传感器,以每分钟8个单词的速度,把自己所想的内容转换成显示屏上的文字。
这项技术一亮相,当时就惊艳全世界。
而非侵入式,就是直接戴个帽子,或带个头带,利用体外检测脑电波。
不过,侵入式的技术,是要把脑袋打开,或者开个小洞,然后放进去芯片。这听起来都够吓人的,更是招到了大量伦理道德层面的抨击。
相较而言,非侵入式的正式实验,则更容易被人接受。
2013年,美国华盛顿大学,公布了人类首次“非侵入式脑对脑接口实验”。他们的科学与工程教授,拉加什·拉奥,戴上能读取脑电图的电极帽,完成了一次利用“意念”实现的电脑操控。
但这些技术,在那个年代,都不够成熟。直到本世纪三十年代,采用直接贴在头部的非侵入式脑电波读取技术,才开始变得可行。
经过十几年的发展,脑电波输入已经很成熟了,成为一种重要的输入手段。
不过还是没有语音和手势使用面广,只是作为辅助输入手段而已。
在这个AR电脑,却是将这四种输入手段都结合进来。
于是乎,这台电脑操控起来,怎么看确实都有点口中念念有词,手舞足蹈的神棍作风了。
这种电脑,简直就是神棍式电脑。