真材实料看PC:超越触控的感知计算
- 2013-4-26 16:39:08
- 类型:原创
- 来源:电脑报
- 报纸编辑:胡进
- 作者:
【电脑报在线】IDF2013,英特尔提出了感知计算概念,英特尔副总裁邓慕理是这样阐述的:感知计算是以更加自然(Natural)、直观(Intuitive)和身临其境(Immersive)的方式,重新定义消费者的计算体验,重塑人机互动的未来图景。这就意味着,英特尔正在力推新的操控方式进入笔记本。那么,在感知计算的背后,什么样的新操控方式最有可能吹响冲锋号,进军笔记本市场呢?
IDF2013,英特尔提出了感知计算概念,英特尔副总裁邓慕理是这样阐述的:感知计算是以更加自然(Natural)、直观(Intuitive)和身临其境(Immersive)的方式,重新定义消费者的计算体验,重塑人机互动的未来图景。这就意味着,英特尔正在力推新的操控方式进入笔记本。那么,在感知计算的背后,什么样的新操控方式最有可能吹响冲锋号,进军笔记本市场呢?
摄像头体感:动动手脚 自动捕捉
优势:可识别全身动作
劣势:结构较为复杂,摄像头需直面使用者
说起体感大家并不陌生,微软的Kinect成名已久。而在IDF2013上,英特尔用来展示感知计算的,也是基于摄像头的体感技术。动动手,就可以操控电脑,尤其是玩游戏时,挥拳舞腿,好似实战,那种带入感,是其他操控方式无法比拟的。
不过,想要用摄像头实现完美的体感操控,也并不是件容易的事情。微软Kinect和英特尔摄像头的体感技术均使用了两个摄像头,从不同角度拍摄使用者后,形成3D图像,同时,这两个摄像头也各有分工,红外摄像头可以更好的识别人体的生物特性,便于从复杂的背景中识别出使用者。而普通摄像头,则偏重于扑捉人体动作。而在捕捉到图像后还要对图像进行复杂的分析和建模过程,例如在脸部,以标志性的眼睛,鼻子,下巴等作为标志点,而在手部,则以肘关节,腕关节等为标志点,这样,通过对比各检测点与标致点之间的位移,就可以检测出人体的动作,再将这些动作转化为指令,就实现了电脑控制。
摄像头体感设备可以对人体各部会的动作进行监控,从而实现特定的体感操作,如Kinect,就可以监测人体的二十个关节的运动,以让游戏人物实现繁多的动作。但摄像头体感用在笔记本中,还存在一定的困难,安装双摄像头倒是难度不高,但如何在人体运动时让摄像头始终正对使用者却不是件容易的事。而一旦摄像头侧拍使用者,不仅使用者的动作容易被自己的身体遮挡,标志点的定位也容易变形,导致体感精度降低。
但随着Leap Motion体感的出现,体感融入笔记本的速度有望提升,这款仅有U盘大小的体感传感器据称使用超声波与红外摄像方式,重点捕捉使用者双手运动时的体感动作。缩小捕捉范围,令这款体感传感器的精度与识别效率都有很大提高。而其价格仅99美元。近期,Leap Motion更是宣布其与惠普合作,将在近期内推出体感笔记本。体感,会在短时间内进入我们的视线吗?值得期待。
图:英特尔展示的感知体感设备与建模原理
小贴士:体感门槛低,精度提升难
如今,一些笔记本已经开始宣传体感,如海尔7G-3s\T6-3,而VAIO E 14P、东芝G50等笔记本使用的手势控制也算是一种体感。但这些笔记本并未使用双摄像头,那么,它们是如何实现体感操作的呢?实际上,这些机型只是依靠摄像头拍摄图片,对图片进行分析,然后触发控制。体感和手势控制实现起来并不复杂,但也有识别动作少,识别误码率高等问题,这也就是这些笔记本体感控制能力弱的根本原因。
 
肌肉传感:手臂一挥 知你心意
优势:无障碍快速传感
劣势:需要额外设备,只能获取手臂动作
看到的未必是真实的,拍到的未必是就是你的操控意图。摄像体感往往面临这样的困境——如摄像头被遮挡;又比如使用者的微小动作超过摄像头识别分辨率。
近期,Thalmic Labs推出的MYO腕带就是通过获知肌肉状态来,让电脑感知你的操控需求的。
这款内置处理器并整合了蓝牙4.0的腕带感知使用者的动作,它有两种感知方式:对于手臂移动,挥舞等臂上动作,依靠腕带内置的加速传感器和陀螺仪进行感知;而对于手指和下臂动作,则依靠腕带内部的电级。我们知道,手指能作出动作,正是依靠下臂丰富的肌肉束的牵引才能够实现。而动作的不同,各肌肉束的运动都不一样。而MYO腕带内部的电极,正是检测下臂各肌肉运动时所产生的电脉冲,从而获知使用者作出的是什么动作,并转变成不同的命令来来操控电脑。
直接感知身体状态,让传感的可靠性大大提升,而即便是微小的动作,也躲不开传感器的监视,甚至,在你的手指还未动作,肌肉的牵引已经让传感器获知你的想法,这也让肌肉传感有更好的速度。不过,需要额外佩戴腕带,还是让人有些纠结。而且,只能传感手部的动作噢,这样的操控,在某些地方,主要是游戏里,可能还不太够High。
 
眼球控制:懒到极致 动眼不动手
优势:无需动作,凝视即可
劣势:感知动作少,确定困难
对于偷懒的追求,总是永无止境,体感,肌肉传感还需要动手,此君子不为,宅男也懒得动。如果能够借助一个眼神就让电脑心领神会,感知你的意图的话,那多好。还别说,这种心有灵犀的做法,厂家早有尝试,早在2011年,联想就发布过眼球控制概念本。而近期,运行Win8的Eye Tribe眼控平板也已经面世,它们可以根据使用者眼球关注的焦点来移动屏幕上的鼠标箭头,而在凝视图标或眨眼时,就相当于点击,从而操控电脑。
眼球识别是一个非常复杂的过程,在通过摄像头确定头部结构,识别眼球位置后,眼球传感器将发射出人眼无法看到的低功率红外线光束,这一光束在人眼的瞳孔、虹膜、角膜等部位会产生不同的反射,接收器在接收反射光束后,经过分析与计算,即可得知使用者的关注目标。
眼球控制无疑是极致偷懒的方式,宅男动眼不动手、省事。但眼球控制只能感知使用者的关注目标,感知动作少,同时,眼神控制要靠凝视或眨眼才相当于鼠标点击。这在操控时,也比较麻烦,尤其游戏或需要频繁点击时,对着电脑疯狂的眨眼放电,那也相当不舒服啊。因此,眼球控制只能作为辅助操控方式,也许正因为此,英特尔近期向眼球控制技术提供商Tobii投资了2100万美元,以获得10%的股份。未来,英特尔是否会在笔记本中推广这种感知方式呢?大有可能噢。
图:联想与Tobii合作的眼控笔记本概念机(上)与Eye Tribe眼控平板电脑(下)
图:追踪眼球技术通过瞳孔、虹膜、角膜等不同部位产生的反射获得感知数据
总结:新感知方式,需要突破可靠性瓶颈
笔记本的新感知方式还有更多类型,自然的语音方式,科幻的脑电波传感等等,虽然,这些技术在实验室已经取得成功,但离商用还有不小的距离--这不仅因为设备的价格昂贵,更重要的是如何提升传感的可靠性。例如,语音感知中,如何区分是使用者日常的语言行为还是操控命令,在体感中,如何区别是使用者正常的体态还是控制体态。而眼球控制时,如果使用者开小差时又该如何做出反应等等——这些模糊判断的机制,都成为电脑新感知方式成功与否的关键。而要解决这些问题,不仅要求有强大硬件的支持,还要有足够的人工智能。也许,算法的突破,PC人工智能的水平,将决定这些新感知方式的普及速度与使用者对其的接受度。
 
摄像头体感:动动手脚 自动捕捉
优势:可识别全身动作
劣势:结构较为复杂,摄像头需直面使用者
说起体感大家并不陌生,微软的Kinect成名已久。而在IDF2013上,英特尔用来展示感知计算的,也是基于摄像头的体感技术。动动手,就可以操控电脑,尤其是玩游戏时,挥拳舞腿,好似实战,那种带入感,是其他操控方式无法比拟的。
不过,想要用摄像头实现完美的体感操控,也并不是件容易的事情。微软Kinect和英特尔摄像头的体感技术均使用了两个摄像头,从不同角度拍摄使用者后,形成3D图像,同时,这两个摄像头也各有分工,红外摄像头可以更好的识别人体的生物特性,便于从复杂的背景中识别出使用者。而普通摄像头,则偏重于扑捉人体动作。而在捕捉到图像后还要对图像进行复杂的分析和建模过程,例如在脸部,以标志性的眼睛,鼻子,下巴等作为标志点,而在手部,则以肘关节,腕关节等为标志点,这样,通过对比各检测点与标致点之间的位移,就可以检测出人体的动作,再将这些动作转化为指令,就实现了电脑控制。
摄像头体感设备可以对人体各部会的动作进行监控,从而实现特定的体感操作,如Kinect,就可以监测人体的二十个关节的运动,以让游戏人物实现繁多的动作。但摄像头体感用在笔记本中,还存在一定的困难,安装双摄像头倒是难度不高,但如何在人体运动时让摄像头始终正对使用者却不是件容易的事。而一旦摄像头侧拍使用者,不仅使用者的动作容易被自己的身体遮挡,标志点的定位也容易变形,导致体感精度降低。
但随着Leap Motion体感的出现,体感融入笔记本的速度有望提升,这款仅有U盘大小的体感传感器据称使用超声波与红外摄像方式,重点捕捉使用者双手运动时的体感动作。缩小捕捉范围,令这款体感传感器的精度与识别效率都有很大提高。而其价格仅99美元。近期,Leap Motion更是宣布其与惠普合作,将在近期内推出体感笔记本。体感,会在短时间内进入我们的视线吗?值得期待。
图:英特尔展示的感知体感设备与建模原理
小贴士:体感门槛低,精度提升难
如今,一些笔记本已经开始宣传体感,如海尔7G-3s\T6-3,而VAIO E 14P、东芝G50等笔记本使用的手势控制也算是一种体感。但这些笔记本并未使用双摄像头,那么,它们是如何实现体感操作的呢?实际上,这些机型只是依靠摄像头拍摄图片,对图片进行分析,然后触发控制。体感和手势控制实现起来并不复杂,但也有识别动作少,识别误码率高等问题,这也就是这些笔记本体感控制能力弱的根本原因。
 
肌肉传感:手臂一挥 知你心意
优势:无障碍快速传感
劣势:需要额外设备,只能获取手臂动作
看到的未必是真实的,拍到的未必是就是你的操控意图。摄像体感往往面临这样的困境——如摄像头被遮挡;又比如使用者的微小动作超过摄像头识别分辨率。
近期,Thalmic Labs推出的MYO腕带就是通过获知肌肉状态来,让电脑感知你的操控需求的。
这款内置处理器并整合了蓝牙4.0的腕带感知使用者的动作,它有两种感知方式:对于手臂移动,挥舞等臂上动作,依靠腕带内置的加速传感器和陀螺仪进行感知;而对于手指和下臂动作,则依靠腕带内部的电级。我们知道,手指能作出动作,正是依靠下臂丰富的肌肉束的牵引才能够实现。而动作的不同,各肌肉束的运动都不一样。而MYO腕带内部的电极,正是检测下臂各肌肉运动时所产生的电脉冲,从而获知使用者作出的是什么动作,并转变成不同的命令来来操控电脑。
直接感知身体状态,让传感的可靠性大大提升,而即便是微小的动作,也躲不开传感器的监视,甚至,在你的手指还未动作,肌肉的牵引已经让传感器获知你的想法,这也让肌肉传感有更好的速度。不过,需要额外佩戴腕带,还是让人有些纠结。而且,只能传感手部的动作噢,这样的操控,在某些地方,主要是游戏里,可能还不太够High。
 
眼球控制:懒到极致 动眼不动手
优势:无需动作,凝视即可
劣势:感知动作少,确定困难
对于偷懒的追求,总是永无止境,体感,肌肉传感还需要动手,此君子不为,宅男也懒得动。如果能够借助一个眼神就让电脑心领神会,感知你的意图的话,那多好。还别说,这种心有灵犀的做法,厂家早有尝试,早在2011年,联想就发布过眼球控制概念本。而近期,运行Win8的Eye Tribe眼控平板也已经面世,它们可以根据使用者眼球关注的焦点来移动屏幕上的鼠标箭头,而在凝视图标或眨眼时,就相当于点击,从而操控电脑。
眼球识别是一个非常复杂的过程,在通过摄像头确定头部结构,识别眼球位置后,眼球传感器将发射出人眼无法看到的低功率红外线光束,这一光束在人眼的瞳孔、虹膜、角膜等部位会产生不同的反射,接收器在接收反射光束后,经过分析与计算,即可得知使用者的关注目标。
眼球控制无疑是极致偷懒的方式,宅男动眼不动手、省事。但眼球控制只能感知使用者的关注目标,感知动作少,同时,眼神控制要靠凝视或眨眼才相当于鼠标点击。这在操控时,也比较麻烦,尤其游戏或需要频繁点击时,对着电脑疯狂的眨眼放电,那也相当不舒服啊。因此,眼球控制只能作为辅助操控方式,也许正因为此,英特尔近期向眼球控制技术提供商Tobii投资了2100万美元,以获得10%的股份。未来,英特尔是否会在笔记本中推广这种感知方式呢?大有可能噢。
图:联想与Tobii合作的眼控笔记本概念机(上)与Eye Tribe眼控平板电脑(下)
图:追踪眼球技术通过瞳孔、虹膜、角膜等不同部位产生的反射获得感知数据
总结:新感知方式,需要突破可靠性瓶颈
笔记本的新感知方式还有更多类型,自然的语音方式,科幻的脑电波传感等等,虽然,这些技术在实验室已经取得成功,但离商用还有不小的距离--这不仅因为设备的价格昂贵,更重要的是如何提升传感的可靠性。例如,语音感知中,如何区分是使用者日常的语言行为还是操控命令,在体感中,如何区别是使用者正常的体态还是控制体态。而眼球控制时,如果使用者开小差时又该如何做出反应等等——这些模糊判断的机制,都成为电脑新感知方式成功与否的关键。而要解决这些问题,不仅要求有强大硬件的支持,还要有足够的人工智能。也许,算法的突破,PC人工智能的水平,将决定这些新感知方式的普及速度与使用者对其的接受度。
 
本文出自2013-04-29出版的《电脑报》2013年第16期 C.笔记本电脑
(网站编辑:AI高手)
读者活动
48小时点击排行
编辑推荐
论坛热帖
网站地图 | 版权声明 | 业务合作 | 友情链接 | 关于我们 | 招聘信息
报纸客服电话:4006677866 报纸客服信箱:pcw-advice@vip.sina.com 友情链接与合作:987349267(QQ) 广告与活动:675009(QQ) 网站联系信箱:cpcw@cpcwi.com
Copyright © 2006-2011 电脑报官方网站 版权所有 渝ICP备10009040号
报纸客服电话:4006677866 报纸客服信箱:pcw-advice@vip.sina.com 友情链接与合作:987349267(QQ) 广告与活动:675009(QQ) 网站联系信箱:cpcw@cpcwi.com
Copyright © 2006-2011 电脑报官方网站 版权所有 渝ICP备10009040号