CN104749777B - 可穿戴智能设备的互动方法 - Google Patents
可穿戴智能设备的互动方法 Download PDFInfo
- Publication number
- CN104749777B CN104749777B CN201310739674.9A CN201310739674A CN104749777B CN 104749777 B CN104749777 B CN 104749777B CN 201310739674 A CN201310739674 A CN 201310739674A CN 104749777 B CN104749777 B CN 104749777B
- Authority
- CN
- China
- Prior art keywords
- micro
- eyes
- interactive approach
- infrared
- smart machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种可穿戴智能设备的互动方法,包括:提供可穿戴智能设备,提供可读物,所述可读物具有电子标签;当眼睛的位置与电子标签位置匹配时,中央数据中心执行与位置随时间的变化方式匹配的操作。本发明能够将控制界面的图像界面虚像与操作者动作的位置或者位置随时间的变化方式匹配或关联,使得操作者动作与视觉效果一致或关联。
Description
技术领域
本发明涉及智能电子领域,特别涉及一种可穿戴智能设备的互动方法。
背景技术
可穿戴智能设备是直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴智能设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能,可穿戴智能设备将会对我们的生活、感知带来很大的转变。
可穿戴智能设备被认为是推动电子产业发展的下一个热点,有消息称:到2016年,全球可穿戴智能设备市场的规模,将达到60亿美元。
为了占据有利的领先地位,各大公司纷纷在可穿戴智能设备上投入大量的资金进行研究,并推出相应的产品。其中,苹果公司推出“iWatch”产品,耐克公司推出“Nike+FuelBand SE”产品,阿迪达斯公司即将推出的安卓系统智能手表,宏智力科技公司推出“BrainLink意念力头箍”产品,索尼公司推出“Smart Watch”产品,百度公司推出“咕咚手环”产品,迪斯尼公司推出“MagicBand”产品,盛大公司推出“GEAK智能手表”产品,谷歌公司推出“Google Glass”产品。
但是,上述产品或多或少都存在缺陷,上述的某些产品主要功能为跑步计算、导航和遥控拍照,或者记录用户的运动数据,记录结果并不准确。而谷歌公司的“Google Glass”的功能也局限于声音控制拍照、视频通话、导航和上网冲浪等,且由于“Google Glass”的缺陷,谷歌公司已经宣布推迟将“Google Glass”推向市场,而在2013年8月14日互联网大会中,小米科技CEO雷军表示,“我也使用过很多智能穿戴设备,光手环就试用过10个以上,以及谷歌眼镜。在使用这些设备之前抱着很大好奇心,然而仔细研究过后,对实际的体验效果比较失望。”雷军进一步表示:可穿戴智能设备的整个产业链还未真正成熟,真正大规模使用还要假以时日。
发明内容
本发明解决的问题是匹配度高且功能局限性小的可穿戴智能设备互动方法。
为解决上述问题,本发明提供一种可穿戴智能设备互动方法,包括:提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令并执行相应操作;提供可读物,所述可读物具有电子标签;当眼睛的位置与电子标签位置匹配时,中央数据中心执行与位置随时间的变化方式匹配的操作。
可选的,所述视网膜位置感应单元包括:红外光光源,适于发射红外光并照射至眼睛的视网膜;红外图像传感器,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜,所述凸透镜配置于沿光路移动,所述凸透镜适于将视网膜反射的红外线汇聚。
可选的,所述可穿戴智能设备还包括:光路系统,适于将红外光光源发射的红外光传输至眼睛的视网膜且将视网膜反射的红外线传输至红外图像传感器。
可选的,所述微投影仪与所述视网膜位置感应单元共享部分光路系统。
可选的,所述光路系统包括:第一反射镜,红外滤镜,半反半透镜,所述分光镜;其中,所述第一反射镜,适于将所述红外光光源发射的红外光反射至所述红外滤镜;所述红外滤镜,适于过滤所述第一反射镜反射的红外光和所述半反半透镜反射的红外光;所述半反半透镜,适于反射所述红外滤镜过滤的红外光和透射所述微投影仪投射的图像界面;所述分光镜,还适于反射所述半反半透镜反射的红外光于眼睛。
可选的,所述凸透镜沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器与所述凸透镜将视网膜反射的红外线成清晰像。
可选的,所述中央数据中心适于接受所述凸透镜沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪成清晰图像界面的虚像于眼睛。
可选的,所述微投影仪包括:微光源,适于为微投影仪提供光源;图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;通过配置微投影仪和分光镜,控制进入眼睛的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于眼睛的虚像与眼睛观察到的实际图形叠加模式;全虚像模式:眼睛仅接受图像界面成像于眼睛的虚像模式。
可选的,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼。
可选的,所述操作指令至少包括:选取、确定、移动或解锁。
可选的,所述可穿戴智能设备还包括:设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
可选的,所述至少部分人体包括:手、手指、拳头、手臂、双手、或多个手指。
可选的,所述部分人体的位置随时间的变化方式至少包括:点击、双击或滑动。
可选的,所述设备框架配置有镜片且穿戴于使用者眼睛前。
可选的,所述可穿戴智能设备还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
可选的,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
可选的,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
可选的,所述电子标签为二维码或图像编码。
可选的,所述电子标签设置于可读物的关键字旁边。
可选的,所述关键字为风景关键字、物品关键字。
可选的,所述可读物为书籍、报纸、电子书。
可选的,所述至少操作包括:中央数据中心根据关键字检索相关资料,控制微投影仪和分光镜投射相关资料的图像成虚像于人眼。
可选的,所述操作至少包括:所述微投影仪投射光标成虚像于眼睛,所述光标位置与眼睛视网膜位置对应,所述光标移动与眼睛视网膜移动对应,当光标位置与电子标签位置重合时,中央数据中心根据关键字检索相关资料,控制微投影仪和分光镜投射相关资料的图像成虚像于人眼。
与现有技术相比,本发明的技术方案具有以下优点:本发明提供一种虚-实结合的可穿戴智能设备的互动方法,通过感应使用者的眼睛,并将控制界面的图像界面虚像与眼睛的位置或者眼睛位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
附图说明
图1为本发明一实施例的可穿戴智能设备示意图;
图2为本发明一实施例的可穿戴智能设备的所述微投影仪的示意图;
图3为本发明一实施例的可穿戴智能设备的视网膜位置感应单元和光路系统示意图;
图4为本发明一实施例的可穿戴智能设备的T1时刻所述视网膜位置感应单元接受到的视网膜的成像结果示意图;
图5为本发明一实施例的可穿戴智能设备的T2时刻所述视网膜位置感应单元接受到的视网膜的成像结果示意图;
图6为本发明另一实施例的可穿戴智能设备示意图;
图7为本发明一实施例的可穿戴智能设备的校正示意图;
图8为本发明一实施例的可穿戴智能设备的菜单选择示意图;
图9为本发明又一实施例的可穿戴智能设备示意图;
图10为本发明又一实施例的可穿戴智能设备示意图;
图11为本发明又一实施例的可穿戴智能设备示意图;
图12和图13为本发明一实施例的可穿戴智能设备图像传感器在获取至少部分人体的位置,并将所述位置转换为位置数据的示意图;
图14为本发明又一实施例的可穿戴智能设备示意图;
图15为本发明一实施例的可穿戴智能设备的互动方法流程示意图;
图16和17为本发明一实施例的可穿戴智能设备的互动方法示意图;
图18和19为本发明另一实施例的可穿戴智能设备的互动方法示意图;
图20为本发明又一实施例的可穿戴智能设备的互动方法示意图。
具体实施方式
现有的可穿戴智能设备基本为声音控制拍照、视频通话、导航和上网冲浪,功能局限性强。
针对现有的可穿戴智能设备进行深入研究后发现:现有的可穿戴智能设备互动性差,某些设备需要通过声音来控制程序的启动,或者需要操作者通过控制设备内置的开关或按钮来进行操作,导致可穿戴智能设备需要额外设置声音控制硬件和类似的操作硬件,不但硬件成本增加且可穿戴智能设备与使用者的互动性较差。
针对上述研究,本发明提供一种虚-实结合的可穿戴智能设备,通过感应使用者的眼睛,并将控制界面的图像界面虚像与眼睛的位置或者眼睛位置随时间的变化方式匹配,使得操作者动作与视觉效果一致。
进一步的,采用视网膜位置感应单元通过视网膜反射红外线成像来实现视线跟踪,能够精确的定位眼睛位置,相比于监控虹膜和瞳孔的视线跟踪技术,视网膜成像精确度高。
再进一步的,本发明的实施例通过视网膜反射人眼不可视的红外线来实现视线跟踪,不会干扰眼睛正常的工作。
再进一步的,本发明的实施例通过优化光路,能够在较小的空间内实现投射虚像和红外线追踪视线,产品性能优良且体积小。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
请参考图1,图1为本发明一实施例的可穿戴智能设备示意图,包括:
设备框架100;
设置于设备框架100上的微投影仪110,适于将图像界面投射于分光镜120上;
设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架100上的视网膜位置感应单元150,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令并执行相应操作。
在一实施例中,所述设备框架100为眼镜式框架,具有横向延伸的第一支架101,从所述第一支架101两端延伸出的第一侧臂102和第二侧臂103。
其中,当所述可穿戴智能设备被使用者穿戴时,第一支架101大致平行使用者的脸部,且所述第一支架101用于为分光镜120提供支撑平台,使得分光镜能够较佳地成虚像于人眼。
所述第一侧臂102或第二侧臂103用于为视网膜位置感应单元150、微投影仪110和中央数据中心140提供支撑平台。
作为一示例,在本实施例中所述微投影仪110和中央数据中心140设置于同一侧臂,设于第一侧臂102下方;需要说明的是,在其他实施例中,所述微投影仪110和中央数据中心140可以设置于第二侧臂103,或者所述微投影仪110和中央数据中心140可以分别设置于不同的侧臂,本领域的人员可以根据实际生产产品选择所述微投影仪110和中央数据中心140的位置,作为一个原则,所述微投影仪110需要与所述分光镜120匹配,使得适于将图像界面投射于分光镜120上。
在本实施例中,所述视网膜位置感应单元150设置于第一侧臂102的内侧。本领域的技术人员应该知晓,所述视网膜位置感应单元150设置以适于接受视网膜反射的红外光为宜,可以根据实际的产品合理设置,不应限制本发明的保护范围。
还需要说明的是,所述第一支架101还可以配置有镜片且穿戴于使用者眼睛前。
请参考图2,图2为本发明一实施例的可穿戴智能设备的所述微投影仪110的放大图,所述微投影仪110包括:
微光源111,适于为微投影仪110提供光源。
作为一实施例,所述微光源111可以为LED(Light-Emitting Diode,缩写为LED)光源。
图像过滤器112,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
所述图像过滤器112可以根据需求部分透明以透过微光源111输出的光,从而输出所属的图像。
作为一实施例,所述图像过滤器112可以为液晶显示器(Liquid CrystalDisplay,缩写为LCD)。
微投影透镜113,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出。
所述微投影透镜113可以为多个透镜组成的透镜组。
所述微投影仪110还可以包括输入输出模块,以接受中央数据中心140的数据和指令,相应的将对应的图形或者操作界面以图像方式输出。
所述微投影仪110还可以设置为可调节投射角度,以控制输出图像的角度。
请依旧参考图1,设置于设备框架100上的分光镜120,适于接受投射的图像界面并将图像界面成虚像于人眼。
所述分光镜120通过分光镜支架(未标识)与设备框架100连接,所述分光镜支架在一定角度内可调,以适于接受微投影仪110输出的图像,并成虚像在使用者眼中。
作为一实施例,所述分光镜120是平面镜,所述分光镜120的反射率为30%到70%,作为一实施例,所述分光镜120的反射率约为50%。
作为另一实施例,所述分光镜120为是半透射半反射的平面镜,所述分光镜120适于反射微投影仪110输出的图像,并成虚像在使用者眼中,且适于使用者同时接受来自分光镜120前方的光线,从而能够使得使用者同时接受虚像和实像。
在其他实施例中,所述分光镜120也可以为多个透镜组成的透镜组,本领域的技术人员应该知晓,所述分光镜120只需满足接受投射的图像界面并将图像界面成虚像于人眼,在此特意说明,不应限制本发明的保护范围。
需要说明的是,通过配置微投影仪110和分光镜120,控制进入人眼的光线密度,可穿戴智能设备工作于如下两种模式:叠加模式:图像界面成像于人眼的虚像与人眼观察到的实际图形叠加模式;全虚像模式:人眼仅接受图像界面成像于人眼的虚像模式。
设置于设备框架上的视网膜位置感应单元150,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
具体地,所述视网膜位置感应单元150可以通过接触镜式、电磁线圈式、红外光电反射式、红外电视式感应眼睛的位置和位置随时间的变化方式。
作为一实施例,请参考图3,所述视网膜位置感应单元150包括:红外光光源151,适于发射红外光并照射至眼睛的视网膜;红外图像传感器152,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜153,所述凸透镜配置于沿光路移动,所述凸透镜153适于将视网膜反射的红外线汇聚。
为了合理的利用设备框架,本实施例的可穿戴智能设备还包括光路系统,所述光路系统适于将红外光光源发射的红外光传输至眼睛的视网膜且将视网膜反射的红外线传输至红外图像传感器,以减小可穿戴智能设备的体积。
具体地,所述光路系统包括:第一反射镜161,红外滤镜162,半反半透镜163,第二反射镜164;其中,所述第一反射镜161,适于将所述红外光光源发射的红外光反射至所述红外滤镜162;所述红外滤镜162,适于过滤所述第一反射镜161反射的红外光和所述半反半透镜163反射的红外光;所述半反半透镜163,适于反射所述红外滤镜162过滤的红外光和透射所述微投影仪110投射的图像界面;所述第二反射镜164,还适于反射所述半反半透镜163反射的红外光于眼睛170。
较佳地,为了进一步减少额外的可穿戴智能设备单元,减小可穿戴智能设备单元的体积和重量,所述微投影仪与所述视网膜位置感应单元共享部分光路系统。
作为一实施例,请结合参考图1和图3,所述微投影仪110和所述视网膜位置感应单元150设置第一侧臂102上,其中所述微投影仪110面对所述半反半透镜163的透射面,使得所述微投影仪110投射的图像从所述半反半透镜163透射;在本实施例中,采用所述分光镜120作为第二反射镜,即所述分光镜120将从所述半反半透镜163透射的图像反射,成虚像于眼睛170。
而所述视网膜位置感应单元150中的红外光光源151发射照明红外光,经过第一反射镜161反射,照明红外光通过红外滤镜162后,入射至所述半反半透镜163的反射面,反射至第二反射镜,在本实施例中,采用所述分光镜120作为第二反射镜,所述分光镜120将照明红外光反射至眼睛170的视网膜,视网膜将照明红外光反射至所述分光镜120,所述分光镜120反射至所述半反半透镜163的反射面,所述半反半透镜163将视网膜反射的红外光反射通过红外滤镜162后,被红外图像传感器152接受并将视网膜成像,为了便于理解,红外光源入射至视网膜的照明红外光用虚像表示,视网膜反射的红外光用实线表示。
本实施例采用视网膜位置感应单元150和微投影仪110共享部分光路,且微投影仪110是可见光,视网膜位置感应单元150是不可见光,两者在互不干扰的基础上实现资源共享,能够较大程度的减少光学单元,减轻可穿戴智能设备的重量,且通过优化光路系统,使得视线跟踪和虚像投影体积小。
需要说明的是,所述第一反射镜161可以内置于所述视网膜位置感应单元150内,以提高集成度,当所述第一反射镜161内置于所述视网膜位置感应单元150内时,所述第一反射镜161应该采用较小尺寸的反射镜,以避免影响半反半透镜163反射视网膜反射的红外光的成像效果。
还需要说明的是,在其他的实施例中,也可以视网膜位置感应单元150独享光路,微投影仪110独享光路,在此特意说明,不应限制本发明的保护范围。
请参考图4,图4为T1时刻所述视网膜位置感应单元150接受到的视网膜的成像结果图,视网膜的图像如图4中的171所示;
请参考图5,图5为T2时刻所述视网膜位置感应单元150接受到的视网膜的成像结果图,视网膜的图像如图5中的172所示;作为一实施例,图4中眼睛为凝视状态,图5中眼睛向左转动。
从图4和图5的视网膜图像,可以分析得出视网膜向右边移动,因此可以获知眼睛向左转动,而所述视网膜位置感应单元150内置时钟,以及根据图4和图5的视网膜图像的位置差异,可以获知眼睛转动的速度。
使用者可以在实际使用之前对所述眼睛随位置变化的方式进行校正,设定个人使用习惯,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼,所述操作指令至少包括:选取、确定、移动或解锁,作为一示范例,注视设置为双击,眨眼设置为点击,平滑跟踪设置为移动,眼跳动设置为噪音。
作为一示范例,注视表示视线停留在目标物体上的时间至少为100-200毫秒以上,需要说明的是,停留时间可以根据个人使用习惯进行校正,且在注视时,眼球并不是绝对静止的,而是不停地轻微抖动,其抖动幅度小于1°。
还需要说明的是,所述眼睛随位置变化的方式与所述操作指令可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
在另一实施例中,考虑到使用者的眼睛的晶状体和角膜会有不同的屈光度,所述视网膜位置感应单元150的凸透镜153设置为沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器152与所述凸透镜153将视网膜反射的红外线成清晰像。
还需要指出的是,所述中央数据中心140适于接受所述凸透镜153沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪110成清晰图像界面的虚像于眼睛
在另一实施例中,请依旧参考图1,所述可穿戴智能设备还可以在设备框架前端设置位置传感器130,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
作为一实施例,所述位置传感器130可以为声波反射器或图像传感器,所述位置传感器130根据声学原理或光学原理,获取手、手指、拳头、手臂、双手、或多个手指的位置和动作,并相应的匹配或关联为选取、确定、移动或解锁指令。
作为一示例,所述位置随时间的变化方式至少包括:手指的点击、双击或滑动;或者拳头的移动和敲击;或者手臂的纵向摆动、横向移动和相对于操作者脸部的由远及近或由近及远的移动。
作为一示例,手指的单次点击匹配或关联为选取,手指的双次点击匹配或关联为确定,手指的移动匹配或关联为解锁。
需要说明的是,本领域的技术人员应该知晓,上述示例只是作为示范性说明,至少部分人体的位置和动作可以根据使用者的习惯进行设置,在此特意说明,不应限制本发明的保护范围。
设置于设备框架上的中央数据中心140,至少适于接受所述位置数据和操作指令并执行相应操作。
所述中央数据中心140可以为处理器或者控制器,例如为中央处理器,或者集成有图形处理器的中央处理器,所述中央数据中心140至少能够接受所述位置传感器130的位置数据和操作指令,并根据所述位置数据和操作指令控制所述微投影仪110输出相应图形界面,以匹配至少人体的位置,并执行与操作指令对应的操作。
所述中央数据中心140还适于与远程数据库交换数据,基于Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式获得远程数据库数据支持。
所述中央数据中心140内置电池,例如锂电池、太阳能电池或者超级电容器,以对所述中央数据中心140供电。
所述可穿戴智能设备还可以包括通信模块(未示出),所述通信模块可以内置于设备框架100内或者包括于中央数据中心140,所述通信模块适于通过Wi-Fi、蓝牙、GPRS、WAP、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话、电脑、或平板电脑进行信息交互。
所述可穿戴智能设备还包括本地数据库,所述中央数据中心140调用本地数据库进行数据支持。
本发明的实施例通过设置微投影仪110和分光镜120在使用者眼中成虚像,且中央数据中心140根据位置传感器130获取的使用者的至少部分人体的位置和位置随时间的变化方式,校正虚像的位置,使得虚像与人体在人眼中的实像匹配,使得操作者动作与视觉效果一致。
本发明还提供另一实施例的可穿戴智能设备,请参考图6,包括:
设备框架200;
分别设置于设备框架200两侧的微投影仪210,适于将图像界面投射于分光镜220上;
分别设置于设备框架两侧上的分光镜220,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器230,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
分别设置于设备框架200两侧上的视网膜位置感应单元250,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心240,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
本实施例中的设备框架200、分光镜220、视网膜位置感应单元250、位置传感器230和中央数据中心240请参考之前实施例中的相应描述。
需要特别说明的是,本实施例中的微投影仪210为两个,分别设置于设备框架200的第一侧臂和第二侧臂,从而能够在使用者的左右两只眼睛中成像,使得成像效果具有立体感。
图7为本发明一实施例的可穿戴智能设备的校正,具体地,中央数据中心140控制微投影仪110投射校正标记180成虚像于眼睛170,所述校正标记的坐标被预先设定于中央数据中心140内,使用者眼睛注视所述校正标记180,视网膜位置感应单元150获取使用者眼睛注视时的视网膜图像173,并根据视网膜图像173和校正标记180,对后续使用者的操作进行校正。
同样地,可穿戴智能设备可以对其他的眼睛的位置和位置随时间的变化方式进行校正,以提高可穿戴智能设备的响应准确度。
图8为本发明一实施例的可穿戴智能设备的菜单选择,中央数据中心140控制微投影仪110投射菜单界面成虚像于人眼;使用者注视菜单界面中的图标,作为一示例,以图8中箭头所示图标为使用者注视图标,在使用者注视图标的同时,视网膜位置感应单元150获取使用者眼睛注视时的视网膜图像174,并将视网膜的位置、图像以及视网膜随时间的变换数据,传输至中央数据中心140,中央数据中心140根据之前预设和校正数据,确定操作命令,作为一示例,确定为选取;中央数据中心140可以按照人眼170的位置投射一个光标,可以是图8中的箭头,于菜单界面上,此光标会跟随人眼170注视位置的移动,以辅助确认人眼170所注视目标。
需要说明的是,预设数据可以根据使用者的喜好进行设置,例如,注视时间为1.5秒为选取,注视时间为3秒为选取,或眨眼3次为选取。
本发明还提供又一实施例的可穿戴智能设备,请参考图9,包括:
设备框架300;
设置于设备框架300上的微投影仪310,适于将图像界面投射于分光镜320上;
设置于设备框架上的分光镜320,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的声波反射器330,适于感应至少部分人体的位置和位置随时间的变化方式并将所述动作转换相应的操作指令及将位置转换为位置数据;
设置于设备框架上的中央数据中心340,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
穿戴于手指的位置识别器350,所述位置识别器350适于被所述声波反射器340感应,以确定手指的位置和位置随时间的变化方式。
在本实施例中,设备框架300、微投影仪310、分光镜320和中央数据中心340请参考之前实施例的相应描述。
在本实施例中,所述位置传感器为声波反射器330,所述位置识别器350为金属环,例如为戒指。
其中,所述声波反射器330用于向预定区域发送声波,金属环进入至预定区域时,通过声波被金属环反射,所述声波反射器330接受金属环的位置数据和操作指令,并将所述位置数据和操作指令发送至中央数据中心340;中央数据中心340根据所述位置数据校准微投影仪310或分光镜320,使得所述图像界面的虚像与手指在人眼的实像位置叠加,并根据操作指令执行相应操作。
作为一实施例,金属环与声波反射器330的距离可以根据下列公式确定:
d=V0t/2
其中,d为金属环与声波反射器330的距离,V0为声波在空气中传播的速度。
作为一实施例,当声波为超声波时,
V0=331.45×(1+τ/273.15)1/2m/s
其中,τ为声波反射时环境的温度;
金属环的相对声波反射器330的位置随时间的变化方式可以根据多普勒效应确定,具体公式为:
Δf=(2×V×cosθ/V0)×f
其中,Δf为声波反射器330探测到的频移,V为金属环的相对声波反射器330的运动速度,f为声波的频率,θ为金属环运动方向相对三者连线的夹角,三者连线为金属环、声波反射器330发射声波的位置、声波反射器330探测器的位置的连线。
在本实施例中,所述金属环可以为用户的戒指,例如金戒指、银戒指或铂金戒指。
还需要说明的是,本实施例的声波反射器330数量可以为1、2、3、4…6…11个。
较佳地,所述声波反射器330数量为4个,设置于设备框架300的左上、左下、右上、右下四个位置,以获得较大的探测范围,且较多数量的所述声波反射器330能够更精确的确定金属环的位置数据和操作指令。
更进一步地,本实施例利用戒指作为位置识别器,不会额外的增加用户的穿戴负担,且能够增强探测效果。
请参考图10,图10为本发明一实施例的可穿戴智能设备的调整图像界面以匹配至少人体的位置且相应执行操作示意图。
中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述视网膜位置感应单元350和位置传感器330获取的眼睛的位置或位置随时间的变化方式(根据视网膜图像375及相关数据)和至少部分人体的位置或位置随时间的变化方式,根据距离数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪310和分光镜320调整输出的图像界面在眼睛370中的成像,使得成像与使用者的手指位置匹配。
在另一实施例中,中央数据中心340内置有使用者的预存数据,中央数据中心340获得所述声波反射器330的金属环的距离后,根据距离数据计算出图像界面的调整数据,并根据所述调整数据校准所述声波反射器330调整输出的图像界面在人眼中的成像,使得成像与使用者的手指位置匹配。
作为一示例,由微投影仪310先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器(在本实施例中为声波反射器330)通过位置识别器350识别当前手指位置,并且同微投影仪310的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心340根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心340内置使用者的预存数据和所述声波反射器330获取的金属环的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心340内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,可穿戴智能设备还可以兼容声音传输单元360,所述声音传输单元可以根据使用者的语音指令,发送位置数据和操作指令至中央数据中心340,中央数据中心340根据上述语音指令以调节输出的图像界面和执行操作指令。
本发明还提供又一实施例的可穿戴智能设备,请参考图11,包括:
设备框架400;
设置于设备框架400上的微投影仪410,适于将图像界面投射于分光镜420上;
设置于设备框架400上的分光镜420,适于接受投射的图像界面并将图像界面成虚像于人眼;
设置于设备框架前端的位置传感器430,适于感应至少部分人体的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,所述位置传感器430为若干位置不同的图像传感器;
设置于设备框架上的中央数据中心440,至少适于接受所述位置数据和操作指令,并根据所述位置数据调整图像界面以匹配至少人体的位置且相应执行操作。
在本实施例中,设备框架400、微投影仪410、分光镜420和中央数据中心440请参考之前实施例的相应描述。
需要说明的是,图像传感器的位置和数量可以根据实际的可穿戴智能设备而定,只需图像传感器的位置和数量能够感应至少部分人体的位置和动作并将所述动作转换相应的操作指令及将位置转换为位置数据即可,在此特意还说明,图像传感器的位置和数量不应限制本发明的保护范围。
作为一实施例,所述位置传感器430为设置于设备框架400左上的图像传感器和设置于设备框架400右上的图像传感器。
左上的图像传感器和右上的图像传感器通过同步采样脉冲的控制下,高速并行的采集图像数据,并将采集时间作为附加信息与相应的图像帧关联,集成在位置传感器430内的处理器在并行采用处理后,获取至少部分人体的图像坐标及时间信息,根据左上的图像传感器和右上的图像传感器同时获取的至少部分人体的图像坐标及时间信息,集成在位置传感器430内的处理器根据时间标签进行匹配,将同一时刻的至少部分人体的图像坐标确定空间坐标。
基本的确定方法有利用帧差法或筛选框与概率统计方法结合来检测至少部分人体的位置随时间的变化方式。
作为一实施例,帧差法利用相邻帧相减来检测至少部分人体发生运动的区域。帧差法有双帧差和三帧差,在本实施例中以双帧差做示范性说明。
请依旧参考图11,图11中的第一图像471和第二图像472分别表示t-1与t时刻至少部分人体在图像平面中所在的位置图像数据,根据上述图像数据定义至少部分人体的位置在t-1与t时刻为A、B;双帧差利用|A-B|得到至少部分人体在图像平面中所在的位置数据。
作为一实施例,请结合参考图12和图13,图12和图13为采用本实施例的可穿戴智能设备获取至少部分人体的位置数据的示意图,为了方便理解,图12中仅示出左上的图像传感器731和右上的图像传感器732,同样的为了方便理解,将至少部分人体以箭头符号740示意。
其中,左上的图像传感器731和右上的图像传感器732的间距为预设值,为了方便理解所述间距为L,左上的图像传感器731的焦距为f1,右上的图像传感器732的焦距为f2,当至少部分人体在某一位置时,所述至少部分人体的空间坐标为(X,Y,Z),通过左上的图像传感器731获取至少部分人体的图像数据741和右上的图像传感器732获取至少部分人体的图像数据742,通过测量2幅位置图像数据中至少部分人体的位置数据,能够获得(x1,y1)、(x2,y2),作为一实施例,(x1,y1)从左上的图像传感器731获取的图像中测量获取,(x2,y2)从左上的图像传感器731获取的图像中测量获取;左上的图像传感器731的焦距f1和右上的图像传感器732的焦距f2可以预设也以通过可以从自动对焦装置的位移量中得到。
通过上述的数据,可以获取所述至少部分人体的空间坐标为(X,Y,Z)
其中:
基于上述的计算,即可获取所述至少部分人体的空间坐标(X,Y,Z),通过预先设定,可以获取位置随时间的变化方式,例如在3秒中内沿Z方向手指移动1下为点击,3秒中内沿Z方向手指移动2下为双击,2秒内沿X方向手指移动为拖动。
需要说明的是,在上面分析中近似将部分人体认定为点元素,即获取的是部分人体的重心位置的空间坐标,也可以通过人体的肤色亮度与环境的差异,结合腐蚀细化法、形状中心法和投影法来确定部分人体;并且上述位置随时间的变化方式可以通过预先校正和内置软件校正以符合个人使用习惯。
还需要说明的是,在其他实施例中,左上的图像传感器获取至少部分人体的图像数据和右上的图像传感器获取至少部分人体的图像数据为倒像时,需通过倒像获得反转的正像,并通过正像获取坐标。
在其他实施例中,也可以根据图像传感器的运动体捕捉方法来确定至少部分人体的位置和位置随时间的变化方式,本领域的人员也可以根据实际选取的图像传感器,例如CCD或CIS等,来确定至少部分人体的位置和动作,在此特意说明,不应过分限制本发明的保护范围。
请参考图14,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据控制微投影仪410和分光镜420调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配,在本实施例中,以所述至少部分人体为拳头为例,做示范性说明。
请依旧参考图14,图像传感器在获取至少部分人体的位置和位置随时间的变化方式后,并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据,中央数据中心440内置有使用者的预存数据,中央数据中心440获得所述操作指令和位置数据后,根据位置数据计算出图像界面的调整数据,并根据所述调整数据校正所述位置传感器,调整输出的图像界面在人眼中的成像,使得成像与使用者的至少部分人体的位置匹配。
作为一示例,由微投影仪410先发送一个目标图案,例如十字星图案,成虚像于使用者眼中,然后使用者手指点击所述十字星图案,所述位置传感器识别当前手指位置,并且同微投影仪410的目标图案的位置做一一对应校准,以2维坐标为例,目标图案的坐标为(0,0),所述位置传感器识别当前手指的坐标为(5,7),中央数据中心440根据所述位置传感器传输的当前手指的坐标为(5,7),对数据进行校正,将当前手指的坐标为(5,7)校正为(0,0)。
同时,根据中央数据中心440内置使用者的预存数据和所述图像传感器获取的至少部分人体的运动方向,距离和运动速度,可以确定使用者点击、双击或滑动,并根据中央数据中心440内置使用者的预存数据,执行相应的选取、确定、移动或解锁操作。
还需要说明的是,在其他实施例中,请依旧参考图14,位置传感器430(在本实施例中为图像传感器)捕获拳头484的位置随时间的变化方式,在t-1与t时刻获取第三图像481和第四图像482,并根据之前实施例的运算方式,将拳头的位置和运动轨迹转换为所述操作指令和位置数据,中央数据中心440获得所述操作指令和位置数据后,控制微投影仪410和分光镜420调整输出的图像界面,且在人眼中将拳头484成虚像483,使得使用者在操作图像界面时,具有较好的体验。
本发明还提供一实施例的可穿戴智能设备的互动方法,请参考图15,包括如下步骤:
S101,提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令并执行相应操作;
S102,提供可读物,所述可读物具有电子标签;
S103,当眼睛的位置与电子标签位置匹配时,中央数据中心执行与位置随时间的变化方式匹配的操作。
具体地,所述可穿戴智能设备的相关描述请参考之前实施例的相应描述,在此不再赘述。
所述可读物为书籍、报纸或电子书。
所述电子标签为二维码或图像编码,较佳地,所述电子标签为二维码,二维码是用某种特定的几何图形按一定规律在平面(二维方向)分布的黑白相间的图形记录数据符号信息的。二维码是DOI(Digital Object Unique Identifier,数字对象唯一识别符)的一种。具体地,二维码的电子标签可以为堆叠式/行排式二维条码或矩阵式二维条码。
所述电子标签设置于可读物的关键字旁边,例如风景关键字、物品关键字。
当视网膜位置感应单元感应眼睛的位置与所述电子标签的位置对应时,且眼睛的位置随时间的变换方式为点击,视网膜位置感应单元将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据。
中央数据中心根据关键字检索相关资料,控制微投影仪和分光镜投射相关资料的图像成虚像于人眼。
需要说明的是,如果可穿戴智能设备的位置传感器采用声波反射器时,需要额外设置图像传感器以识别电子标签,如果可穿戴智能设备的位置传感器为图像传感器时,可以直接采用位置传感器的图像传感器来识别电子标签。
下面结合一具体实施例对本发明的可穿戴智能设备的互动方法做详细说明,请参考图16,
提供可穿戴智能设备500,具体地,所述可穿戴智能设备500参考之前实施例的相应描述的可穿戴智能设备,在此不再赘述。
提供可读物501,所述可读物具有电子标签502,其中,可读物501具体可以为报纸,书籍、或电子书。在本实施例中,以可读物501为书籍为例做示范性说明。
所述电子标签502为二维码,需要说明的是,所述电子标签502设置于关键字旁边,以方便使用者采用可穿戴智能设备500时的阅读。
所述电子标签502根据不同的关键字设置不同编码的二维码,在本实施例中,以所述关键字为风景例做示范性说明,例如关键字“大连”设置为某一编码的二维码,关键字“上海”设置为另一编码的二维码,关键字“鳕鱼角”设置为又一编码的二维码。
具体的二维码编码可以根据实际的编码法则进行编码,例如行排式编码或矩阵式编码。
使用者佩戴可穿戴智能设备500对可读物501进行阅读,使用者首先对眼睛的位置进行校正,具体的校正办法可以参考之前实施例的相应描述。
校正完毕后,所述微投影仪投射光标503成虚像于眼睛,所述光标503位置与眼睛504视网膜位置对应,所述光标503移动与眼睛504视网膜移动对应,当使用者的眼睛阅读至可读物501中的关键字时,光标503位置与电子标签502位置重合,若使用者眼睛位置随时间的变化方式为点击时,中央数据中心根据关键字检索相关资料,控制微投影仪和分光镜投射相关资料的图像成虚像于人眼。
作为一示例,使用者眼睛位置随时间的变化方式为1.5秒内眨眼3次,且与眨眼2次对应的操作为点击,当使用者的眼睛阅读至可读物501中的关键字时,光标503位置与电子标签502位置重合,使用者的眼睛1.5秒内眨眼3次,此时,视网膜位置感应单元感应到1.5秒内眨眼3次,并将眼睛位置和1.5秒内眨眼3次转换为位置数据和点击指令,中央数据中心根据图像传感器获取二维码编码,作为一实施例,所述二维码编码内容绑定对应的风景图片。
请参考图17,以关键字“上海”为例,当光标503位置位于关键字“上海”,此时,使用者眼睛1.5秒内眨眼3次,中央数据中心根据图像传感器获取二维码编码,且根据二维码编码内容获取上海的风景图片,例如“上海碧海金沙海滩风景图片”,并控制微投影仪成虚像于人眼。
需要说明的是,当光标的位置没有与电子标签502(请参考图14)位置重合,此时使用者眼睛1.5秒内眨眼3次,也不会执行确定指令并成相应的虚像图像于人眼。
作为一实施例,当光标的位置没有与电子标签502位置重合,此时如果使用者眼睛1.5秒内眨眼3次,所述光标可以移动至最近的关键字,并执行确定指令并成相应的虚像图像于人眼。
请参考图18和19,作为其他实施例,以关键字为“良渚文明”为例,当光标位置位于关键字“良渚文明”,此时,使用者眼睛1.5秒内眨眼3次,中央数据中心根据图像传感器获取“良渚文明”的二维码编码,且根据二维码编码内容获取“良渚文明的虚拟旅行”动画,并通过微投影仪将“良渚文明的虚拟旅行”动画成虚像于人眼,所述“良渚文明的虚拟旅行”动画虚像的图像具有二次光标601(请参考图17),例如二次光标601为方向键,当使用者眼睛位于二次光标601并执行对选择对应的眼睛位置随时间的变化方式,例如,眼睛0.5秒内眨眼2次,则所述“良渚文明的虚拟旅行”动画虚像按照选定的方向进行放映。
请参考图20,作为其他实施例,以关键字为“良渚文明”为例,当光标位置位于关键字“良渚文明”,此时,使用者眼睛0.5秒内眨眼2次,中央数据中心根据图像传感器获取“良渚文明”的二维码编码,且根据二维码编码内容获取“良渚文明的虚拟旅行”动画,并通过微投影仪将“良渚文明的虚拟旅行”动画成虚像于人眼,所述“良渚文明的虚拟旅行”动画虚像的图像具有二次光标,例如二次光标为方向键,使用者可以通过手指对二次光标进行选择,具体的手指的位置与手指位置随时间的变化方式的相应描述请参考之前实施例的相应描述。
此外,还需要说明的是,眼睛位置随时间的变化方式或手指位置随时间的变化方式还可以与寻求网络支持,获取图像或录像,发送图像或录像,呼叫支持等匹配,当眼睛位置随时间的变化方式或手指位置随时间的变化方式对应为上述操作时,中央数据中心根据数据执行相应的操作。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (24)
1.一种可穿戴智能设备的互动方法,其特征在于,包括:
提供可穿戴智能设备,所述可穿戴智能设备包括:设备框架;设置于设备框架上的微投影仪,适于将图像界面投射于分光镜上;设置于设备框架上的分光镜,适于接受投射的图像界面并将图像界面成虚像于人眼;设置于设备框架上的视网膜位置感应单元,适于感应眼睛的位置和位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架前端的位置传感器,适于感应至少部分人体的位置或位置随时间的变化方式并将所述位置随时间的变化方式转换相应的操作指令及将位置转换为位置数据;设置于设备框架上的中央数据中心,至少适于接受所述位置数据和操作指令并执行相应操作;
提供可读物,所述可读物具有电子标签;
当眼睛的位置与电子标签位置匹配时,中央数据中心执行与位置随时间的变化方式匹配的操作。
2.如权利要求1所述的互动方法,其特征在于,所述视网膜位置感应单元包括:红外光光源,适于发射红外光并照射至眼睛的视网膜;红外图像传感器,适于接受视网膜反射的红外线,根据视网膜反射红外线并将视网膜成像,并根据所述像和像随时间的变化方式确定眼睛的位置和位置随时间的变化方式;设置于红外图像传感器光路前的凸透镜,所述凸透镜配置于沿光路移动,所述凸透镜适于将视网膜反射的红外线汇聚。
3.如权利要求1所述的互动方法,其特征在于,所述可穿戴智能设备还包括:光路系统,适于将红外光光源发射的红外光传输至眼睛的视网膜且将视网膜反射的红外线传输至红外图像传感器。
4.如权利要求3所述的互动方法,其特征在于,所述微投影仪与所述视网膜位置感应单元共享部分光路系统。
5.如权利要求4所述的互动方法,其特征在于,所述光路系统包括:第一反射镜,红外滤镜,半反半透镜,所述分光镜;其中,所述第一反射镜,适于将所述红外光光源发射的红外光反射至所述红外滤镜;所述红外滤镜,适于过滤所述第一反射镜反射的红外光和所述半反半透镜反射的红外光;所述半反半透镜,适于反射所述红外滤镜过滤的红外光和透射所述微投影仪投射的图像界面;所述分光镜,还适于反射所述半反半透镜反射的红外光于眼睛。
6.如权利要求2所述的互动方法,其特征在于,所述凸透镜沿所述光路移动的位置与眼睛的屈光度对应,使得所述红外图像传感器与所述凸透镜将视网膜反射的红外线成清晰像。
7.如权利要求6所述的互动方法,其特征在于,所述中央数据中心适于接受所述凸透镜沿所述光路移动的位置数据,并根据所述位置数据控制所述微投影仪成清晰图像界面的虚像于眼睛。
8.如权利要求1所述的互动方法,其特征在于,所述微投影仪包括:
微光源,适于为微投影仪提供光源;
图像过滤器,适于接受微投影输出的光,并按需求输出图像于微投影透镜;
微投影透镜,配置于适于沿微投影仪的光学系统轴线移动,以按使用者的焦距变化将图像输出;
通过配置微投影仪和分光镜,控制进入眼睛的光线密度,可穿戴智能设备工作于如下两种模式:
叠加模式:图像界面成像于眼睛的虚像与眼睛观察到的实际图形叠加模式;
全虚像模式:眼睛仅接受图像界面成像于眼睛的虚像模式。
9.如权利要求1所述的互动方法,其特征在于,所述眼睛随位置变化的方式至少包括:眼跳动,注视,平滑跟踪,眨眼。
10.如权利要求1所述的互动方法,其特征在于,所述操作指令至少包括:选取、确定、移动或解锁。
11.如权利要求1所述的互动方法,其特征在于,所述至少部分人体包括:手、手指、拳头或手臂。
12.如权利要求1所述的互动方法,其特征在于,所述至少部分人体包括:双手或多个手指。
13.如权利要求1所述的互动方法,其特征在于,所述部分人体的位置随时间的变化方式至少包括:点击、双击或滑动。
14.如权利要求1所述的互动方法,其特征在于,所述设备框架配置有镜片且穿戴于使用者眼睛前。
15.如权利要求1所述的互动方法,其特征在于,所述可穿戴智能设备还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与手机、固定电话或电脑进行信息交互。
16.如权利要求1所述的互动方法,其特征在于,所述可穿戴智能设备还包括通信模块,所述通信模块适于通过Wi-Fi、蓝牙、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA与平板电脑进行信息交互。
17.如权利要求1所述的互动方法,其特征在于,可穿戴智能设备还包括本地数据库,或所述中央数据中心适于与远程数据库交换数据。
18.如权利要求17所述的互动方法,其特征在于,基于Wi-Fi、蓝牙、HSCSD、GPRS、WAP、EDGE、EPOC、WCDMA、CDMA2000、或TD-SCDMA模式,调用本地数据库,或者远程数据库的数据支持。
19.如权利要求1所述的互动方法,其特征在于,所述电子标签为二维码或图像编码。
20.如权利要求19所述的互动方法,其特征在于,所述电子标签设置于可读物的关键字旁边。
21.如权利要求20所述的互动方法,其特征在于,所述关键字为风景关键字、物品关键字。
22.如权利要求1所述的互动方法,其特征在于,所述可读物为书籍、报纸、电子书。
23.如权利要求1所述的互动方法,其特征在于,所述至少操作包括:中央数据中心根据关键字检索相关资料,控制微投影仪和分光镜投射相关资料的图像成虚像于人眼。
24.如权利要求1所述的互动方法,其特征在于,所述操作至少包括:所述微投影仪投射光标成虚像于眼睛,所述光标位置与眼睛视网膜位置对应,所述光标移动与眼睛视网膜移动对应,当光标位置与电子标签位置重合时,中央数据中心根据关键字检索相关资料,控制微投影仪和分光镜投射相关资料的图像成虚像于人眼。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739674.9A CN104749777B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备的互动方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310739674.9A CN104749777B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备的互动方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104749777A CN104749777A (zh) | 2015-07-01 |
CN104749777B true CN104749777B (zh) | 2017-09-26 |
Family
ID=53589719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310739674.9A Active CN104749777B (zh) | 2013-12-27 | 2013-12-27 | 可穿戴智能设备的互动方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104749777B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102433833B1 (ko) | 2015-09-23 | 2022-08-17 | 매직 립, 인코포레이티드 | 오프-축 영상기를 이용한 눈 영상화 |
CN105204719A (zh) * | 2015-10-12 | 2015-12-30 | 上海创功通讯技术有限公司 | 移动终端的界面镭射投影系统及方法 |
CN105867600A (zh) * | 2015-11-06 | 2016-08-17 | 乐视移动智能信息技术(北京)有限公司 | 一种交互方法和设备 |
CN105892634A (zh) * | 2015-11-18 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 防眩晕方法及虚拟现实显示输出设备 |
CN105825112A (zh) * | 2016-03-18 | 2016-08-03 | 北京奇虎科技有限公司 | 移动终端的解锁方法及装置 |
EP3449337B1 (en) * | 2016-04-29 | 2023-01-04 | Tobii AB | Eye-tracking enabled wearable devices |
IL252582A0 (en) * | 2017-05-29 | 2017-08-31 | Eyeway Vision Ltd | A method and system for registration between the outside world and a virtual image |
CN107065198B (zh) * | 2017-06-21 | 2019-11-26 | 常州快来信息科技有限公司 | 头戴显示设备的视觉优化方法 |
CN107193127A (zh) * | 2017-06-27 | 2017-09-22 | 北京数科技有限公司 | 一种成像方法及穿戴式设备 |
CN108536285B (zh) * | 2018-03-15 | 2021-05-14 | 中国地质大学(武汉) | 一种基于眼部移动识别与控制的鼠标交互方法与系统 |
CN108873333A (zh) * | 2018-05-24 | 2018-11-23 | 成都理想境界科技有限公司 | 一种显示模组位置调节装置及显示设备 |
CN109271824B (zh) * | 2018-08-31 | 2021-07-09 | 出门问问信息科技有限公司 | 一种识别二维码图像的方法及装置 |
CN112717286A (zh) * | 2021-01-14 | 2021-04-30 | 复旦大学 | 一种基于安卓系统的经颅超声刺激系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6023372A (en) * | 1997-10-30 | 2000-02-08 | The Microoptical Corporation | Light weight, compact remountable electronic display device for eyeglasses or other head-borne eyewear frames |
US8390533B2 (en) * | 2007-11-20 | 2013-03-05 | Panasonic Corporation | Beam-scan display apparatus, display method, and vehicle |
KR20130000401A (ko) * | 2010-02-28 | 2013-01-02 | 오스터하우트 그룹 인코포레이티드 | 대화형 머리장착식 아이피스 상의 지역 광고 컨텐츠 |
CN102445768B (zh) * | 2010-10-01 | 2014-10-08 | 奥林巴斯株式会社 | 装置安装支承构件 |
CN202533948U (zh) * | 2012-04-09 | 2012-11-14 | 深圳市元创兴科技有限公司 | 眼动仪 |
-
2013
- 2013-12-27 CN CN201310739674.9A patent/CN104749777B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104749777A (zh) | 2015-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104749777B (zh) | 可穿戴智能设备的互动方法 | |
CN105446474B (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
CN104750234B (zh) | 可穿戴智能设备及可穿戴智能设备的互动方法 | |
US20190368868A1 (en) | Method and system for generating a virtual user interface related to a totem | |
US9612403B2 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
KR102300390B1 (ko) | 착용식 식품 영양 피드백 시스템 | |
CN104750230A (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备系统 | |
JP6786792B2 (ja) | 情報処理装置、表示装置、情報処理方法、及び、プログラム | |
US9671566B2 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
US12039096B2 (en) | Glasses-type wearable device providing augmented reality guide and method for controlling the same | |
CN104750229B (zh) | 可穿戴智能设备的交互方法及穿戴智能设备系统 | |
KR20250027810A (ko) | 손목-포인팅 카메라 시스템에서 피하 조직의 이미지 캡처를 통한 제스처 검출 | |
CN115185365A (zh) | 一种无线控制的眼睛控制系统及其控制方法 | |
Wang et al. | Wink Lens Smart Glasses in Communication Engineering: Catalyst for Metaverse and Future Growth Point |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |