CN110908504B - 一种增强现实博物馆协作交互方法与系统 - Google Patents
一种增强现实博物馆协作交互方法与系统 Download PDFInfo
- Publication number
- CN110908504B CN110908504B CN201910958721.6A CN201910958721A CN110908504B CN 110908504 B CN110908504 B CN 110908504B CN 201910958721 A CN201910958721 A CN 201910958721A CN 110908504 B CN110908504 B CN 110908504B
- Authority
- CN
- China
- Prior art keywords
- user
- exhibit
- interaction
- distance
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/635—Overlay text, e.g. embedded captions in a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于用户‑展品距离的增强现实博物馆协作交互方法和系统,包括:检测并获取用户动态位置信息,根据用户动态位置信息实时计算用户的感知距离;根据感知距离建立以展品为中心的距离模型,依据距离模型和用户的实时感知距离设置用户交互权限;根据用户的感知距离对应的用户交互权限,对用户动态匹配用户交互权限内的单用户交互方式和多用户协作交互方式;用户依据单用户交互方式和多用户协作交互方式进行实时单用户交互行为与多用户协作交互行为;依据实时单用户交互行为结果与多用户协作交互行为结果,实现用户间展品的推荐。该方法和系统促进用户在递进式地了解博物馆展品的同时与周围其他用户进行实时有趣的互动。
Description
技术领域
本发明属于涉及增强现实与多用户协作交互技术领域,具体涉及一种基于用户-展品距离的增强现实博物馆协作交互方法,以及实现该方法的增强现实博物馆协作交互系统。
背景技术
越来越多的博物馆正尝试用不同的新兴技术展示他们的展品,来吸引更多的游客参观。VR、直播、3D打印、手机移动客户端开发等新兴技术的涌现让数字博物馆、虚拟博物馆、智慧博物馆、掌上博物馆等概念逐步出现在大众眼中。AR技术不仅能满足以多样化的形式呈现更多的展品信息,而且实现了用户与展品间的互动。现有的AR博物馆着力于研究将虚拟图像无缝融合于实景中,展现文物的复原模型及赋予展品生命的用户体验,增强展品与用户之间的互动,提升游览博物馆的乐趣。
博物馆是一个适合各年龄段人群学习的场所,但浏览博物馆时死记硬背相关知识往往是最低效的方式,更重要的是观察和思考,激发兴趣与灵感。用户间的讨论与交流有助于激发用户对展品的关注与兴趣,观赏展品时提出自己的想法与感悟有助于加深用户对展品相关知识的吸收。现有的增强现实博物馆提供的学习环境止步于用户与实物的交互,缺少用户之间的信息交互与知识心得分享,在关注展品给用户的学习体验过程中忽略了人与人之间最原始的交互,没能将信息传播最大化,而只局限于用户个人不同程度的自主学习,放弃了学习过程中重要的讨论交流环节,没有充分的利用博物馆这一学习环境,满足用户之间的交流需求。
现有的AR设备包括开发较为完善的Hololens、低成本的简易设备例如Holokit、移动手机等,这些AR设备都能一定程度上满足协作交互的需求,但是已有的AR应用并没有关注博物馆场景下的协作交互。例如申请号为CN201810873062.1、CN201810251806.6的专利申请关注于增强现实博物馆场景下的导览与数字内容的显示方法,只是在探讨用户与展品、与场景间的交互,而忽视了用户间的互动。在申请号为CN201910174205.4的专利申请提及了一种多用户交互的增强现实方法与系统中实现了多用户交互,但仅停留在显示虚拟对象上,未达到人与人间信息的传递与沟通。在申请号为CN201580009875.0、CN201610801442.5的专利申请中提出了支持增强现实的交互协作方法与系统,但这种协作都是远程环境下,远程协作方式相对单一固定,而博物馆内的协作属于同一个物理环境下的协作,用户间形成的协作方式多样且时刻变化。
发明内容
本发明的目的是提供一种基于用户-展品距离的增强现实博物馆协作交互的方法,以及一种实现该方法的增强现实博物馆协作交互系统,解决了现有AR博物馆场景下由于用户相互隔离而导致的学习效率低和体验感较差的问题,促进用户在递进式地了解博物馆展品的同时与周围其他用户进行实时有趣的互动。
为了实现上述发明目的,本发明的技术方案为:
一方面,一种基于用户-展品距离的增强现实博物馆协作交互方法,包括以下步骤:
检测并获取用户动态位置信息,包括用户与展品的物理距离、面向展品的朝向以及移动速度,根据所述物理距离、面向展品的朝向以及移动速度实时计算用户的感知距离;
根据所述感知距离建立以展品为中心的距离模型,依据所述距离模型和用户的实时感知距离设置用户交互权限;
根据用户的感知距离对应的用户交互权限,对用户动态匹配所述用户交互权限内的单用户交互方式和多用户协作交互方式;
用户依据所述单用户交互方式和多用户协作交互方式进行实时单用户交互行为与多用户协作交互行为;
依据所述实时单用户交互行为结果与多用户协作交互行为结果,实现用户间展品的推荐。
另一方面,一种基于用户-展品距离的增强现实博物馆协作交互系统,包括:
数据检测模块,用于检测并获取用户动态位置信息,包括用户与展品的物理距离、面向展品的朝向以及移动速度;
云数据库模块,用于存储检测获得的用户动态位置信息、展品信息以及展品虚拟模型、交互行为结果数据、距离模型;
数据处理模块,从展品名称、简介与类别中提取展品关键词标签,建立展品对应的标签数据集,依据检测的用户动态位置信息为用户动态匹配所述用户交互权限内的单用户交互方式和多用户协作交互方式至;
显示设备模块,对动态匹配的用户交互权限内的单用户交互方式和多用户协作交互方式进行显示,同时显示交互结果;
输入设备模块,作为交互媒介,采集用户输入的交互操作,实现交互行为。
与现有技术相比,本发明具有的有益效果为:
本发明提供的增强现实博物馆协作交互系统和方法通过用户与展品的距离远近,对应开放距离范围内的交互权限,使用户在递进式地实现与博物馆展品的交互,同时在交互的同时与周围的其他用户进行协作交互,开拓了用户的交互兴趣,提高了用户的学习效率和交互体感效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明基于用户-展品距离的增强现实博物馆协作交互的流程图;
图2是本发明感知距离的计算说明示意图;
图3是本发明基于距离模型的多种方式并行的多用户协作交互场景示意图;
图4是本发明用户实时交互过程中交互权限设置的流程图;
图5是本发明基于用户-展品距离的增强现实博物馆协作交互系统的结构示意图;
图6是本发明云数据库的实体关系图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
为了解决了现有AR博物馆场景下由于用户相互隔离而导致的学习效率低和体验感较差的问题,促进用户在递进式地了解博物馆展品的同时与周围其他用户进行实时有趣的互动,本实施例提供了一种基于用户-展品距离的增强现实博物馆协作交互的方法,还提供了一种实现该方法的增强现实博物馆协作交互系统。
如图1所示,本实施例提供的一种基于用户-展品距离的增强现实博物馆协作交互的方法,包括以下步骤:
S101,检测并获取用户动态位置信息,根据用户动态位置信息实时计算用户的感知距离。
由于距离模型的划分是基于用户对展品的感知,因此在计算用户与展品的感知距离时,不能直接采用用户-展品间的物理距离。用户身高、用户移动的状态以及面部朝向等因素都有可能影响用户对距离的判断,因此本发明检测了多个参数数据来计算用户感知距离。即检测用户与展品的物理距离、面向展品的朝向以及移动速度等用户动态位置信息来计算用户与展品的感知距离。
其中,所述用户与展品的物理距离、面向展品的朝向以及移动速度的获取方法包括:
通过增强现实设备识别展品所在平面后,并计算增强现实设备的摄像头到所述平面中心点的直线距离作为用户在观看展品时与展品的物理距离;
通过增强现实设备内置的重力传感器和角速度传感器数据,计算获得增强现实设备的倾斜角度作为面向展品的朝向;
通过增强现实设备内置的陀螺仪计算用户在朝向展品方向上的1秒内的位移作为移动速度。
在获得用户与展品的物理距离、面向展品的朝向以及移动速度等用户动态位置信息基础上,即可以根据感知距离。因此,根据所述物理距离、面向展品的朝向以及移动速度实时计算用户的感知距离包括:
按照以下公式计算用户的感知距离:
Dp=(1+sinθ)×(Dp’+L-d0)
其中,Dp为感知距离,θ为面向展品的朝向角,Dp’为用户与展品的物理距离,d0为移动速度,L为增强现实设备的厚度或误差值。
下面结合图2对用于与产品的感知距离的计算进行说明。从用户识别到展品开始检测数据,当检测到展台平面时,选取中心锚点位置作为展品位置,记为(x1,y1,z1),通过增强现实设备(可以为头戴式或手持式AR设备)上的GPS定位模块定位用户所在位置为(x2,y2,z2),此时可以得到用户与展品间的平面距离为Dp’以及空间向量n2。因为增强现实设备有一定的厚度,因此加上一定的误差值为L。通过增强现实设备内置重力传感器和角速度传感器获得增强现实设备所在平面,即用户当前面部朝向,计算可得该平面的法向量n1,由法向量n1和空间向量n2算出用户偏离角度θ.通过内置陀螺仪、加速度传感器获得用户当前速度v,对应1s内朝向展品方向发生的位移为d0。由上述参数可得用户感知距离Dp=(1+sinθ)×(Dp’+L-d0)。
上述参数均可通过无线传感器检测获得,该无线传感器可以固定在AR设备上,根据传感器固定位置调整感知距离误差。在本发明中,优选手机自带传感器用作数据检测采集,一般智能手机均配置上述传感器,优先采用ARCore开发库识别展台平面。
S102,根据所述感知距离建立以展品为中心的距离模型,依据所述距离模型和用户的实时感知距离设置用户交互权限。
距离模型是根据用户与展品的感知距离的远近,将展品周围区域分成多个区域,每个区域对应独特的交互权限,以限定用户的交互行为。具体地,根据所述感知距离建立以展品为中心的距离模型包括:
根据用户感知能力层次,将用户与展品间的感知距离划分为四个感知距离范围,四个感知距离范围投影到底面上的距离范围将以展品为中心的圆形区域划分成四个圆环,以展品为中心,由近到远的圆环依次为操作区域、观察区域、路人区域和环境区域,形成所述距离模型。
本发明不仅能够实现用户的自己与展品之间的交互,还能实现用户与用于之间的交互,以提升交互乐趣和学习效率,因此,用户交互权限包括单用户交互方式和多用户协作交互方式两大类。
具体地,所述用户交互权限包括单用户交互方式,具体包括:
对于操作区域,为用户提供展示展品的全部标签页面以及展品虚拟化身;提供对虚拟化身进行绘画的个性化纹理和颜色涂绘;提供对展品或页面进行点赞、评分,虚拟手绘功能;
对于观察区域,为用户提供展示展品的全部标签页面;提供对展品或页面进行点赞、评分,虚拟手绘功能;提供涂绘选择接口,根据接收的用户涂绘请求信息,输出提示信息以提示用户靠近展品进行更多趣味操作;
对于路人区域,为用户提供展示产品标签关键词以及公共标签的详细页面;提供私有标签选择接口,根据接收的用户私有标签请求信息,输出提示信息以提示用户靠近展品查看更多详细内容;提供对展品进行点赞功能;提供评分和虚拟手绘选择接口,根据接收的用户评分和虚拟手绘请求,输出提示信息以提示用户靠近展品;提供涂绘选择接口,但不接收用户端的涂绘请求信息。
对于环境区域,为用户提供视线范围内的展品标记点。
所述用户交互权限还包括多用户协作交互方式,具体包括:
为同一区域的用户共享该同一区域对应用户交互权限内的单用户交互行为,输出以文字和动画表示提示信息以同步提示属于同一区域的其他用户正在进行的某交互行为,并呈现交互行为进程;
距离展品较近区域的用户交互行为共享给距离展品较远区域的用户。
下面结合图3对交互权限进行说明。本实施例根据展品可以被感知的特征,将用户与展品间的空间距离划分为四个距离范围,以展品为中心,由近到远依次为D1操作区域、D2观察区域、D3路人区域和D4环境区域,分别对应展品可以被操作、被观察、被识别的和无法被识别所需的用户-展品距离。
其中,除了环境区域用户无法与展品建立交互关系,其他三个区域分别对应不同的用户交互权限,越接近展品中心,用户可以查看的展品详细信息页面越多,可以进行的交互操作类型也越多。以展台中心为原点,具体概念与数值作如下设定:
操作区域D1:0-0.8m,物体能够被用户近距离操作的区域范围。该区域距离展品,满足近距离观察操作展品的要求,区域范围一般为手臂长至半人高,该范围同时满足私人空间距离,适合用户沉浸式浏览操作。该操作区域D1的用户可以查看展品全部标签页面以及展品虚拟化身,可对虚拟化身进行个性化纹理、颜色涂绘,对展品或页面进行点赞、评分,留下虚拟手绘评论。
观察区域D2:0.8-2.4m,在该范围内,用户能进一步观察物体的外观形态及细节。该区域范围一般为一人高,同时满足社交距离。该观察区域D2的用户可以查看展品的全部标签页面,并对对展品或页面进行点赞、评分,留下虚拟手绘评论,当用户点击涂绘按钮时,会提示用户靠近展品进行更多趣味操作。
路人区域D3:2.4-4.0m,用户路过该路人区域D3时可以识别出物体。在该路人区域D3内,用户只能查看展品标签关键词以及公共标签的详细页面,点击私有标签则会提示用户靠近展品查看更多详细内容。用户可以对展品进行点赞,但点击评分和虚拟手绘按钮将提示用户靠近展品,而涂绘按钮则不会显示。
环境区域D4:距离>4.0m,用户与物体之间无法产生关联的区域范围,路人区域外所有范围。该区域范围属于公共区域,用户即无法识别展品,也无法与其他用户间发生互动。但是用户仍可以看到视线范围内的展品标记点,通过标记点的大小显示展品热度。
图3中,I1、I2、I3表示同一区域的用户共享该区域对应权限范围内的交互行为,包括查看页面、点赞、评分、评论、涂绘,以文字及动画提示信息的方式同步提示附近的用户正在进行某一交互。
I1处于操作区域D1的多个用户同时进行所述涂绘操作,将同步显示多个用户操作进程,涂绘结束后,可提交上传至云端,用户间共享异步数据。
I2处于观察区域D2的多个用户同时进行评论、打分等操作时,将会触发其他用户界面中相应按钮的动效,并提示其他用户,附近正有用户在进行该操作,鼓励其他用户也去尝试。
I3处于路人区域D3的多个用户同时进行点赞、查看标签等操作时,会触发其他用户界面中相应按钮或标签的动效,提示其他用户,附近正有用户在进行该操作。
I4、I5、I6表示距离展品较近区域的用户交互行为,以所述提示信息的方式单向共享给距离展品较远区域的用户。I4表示向观察区域D2的用户共享操作区域D1用户的交互操作,I5表示向路人区域D3的用户共享操作区域D1用户的交互操作,I6表示向路人区域D3的用户共享观察区域D2用户的交互操作。
需要说明的是,本发明不局限与上述协作交互方式,可以根据实际增强现实应用所包括的功能进行用户权限划分,进而实现不同距离的用户间协作。
S103,根据用户的感知距离对应的用户交互权限,对用户动态匹配所述用户交互权限内的单用户交互方式和多用户协作交互方式。
在获得上述距离模型以及模型对应的交互权限的基础上,在实时的交互过程中,会根据实时采集的用户动态位置信息计算感知距离,根据感知距离依据距离模型动态更新交互权限,直到交互结束,具体流程如图4所示,用户交互权限的设置流程包括:
从用户识别到展品开始检测物理距离、面向展品的朝向以及移动速度并进行计算得到用户感知距离后,判断在距离模型中所处的范围,设置相应的用户权限并实时刷新用户界面。当GPS模块以及加速度传感器检测到用户发生位置移动时,首先判断设备是否在继续识别展品,如果继续识别则再次检测参数并计算。当用户不再识别当前展品时,结束本次任务。
在用户获得的与用户实时感知距离对应的用户交互权限后,即对用户匹配并开放当前用户交互权限内的单用户交互方式和多用户协作交互方式。
S104,用户依据所述单用户交互方式和多用户协作交互方式进行实时单用户交互行为与多用户协作交互行为。
用户根据权限范围内的单用户交互方式和多用户协作交互方式执行相应的交互行为,即当前用户可以执行交互权限内的查看展品全部标签页面以及展品虚拟化身,可对虚拟化身进行个性化纹理、颜色涂绘,对展品或页面进行点赞、评分,留下虚拟手绘评论等单用户交互方式,还可以执行等用户之间交互行为的提醒与交互结果分享等多用户协作交互方式。
S105,依据所述实时单用户交互行为结果与多用户协作交互行为结果,实现用户间产品的推荐。
在获得交互行为结果后,还需要对交互行为结果进行存储,即增强现实博物馆协作交互方法还包括:
对交互行为结果进行存储,具体包括对涂绘结果和评分结果进行存储,以供多用户共享涂绘结果和评分结果。
在存储交互行为结果的同时,还将这些交互行为结果按照多用户协作交互方式推荐给其他用户。
上述增强现实博物馆协作交互方法通过用户与展品的距离远近,对应开放距离范围内的交互权限,使用户在递进式地实现与博物馆展品的交互,同时在交互的同时与周围的其他用户进行协作交互,开拓了用户的交互兴趣,提高了用户的学习效率和交互体感效果。
如图5所示,本实施例还提供了一种实现上述增强现实博物馆协作交互方法的基于用户-展品距离的增强现实博物馆协作交互系统,包括:
数据检测模块,用于检测并获取用户动态位置信息,包括用户与展品的物理距离、面向展品的朝向以及移动速度;
云数据库模块,用于存储检测获得的用户动态位置信息、展品信息以及展品虚拟模型、交互行为结果数据、距离模型;
数据处理模块,从展品名称、简介与类别中提取展品关键词标签,建立展品对应的标签数据集,依据检测的用户动态位置信息为用户动态匹配所述用户交互权限内的单用户交互方式和多用户协作交互方式;
显示设备模块,对动态匹配的用户交互权限内的单用户交互方式和多用户协作交互方式进行显示,同时显示交互结果;
输入设备模块,作为交互媒介,采集用户输入的交互操作,实现交互行为。
具体地,数据检测模型主要用于用户与展品的物理距离、面向展品的朝向以及移动速度等动态位置信息的采集,具体包括无线传感器固定在穿戴式AR设备上,用于检测用户动态行为数据,进而进行下一步数据处理。无线传感器的组成模块封装在一个外壳内,在工作时它将由电池或振动发电机提供电源,构成无线传感器网络节点,由随机分布的集成有传感器、数据处理单元和通信模块的微型节点,通过自组织的方式构成网络。它可以采集设备的数字信号通过无线传感器网络传输到监控中心的无线网关,直接送入计算机,进行分析处理。如果需要,无线传感器也可以实时传输采集的整个时间历程信号。监控中心也可以通过网关把控制、参数设置等信息无线传输给节点。数据调理采集处理模块把传感器输出的微弱信号经过放大,滤波等调理电路后,送到模数转换器,转变为数字信号,送到主处理器进行数字信号处理,计算出传感器的有效值,位移值等。在本发明中,优选手机自带传感器用作数据检测,一般智能手机均配置所需传感器。
云数据库模块包含的云数据库是是部署和虚拟化在云计算环境中的数据库。云数据库是在云计算的大背景下发展起来的一种新兴的共享基础架构的方法,它极大地增强了数据库的存储能力,让软、硬件升级变得更加容易。云数据库具有高可扩展性、高可用性、采用多租形式和支持资源有效分发等特点。
具体地,如图6所示,云数据库模块包括:
展品资料信息单元,存储展品编号、名称、简介、标识码、所属类别,并存储建立的标签数据系统;
展品虚拟模型单元,每个展品建立对应的虚拟模型,包括有纹理贴图和无纹理贴图两种形态;
用户动态位置单元,从用户识别到展品开始记录用户的位置信息,至用户不再识别展品;
用户交互结果数据单元,包括用户对展品的评分、点赞数量,上传的评论和涂绘作品。
云数据库中的距离模型可以是利用上述交互方法构建的,该距离模型对应的用户交互权限也与上述交互方法中的用户交互权限内容相同,此处不再赘述。
数据处理模块作为整个增强现实博物馆协作交互系统的计算中心,主要实现标签数据集的构建,感知距离的计算以及用户交互权限设置与匹配。具体地,所述数据处理模块包括:
标签数据集构建子模块,用于从展品名称、简介与类别中提取展品关键词标签,建立展品对应的标签数据集;
其中,关键字提取是文本挖掘领域的一个重要组成部分。从文本中提取关键词有三种方法:监督、半监督和无监督。有监督的文本关键词提取算法需要高昂的人工成本,本发明优先采用适用性较强的无监督关键词抽取。
在已有博物馆数据库的基础上,从展品名称、展品分类以及展品简介中提取关键词标签,进而补充完善展品信息数据库。这些标签包括公有标签和私有标签,公有标签涉及多种大类属性信息,私有标签涉及展品特有背景信息,以清朝九桃瓶为例,其公有标签包括年代——清、器型——天球瓶、工艺——粉彩瓷等信息,而其私有标签则为纹饰——九桃、寓意——“五福捧寿”及其特有的故事与拍卖信息等。
感知距离计算模块,用于根据包含所述物理距离、面向展品的朝向以及移动速度的用户动态位置信息实时计算用户的感知距离;
用户交互权限设置与匹配模块,用于依据所述距离模型和用户的实时感知距离设置用户交互权限;还根据用户的感知距离对应的用户交互权限,对用户动态匹配并输出所述用户交互权限内的单用户交互方式和多用户协作交互方式。
其中,感知距离计算模块中的感知距离的计算方法与上述交互方法中的感知距离的计算过程相同,此处不再赘述。
同样,用户交互权限设置与匹配模块中的用户交互权限的设置以及根据设置的用户的感知距离对应的用户交互权限,对用户动态匹配并输出所述用户交互权限内的单用户交互方式和多用户协作交互方式与上述交互方法中S102和S103相同,此处不再赘述。
针对显示设备,本发明在原有的手持设备基础上设计了绑带,使其能够固定在头部。需要说明的是,本发明对显示设备要求并不高,包括但不限于Hololens、Holokit、移动设备等,只要合理配置相应的传感器和输入设备即可实现效果。
针对输入设备,本发明优先采用单手蓝牙交互手柄,可与手机连接,单手进行交互操作,出现提示信息时,手柄会发出震动提醒用户注意。另外,可以使用另一个手机作为输入设备,还可选择语音识别、手势识别等技术进行交互。
上述增强现实博物馆协作交互系统,以提示信息的方式实时共享距离展品较近区域的用户交互行为,激发较远区域的用户对展品的兴趣,促使他们向展品方向靠近,获得更多查看和交互权限。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于用户-展品距离的增强现实博物馆协作交互方法,包括以下步骤:
检测并获取用户动态位置信息,包括用户与展品的物理距离、面向展品的朝向以及移动速度,根据所述物理距离、面向展品的朝向以及移动速度实时计算用户的感知距离,具体采用以下公式计算用户的感知距离:
Dp=(1+sinθ)×(Dp’+L-d0)
其中,Dp为感知距离,θ为面向展品的朝向角,Dp’为用户与展品的物理距离,d0为移动速度,L为增强现实设备的厚度或误差值;
根据所述感知距离建立以展品为中心的距离模型,依据所述距离模型和用户的实时感知距离设置用户交互权限;
根据用户的感知距离对应的用户交互权限,对用户动态匹配所述用户交互权限内的单用户交互方式和多用户协作交互方式;
用户依据所述单用户交互方式和多用户协作交互方式进行实时单用户交互行为与多用户协作交互行为;
依据所述实时单用户交互行为结果与多用户协作交互行为结果,实现用户间展品的推荐。
2.如权利要求1所述的基于用户-展品距离的增强现实博物馆协作交互方法,其特征在于,所述用户与展品的物理距离、面向展品的朝向以及移动速度的获取方法包括:
通过增强现实设备识别展品所在平面后,并计算增强现实设备的摄像头到所述平面中心点的直线距离作为用户在观看展品时与展品的物理距离;
通过增强现实设备内置的重力传感器和角速度传感器数据,计算获得增强现实设备的倾斜角度作为面向展品的朝向;
通过增强现实设备内置的陀螺仪计算用户在朝向展品方向上的1秒内的位移作为移动速度。
3.如权利要求1所述的基于用户-展品距离的增强现实博物馆协作交互方法,其特征在于,所述根据所述感知距离建立以展品为中心的距离模型包括:
根据用户感知能力层次,将用户与展品间的感知距离划分为四个感知距离范围,四个感知距离范围投影到底面上的距离范围将以展品为中心的圆形区域划分成四个圆环,以展品为中心,由近到远的圆环依次为操作区域、观察区域、路人区域和环境区域,形成所述距离模型。
4.如权利要求3所述的基于用户-展品距离的增强现实博物馆协作交互方法,其特征在于,所述用户交互权限包括单用户交互方式,具体包括:
对于操作区域,为用户提供展示展品的全部标签页面以及展品虚拟化身;提供对虚拟化身进行绘画的个性化纹理和颜色涂绘;提供对展品或页面进行点赞、评分,虚拟手绘功能;
对于观察区域,为用户提供展示展品的全部标签页面;提供对展品或页面进行点赞、评分,虚拟手绘功能;提供涂绘选择接口,根据接收的用户涂绘请求信息,输出提示信息以提示用户靠近展品进行更多趣味操作;
对于路人区域,为用户提供展示产品标签关键词以及公共标签的详细页面;提供私有标签选择接口,根据接收的用户私有标签请求信息,输出提示信息以提示用户靠近展品查看更多详细内容;提供对展品进行点赞功能;提供评分和虚拟手绘选择接口,根据接收的用户评分和虚拟手绘请求,输出提示信息以提示用户靠近展品;提供涂绘选择接口,但不接收用户端的涂绘请求信息;
对于环境区域,为用户提供视线范围内的展品标记点。
5.如权利要求3或4所述的基于用户-展品距离的增强现实博物馆协作交互方法,其特征在于,所述用户交互权限还包括多用户协作交互方式,具体包括:
为同一区域的用户共享该同一区域对应用户交互权限内的单用户交互行为,输出以文字和动画表示提示信息以同步提示属于同一区域的其他用户正在进行的某交互行为,并呈现交互行为进程;
距离展品较近区域的用户交互行为共享给距离展品较远区域的用户。
6.如权利要求1所述的基于用户-展品距离的增强现实博物馆协作交互方法,其特征在于,所述增强现实博物馆协作交互方法还包括:
对交互行为结果进行存储,具体包括对涂绘结果和评分结果进行存储,以供多用户共享涂绘结果和评分结果。
7.一种基于用户-展品距离的增强现实博物馆协作交互系统,其特征在于,包括:
数据检测模块,用于检测并获取用户动态位置信息,包括用户与展品的物理距离、面向展品的朝向以及移动速度;
云数据库模块,用于存储检测获得的用户动态位置信息、展品信息以及展品虚拟模型、交互行为结果数据、距离模型;
数据处理模块,从展品名称、简介与类别中提取展品关键词标签,建立展品对应的标签数据集,依据检测的用户动态位置信息为用户动态匹配用户交互权限内的单用户交互方式和多用户协作交互方式;
显示设备模块,对动态匹配的用户交互权限内的单用户交互方式和多用户协作交互方式进行显示,同时显示交互结果;
输入设备模块,作为交互媒介,采集用户输入的交互操作,实现交互行为;
其中,所述数据处理模块包括:
标签数据集构建子模块,用于从展品名称、简介与类别中提取展品关键词标签,建立展品对应的标签数据集;
感知距离计算模块,用于根据包含所述物理距离、面向展品的朝向以及移动速度的用户动态位置信息实时计算用户的感知距离,具体采用以下公式计算用户的感知距离:
Dp=(1+sinθ)×(Dp’+L-d0)
其中,Dp为感知距离,θ为面向展品的朝向角,Dp’为用户与展品的物理距离,d0为移动速度,L为增强现实设备的厚度或误差值;
用户交互权限设置与匹配模块,用于依据所述距离模型和用户的实时感知距离设置用户交互权限;还根据用户的感知距离对应的用户交互权限,对用户动态匹配并输出所述用户交互权限内的单用户交互方式和多用户协作交互方式。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958721.6A CN110908504B (zh) | 2019-10-10 | 2019-10-10 | 一种增强现实博物馆协作交互方法与系统 |
US17/636,017 US11769306B2 (en) | 2019-10-10 | 2019-11-15 | User-exhibit distance based collaborative interaction method and system for augmented reality museum |
PCT/CN2019/118992 WO2021068356A1 (zh) | 2019-10-10 | 2019-11-15 | 一种基于用户-展品距离的增强现实博物馆协作交互方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958721.6A CN110908504B (zh) | 2019-10-10 | 2019-10-10 | 一种增强现实博物馆协作交互方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110908504A CN110908504A (zh) | 2020-03-24 |
CN110908504B true CN110908504B (zh) | 2021-03-23 |
Family
ID=69815374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910958721.6A Active CN110908504B (zh) | 2019-10-10 | 2019-10-10 | 一种增强现实博物馆协作交互方法与系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11769306B2 (zh) |
CN (1) | CN110908504B (zh) |
WO (1) | WO2021068356A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113160422B (zh) * | 2021-03-24 | 2024-02-23 | 北京皮尔布莱尼软件有限公司 | 一种展品位置的定位方法、计算设备及可读存储介质 |
CN113282171B (zh) * | 2021-05-14 | 2024-03-12 | 中国海洋大学 | 一种甲骨文增强现实内容交互系统、方法、设备及终端 |
CN113312507B (zh) * | 2021-05-28 | 2022-11-04 | 成都威爱新经济技术研究院有限公司 | 一种基于物联网的数字展厅智能管理方法及系统 |
CN114021047A (zh) * | 2021-11-17 | 2022-02-08 | 网易(杭州)网络有限公司 | 沉浸式活动系统中的信息展示方法和电子设备 |
CN114510526A (zh) * | 2022-01-12 | 2022-05-17 | 上海先之实业有限公司 | 一种线上数控展览方法 |
CN114743330B (zh) * | 2022-03-16 | 2023-04-07 | 大连理工大学 | 一种基于wi-fi信道状态信息的博物馆安全防护系统 |
CN114662025B (zh) * | 2022-03-29 | 2023-04-28 | 维迈科建集团有限公司 | 一种基于数字化线上展厅构建方法、系统及存储介质 |
US12148101B2 (en) * | 2022-10-28 | 2024-11-19 | At&T Intellectual Property I, L.P. | Systems and methods for facilitating immersive exhibits |
CN116597119A (zh) * | 2022-12-30 | 2023-08-15 | 北京津发科技股份有限公司 | 可穿戴扩展现实设备的人机交互采集方法、装置和系统 |
US11838587B1 (en) * | 2023-05-31 | 2023-12-05 | Maris Jacob Ensing | System and method of providing customized media content |
CN117292310B (zh) * | 2023-08-22 | 2024-09-27 | 空介(丽水)数字科技有限公司 | 一种虚拟数字人应用方法 |
CN117671212B (zh) * | 2023-12-13 | 2024-07-05 | 江苏麦克数字空间营造有限公司 | 基于元宇宙的展厅展览系统及其交互方法 |
CN117557238B (zh) * | 2024-01-11 | 2024-03-29 | 天禹文化集团有限公司 | 一种基于虚拟现实的博物馆展品参观管理方法和系统 |
CN118915907A (zh) * | 2024-07-15 | 2024-11-08 | 铯镨科技有限公司 | 基于vr技术实现元宇宙在线展厅交互的方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102495959A (zh) * | 2011-12-05 | 2012-06-13 | 无锡智感星际科技有限公司 | 一种基于位置映射的增强现实平台系统及应用方法 |
CN105468142A (zh) * | 2015-11-16 | 2016-04-06 | 上海璟世数字科技有限公司 | 基于增强现实技术的互动方法、系统和终端 |
CN107688573A (zh) * | 2016-08-04 | 2018-02-13 | 刘金锁 | 一种基于互联网+的交互、可视化系统及其使用方法 |
CN107704078A (zh) * | 2017-09-11 | 2018-02-16 | 广州慧玥文化传播有限公司 | 基于光学定位实现mr模式的方法及系统 |
CN108509567A (zh) * | 2018-03-26 | 2018-09-07 | 湖北大学 | 一种数字文化内容库搭建的方法及装置 |
KR101902315B1 (ko) * | 2017-08-04 | 2018-09-28 | 주식회사 이너프미디어 | 체험형 전시물 안내 시스템 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7720436B2 (en) * | 2006-01-09 | 2010-05-18 | Nokia Corporation | Displaying network objects in mobile devices based on geolocation |
US9459697B2 (en) * | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US20140354602A1 (en) * | 2013-04-12 | 2014-12-04 | Impression.Pi, Inc. | Interactive input system and method |
US9063578B2 (en) * | 2013-07-31 | 2015-06-23 | Microsoft Technology Licensing, Llc | Ergonomic physical interaction zone cursor mapping |
US20150193979A1 (en) * | 2014-01-08 | 2015-07-09 | Andrej Grek | Multi-user virtual reality interaction environment |
KR102241074B1 (ko) * | 2014-07-22 | 2021-04-16 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US10335677B2 (en) * | 2014-12-23 | 2019-07-02 | Matthew Daniel Fuchs | Augmented reality system with agent device for viewing persistent content and method of operation thereof |
US20160188585A1 (en) * | 2014-12-27 | 2016-06-30 | Lenitra Durham | Technologies for shared augmented reality presentations |
US9985999B1 (en) * | 2015-02-02 | 2018-05-29 | Amazon Technologies, Inc. | Changing an application between a single-user session and a multi-user session |
US9928657B2 (en) * | 2015-10-29 | 2018-03-27 | Arm23, Srl | Museum augmented reality program |
US10795449B2 (en) * | 2015-12-11 | 2020-10-06 | Google Llc | Methods and apparatus using gestures to share private windows in shared virtual environments |
CA3023488C (en) * | 2016-04-14 | 2022-06-28 | The Research Foundation For The State University Of New York | System and method for generating a progressive representation associated with surjectively mapped virtual and physical reality image data |
US11044393B1 (en) * | 2016-06-20 | 2021-06-22 | Pipbin, Inc. | System for curation and display of location-dependent augmented reality content in an augmented estate system |
US10168767B2 (en) * | 2016-09-30 | 2019-01-01 | Intel Corporation | Interaction mode selection based on detected distance between user and machine interface |
US10591987B2 (en) * | 2016-11-04 | 2020-03-17 | Htc Corporation | Method, virtual reality apparatus and recording medium for fast moving in virtual reality |
US12020667B2 (en) * | 2016-12-05 | 2024-06-25 | Case Western Reserve University | Systems, methods, and media for displaying interactive augmented reality presentations |
JP2020501265A (ja) * | 2016-12-05 | 2020-01-16 | ケース ウェスタン リザーブ ユニバーシティCase Western Reserve University | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
CN108173736B (zh) * | 2016-12-06 | 2021-03-09 | 苏州触达信息技术有限公司 | 一种基于室内定位的交互系统和方法 |
EP3559786B1 (en) * | 2016-12-21 | 2023-07-26 | InterDigital VC Holdings, Inc. | System and method for placement of augmented reality information for users based on their activity |
CN106648322A (zh) | 2016-12-21 | 2017-05-10 | 广州市动景计算机科技有限公司 | 与虚拟对象进行互动操作的触发方法、装置和系统 |
CN106803283A (zh) * | 2016-12-29 | 2017-06-06 | 东莞新吉凯氏测量技术有限公司 | 基于实体展馆的交互式三维全景多媒体虚拟展览方法 |
US10877575B2 (en) * | 2017-03-06 | 2020-12-29 | Microsoft Technology Licensing, Llc | Change of active user of a stylus pen with a multi user-interactive display |
KR101925034B1 (ko) * | 2017-03-28 | 2018-12-04 | 엘지전자 주식회사 | 스마트 컨트롤링 디바이스 및 그 제어 방법 |
CN107547359B (zh) | 2017-08-16 | 2020-11-24 | 华南理工大学 | 基于lbs与ar技术的旅游景点信息服务系统 |
CN109842790B (zh) * | 2017-11-29 | 2021-02-26 | 财团法人工业技术研究院 | 影像信息显示方法与显示器 |
KR20240125072A (ko) * | 2017-12-22 | 2024-08-19 | 매직 립, 인코포레이티드 | 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기 위한 방법들 및 시스템 |
US10339718B1 (en) * | 2017-12-29 | 2019-07-02 | Verizon Patent And Licensing Inc. | Methods and systems for projecting augmented reality content |
WO2019226691A1 (en) * | 2018-05-22 | 2019-11-28 | Magic Leap, Inc. | Transmodal input fusion for a wearable system |
CN108829250A (zh) * | 2018-06-04 | 2018-11-16 | 苏州市职业大学 | 一种基于增强现实ar的对象互动展示方法 |
WO2020020102A1 (zh) * | 2018-07-23 | 2020-01-30 | 广东虚拟现实科技有限公司 | 生成虚拟内容的方法、终端设备及存储介质 |
WO2020024909A1 (zh) * | 2018-08-02 | 2020-02-06 | 广东虚拟现实科技有限公司 | 定位跟踪方法、终端设备及计算机可读取存储介质 |
WO2020033354A2 (en) * | 2018-08-06 | 2020-02-13 | Olive Seed Industries, Llc | Methods and systems for personalizing visitor experience at a venue |
WO2020048441A1 (zh) * | 2018-09-03 | 2020-03-12 | 广东虚拟现实科技有限公司 | 通信连接方法、终端设备及无线通信系统 |
KR102582863B1 (ko) * | 2018-09-07 | 2023-09-27 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
US10996915B2 (en) * | 2018-10-31 | 2021-05-04 | Doubleme, Inc. | Surrogate visitor mixed-reality live environment sharing system with remote visitors |
US11181862B2 (en) * | 2018-10-31 | 2021-11-23 | Doubleme, Inc. | Real-world object holographic transport and communication room system |
CN109597942B (zh) * | 2018-12-14 | 2022-05-17 | 广州欧科信息技术股份有限公司 | 展柜信息的推送方法、装置、设备和存储介质 |
CN109885778A (zh) * | 2018-12-27 | 2019-06-14 | 福建农林大学 | 一种基于增强现实的旅游导览应用方法及系统 |
US10937247B1 (en) * | 2019-03-11 | 2021-03-02 | Amazon Technologies, Inc. | Three-dimensional room model generation using ring paths and photogrammetry |
US11024079B1 (en) * | 2019-03-11 | 2021-06-01 | Amazon Technologies, Inc. | Three-dimensional room model generation using panorama paths and photogrammetry |
CN113110788B (zh) * | 2019-08-14 | 2023-07-04 | 京东方科技集团股份有限公司 | 信息显示交互方法及装置、计算机设备及介质 |
US11232644B1 (en) * | 2020-12-31 | 2022-01-25 | Facebook Technologies, Llc | Systems and methods for providing spatial awareness in virtual reality |
US20230023609A1 (en) * | 2021-07-22 | 2023-01-26 | Penumbra, Inc. | Systems and methods for animating a simulated full limb for an amputee in virtual reality |
US11558544B1 (en) * | 2021-07-23 | 2023-01-17 | Hewlett-Packard Development Company, L.P. | Field of view limits of image sensors |
-
2019
- 2019-10-10 CN CN201910958721.6A patent/CN110908504B/zh active Active
- 2019-11-15 US US17/636,017 patent/US11769306B2/en active Active
- 2019-11-15 WO PCT/CN2019/118992 patent/WO2021068356A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102495959A (zh) * | 2011-12-05 | 2012-06-13 | 无锡智感星际科技有限公司 | 一种基于位置映射的增强现实平台系统及应用方法 |
CN105468142A (zh) * | 2015-11-16 | 2016-04-06 | 上海璟世数字科技有限公司 | 基于增强现实技术的互动方法、系统和终端 |
CN107688573A (zh) * | 2016-08-04 | 2018-02-13 | 刘金锁 | 一种基于互联网+的交互、可视化系统及其使用方法 |
KR101902315B1 (ko) * | 2017-08-04 | 2018-09-28 | 주식회사 이너프미디어 | 체험형 전시물 안내 시스템 |
CN107704078A (zh) * | 2017-09-11 | 2018-02-16 | 广州慧玥文化传播有限公司 | 基于光学定位实现mr模式的方法及系统 |
CN108509567A (zh) * | 2018-03-26 | 2018-09-07 | 湖北大学 | 一种数字文化内容库搭建的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021068356A1 (zh) | 2021-04-15 |
US11769306B2 (en) | 2023-09-26 |
US20220277525A1 (en) | 2022-09-01 |
CN110908504A (zh) | 2020-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110908504B (zh) | 一种增强现实博物馆协作交互方法与系统 | |
US11127210B2 (en) | Touch and social cues as inputs into a computer | |
US9390561B2 (en) | Personal holographic billboard | |
CN105027175B (zh) | 基于各设备之间的距离修改功能的方法和设备 | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
EP2974509B1 (en) | Personal information communicator | |
CN103733196A (zh) | 用于实现现实世界用户经历的可搜索历史的方法及设备 | |
CN110473293A (zh) | 虚拟对象处理方法及装置、存储介质和电子设备 | |
JP2013164697A (ja) | 画像処理装置、画像処理方法、プログラム及び画像処理システム | |
KR102043274B1 (ko) | 3d 객체와 마커를 포함한 mr 콘텐츠를 제공하는 사이니지 시스템 및 그 방법 | |
US20200090656A1 (en) | Sensor Based Semantic Object Generation | |
US20240037832A1 (en) | Metaverse system | |
CN111325849B (zh) | 虚拟内容显示方法、装置、终端设备及存储介质 | |
CN111815782A (zh) | Ar场景内容的显示方法、装置、设备及计算机存储介质 | |
WO2019207875A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20240020920A1 (en) | Incremental scanning for custom landmarkers | |
CN111918114A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
De Paolis et al. | Augmented Reality, Virtual Reality, and Computer Graphics: 6th International Conference, AVR 2019, Santa Maria al Bagno, Italy, June 24–27, 2019, Proceedings, Part II | |
CN113819913B (zh) | 一种路径规划方法及装置、计算机设备和存储介质 | |
CN117010965A (zh) | 基于信息流广告的互动方法、装置、设备及介质 | |
WO2017008749A1 (zh) | 一种具备隐藏视像屏及多种传感器的耳机 | |
JP2016177834A (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR20190094875A (ko) | 3d 객체와 마커를 포함한 mr 콘텐츠를 제공하는 사이니지 시스템 및 그 방법 | |
Stahl et al. | REAL: Situated dialogue in instrumented environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |