KR102692701B1 - Middleware apparatus and system for group physics interaction - Google Patents
Middleware apparatus and system for group physics interaction Download PDFInfo
- Publication number
- KR102692701B1 KR102692701B1 KR1020160170229A KR20160170229A KR102692701B1 KR 102692701 B1 KR102692701 B1 KR 102692701B1 KR 1020160170229 A KR1020160170229 A KR 1020160170229A KR 20160170229 A KR20160170229 A KR 20160170229A KR 102692701 B1 KR102692701 B1 KR 102692701B1
- Authority
- KR
- South Korea
- Prior art keywords
- hmd
- mobile
- unit
- group
- mobile hmd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 28
- 230000000704 physical effect Effects 0.000 claims abstract description 84
- 238000004458 analytical method Methods 0.000 claims abstract description 73
- 238000004891 communication Methods 0.000 claims abstract description 41
- 230000010399 physical interaction Effects 0.000 claims abstract description 28
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 claims description 285
- 230000000694 effects Effects 0.000 claims description 98
- 238000012545 processing Methods 0.000 claims description 18
- 230000033001 locomotion Effects 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 6
- ICMWWNHDUZJFDW-DHODBPELSA-N oxymetholone Chemical compound C([C@@H]1CC2)C(=O)\C(=C/O)C[C@]1(C)[C@@H]1[C@@H]2[C@@H]2CC[C@](C)(O)[C@@]2(C)CC1 ICMWWNHDUZJFDW-DHODBPELSA-N 0.000 description 32
- 238000013507 mapping Methods 0.000 description 8
- 230000001939 inductive effect Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000003891 environmental analysis Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000008786 sensory perception of smell Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/303—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
종래에 비해 더욱더 예측가능한 사용자 인터페이스를 제공할 수 있는 다중 모바일 HMD 환경에서의 집단 물리 상호작용을 위한 미들웨어 장치 및 시스템을 제시한다. 제시된 미들웨어 장치는 모바일 HMD 운용 공간에 존재하는 각각의 모바일 HMD와의 통신을 수행하는 모바일 HMD 통신부, 및 각각의 모바일 HMD가 모바일 HMD 운용 공간에서 운용되고 있는 환경을 분석하고 분석 결과에 따라 물리 효과 파일을 제공할 모바일 HMD를 선정하고 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 운용 환경 분석부를 포함한다.A middleware device and system for group physical interaction in a multi-mobile HMD environment, which can provide a more predictable user interface than before, are proposed. The proposed middleware device includes a mobile HMD communication unit which performs communication with each mobile HMD existing in a mobile HMD operating space, and an operating environment analysis unit which analyzes the environment in which each mobile HMD is operating in the mobile HMD operating space, selects a mobile HMD to provide a physical effect file based on the analysis result, and generates a physical effect file to be provided to the selected mobile HMD.
Description
본 발명은 집단 물리 상호작용을 위한 미들웨어 장치 및 시스템에 관한 것으로, 보다 상세하게는 다수개의 모바일 HMD를 운용할 수 있는 환경에서의 집단 물리 상호작용을 위한 미들웨어 장치 및 시스템에 관한 것이다.The present invention relates to a middleware device and system for group physical interaction, and more particularly, to a middleware device and system for group physical interaction in an environment capable of operating a plurality of mobile HMDs.
종래의 가상현실 기반 햅틱 기술은 장갑, 신발, 수트 등의 폼팩터를 통하여 손, 발, 흉부, 복부 등에 진동기반 햅틱을 제공하였다.Conventional virtual reality-based haptic technology provides vibration-based haptics to hands, feet, chest, and abdomen through form factors such as gloves, shoes, and suits.
PC 기반(즉, PC 연결형) 가상현실 HMD는 진동 햅틱 기능이 구비된 독자적 컨트롤러가 존재하였다. PC-based (i.e. PC-connected) virtual reality HMDs had their own controllers with vibration haptic capabilities.
이에 반해, 대부분의 모바일 기반(즉, 스마트폰 삽입형) HMD는 햅틱이 구비된 독자적 컨트롤러가 존재하지 않아서, 가상현실 내 여러 상호작용에 있어 햅틱 효과를 적용시킬 수 없었다. 그에 따라, 가상현실에서의 클릭, 선택, 이동 등의 사용자 동작을 햅틱 상호작용으로서 표현할 수 없었다.In contrast, most mobile-based (i.e., smartphone-insertable) HMDs do not have their own haptic controllers, and thus cannot apply haptic effects to various interactions in virtual reality. Accordingly, user actions such as clicking, selecting, and moving in virtual reality cannot be expressed as haptic interactions.
또한, 다수의 사용자가 모바일 기반 HMD를 이용하는 경우에 있어서, 상호간의 충돌 등에 의한 안전사고가 잦고(눈을 HMD로 가리므로), 군집도 및 위치에 따른 물리효과 제공이 불가하였다.In addition, in cases where multiple users use mobile-based HMDs, safety accidents due to collisions between users are frequent (because their eyes are covered by the HMD), and it is impossible to provide physical effects according to clustering and location.
본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 종래에 비해 더욱더 예측가능한 사용자 인터페이스를 제공할 수 있는 다중 모바일 HMD 환경에서의 집단 물리 상호작용을 위한 미들웨어 장치 및 시스템을 제공함에 그 목적이 있다.The present invention has been proposed to solve the above-mentioned conventional problems, and its purpose is to provide a middleware device and system for group physical interaction in a multi-mobile HMD environment that can provide a more predictable user interface than the conventional one.
본 발명의 다른 목적은 다중 사용자의 모바일 기반 HMD 이용 상황에서의 활용성을 극대화할 수 있는 다중 모바일 HMD 환경에서의 집단 물리 상호작용을 위한 미들웨어 장치 및 시스템을 제공함에 있다.Another object of the present invention is to provide a middleware device and system for group physical interaction in a multi-mobile HMD environment that can maximize usability in a multi-user mobile-based HMD usage situation.
본 발명의 다른 목적은 전체적인 시스템의 구동 성능을 향상시킬 수 있는 다중 모바일 HMD 환경에서의 집단 물리 상호작용을 위한 미들웨어 장치 및 시스템을 제공함에 있다.Another object of the present invention is to provide a middleware device and system for group physical interaction in a multi-mobile HMD environment, which can improve the driving performance of the overall system.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 집단 물리 상호작용을 위한 미들웨어 장치는, 모바일 HMD 운용 공간에 존재하는 각각의 모바일 HMD와의 통신을 수행하는 모바일 HMD 통신부; 및 상기 각각의 모바일 HMD가 상기 모바일 HMD 운용 공간에서 운용되고 있는 환경을 분석하고, 분석 결과에 따라 물리 효과 파일을 제공할 모바일 HMD를 선정하고, 상기 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 운용 환경 분석부;를 포함한다.In order to achieve the above-mentioned purpose, a middleware device for group physical interaction according to a preferred embodiment of the present invention includes: a mobile HMD communication unit for performing communication with each mobile HMD existing in a mobile HMD operating space; and an operating environment analysis unit for analyzing an environment in which each of the mobile HMDs is operating in the mobile HMD operating space, selecting a mobile HMD to provide a physical effect file based on the analysis result, and generating a physical effect file to be provided to the selected mobile HMD.
상기 운용 환경 분석부는, 상기 모바일 HMD 운용 공간내의 사용자 측위부로부터의 측위 정보를 수신하는 사용자 측위 정부 수신부; 및 상기 측위 정보를 근거로 상기 모바일 HMD 운용 공간에 존재하는 다수 사용자의 군집도와 위치 및 이동 특성을 분석하여 상기 물리 효과 파일을 제공할 모바일 HMD를 선정하고, 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 사용자 군집/위치/특성 분석부;를 포함할 수 있다.The above-described operating environment analysis unit may include a user positioning receiver unit that receives positioning information from a user positioning unit within the mobile HMD operating space; and a user cluster/location/characteristics analysis unit that analyzes clustering and location and movement characteristics of a plurality of users existing in the mobile HMD operating space based on the positioning information to select a mobile HMD to provide the physical effect file, and generates a physical effect file to be provided to the selected mobile HMD.
상기 운용 환경 분석부는, 상기 각각의 모바일 HMD의 시스템 정보를 바탕으로 각각의 모바일 HMD의 상태를 분석하여 해당 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 HMD 단말상태 분석부;를 추가로 포함할 수 있다.The above-mentioned operating environment analysis unit may additionally include an HMD terminal status analysis unit that analyzes the status of each mobile HMD based on system information of each mobile HMD and generates a physical effect file to be provided to the corresponding mobile HMD.
상기 모바일 HMD 통신부는, 상기 각각의 모바일 HMD의 시스템 정보를 수신하여 상기 HMD 단말상태 분석부에게로 보내는 HMD 단말상태 수신부; 및 상기 HMD 단말상태 분석부에서 상기 각각의 모바일 HMD의 시스템 정보를 근거로 생성된 물리 효과 파일을 해당 모바일 HMD에게로 송신하는 파일 송신부;를 포함할 수 있다.The above mobile HMD communication unit may include an HMD terminal status receiving unit that receives system information of each mobile HMD and sends it to the HMD terminal status analysis unit; and a file transmitting unit that transmits a physical effect file generated by the HMD terminal status analysis unit based on the system information of each mobile HMD to the corresponding mobile HMD.
상기 모바일 HMD 운용 공간내의 사용자들이 모집단 및 이탈집단으로 분리된 경우, 상기 운용 환경 분석부는, 상기 모바일 HMD 운용 공간내의 사용자 측위부로부터의 측위 정보를 분석하여 상기 모집단 및 상기 이탈집단을 인지하고, 상기 이탈집단에 대하여 상기 모집단으로의 복귀를 유도하는 물리 효과 파일을 상기 모바일 HMD 통신부를 통해 상기 이탈집단의 사용자들의 모바일 HMD에게로 전달할 수 있다.When users within the above mobile HMD operating space are divided into a population group and a departure group, the operating environment analysis unit analyzes positioning information from a user positioning unit within the mobile HMD operating space to recognize the population group and the departure group, and transmits a physical effect file for inducing the departure group to return to the population group to the mobile HMDs of users of the departure group through the mobile HMD communication unit.
본 발명의 바람직한 실시양태에 따른 집단 물리 상호작용을 위한 미들웨어 장치는 상기 운용 환경 분석부로부터의 물리 효과 파일을 수신하여 비 HMD 효과 출력 단말에게로 출력하는 비 HMD 효과 출력부;를 추가로 포함할 수 있다.A middleware device for group physical interaction according to a preferred embodiment of the present invention may further include a non-HMD effect output unit that receives a physical effect file from the operating environment analysis unit and outputs it to a non-HMD effect output terminal.
상기 비 HMD 효과 출력 단말은, 상기 모바일 HMD 운용 공간에 존재하는 상기 모바일 HMD가 아닌 별도의 효과 출력 단말일 수 있다.The above non-HMD effect output terminal may be a separate effect output terminal other than the mobile HMD existing in the mobile HMD operating space.
상기 모바일 HMD 운용 공간내의 사용자들이 모집단 및 이탈집단으로 분리된 경우, 상기 운용 환경 분석부는, 상기 모바일 HMD 운용 공간내의 사용자 측위부로부터의 측위 정보를 분석하여 상기 모집단 및 상기 이탈집단을 인지하고, 상기 이탈집단에 대하여 상기 모집단으로의 복귀를 유도하는 물리 효과 파일을 상기 비 HMD 효과 출력부를 통해 상기 이탈집단과 최단거리에 위치한 비 HMD 효과 출력 단말에게로 전달할 수 있다.When users within the above mobile HMD operating space are divided into a population group and a departure group, the operating environment analysis unit analyzes positioning information from a user positioning unit within the above mobile HMD operating space to recognize the population group and the departure group, and transmits a physical effect file for inducing the departure group to return to the population group to a non-HMD effect output terminal located at the shortest distance from the departure group through the non-HMD effect output unit.
상기 물리 효과 파일은 해당 모바일 HMD에 구비된 액추에이터의 구동을 위한 햅틱 효과 패턴이 포함된 파일일 수 있다.The above physical effect file may be a file containing a haptic effect pattern for driving an actuator equipped in the mobile HMD.
그리고, 본 발명의 바람직한 실시양태에 따른 집단 물리 상호작용을 위한 시스템은, 모바일 HMD 운용 공간내의 각각의 사용자를 측위하는 사용자 측위부; 상기 각각의 사용자가 착용하는 모바일 HMD; 및 상기 각각의 모바일 HMD와의 통신을 수행하는 모바일 HMD 통신부, 및 상기 각각의 모바일 HMD가 상기 모바일 HMD 운용 공간에서 운용되고 있는 환경을 분석하고 분석 결과에 따라 물리 효과 파일을 제공할 모바일 HMD를 선정하고 상기 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 운용 환경 분석부를 포함하는 미들웨어 장치;를 포함한다.And, a system for group physical interaction according to a preferred embodiment of the present invention includes a middleware device including a user positioning unit for positioning each user within a mobile HMD operating space; a mobile HMD worn by each of the users; and a mobile HMD communication unit for performing communication with each of the mobile HMDs; and an operating environment analysis unit for analyzing an environment in which each of the mobile HMDs is operated within the mobile HMD operating space, selecting a mobile HMD to provide a physical effect file based on the analysis result, and generating a physical effect file to be provided to the selected mobile HMD.
상기 모바일 HMD는, 가상현실 컨텐츠를 구동하는 게임 엔진; 사용자가 체감할 수 있는 물리 효과를 출력하는 햅틱 운용부; 및 해당 모바일 HMD의 시스템 정보를 수집하여 상기 미들웨어 장치에게로 송신하고, 상기 미들웨어 장치로부터의 물리 효과 파일을 상기 햅틱 운용부에게로 송신하고, 사용자 입력에 따른 상기 게임 엔진에서의 상호작용 데이터를 상기 햅틱 운용부에게로 전달하여 사용자 입력에 따른 물리 효과가 출력되게 하는 미들웨어 통신 처리부;를 포함할 수 있다.The above mobile HMD may include a game engine that drives virtual reality content; a haptic operation unit that outputs physical effects that a user can feel; and a middleware communication processing unit that collects system information of the mobile HMD and transmits it to the middleware device, transmits a physical effect file from the middleware device to the haptic operation unit, and transmits interaction data in the game engine according to user input to the haptic operation unit so that physical effects according to user input are output.
상기 햅틱 운용부는, 해당 모바일 HMD내에 구비된 액추에이터를 구동하는 액추에이터 구동부를 포함할 수 있다.The above haptic operating unit may include an actuator driving unit that drives an actuator provided in the mobile HMD.
이러한 구성의 본 발명에 따르면, HMD에 삽입되는 모바일 디바이스의 진동 액추에이터를 이용하여 더욱더 예측가능하고 체감형의 유저 인터페이스를 제공함으로써, 사용자 편의를 극대화시킬 수 있다.According to the present invention of this configuration, user convenience can be maximized by providing a more predictable and tactile user interface by utilizing a vibration actuator of a mobile device inserted into an HMD.
또한, 모션 트래킹과 같은 고급 입력 기술뿐만 아니라 종래의 조이스틱 등의 입력 장치와도 인터페이스적 호환성이 가능하여, 그 실용성이 높다고 할 수 있다. In addition, it is highly practical because it is interface compatible with not only advanced input technologies such as motion tracking but also conventional input devices such as joysticks.
또한, 추가적 하드웨어의 구비없이 소프트웨어적인 수정만으로 가상현실의 사용자 경험을 개선할 수 있다는 점에서 경제성을 지닌다고 할 수 있다.In addition, it can be said to be economical in that the user experience of virtual reality can be improved only through software modifications without the purchase of additional hardware.
또한, 미들웨어와의 연동을 통해서 모바일 기반 HMD에 내장된 컨텐츠 자체에 기반한 햅틱 효과 뿐만 아니라 미들웨어를 통해 전달되는 외부 햅틱 효과 또한 모바일 기반 HMD에 연동시킬 수 있다. 그에 따라, 종래 기술 대비 그 확장성과 경제성이 우수하다고 할 수 있다. In addition, through linkage with middleware, not only haptic effects based on the content embedded in the mobile-based HMD itself, but also external haptic effects delivered through the middleware can be linked to the mobile-based HMD. Accordingly, it can be said that its expandability and cost-effectiveness are superior to those of conventional technologies.
뿐만 아니라, 다수의 사용자가 모바일 기반 HMD를 이용하게 되는 경우에 있어, 상호간의 충돌 등에 의한 안전사고를 예방하고, 군집도 및 위치에 따른 물리효과 제공을 가능하게 한다. 이에 의해, 컨텐츠 제작자들의 저작 자유도를 극대화시킬 수 있다. In addition, in cases where multiple users use mobile-based HMDs, it prevents safety accidents caused by collisions between users, and enables the provision of physical effects according to clustering and location. This maximizes the creative freedom of content creators.
또한, 미들웨어의 도입을 통해 기존에 모바일 기반 HMD에 집중되었던 측위, 물리효과 생성 및 출력에 대한 컴퓨팅(computing) 리소스가 분산된다. 그에 따라, 전체적인 시스템의 구동 성능을 향상시킬 뿐만 아니라 모바일 기반 HMD의 처리 그래픽 수준을 향상시킬 수 있다.In addition, the introduction of middleware decentralizes computing resources for positioning, physical effect generation, and output, which were previously concentrated on mobile-based HMDs. Accordingly, not only can the operating performance of the overall system be improved, but the processing graphics level of the mobile-based HMD can also be improved.
도 1은 본 발명의 실시예에 따른 집단 물리 상호작용을 위한 시스템이 모바일 HMD 운용 공간에 채용된 예를 나타낸 도면이다.
도 2는 도 1에 도시된 모바일 HMD 및 미들웨어 장치의 내부 구성도이다.
도 3은 본 발명에서의 집단 물리 상호작용의 일 예를 설명하기 위한 도면으로서, 이탈집단의 사용자들에게 모바일 HMD를 통해 물리 효과를 전송하는 예를 설명하기 위한 도면이다.
도 4는 본 발명에서의 집단 물리 상호작용의 다른 예를 설명하기 위한 도면으로서, 이탈집단의 사용자들에게 비 HMD 효과 출력 단말을 통해 물리 효과를 전송하는 예를 설명하기 위한 도면이다.FIG. 1 is a drawing showing an example in which a system for group physical interaction according to an embodiment of the present invention is employed in a mobile HMD operating space.
Figure 2 is an internal configuration diagram of the mobile HMD and middleware device illustrated in Figure 1.
FIG. 3 is a drawing for explaining an example of group physical interaction in the present invention, and is a drawing for explaining an example of transmitting physical effects to users of a disengaged group through a mobile HMD.
FIG. 4 is a drawing for explaining another example of group physical interaction in the present invention, and is a drawing for explaining an example of transmitting a physical effect to users of a disengaged group through a non-HMD effect output terminal.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.The present invention may have various modifications and embodiments, and specific embodiments are illustrated in the drawings and described in detail.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, but should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is only used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this application, it should be understood that the terms "comprises" or "has" and the like are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms defined in commonly used dictionaries, such as those defined in common usage, should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and shall not be interpreted in an idealized or overly formal sense unless expressly defined in this application.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
Hereinafter, with reference to the attached drawings, a preferred embodiment of the present invention will be described in more detail. In order to facilitate an overall understanding in describing the present invention, the same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.
도 1은 본 발명의 실시예에 따른 집단 물리 상호작용을 위한 시스템이 모바일 HMD 운용 공간에 채용된 예를 나타낸 도면이고, 도 2는 도 1에 도시된 모바일 HMD 및 미들웨어 장치의 내부 구성도이다.FIG. 1 is a diagram showing an example in which a system for group physical interaction according to an embodiment of the present invention is employed in a mobile HMD operating space, and FIG. 2 is a diagram showing the internal configuration of the mobile HMD and middleware device shown in FIG. 1.
본 발명의 실시예에 따른 집단 물리 상호작용을 위한 시스템은 사용자 측위부(10), 모바일 HMD(40), 및 미들웨어 장치(50)를 포함할 수 있다.A system for group physical interaction according to an embodiment of the present invention may include a user positioning unit (10), a mobile HMD (40), and a middleware device (50).
집단 물리 상호작용을 위한 시스템은 모바일 HMD 운용 공간(60)에 설치될 수 있다.A system for group physical interaction can be installed in the mobile HMD operating space (60).
모바일 HMD 운용 공간(60)은 다수의 사용자가 동일한 실내/외 공간에서 각자 모바일 HMD(40)(즉, 모바일 기반 HMD)를 착용한 채 이용하게 되는 공간을 의미한다. 도 1에서는 편의상 사용자를 한 명만 도시하였고, 모바일 HMD(40)도 하나만을 도시하였다. 실제로는 다수의 사용자 및 다수개의 모바일 HMD(40)가 존재하는 것으로 이해하는 것이 좋다. The mobile HMD operating space (60) refers to a space where multiple users use the same indoor/outdoor space while each wearing a mobile HMD (40) (i.e., mobile-based HMD). In Fig. 1, only one user and only one mobile HMD (40) are illustrated for convenience. In reality, it is better to understand that multiple users and multiple mobile HMDs (40) exist.
사용자는 모바일 HMD 운용 공간(60)을 이용하며, 모바일 HMD(40) 및 비 HMD 사용자 입력 단말(30)을 포함하는 다중 모바일 HMD 운용 환경에서 가상현실 컨텐츠를 체감할 수 있는 사람을 의미한다.A user refers to a person who uses a mobile HMD operating space (60) and can experience virtual reality content in a multi-mobile HMD operating environment including a mobile HMD (40) and a non-HMD user input terminal (30).
모바일 HMD 운용 공간(60)에는 비 HMD 효과 출력 단말(20), 비 HMD 사용자 입력 단말(30), 및 집단 물리 상호작용을 위한 시스템(즉, 사용자 측위부(10)와 모바일 HMD(40) 및 미들웨어 장치(50)를 포함)이 구비될 수 있다. 물론, 비 HMD 효과 출력 단말(20) 및 비 HMD 사용자 입력 단말(30)이 집단 물리 상호작용을 위한 시스템에 포함되는 것으로 하여도 무방하다.The mobile HMD operating space (60) may be equipped with a non-HMD effect output terminal (20), a non-HMD user input terminal (30), and a system for group physical interaction (i.e., including a user positioning unit (10), a mobile HMD (40), and a middleware device (50)). Of course, the non-HMD effect output terminal (20) and the non-HMD user input terminal (30) may be included in the system for group physical interaction.
사용자 측위부(10)는 측위 단말(10a) 및 측위 정보 송신부(10b)를 구비하는 측위 단말로서, 모바일 HMD 운용 공간(60)내의 각각의 사용자를 측위(2차원 좌표로 측위)하게 된다.The user positioning unit (10) is a positioning terminal equipped with a positioning terminal (10a) and a positioning information transmitter (10b), and positions each user within the mobile HMD operating space (60) (positioning in two-dimensional coordinates).
측위 단말(10a)은 지그비(Zigbee), GPS 등의 방법을 통해 사용자를 측위할 수 있다. 측위 단말(10a)은 사용자의 측위 정보를 측위 정보 송신부(10b)에게로 전달하게 된다.The positioning terminal (10a) can position the user using a method such as Zigbee or GPS. The positioning terminal (10a) transmits the user's positioning information to the positioning information transmitter (10b).
측위 정보 송신부(10b)는 무선 통신 기술을 이용하여 미들웨어 장치(50)의 운용 환경 분석부(52) 내의 사용자 측위 정보 수신부(52a)에게로 사용자 측위 정보를 전달하게 된다.The positioning information transmitter (10b) transmits user positioning information to the user positioning information receiver (52a) in the operating environment analysis unit (52) of the middleware device (50) using wireless communication technology.
비 HMD 효과 출력 단말(20)은 모종의 물리 효과를 출력하는 단말이다. 비 HMD 효과 출력 단말(20)은 모바일 HMD(40) 내부의 부품을 이용한 물리 효과 출력을 행하지 않는 디바이스로서, 모바일 HMD(즉, 모바일 기반 HMD)(40) 이외의 디바이스이다. 다시 말해서, 비 HMD 효과 출력 단말(20)은 모바일 HMD 운용 공간(60)내에 비치된 모바일 HMD(40)가 아닌 별도의 효과 출력 단말(운동감, 후각 등의 효과 출력)을 의미한다. A non-HMD effect output terminal (20) is a terminal that outputs some kind of physical effect. A non-HMD effect output terminal (20) is a device that does not perform physical effect output using components inside a mobile HMD (40), and is a device other than a mobile HMD (i.e., a mobile-based HMD) (40). In other words, a non-HMD effect output terminal (20) means a separate effect output terminal (effect output such as sense of movement, sense of smell, etc.) other than a mobile HMD (40) placed in a mobile HMD operating space (60).
비 HMD 효과 출력 단말(20)은 인간의 오감에 상응하는 물리 효과를 사용자에게 제공할 수 있다. 여기서, 물리 효과는 특정 물리 효과만을 의미하는 것이 아니라, 오감 등을 포함한 모든 물리 효과(예컨대, 운동감, 후각 등의 효과)를 의미한다. 따라서, 비 HMD 효과 출력 단말(20)은 다양한 형태의 물리 효과를 출력할 수 있다. The non-HMD effect output terminal (20) can provide the user with physical effects corresponding to the five senses of a human being. Here, the physical effect does not mean only a specific physical effect, but all physical effects including the five senses (e.g., effects of movement, sense of smell, etc.). Therefore, the non-HMD effect output terminal (20) can output various types of physical effects.
비 HMD 효과 출력 단말(20)은 효과 수신부(20a), 및 효과 구동부(20b)를 포함한다. The non-HMD effect output terminal (20) includes an effect receiving unit (20a) and an effect driving unit (20b).
효과 수신부(20a)는 미들웨어 장치(50)에서 생성된 물리 효과 파일(즉, 비 HMD 효과 출력)을 수신받아 효과 구동부(20b)에게로 전달하는 역할을 수행한다.The effect receiving unit (20a) receives a physical effect file (i.e., non-HMD effect output) generated from the middleware device (50) and transmits it to the effect driving unit (20b).
효과 구동부(20b)는 효과 수신부(20a)를 통해 수신받은 모종의 물리 효과 파일에 따라 사용자가 체감할 수 있는 물리 효과를 출력한다. The effect driver (20b) outputs a physical effect that can be felt by the user according to a certain physical effect file received through the effect receiver (20a).
비 HMD 사용자 입력 단말(30)은 사용자가 모바일 HMD 운용 공간(60)에서 모바일 HMD(40)를 사용할 때 게임 엔진(41) 내의 가상현실 장면(42)과의 상호작용을 위한 입력을 제공할 수 있다. A non-HMD user input terminal (30) can provide input for interaction with a virtual reality scene (42) within a game engine (41) when a user uses a mobile HMD (40) in a mobile HMD operating space (60).
비 HMD 사용자 입력 단말(30)의 대표적 예로는 조이스틱, 모션 센싱 기능이 구비된 휴대용 단말 등이 있을 수 있다. Representative examples of non-HMD user input terminals (30) may include joysticks, portable terminals equipped with motion sensing functions, etc.
따라서, 사용자는 비 HMD 사용자 입력 단말(30)의 버튼 조작, 제스쳐(gesture)를 사용한 조작 등으로 가상현실 장면(42)의 커서(42a) 또는 오브젝트(42b)를 조작하거나 변형할 수 있다.Accordingly, the user can manipulate or modify the cursor (42a) or object (42b) of the virtual reality scene (42) by operating buttons on the non-HMD user input terminal (30), using gestures, etc.
모바일 HMD(40)(즉, 모바일 Head Mounted Display)는 모바일 HMD 운용 공간(60)에 존재하는 각각의 사용자가 머리에 착용하게 되는 신체 장착형 디스플레이이다. The mobile HMD (40) (i.e., mobile head mounted display) is a body-mounted display that each user in the mobile HMD operating space (60) wears on his or her head.
모바일 HMD(40)는 스마트폰과 같은 이동통신단말을 HMD에 거치하여 이용하게 된다. Mobile HMD (40) is used by mounting a mobile communication terminal such as a smartphone on the HMD.
모바일 HMD(40)는 미들웨어 장치(50)와 통신을 처리할 수 있다.The mobile HMD (40) can process communication with the middleware device (50).
모바일 HMD(40)는 가상현실 컨텐츠를 구동하는 게임 엔진(41), 데이터를 분석하는 미들웨어 통신 처리부(46), 비 HMD 사용자 입력 단말(30) 이외의 모바일 HMD(40)에 내장된 센서들에 의한 사용자 입력을 수신하는 사용자 입력 인지부(45), 및 미들웨어 통신 처리부(46)로부터 수신한 햅틱 효과를 운용하는 햅틱 운용부(44)를 포함한다. 본 발명의 실시예에서, 모바일 HMD(40)는 부속된 하드웨어와 소프트웨어를 모두 포함한 개념으로 제시된 것임을 감안하여야 한다.The mobile HMD (40) includes a game engine (41) that drives virtual reality content, a middleware communication processing unit (46) that analyzes data, a user input recognition unit (45) that receives user input by sensors built into the mobile HMD (40) other than a non-HMD user input terminal (30), and a haptic operation unit (44) that operates a haptic effect received from the middleware communication processing unit (46). It should be noted that in the embodiment of the present invention, the mobile HMD (40) is presented as a concept that includes both attached hardware and software.
게임 엔진(41)은 가상현실을 구동하는 데에 사용되는 물리 엔진이다. 다시 말해서, 게임 엔진(41)은 가상현실 장면(42) 및 가상현실 상호작용 인지부(43)를 구동하기 위한 운영체제(Operating System, OS) 상의 소프트웨어의 집합체로서, 모바일 HMD(40)에서의 모든 그래픽(화상)적 구동을 담당한다. 그 대표적인 예로는 유니티3D, 언리얼 엔진 등이 있다.The game engine (41) is a physics engine used to drive virtual reality. In other words, the game engine (41) is a collection of software on an operating system (OS) for driving a virtual reality scene (42) and a virtual reality interaction recognition unit (43), and is responsible for all graphic (image) operations in a mobile HMD (40). Representative examples include Unity 3D and Unreal Engine.
가상현실 장면(42)은 장면을 구성하는 배경 그래픽, 사용자 입력을 통해 조작이 가능한 2차원 및 3차원의 형태를 가지는 커서(42a), 및 커서(42a)와 상호작용이 가능하도록 생성된 2차원 및 3차원 형태의 오브젝트(42b)를 포함할 수 있다. A virtual reality scene (42) may include background graphics that compose the scene, a cursor (42a) having a two-dimensional and three-dimensional shape that can be manipulated through user input, and an object (42b) having a two-dimensional and three-dimensional shape that is created to enable interaction with the cursor (42a).
커서(42a)는 원형, 쐐기, 직선, 특정 도형 등의 형상을 취할 수 있으며, 2차원 상의 넓이만 가지는 것이 아니라 가상현실 장면(42)임을 감안하여 부피를 가질 수 있다(3차원).The cursor (42a) can take the shape of a circle, a wedge, a straight line, a specific shape, etc., and can have a volume (three dimensions) considering that it is a virtual reality scene (42) rather than just a two-dimensional area.
오브젝트(42b)는 커서(42a)와 상호작용하게 되는 가상현실 장면(42)내의 가상 물체이다. 오브젝트(42b)는 버튼 등의 인터페이스적 요소 또는 특정 입체/평면 도형 등의 일반적 물체 형상으로 보일 수 있다. 이는 가상현실의 그래픽을 저작하는 저작자의 재량에 따른 것으로서, 대부분의 가상현실 입체 저작물에 해당된다고 할 수 있다.The object (42b) is a virtual object within the virtual reality scene (42) that interacts with the cursor (42a). The object (42b) may appear as an interface element such as a button or a general object shape such as a specific three-dimensional/plane figure. This is at the discretion of the author who creates the virtual reality graphics, and can be said to apply to most virtual reality three-dimensional works.
가상현실 상호작용 인지부(43)는 가상현실 장면(42)과 함께 구동된다.The virtual reality interaction recognition unit (43) is operated together with the virtual reality scene (42).
가상현실 상호작용 인지부(43)는 가상현실 장면(42)내의 상호작용을 모니터링하는 상호작용 모니터링부(43a), 및 상호작용 모니터링부(43a)에서의 모니터링을 통해 추출된 상호작용 데이터를 미들웨어 통신 처리부(46)를 통해 햅틱 운용부(44)의 효과 입출력부(47)에게로 송신하는 상호작용 정보 송신부(43b)를 포함할 수 있다.The virtual reality interaction recognition unit (43) may include an interaction monitoring unit (43a) that monitors interactions within a virtual reality scene (42), and an interaction information transmission unit (43b) that transmits interaction data extracted through monitoring by the interaction monitoring unit (43a) to the effect input/output unit (47) of the haptic operation unit (44) through a middleware communication processing unit (46).
상호작용 모니터링부(43a)는 커서(42a)와 오브젝트(42b)간의 상호작용을 모니터링하고 인지한다. 여기서, 상호작용으로는 커서(42a)로 인한 오브젝트(42b)의 이동, 전환, 물리적 특성 변화 등이 있을 수 있다. The interaction monitoring unit (43a) monitors and recognizes the interaction between the cursor (42a) and the object (42b). Here, the interaction may include movement, transition, or change in physical characteristics of the object (42b) due to the cursor (42a).
상호작용 정보 송신부(43b)는 상호작용 모니터링부(43a)로부터의 상호작용 데이터를 미들웨어 통신 처리부(46)를 통해 햅틱 운용부(44)의 효과 입출력부(47)에게로 인가한다. 그에 따라, 효과 입출력부(47)는 수신한 상호작용 데이터에 따른 햅틱 효과를 출력한다. The interaction information transmitter (43b) applies interaction data from the interaction monitoring unit (43a) to the effect input/output unit (47) of the haptic operation unit (44) through the middleware communication processing unit (46). Accordingly, the effect input/output unit (47) outputs a haptic effect according to the received interaction data.
미들웨어 통신 처리부(46)는 해당 모바일 HMD(40)의 기본적 시스템 상태(예컨대, 배터리 상태, 운용 시간, 단말 내 온도 등) 데이터를 수집하여 미들웨어 장치(50)의 HMD 단말상태 수신부(56a)를 통해 HMD 단말상태 분석부(52c)에게로 송신할 수 있다. The middleware communication processing unit (46) can collect basic system status data (e.g., battery status, operating time, temperature within the terminal, etc.) of the mobile HMD (40) and transmit it to the HMD terminal status analysis unit (52c) through the HMD terminal status receiving unit (56a) of the middleware device (50).
미들웨어 통신 처리부(46)는 미들웨어 장치(50)로부터의 햅틱 효과 파일을 해당 모바일 HMD(40)의 햅틱 운용부(44)의 효과 입출력부(47)에게로 송신할 수 있다. 여기서, 미들웨어 장치(50)로부터의 햅틱 효과 파일은 2가지의 종류일 수 있다. 즉, 첫번째는 모바일 HMD 운용 공간(60)내의 각각의 모바일 HMD(40)의 시스템 정보(배터리 상태(잔량 정도), 가동 시간, 발열 상태, 쓰로틀링 특성 등)를 근거로 해당 모바일 HMD의 상태를 분석한 결과에 따른 햅틱 효과 파일일 수 있다. 두번째는 모바일 HMD 운용 공간(60)내의 각각의 모바일 HMD(40)의 사용자 측위 정보를 근거로 모바일 HMD 운용 공간(60)에 존재하는 다수 사용자의 군집도와 위치 및 이동 특성 등을 분석한 결과에 따른 햅틱 효과 파일일 수 있다.The middleware communication processing unit (46) can transmit a haptic effect file from the middleware device (50) to the effect input/output unit (47) of the haptic operation unit (44) of the corresponding mobile HMD (40). Here, the haptic effect file from the middleware device (50) can be of two types. That is, the first can be a haptic effect file according to the result of analyzing the status of the corresponding mobile HMD based on the system information (battery status (remaining amount), operating time, heat status, throttling characteristics, etc.) of each mobile HMD (40) in the mobile HMD operation space (60). The second can be a haptic effect file according to the result of analyzing the cluster map and location and movement characteristics of a plurality of users existing in the mobile HMD operation space (60) based on the user positioning information of each mobile HMD (40) in the mobile HMD operation space (60).
미들웨어 통신 처리부(46)는 상호작용 정보 송신부(43b)에서 출력되는 상호작용 데이터를 수신하여 햅틱 운용부(44)의 효과 입출력부(47)에게로 전달하여, 사용자 입력에 따른 햅틱 효과가 구동되도록 할 수 있다.The middleware communication processing unit (46) receives interaction data output from the interaction information transmitting unit (43b) and transmits it to the effect input/output unit (47) of the haptic operation unit (44), thereby enabling a haptic effect to be driven according to user input.
사용자 입력 인지부(45)는 비 HMD 사용자 입력 단말(30) 이외의 모바일 HMD(40)내에 내장된 입력 센서(45a)를 이용하여 사용자의 입력을 인지할 수 있다. 여기서, 입력 센서(45a)로는 카메라, 마이크, 자기장 센서, 가속도계 등이 있을 수 있다. The user input recognition unit (45) can recognize the user's input using an input sensor (45a) built into the mobile HMD (40) other than the non-HMD user input terminal (30). Here, the input sensor (45a) may include a camera, a microphone, a magnetic field sensor, an accelerometer, etc.
사용자 입력 인지부(45)에서 생성된 사용자 입력 데이터는 게임 엔진(41)으로 제공된다. 게임 엔진(41)의 커서(42a)가 사용자 입력 데이터에 따라 조작되고, 커서(42a)가 조작됨에 따라 가상현실 장면(42)내의 오브젝트(42b)가 상호작용을 하게 된다.User input data generated in the user input recognition unit (45) is provided to the game engine (41). The cursor (42a) of the game engine (41) is manipulated according to the user input data, and as the cursor (42a) is manipulated, objects (42b) within the virtual reality scene (42) interact with each other.
햅틱 운용부(44)는 미들웨어 통신 처리부(46)를 거쳐서 수신한 가상현실 상호작용 인지부(43)로부터의 상호작용 데이터에 상응하는 햅틱 효과를 출력하되, 사용자가 체감할 수 있는 형태로 출력한다.The haptic operation unit (44) outputs a haptic effect corresponding to the interaction data from the virtual reality interaction recognition unit (43) received through the middleware communication processing unit (46), but outputs it in a form that can be felt by the user.
햅틱 운용부(44)는 액추에이터 구동부(47a)를 포함하고 있는 효과 입출력부(47)를 포함한다.The haptic operating unit (44) includes an effect input/output unit (47) that includes an actuator driving unit (47a).
효과 입출력부(47)는 액추에이터 구동부(47a)의 구동 강도 및 패턴이 지정된 물리 효과 파일을 수신할 수 있다. 즉, 효과 입출력부(47)는 미들웨어 통신 처리부(46)에서 송신된 물리 효과 파일(예컨대, 햅틱 효과 파일)을 수신하고, 액추에이터 구동부(47a)가 원활히 햅틱 효과를 구동할 수 있는 형태로 물리 효과 파일을 변환하는 작업을 수행한다.The effect input/output unit (47) can receive a physical effect file in which the driving strength and pattern of the actuator driving unit (47a) are specified. That is, the effect input/output unit (47) receives a physical effect file (e.g., a haptic effect file) transmitted from the middleware communication processing unit (46) and performs the task of converting the physical effect file into a form in which the actuator driving unit (47a) can smoothly drive the haptic effect.
액추에이터 구동부(47a)는 해당 모바일 HMD(40)내에 구비된 액추에이터를 구동한다. 여기서, 해당 모바일 HMD(40)내에 구비된 액추에이터는 해당 모바일 HMD(40)에 탑재된 이동통신단말에 통상적으로 적용되는 리니어(linear) 액추에이터, 코인 액추에이터 등이 될 수 있다.The actuator driving unit (47a) drives an actuator equipped in the mobile HMD (40). Here, the actuator equipped in the mobile HMD (40) may be a linear actuator, a coin actuator, or the like, which are commonly applied to a mobile communication terminal mounted in the mobile HMD (40).
액추에이터 구동부(47a)는 햅틱 효과를 사용자가 체감할 수 있는 형태로 출력할 수 있다. 즉, 액추에이터 구동부(47a)는 액추에이터를 구동시킴으로써, 사용자가 햅틱 효과를 체감할 수 있게 한다.The actuator driving unit (47a) can output a haptic effect in a form that can be felt by the user. That is, the actuator driving unit (47a) enables the user to feel the haptic effect by driving the actuator.
미들웨어 장치(50)는 비 HMD 효과 출력 단말(20)과 비 HMD 사용자 입력 단말(30) 및 다수의 모바일 HMD(40)를 매개함으로서 각 단말의 데이터 처리 부하를 감소시키고, 통합 관리를 가능하게 한다. The middleware device (50) mediates a non-HMD effect output terminal (20), a non-HMD user input terminal (30), and a plurality of mobile HMDs (40), thereby reducing the data processing load of each terminal and enabling integrated management.
미들웨어 장치(50)는 비 HMD 효과 출력 단말(20), 비 HMD 사용자 입력 단말(30), 및 다수의 모바일 HMD(40)과는 별개의 단말(예컨대, PC 등)에 구비되어 운용된다.The middleware device (50) is equipped and operated on a terminal (e.g., a PC, etc.) separate from the non-HMD effect output terminal (20), the non-HMD user input terminal (30), and a plurality of mobile HMDs (40).
미들웨어 장치(50)는 모바일 HMD 통신부(51), 운용 환경 분석부(52), 운용 환경 라이브러리(53), 운용 환경 저작부(54), 및 비 HMD 효과 출력부(55)를 포함한다.The middleware device (50) includes a mobile HMD communication unit (51), an operating environment analysis unit (52), an operating environment library (53), an operating environment authoring unit (54), and a non-HMD effect output unit (55).
모바일 HMD 통신부(51)는 모바일 HMD 운용 공간(60)에 존재하는 각각의 모바일 HMD(40)와의 통신을 담당한다. 모바일 HMD 통신부(51)는 입출력부(56)를 포함한다.The mobile HMD communication unit (51) is responsible for communication with each mobile HMD (40) existing in the mobile HMD operating space (60). The mobile HMD communication unit (51) includes an input/output unit (56).
입출력부(56)는 HMD 단말상태를 수신하는 HMD 단말상태 수신부(56a), 및 물리 효과 파일(예컨대, 햅틱 효과 파일)을 송신하는 햅틱 효과 파일 송신부(56b)를 포함한다. 여기서, 햅틱 효과 파일 송신부(56b)는 본 발명의 특허청구범위에 기재된 파일 송신부의 일 예가 될 수 있다.The input/output unit (56) includes an HMD terminal status receiving unit (56a) that receives an HMD terminal status, and a haptic effect file transmitting unit (56b) that transmits a physical effect file (e.g., a haptic effect file). Here, the haptic effect file transmitting unit (56b) may be an example of a file transmitting unit described in the patent claims of the present invention.
HMD 단말상태 수신부(56a)는 각각의 모바일 HMD(40)의 시스템 정보(예컨대, 배터리 상태, 가동 시간, 발열 상태, 쓰로틀링 특성 등)를 미들웨어 통신 처리부(46)로부터 수신하게 된다. The HMD terminal status receiving unit (56a) receives system information (e.g., battery status, operating time, heat status, throttling characteristics, etc.) of each mobile HMD (40) from the middleware communication processing unit (46).
HMD 단말상태 수신부(56a)는 수신한 각각의 모바일 HMD(40)의 시스템 정보를 운용 환경 분석부(52)의 HMD 단말상태 분석부(52c)에게로 보낸다.The HMD terminal status receiving unit (56a) sends the system information of each received mobile HMD (40) to the HMD terminal status analysis unit (52c) of the operating environment analysis unit (52).
햅틱 효과 파일 송신부(56b)는 운용 환경 분석부(52)에서 생성된 햅틱 효과 파일(즉, 물리 효과 파일)을 모바일 HMD(40)의 미들웨어 통신 처리부(46)를 통해 햅틱 운용부(44)에게로 송신한다. 여기서, 운용 환경 분석부(52)에서 생성된 햅틱 효과 파일은 사용자 군집/위치/특성 분석부(52b) 및 HMD 단말상태 분석부(52c)에서 각각 생성될 수 있다.The haptic effect file transmission unit (56b) transmits the haptic effect file (i.e., physical effect file) generated by the operating environment analysis unit (52) to the haptic operation unit (44) through the middleware communication processing unit (46) of the mobile HMD (40). Here, the haptic effect file generated by the operating environment analysis unit (52) can be generated by the user group/location/characteristic analysis unit (52b) and the HMD terminal status analysis unit (52c), respectively.
운용 환경 분석부(52)는 모바일 HMD(40)가 사용자에 의해 모바일 HMD 운용 공간(60)에서 운용되고 있는 환경을 분석하고, 분석 결과에 따라 모바일 HMD(40) 및/또는 비 HMD 효과 출력 단말(20)에서 구동할 물리 효과 파일(예컨대, 햅틱 효과 파일)을 생성한다.The operating environment analysis unit (52) analyzes the environment in which the mobile HMD (40) is being operated by the user in the mobile HMD operating space (60), and generates a physical effect file (e.g., a haptic effect file) to be operated in the mobile HMD (40) and/or non-HMD effect output terminal (20) based on the analysis results.
운용 환경 분석부(52)는 사용자 측위 정보 수신부(52a), 사용자 군집/위치/특성 분석부(52b), 및 HMD 단말상태 분석부(52c)를 포함한다.The operating environment analysis unit (52) includes a user positioning information receiving unit (52a), a user cluster/location/characteristics analysis unit (52b), and an HMD terminal status analysis unit (52c).
사용자 측위 정부 수신부(52a)는 사용자 측위부(10)에서 생성된 측위 정보를 수신받아 사용자 군집/위치/특성 분석부(52b)에게로 전달한다.The user positioning government receiving unit (52a) receives the positioning information generated by the user positioning unit (10) and transmits it to the user cluster/location/characteristics analysis unit (52b).
사용자 군집/위치/특성 분석부(52b)에서는 사용자 측위 정부 수신부(52a)로부터의 측위 정보를 근거로 다수 사용자의 군집도, 위치, 이동 특성(패턴) 등을 분석하여, 사전 설정 조건에 부합하는 물리 효과 파일(예컨대, 햅틱 효과 파일)을 생성하게 된다. 여기서, 사전 설정 조건은 모바일 HMD 운용 공간(60)내의 특정 군집도, 특정 위치, 특정 이동 특성을 의미한다. The user cluster/location/characteristic analysis unit (52b) analyzes clusters, locations, movement characteristics (patterns), etc. of multiple users based on positioning information from the user positioning government receiving unit (52a), and generates a physical effect file (e.g., a haptic effect file) that meets preset conditions. Here, the preset conditions mean specific clusters, specific locations, and specific movement characteristics within the mobile HMD operating space (60).
사용자 군집/위치/특성 분석부(52b)에서 생성된 물리 효과 파일은 모바일 HMD(40) 및/또는 비 HMD 효과 출력 단말(20)에게로 전달되며, 사용자가 체감하게 된다.The physical effect file generated in the user cluster/location/characteristic analysis unit (52b) is transmitted to the mobile HMD (40) and/or non-HMD effect output terminal (20), and is experienced by the user.
HMD 단말상태 분석부(52c)는 HMD 단말상태 수신부(56a)에 수신된 모바일 HMD(40)의 시스템 정보(배터리 상태, 가동 시간, 발열 상태, 쓰로틀링 특성 등)를 바탕으로 해당 모바일 HMD(40)의 상태를 분석한다. 그리고, HMD 단말상태 분석부(52c)는 사용자가 인지할 수 있도록 햅틱 효과 파일 송신부(56b)를 통해 해당 모바일 HMD(40)에게로 특정 물리 효과 파일을 송신한다. 이는 다중 사용자 환경의 모바일 HMD(40) 구동 중의 안전사고 또는 사용상의 불편을 방지하기 위한 것으로서, 사용자에게 관련 정보를 사전에 체감이 가능한 형태로 제공하고자 함이다.The HMD terminal status analysis unit (52c) analyzes the status of the corresponding mobile HMD (40) based on the system information (battery status, operating time, heat status, throttling characteristics, etc.) of the mobile HMD (40) received by the HMD terminal status receiving unit (56a). Then, the HMD terminal status analysis unit (52c) transmits a specific physical effect file to the corresponding mobile HMD (40) through the haptic effect file transmitting unit (56b) so that the user can recognize it. This is to prevent safety accidents or inconveniences in use while the mobile HMD (40) is being operated in a multi-user environment, and to provide the user with related information in a form that can be experienced in advance.
다시 말해서, HMD 단말상태 분석부(52c)는 각각의 모바일 HMD(40)의 시스템 정보를 분석하여 그에 따라 각각의 모바일 HMD(40)에 맞는 특정 물리 효과 파일을 송신할 수 있다. 즉, HMD 단말상태 분석부(52c)는 각각의 모바일 HMD(40)의 시스템 정보를 바탕으로 상태를 분석하여 해당 모바일 HMD(40)에 특정 물리 효과 파일을 송신한다. 여기서, 물리 효과 파일은 액추에이터의 구동을 위한 햅틱 효과 패턴이 포함된 파일(진동 강도도 포함)을 의미할 수 있다. 모바일 HMD(40)의 시스템 정보는 배터리 잔량, 과열 등의 정보를 의미할 수 있는데, 이러한 각 모바일 HMD(40)의 시스템 정보에 따라 상이한 햅틱 효과 파일이 모바일 HMD 통신부(51)를 거쳐 해당 모바일 HMD(40)에게로 전송될 수 있다.In other words, the HMD terminal status analysis unit (52c) can analyze the system information of each mobile HMD (40) and transmit a specific physical effect file suitable for each mobile HMD (40) accordingly. That is, the HMD terminal status analysis unit (52c) analyzes the status based on the system information of each mobile HMD (40) and transmits a specific physical effect file to the corresponding mobile HMD (40). Here, the physical effect file may mean a file including a haptic effect pattern for driving an actuator (including vibration intensity). The system information of the mobile HMD (40) may mean information such as remaining battery level and overheating, and different haptic effect files may be transmitted to the corresponding mobile HMD (40) through the mobile HMD communication unit (51) according to the system information of each mobile HMD (40).
결국, 운용 환경 분석부(52)는 모바일 HMD 운용 공간(60)내의 각각의 모바일 HMD(40)가 모바일 HMD 운용 공간(60)에서 운용되고 있는 환경을 분석한다. 그리고, 운용 환경 분석부(52)는 분석 결과에 따라 물리 효과 파일(예컨대, 햅틱 효과 파일)을 제공할 모바일 HMD를 선정하고, 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성할 수 있다. 여기서, 환경 분석이라 함은 각각의 모바일 HMD의 시스템 정보(배터리 상태(잔량 정도), 가동 시간, 발열 상태, 쓰로틀링 특성 등)를 근거로 해당 모바일 HMD의 상태를 분석하는 것을 의미한다. 또한, 환경 분석이라 함은 각각의 모바일 HMD(40)의 사용자 측위 정보를 근거로 모바일 HMD 운용 공간(60)에 존재하는 다수 사용자의 군집도와 위치 및 이동 특성 등을 분석하는 것을 의미할 수도 있다. 왜냐하면, 운용 환경 분석부(52)는 각각의 모바일 HMD(40)의 시스템 정보를 근거로 하는 분석 및 사용자 측위 정보를 근거로 하는 분석을 모두 행할 수 있기 때문이다.Finally, the operating environment analysis unit (52) analyzes the environment in which each mobile HMD (40) in the mobile HMD operating space (60) is being operated in the mobile HMD operating space (60). Then, the operating environment analysis unit (52) selects a mobile HMD to provide a physical effect file (e.g., a haptic effect file) based on the analysis result, and can generate a physical effect file to be provided to the selected mobile HMD. Here, the environmental analysis means analyzing the status of each mobile HMD based on the system information (battery status (remaining amount), operating time, heat status, throttling characteristics, etc.) of each mobile HMD. In addition, the environmental analysis may also mean analyzing the clustering map and location and movement characteristics of multiple users existing in the mobile HMD operating space (60) based on the user positioning information of each mobile HMD (40). This is because the operating environment analysis unit (52) can perform both analysis based on system information of each mobile HMD (40) and analysis based on user positioning information.
운용 환경 라이브러리(53)는 사용자 군집/위치/특성 분석부(52b)가 사용자 측위 정보를 분석할 때 요구되어지는 사전 저작된 맵핑 정보를 제공한다. 맵핑 정보는 모바일 HMD 운용 공간(60) 내의 특정 위치에서의 물리 효과의 발현, 특정 군집도에서의 물리 효과의 발현 등을 위치에 따라 사전 설정할 수 있다.The operating environment library (53) provides pre-written mapping information required when the user cluster/location/characteristic analysis unit (52b) analyzes user positioning information. The mapping information can preset the occurrence of physical effects at specific locations within the mobile HMD operating space (60), the occurrence of physical effects at specific clusters, etc. according to location.
운용 환경 저작부(54)는 운용 환경 라이브러리(53)의 맵핑 정보를 생성하고, 매핑 정보에 부속될 물리 효과를 저작할 수 있다.The operating environment authoring unit (54) can create mapping information of the operating environment library (53) and author physical effects to be attached to the mapping information.
운용 환경 저작부(54)는 맵핑부(54a), 및 햅틱 저작부(54b)를 포함한다.The operating environment authoring unit (54) includes a mapping unit (54a) and a haptic authoring unit (54b).
맵핑부(54a)는 모바일 HMD 운용 공간(60)내의 특정 위치에서의 물리 효과의 발현, 특정 군집도에서의 물리 효과의 발현 등을 위치에 따라 사전 설정하고, 사전 설정된 정보를 근거로 맵핑 정보를 생성한다.The mapping unit (54a) presets the occurrence of physical effects at specific locations within the mobile HMD operating space (60), the occurrence of physical effects at specific clusters, etc. according to location, and generates mapping information based on the preset information.
햅틱 저작부(54b)는 맵핑 정보에 부속될 물리 효과인 햅틱 효과의 패턴, 강도, 지속시간 등을 저작한다.The haptic authoring unit (54b) authores the pattern, intensity, duration, etc. of the haptic effect, which is a physical effect to be attached to the mapping information.
비 HMD 효과 출력부(55)는 사용자 군집/위치/특성 분석부(52b)로부터 사용자의 운동 및 군집 특성에 따라 생성된 물리 효과 파일을 수신하고, 수신한 물리 효과 파일을 비 HMD 효과 출력 단말(20)을 구동하기 위한 효과 파일로서 출력한다.The non-HMD effect output unit (55) receives a physical effect file generated according to the user's movement and group characteristics from the user group/location/characteristic analysis unit (52b), and outputs the received physical effect file as an effect file for driving the non-HMD effect output terminal (20).
상술한 바와 같이 구성된 본 발명의 실시예는, 모바일 HMD(40)에 삽입되는 스마트폰 단말에 구비된 진동 액추에이터를 이용하여 더욱더 예측가능한 사용자 인터페이스를 제공할 수 있다. 여기서, 예측가능한 인터페이스는 인터페이스 자체에 별도의 설명이 없어도 어떠한 동작을 사용자가 할 시에 시스템이 어떠한 방식으로 동작할 것인가를 모종의 매개를 통해서 예측할 수 있는 인터페이스를 의미한다. 일반적으로, 예측가능성이 높은 인터페이스일수록 우수한 사용자경험을 제공한다.The embodiment of the present invention configured as described above can provide a more predictable user interface by using a vibration actuator equipped in a smart phone terminal inserted into a mobile HMD (40). Here, a predictable interface means an interface that can predict how the system will operate when a user performs a certain operation through some kind of medium without a separate explanation of the interface itself. In general, an interface with high predictability provides a superior user experience.
또한, 사용자 측위부(10) 및 미들웨어 장치(50)를 통해 다중 사용자의 모바일 HMD 이용 상황에서의 활용성을 극대화할 수 있다. 즉, 종래에는 다수의 사용자가 모바일 HMD(40)를 이용하는 경우에 있어서 상호간의 충돌 등에 의한 안전사고가 잦고(눈을 HMD로 가리므로), 군집도 및 위치에 따른 물리효과 제공이 불가하였으나, 본 발명의 실시예에서는 사용자 측위부(10) 및 미들웨어 장치(50)를 도입함으로써 이를 해결할 수 있다.In addition, the usability in a multi-user mobile HMD usage situation can be maximized through the user positioning unit (10) and the middleware device (50). That is, in the past, when multiple users used the mobile HMD (40), safety accidents due to collisions between each other were frequent (because their eyes were covered by the HMD), and it was impossible to provide physical effects according to clustering and location, but in the embodiment of the present invention, this can be solved by introducing the user positioning unit (10) and the middleware device (50).
또한, 미들웨어 장치(50)의 도입을 통해 기존에 모바일 HMD에 집중되었던 측위, 물리효과 생성 및 출력에 대한 컴퓨팅(computing) 리소스가 분산되어, 전체적인 시스템의 구동 성능을 향상시킬 수 있다.
In addition, through the introduction of a middleware device (50), computing resources for positioning, physical effect generation, and output, which were previously focused on the mobile HMD, are distributed, thereby improving the operating performance of the overall system.
도 3은 본 발명에서의 집단 물리 상호작용의 일 예를 설명하기 위한 도면으로서, 이탈집단의 사용자들에게 모바일 HMD를 통해 물리 효과를 전송하는 예를 설명하기 위한 도면이다.FIG. 3 is a drawing for explaining an example of group physical interaction in the present invention, and is a drawing for explaining an example of transmitting physical effects to users of a disengaged group through a mobile HMD.
도 3에서는 모바일 HMD 운용 공간(60)내의 다수의 사용자를 두 집단(즉, 모집단(101), 이탈집단(102))으로 분리하여 구성하였다.In Fig. 3, a number of users within the mobile HMD operating space (60) are divided into two groups (i.e., the population group (101) and the exit group (102)).
가상현실 장면(42) 상의 상황은 멀티-유저 워 게임(multi-user war game)이라고 상정하고, 모집단(101)에서 아군 부대가 이탈하여 움직이는 장면을 상정한다.The situation in the virtual reality scene (42) is assumed to be a multi-user war game, and a scene is assumed in which friendly units break away from the population (101) and move.
모바일 HMD 운용 공간(60) 내의 사용자들은 각각 모바일 HMD(40)를 착용하고 있는 것으로 상정한다.It is assumed that each user within the mobile HMD operating space (60) is wearing a mobile HMD (40).
결국, 도 3은 모집단(101)에서 이탈집단(102)이 생긴 상황을 상정한 것으로서, 이탈집단(102)의 사용자들의 모바일 HMD(40)에 물리 효과 파일(예컨대, 햅틱 효과 파일)을 전송하게 된다. 즉, 사용자 측위, 파일 전송, 효과 출력은 하기와 같이 실시된다.Finally, Fig. 3 assumes a situation in which a group (102) is created in a population (101), and a physical effect file (e.g., a haptic effect file) is transmitted to the mobile HMD (40) of users of the group (102). That is, user positioning, file transmission, and effect output are performed as follows.
먼저, 모바일 HMD 운용 공간(60)내의 사용자 측위부(10)가 사용자 집단(즉, 모집단(101) 및 이탈집단(102))을 측위한다. First, the user positioning unit (10) within the mobile HMD operating space (60) positions the user group (i.e., the population (101) and the exit group (102)).
그에 따라, 사용자 측위부(10)에서 생성된 측위 정보(즉, 모집단(101)의 사용자 측위 정보 및 이탈집단(102)의 사용자 측위 정보)는 통신환경(103)을 통해 미들웨어 장치(50)에게로 전송된다. 여기서, 미들웨어 장치(50)는 미들웨어 운용 시스템 하드웨어(100)에 저장된 것으로 한다. Accordingly, the positioning information generated in the user positioning unit (10) (i.e., the user positioning information of the population (101) and the user positioning information of the departure group (102)) is transmitted to the middleware device (50) through the communication environment (103). Here, the middleware device (50) is assumed to be stored in the middleware operating system hardware (100).
미들웨어 장치(50)는 수신한 측위 정보(즉, 모집단(101)의 사용자 측위 정보 및 이탈집단(102)의 사용자 측위 정보)를 분석함으로써, 모집단(101)과 이탈집단(102)이 발생하였음을 인지하게 된다. 다시 말해서, 미들웨어 장치(50)의 운용 환경 분석부(52)의 사용자 군집/위치/특성 분석부(52b)는 사용자 측위 정보 수신부(52a)로부터의 측위 정보(즉, 모집단(101)의 사용자 측위 정보 및 이탈집단(102)의 사용자 측위 정보)를 근거로 다수 사용자의 군집도, 위치, 이동 특성 등을 분석한다. 이러한 분석에 의해, 사용자 군집/위치/특성 분석부(52b)는 모집단(10)의 위치와 해당 구성원의 수 및 해당 구성원의 위치 등을 파악하고, 이탈집단(102)의 위치와 해당 구성원의 수 및 해당 구성원의 위치 등을 파악할 수 있다. 사용자 군집/위치/특성 분석부(52b)는 모집단(101)과 이탈집단(102)중에서 구성원의 수가 보다 많은 집단을 모집단으로 추정할 수 있다.The middleware device (50) recognizes that the population (101) and the departing group (102) have occurred by analyzing the received positioning information (i.e., the user positioning information of the population (101) and the user positioning information of the departing group (102)). In other words, the user cluster/location/characteristic analysis unit (52b) of the operating environment analysis unit (52) of the middleware device (50) analyzes the clustering, location, movement characteristics, etc. of multiple users based on the positioning information from the user positioning information receiving unit (52a) (i.e., the user positioning information of the population (101) and the user positioning information of the departing group (102)). Through this analysis, the user cluster/location/characteristic analysis unit (52b) can identify the location of the population (10), the number of its members, the locations of its members, etc., and the location of the departing group (102), the number of its members, the locations of its members, etc. The user cluster/location/characteristic analysis unit (52b) can estimate the group with a larger number of members among the population (101) and the outgoing group (102) as the population.
이후, 미들웨어 장치(50)는 이탈집단(102)에 대하여 모집단(101)으로의 복귀를 유도하는 메시지와 물리 효과 파일(즉, 햅틱 효과 파일)을 이탈집단(102)의 사용자들의 모바일 HMD(40)에게로 전달하게 된다. 다시 말해서, 미들웨어 장치(50)의 사용자 군집/위치/특성 분석부(52b)는 모집단(101)으로의 복귀를 유도하는 메시지 및 햅틱 패턴을 생성하고, 생성한 메시지 및 햅틱 패턴을 입출력부(51)를 통해 이탈집단(102)의 사용자들의 모바일 HMD(40)에게로 전송한다. Thereafter, the middleware device (50) transmits a message and a physical effect file (i.e., a haptic effect file) for inducing the return of the leaving group (102) to the mobile HMD (40) of the users of the leaving group (102). In other words, the user cluster/location/characteristic analysis unit (52b) of the middleware device (50) generates a message and a haptic pattern for inducing the return of the group (101), and transmits the generated message and haptic pattern to the mobile HMD (40) of the users of the leaving group (102) through the input/output unit (51).
이와 같이 하면, 이탈집단(102)의 사용자들의 모바일 HMD(40)의 미들웨어 통신 처리부(46)에 수신된 모집단(101)으로의 복귀를 유도하는 햅틱 패턴은 햅틱 운용부(44)의 효과 입출력부(47)를 통해 출력된다. 그리고, 미들웨어 통신 처리부(46)에 수신된 모집단(101)으로의 복귀를 유도하는 메시지는 가상현실 장면(42)에 팝업 형태로 디스플레이될 수 있다.In this way, the haptic pattern that induces the return to the population (101) received by the middleware communication processing unit (46) of the mobile HMD (40) of the users of the departure group (102) is output through the effect input/output unit (47) of the haptic operation unit (44). In addition, the message that induces the return to the population (101) received by the middleware communication processing unit (46) can be displayed in the form of a pop-up in the virtual reality scene (42).
이에 의해, 이탈집단(102)의 사용자들은 모집단(101)으로 복귀할 수 있게 된다.
By this, users of the leaving group (102) can return to the population (101).
도 4는 본 발명에서의 집단 물리 상호작용의 다른 예를 설명하기 위한 도면으로서, 이탈집단의 사용자들에게 비HMD 효과 출력 단말을 통해 물리 효과를 전송하는 예를 설명하기 위한 도면이다.FIG. 4 is a drawing for explaining another example of group physical interaction in the present invention, and is a drawing for explaining an example of transmitting a physical effect to users of a disengaged group through a non-HMD effect output terminal.
도 4에서는 모바일 HMD 운용 공간(60)내의 다수의 사용자를 두 집단(즉, 모집단(101), 이탈집단(102))으로 분리하여 구성하였다.In Fig. 4, a number of users within the mobile HMD operating space (60) are divided into two groups (i.e., the population group (101) and the exit group (102)).
가상현실 장면(42) 상의 상황은 멀티-유저 워 게임(multi-user war game)이라고 상정하고, 모집단(101)에서 아군 부대가 이탈하여 움직이는 장면을 상정한다.The situation in the virtual reality scene (42) is assumed to be a multi-user war game, and a scene is assumed in which friendly units break away from the population (101) and move.
모바일 HMD 운용 공간(60) 내의 사용자들은 각각 모바일 HMD(40)를 착용하고 있는 것으로 상정한다.It is assumed that each user within the mobile HMD operating space (60) is wearing a mobile HMD (40).
결국, 도 4는 모집단(101)에서 이탈집단(102)이 생긴 상황을 상정한 것으로서, 이탈집단(102)과 최단거리에 위치한 비 HMD 효과 출력 단말(20)에 모종의 물리 효과 파일을 전송하게 된다. 즉, 사용자 측위, 파일 전송, 효과 출력은 하기와 같이 실시된다.Finally, Fig. 4 assumes a situation in which a group (102) is created in a population (101), and a physical effect file of some kind is transmitted to a non-HMD effect output terminal (20) located at the shortest distance from the group (102). That is, user positioning, file transmission, and effect output are performed as follows.
먼저, 모바일 HMD 운용 공간(60)내의 사용자 측위부(10)가 사용자 집단(즉, 모집단(101) 및 이탈집단(102))을 측위한다. First, the user positioning unit (10) within the mobile HMD operating space (60) positions the user group (i.e., the population (101) and the exit group (102)).
그에 따라, 사용자 측위부(10)에서 생성된 측위 정보(즉, 모집단(101)의 사용자 측위 정보 및 이탈집단(102)의 사용자 측위 정보)는 통신환경(103)을 통해 미들웨어 장치(50)에게로 전송된다. 여기서, 미들웨어 장치(50)는 미들웨어 운용 시스템 하드웨어(100)에 저장된 것으로 한다. Accordingly, the positioning information generated in the user positioning unit (10) (i.e., the user positioning information of the population (101) and the user positioning information of the departure group (102)) is transmitted to the middleware device (50) through the communication environment (103). Here, the middleware device (50) is assumed to be stored in the middleware operating system hardware (100).
미들웨어 장치(50)는 수신한 측위 정보(즉, 모집단(101)의 사용자 측위 정보 및 이탈집단(102)의 사용자 측위 정보)를 분석함으로써, 모집단(101)과 이탈집단(102)이 발생하였음을 인지하게 된다. 다시 말해서, 미들웨어 장치(50)의 운용 환경 분석부(52)의 사용자 군집/위치/특성 분석부(52b)는 사용자 측위 정보 수신부(52a)로부터의 측위 정보(즉, 모집단(101)의 사용자 측위 정보 및 이탈집단(102)의 사용자 측위 정보)를 근거로 다수 사용자의 군집도, 위치, 이동 특성 등을 분석한다. 이러한 분석에 의해, 사용자 군집/위치/특성 분석부(52b)는 모집단(10)의 위치와 해당 구성원의 수 및 해당 구성원의 위치 등을 파악하고, 이탈집단(102)의 위치와 해당 구성원의 수 및 해당 구성원의 위치 등을 파악할 수 있다. 사용자 군집/위치/특성 분석부(52b)는 모집단(101)과 이탈집단(102)중에서 구성원의 수가 보다 많은 집단을 모집단으로 추정할 수 있다.The middleware device (50) recognizes that the population (101) and the departing group (102) have occurred by analyzing the received positioning information (i.e., the user positioning information of the population (101) and the user positioning information of the departing group (102)). In other words, the user cluster/location/characteristic analysis unit (52b) of the operating environment analysis unit (52) of the middleware device (50) analyzes the clustering, location, movement characteristics, etc. of multiple users based on the positioning information from the user positioning information receiving unit (52a) (i.e., the user positioning information of the population (101) and the user positioning information of the departing group (102)). Through this analysis, the user cluster/location/characteristic analysis unit (52b) can identify the location of the population (10), the number of its members, the locations of its members, etc., and the location of the departing group (102), the number of its members, the locations of its members, etc. The user cluster/location/characteristic analysis unit (52b) can estimate the group with a larger number of members among the population (101) and the outgoing group (102) as the population.
이후, 미들웨어 장치(50)는 이탈집단(102)에 대하여 모집단(101)으로의 복귀를 유도하는 메시지와 물리 효과 파일(예컨대, 햅틱 효과 파일)을 이탈집단(102)과 최단거리에 위치한 비 HMD 효과 출력 단말(20)에게로 전달하게 된다. 다시 말해서, 미들웨어 장치(50)의 사용자 군집/위치/특성 분석부(52b)는 모집단(101)으로의 복귀를 유도하는 메시지 및 물리 효과 파일을 생성하고, 생성한 메시지 및 물리 효과 파일을 비 HMD 효과 출력부(55)를 통해 비 HMD 효과 출력 단말(20)에게로 전송한다. Thereafter, the middleware device (50) transmits a message and a physical effect file (e.g., a haptic effect file) for inducing the return of the leaving group (102) to the population (101) to the non-HMD effect output terminal (20) located at the shortest distance from the leaving group (102). In other words, the user cluster/location/characteristic analysis unit (52b) of the middleware device (50) generates a message and a physical effect file for inducing the return of the population (101), and transmits the generated message and the physical effect file to the non-HMD effect output terminal (20) through the non-HMD effect output unit (55).
이에 의해, 비 HMD 효과 출력 단말(20)은 이탈집단(102)의 사용자들에게 메시지 및 소정의 물리 효과를 제공하게 된다. 그에 따라, 이탈집단(102)의 사용자들은 모집단(101)으로 복귀할 수 있게 된다.
By this, the non-HMD effect output terminal (20) provides a message and a predetermined physical effect to users of the leaving group (102). Accordingly, users of the leaving group (102) can return to the population (101).
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms have been used herein, they have been used only for the purpose of describing the present invention and have not been used to limit the meaning or the scope of the present invention described in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Accordingly, the true technical protection scope of the present invention should be determined by the technical idea of the appended claims.
10 : 사용자 측위부 10a : 측위 단말
10b : 측위 정보 송신부 20 : 비 HMD 효과 출력 단말
20a : 효과 수신부 20b : 효과 구동부
30 : 비 HMD 사용자 입력 단말
40 : 모바일 HMD 41 : 게임 엔진
42 : 가상현실 장면 43 : 가상현실 상호작용 인지부
44 : 햅틱 운용부 45 : 사용자 입력 인지부
46 : 미들웨어 통신 처리부 47 : 효과 입출력부
50 : 미들웨어 장치 51 : 모바일 HMD 통신부
52 : 운용 환경 분석부 53 : 운용 환경 라이브러리
54 : 운용 환경 저작부 55 : 비 HMD 효과 출력부
56 : 입출력부10:
10b: Positioning information transmitter 20: Non-HMD effect output terminal
20a:
30: Non-HMD user input terminal
40: Mobile HMD 41: Game Engine
42: Virtual Reality Scene 43: Virtual Reality Interaction Cognitive Unit
44: Haptic operation unit 45: User input recognition unit
46: Middleware communication processing unit 47: Effect input/output unit
50: Middleware device 51: Mobile HMD communication unit
52: Operational Environment Analysis Department 53: Operational Environment Library
54: Operating environment authoring section 55: Non-HMD effect output section
56 : Input/output section
Claims (20)
상기 각각의 모바일 HMD가 상기 모바일 HMD 운용 공간에서 운용되고 있는 환경을 분석하고, 상기 분석의 결과에 따라 물리 효과 파일을 제공할 모바일 HMD를 선정하고, 상기 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 운용 환경 분석부; 를 포함하되,
상기 운용 환경 분석부는,
상기 모바일 HMD 운용 공간내의 사용자 측위부로부터의 측위 정보를 수신하는 사용자 측위 정보 수신부;
상기 측위 정보를 근거로 상기 모바일 HMD 운용 공간에 존재하는 다수 사용자의 군집도와 위치 및 이동 특성을 분석하여, 상기 물리 효과 파일을 제공할 모바일 HMD를 선정하고, 상기 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 사용자 군집/위치/특성 분석부; 및
상기 각각의 모바일 HMD의 시스템 정보를 바탕으로 각각의 모바일 HMD의 상태를 분석하여, 상기 각각의 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 HMD 단말상태 분석부; 를 포함하되,
상기 모바일 HMD의 시스템 정보는, 배터리 잔량, 가동 시간, 발열 상태, 쓰로틀링 특성이고,
상기 물리 효과 파일은, 상기 모바일 HMD에 구비된 액추에이터의 구동을 위한 햅틱 효과 패턴이 포함된 파일이며,
상기 사용자 군집/위치/특성 분석부는,
상기 모바일 HMD 운용 공간내의 사용자들이 모집단 및 이탈집단으로 분리된 경우, 상기 모바일 HMD 운용 공간내의 사용자 측위부로부터의 측위 정보를 분석하여 상기 모집단 및 상기 이탈집단을 인지하고, 상기 이탈집단에 대하여 상기 모집단으로의 복귀를 유도하는 물리 효과 파일을 비 HMD 효과 출력부를 통해 상기 이탈집단과 최단거리에 위치한 비 HMD 효과 출력 단말에게로 전달하되,
상기 모집단 및 상기 이탈집단을 인지할 때,
상기 모집단의 위치와 해당 구성원의 수 및 해당 구성원의 위치를 파악하며,
상기 이탈집단의 위치와 해당 구성원의 수 및 해당 구성원의 위치를 파악하고,
상기 모집단과 상기 이탈집단 중에서 구성원의 수가 많은 집단을 모집단으로 추정하는 것을 특징으로 하는 집단 물리 상호작용을 위한 미들웨어 장치.A mobile HMD communication unit that performs communication with each mobile HMD existing in the mobile HMD operating space; and
An operating environment analysis unit that analyzes the environment in which each of the above mobile HMDs is operated in the mobile HMD operating space, selects a mobile HMD to provide a physical effect file based on the results of the analysis, and generates a physical effect file to be provided to the selected mobile HMD; including,
The above operating environment analysis department is,
A user positioning information receiving unit that receives positioning information from a user positioning unit within the above mobile HMD operating space;
A user cluster/location/characteristics analysis unit that analyzes the cluster map and location and movement characteristics of multiple users existing in the mobile HMD operating space based on the above positioning information, selects a mobile HMD to provide the physical effect file, and generates a physical effect file to be provided to the selected mobile HMD; and
An HMD terminal status analysis unit that analyzes the status of each mobile HMD based on the system information of each of the above mobile HMDs and generates a physical effect file to be provided to each of the above mobile HMDs; including:
The system information of the above mobile HMD is battery level, operating time, heat status, and throttling characteristics.
The above physical effect file is a file containing a haptic effect pattern for driving an actuator equipped in the mobile HMD.
The above user cluster/location/characteristics analysis section,
When users in the above mobile HMD operating space are divided into a population group and a departure group, the population group and the departure group are recognized by analyzing the positioning information from the user positioning unit in the above mobile HMD operating space, and a physical effect file that induces the departure group to return to the population is transmitted to the non-HMD effect output terminal located at the shortest distance from the departure group through the non-HMD effect output unit.
When recognizing the above population and the above outgroup,
Identify the location of the above population, the number of members, and the location of the members.
Identify the location of the above-mentioned breakaway group, the number of its members, and the location of its members;
A middleware device for group physical interaction, characterized in that it estimates a group with a large number of members among the above population and the above departure group as the population.
상기 모바일 HMD 통신부는,
상기 각각의 모바일 HMD의 시스템 정보를 수신하여 상기 HMD 단말상태 분석부에게로 보내는 HMD 단말상태 수신부; 및
상기 HMD 단말상태 분석부에서 상기 각각의 모바일 HMD의 시스템 정보를 근거로 생성된 물리 효과 파일을 해당 모바일 HMD에게로 송신하는 파일 송신부;를 포함하는 것을 특징으로 하는 집단 물리 상호작용을 위한 미들웨어 장치.In claim 1,
The above mobile HMD communication unit,
An HMD terminal status receiving unit that receives system information of each of the above mobile HMDs and sends it to the HMD terminal status analysis unit; and
A middleware device for group physical interaction, characterized by including a file transmission unit that transmits a physical effect file generated based on the system information of each mobile HMD in the HMD terminal status analysis unit to the corresponding mobile HMD.
상기 비 HMD 효과 출력 단말은,
상기 모바일 HMD 운용 공간에 존재하는 상기 모바일 HMD가 아닌 별도의 효과 출력 단말인 것을 특징으로 하는 집단 물리 상호작용을 위한 미들웨어 장치. In claim 1,
The above non-HMD effect output terminal is,
A middleware device for group physical interaction, characterized in that it is a separate effect output terminal other than the mobile HMD existing in the above mobile HMD operating space.
상기 각각의 모바일 HMD와 통신을 수행하는 미들웨어 장치를 포함하고,
상기 미들웨어 장치는,
상기 각각의 모바일 HMD와의 통신을 수행하는 모바일 HMD 통신부;
상기 각각의 모바일 HMD가 상기 모바일 HMD 운용 공간에서 운용되고 있는 환경을 분석하고, 상기 분석의 결과에 따라 물리 효과 파일을 제공할 모바일 HMD를 선정하고, 상기 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 운용 환경 분석부; 를 포함하되,
상기 운용 환경 분석부는,
상기 모바일 HMD 운용 공간내의 사용자 측위부로부터의 측위 정보를 수신하는 사용자 측위 정보 수신부;
상기 측위 정보를 근거로 상기 모바일 HMD 운용 공간에 존재하는 다수 사용자의 군집도와 위치 및 이동 특성을 분석하여, 상기 물리 효과 파일을 제공할 모바일 HMD를 선정하고, 상기 선정된 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 사용자 군집/위치/특성 분석부; 및
상기 각각의 모바일 HMD의 시스템 정보를 바탕으로 각각의 모바일 HMD의 상태를 분석하여, 상기 각각의 모바일 HMD에게 제공할 물리 효과 파일을 생성하는 HMD 단말상태 분석부; 를 포함하되,
상기 모바일 HMD의 시스템 정보는, 배터리 잔량, 가동 시간, 발열 상태, 쓰로틀링 특성이고,
상기 물리 효과 파일은, 상기 모바일 HMD에 구비된 액추에이터의 구동을 위한 햅틱 효과 패턴이 포함된 파일이며,
상기 사용자 군집/위치/특성 분석부는,
상기 모바일 HMD 운용 공간내의 사용자들이 모집단 및 이탈집단으로 분리된 경우, 상기 모바일 HMD 운용 공간내의 사용자 측위부로부터의 측위 정보를 분석하여 상기 모집단 및 상기 이탈집단을 인지하고, 상기 이탈집단에 대하여 상기 모집단으로의 복귀를 유도하는 물리 효과 파일을 비 HMD 효과 출력부를 통해 상기 이탈집단과 최단거리에 위치한 비 HMD 효과 출력 단말에게로 전달하되,
상기 모집단 및 상기 이탈집단을 인지할 때,
상기 모집단의 위치와 해당 구성원의 수 및 해당 구성원의 위치를 파악하며,
상기 이탈집단의 위치와 해당 구성원의 수 및 해당 구성원의 위치를 파악하고,
상기 모집단과 상기 이탈집단 중에서 구성원의 수가 많은 집단을 모집단으로 추정하는 것을 특징으로 하는 집단 물리 상호작용을 위한 시스템.Each mobile HMD existing in the mobile HMD operating space; and
Including a middleware device that performs communication with each of the above mobile HMDs,
The above middleware device,
A mobile HMD communication unit that performs communication with each of the above mobile HMDs;
An operating environment analysis unit that analyzes the environment in which each of the above mobile HMDs is operated in the mobile HMD operating space, selects a mobile HMD to provide a physical effect file based on the results of the analysis, and generates a physical effect file to be provided to the selected mobile HMD; including,
The above operating environment analysis department is,
A user positioning information receiving unit that receives positioning information from a user positioning unit within the above mobile HMD operating space;
A user cluster/location/characteristics analysis unit that analyzes the cluster map and location and movement characteristics of multiple users existing in the mobile HMD operating space based on the above positioning information, selects a mobile HMD to provide the physical effect file, and generates a physical effect file to be provided to the selected mobile HMD; and
An HMD terminal status analysis unit that analyzes the status of each mobile HMD based on the system information of each of the above mobile HMDs and generates a physical effect file to be provided to each of the above mobile HMDs; including:
The system information of the above mobile HMD is battery level, operating time, heat status, and throttling characteristics.
The above physical effect file is a file containing a haptic effect pattern for driving an actuator equipped in the mobile HMD.
The above user cluster/location/characteristics analysis section,
When users in the above mobile HMD operating space are divided into a population group and a departure group, the population group and the departure group are recognized by analyzing the positioning information from the user positioning unit in the above mobile HMD operating space, and a physical effect file that induces the departure group to return to the population is transmitted to the non-HMD effect output terminal located at the shortest distance from the departure group through the non-HMD effect output unit.
When recognizing the above population and the above outgroup,
Identify the location of the above population, the number of members, and the location of the members.
Identify the location of the above-mentioned breakaway group, the number of its members, and the location of its members;
A system for group physical interaction, characterized in that a group with a large number of members among the above population and the above departure group is estimated as the population.
상기 모바일 HMD는,
가상현실 컨텐츠를 구동하는 게임 엔진;
사용자가 체감할 수 있는 물리 효과를 출력하는 햅틱 운용부; 및
해당 모바일 HMD의 시스템 정보를 수집하여 상기 미들웨어 장치에게로 송신하고, 상기 미들웨어 장치로부터의 물리 효과 파일을 상기 햅틱 운용부에게로 송신하고, 사용자 입력에 따른 상기 게임 엔진에서의 상호작용 데이터를 상기 햅틱 운용부에게로 전달하여 사용자 입력에 따른 물리 효과가 출력되게 하는 미들웨어 통신 처리부;를 포함하는 것을 특징으로 하는 집단 물리 상호작용을 위한 시스템.In claim 10,
The above mobile HMD,
A game engine that drives virtual reality content;
A haptic operating unit that outputs physical effects that the user can feel; and
A system for group physical interaction, characterized by including a middleware communication processing unit that collects system information of the mobile HMD and transmits it to the middleware device, transmits a physical effect file from the middleware device to the haptic operation unit, and transmits interaction data from the game engine according to user input to the haptic operation unit so that a physical effect according to the user input is output.
상기 햅틱 운용부는,
해당 모바일 HMD내에 구비된 액추에이터를 구동하는 액추에이터 구동부를 포함하는 것을 특징으로 하는 집단 물리 상호작용을 위한 시스템.In claim 11,
The above haptic operating unit,
A system for group physical interaction, characterized by including an actuator driving unit that drives an actuator provided in the mobile HMD.
상기 모바일 HMD 통신부는,
상기 각각의 모바일 HMD의 시스템 정보를 수신하여 상기 HMD 단말상태 분석부에게로 보내는 HMD 단말상태 수신부; 및
상기 HMD 단말상태 분석부에서 상기 각각의 모바일 HMD의 시스템 정보를 근거로 생성된 물리 효과 파일을 해당 모바일 HMD에게로 송신하는 파일 송신부;를 포함하는 것을 특징으로 하는 집단 물리 상호작용을 위한 시스템.In claim 10,
The above mobile HMD communication unit,
An HMD terminal status receiving unit that receives system information of each of the above mobile HMDs and sends it to the HMD terminal status analysis unit; and
A system for group physical interaction, characterized by including a file transmission unit that transmits a physical effect file generated based on the system information of each mobile HMD in the HMD terminal status analysis unit to the corresponding mobile HMD.
상기 비 HMD 효과 출력 단말은,
상기 모바일 HMD 운용 공간에 존재하는 상기 모바일 HMD가 아닌 별도의 효과 출력 단말인 것을 특징으로 하는 집단 물리 상호작용을 위한 시스템.In claim 10,
The above non-HMD effect output terminal is,
A system for group physical interaction, characterized in that it is a separate effect output terminal other than the mobile HMD existing in the above mobile HMD operating space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160170229A KR102692701B1 (en) | 2016-12-14 | 2016-12-14 | Middleware apparatus and system for group physics interaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160170229A KR102692701B1 (en) | 2016-12-14 | 2016-12-14 | Middleware apparatus and system for group physics interaction |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180069170A KR20180069170A (en) | 2018-06-25 |
KR102692701B1 true KR102692701B1 (en) | 2024-08-08 |
Family
ID=62805933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160170229A Active KR102692701B1 (en) | 2016-12-14 | 2016-12-14 | Middleware apparatus and system for group physics interaction |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102692701B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200425605Y1 (en) * | 2006-06-27 | 2006-09-07 | 이국진 | Device to prevent the departure from the safety zone by checking the short distance |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9330544B2 (en) | 2012-11-20 | 2016-05-03 | Immersion Corporation | System and method for simulated physical interactions with haptic effects |
US9098984B2 (en) * | 2013-03-14 | 2015-08-04 | Immersion Corporation | Haptic effects broadcasting during a group event |
US20150054727A1 (en) * | 2013-08-23 | 2015-02-26 | Immersion Corporation | Haptically enabled viewing of sporting events |
KR20150072637A (en) * | 2013-12-20 | 2015-06-30 | 주식회사 모어브 | Multiple guide control system |
KR101671320B1 (en) * | 2014-05-15 | 2016-11-02 | 리치앤타임(주) | Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof |
US9599821B2 (en) * | 2014-08-08 | 2017-03-21 | Greg Van Curen | Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space |
KR102243656B1 (en) | 2014-09-26 | 2021-04-23 | 엘지전자 주식회사 | Mobile device, head mounted display and system |
US9658693B2 (en) | 2014-12-19 | 2017-05-23 | Immersion Corporation | Systems and methods for haptically-enabled interactions with objects |
-
2016
- 2016-12-14 KR KR1020160170229A patent/KR102692701B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200425605Y1 (en) * | 2006-06-27 | 2006-09-07 | 이국진 | Device to prevent the departure from the safety zone by checking the short distance |
Also Published As
Publication number | Publication date |
---|---|
KR20180069170A (en) | 2018-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Baytas et al. | The design of social drones: A review of studies on autonomous flyers in inhabited environments | |
US10974138B2 (en) | Haptic surround functionality | |
EP3549109B1 (en) | Virtual user input controls in a mixed reality environment | |
EP3539087B1 (en) | A system for importing user interface devices into virtual/augmented reality | |
JP6421911B2 (en) | Transition and interaction model for wearable electronic devices | |
JP5712269B2 (en) | User gesture input to wearable electronic devices, including device movement | |
JP2020024752A (en) | Information processing device, control method thereof, and program | |
US20190324538A1 (en) | Haptic-enabled wearable device for generating a haptic effect in an immersive reality environment | |
KR101389894B1 (en) | Virtual reality simulation apparatus and method using motion capture technology and | |
JP2018136938A (en) | Automatic localized haptics generation system | |
JP6463598B2 (en) | Delegating processing from wearable electronic devices | |
JP2014221636A (en) | Gesture-based control system for vehicle interface | |
US9013396B2 (en) | System and method for controlling a virtual reality environment by an actor in the virtual reality environment | |
JP2014102842A (en) | User gesture input to wearable electronic device involving movement of device | |
KR20130137124A (en) | Mobile devices and methods employing haptics | |
EP3077896A1 (en) | Location-based system for sharing augmented reality content | |
Lee et al. | Pseudo-haptic feedback design for virtual activities in human computer interface | |
KR102692701B1 (en) | Middleware apparatus and system for group physics interaction | |
Akita et al. | Object Identification Using Augmented Reality With Haptic Feedback | |
Barber et al. | Design approach for investigating multimodal communication in dismounted soldier-robot interaction | |
Alber et al. | Haptic Helmet for Emergency Responses in Virtual and Live Environments | |
Steed et al. | Displays and Interaction for Virtual Travel | |
Varcholik et al. | Gestural communication with accelerometer-based input devices and tactile displays | |
Lee et al. | Tactile visualization with mobile ar on a handheld device | |
Huang et al. | VibraForge: A Scalable Prototyping Toolkit For Creating Spatialized Vibrotactile Feedback Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20161214 |
|
PG1501 | Laying open of application | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20211214 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20161214 Comment text: Patent Application |
|
PN2301 | Change of applicant |
Patent event date: 20211214 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231127 Patent event code: PE09021S01D |
|
E90F | Notification of reason for final refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Final Notice of Reason for Refusal Patent event date: 20240624 Patent event code: PE09021S02D |
|
E90F | Notification of reason for final refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Final Notice of Reason for Refusal Patent event date: 20240712 Patent event code: PE09021S02D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240723 |
|
PG1601 | Publication of registration |