KR20160141023A - The method of dynamic and static gesture recognition using depth camera and interface of immersive media contents - Google Patents
The method of dynamic and static gesture recognition using depth camera and interface of immersive media contents Download PDFInfo
- Publication number
- KR20160141023A KR20160141023A KR1020150073637A KR20150073637A KR20160141023A KR 20160141023 A KR20160141023 A KR 20160141023A KR 1020150073637 A KR1020150073637 A KR 1020150073637A KR 20150073637 A KR20150073637 A KR 20150073637A KR 20160141023 A KR20160141023 A KR 20160141023A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- unit
- smart
- region
- triangle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 230000003068 static effect Effects 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 title claims abstract description 14
- 230000009471 action Effects 0.000 claims abstract description 44
- 238000000605 extraction Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Classifications
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G06K9/00342—
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명에서는 종래의 제스처 인식장치로서, 데이터 글러브, 비전기반 제스처인식장치가 제시되고 있으나, 별도의 송수신장치와 카메라가 설치되어야 하고, 비용이 고가이므로 활용도가 낮은 문제점과, 제스처 유형이 여러 종류여서 규격화된 제스처기준모델이 제시되지 않아, 동적 및 정적 제스처 인식이 서로 달라서 제스처 인식율이 낮고, 실감미디어콘텐츠와 연동시킬 수 있는 비접촉 제스처인식기반 기술개발이 절실히 필요한 문제점을 개선하고자, 트라이앵글형 적외선센서부(100), 제스처카메라부(200), 스마트제스처제어부(300)로 구성됨으로서, 제1 적외선포인트, 제2 적외선포인트, 제3 적외선포인트로 이루어진 트라이앵글형 적외선을 통해 사람의 움직임에 따른 제스처만을 기준포인트화시켜 포커스 스캔시킬 수 있어, 초기 제스처 스캔속도를 기존에 비해 70% 향상시킬 수 있고, 스마트제스처제어부를 통해 현재 사람의 움직임에 따른 제스처에다가 기준제스처모델과 비교·분석하여 특정 제스처를 실시간으로 인식시킬 수 있어, 사람의 몸에 별도의 제스처인식장비를 부착하거나 착용하지 않아도, 사람의 움직임에 따른 제스처만을 인식시킬 수 있고, 이로 인해 PC를 비롯한 일반 소형 스크린뿐만 아니라 대형 스크린에서의 제스처 인식이 가능하여 장비 응용력과 사용범위를 기존에 비해 80% 높일 수 있으며, 무엇보다 특정 제스처 인식 후, 제스처에다가 기기쪽으로 액션이벤트 또는 미디어컨텐츠연동기능이 수행시키도록 제어시킬 수 있어, 교육콘텐츠, 미디어아트, 전시작품, 홍보 등과 같은 다양한 산업 분야로의 확장 및 응용이 가능하고, 비접촉 제스처인식시장을 선점해서 구축시킬 수 있는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치 및 방법을 제공하는데 그 목적이 있다.In the present invention, a data glove and a vision-based gesture recognizing device are proposed as a conventional gesture recognizing device. However, since a separate transceiver and a camera must be installed, cost is high and utilization is low and gesture types are various In order to solve the problem that the gesture recognition rate is low because dynamic and static gesture recognition are different from each other and a noncontact gesture recognition based technology capable of interlocking with realistic media contents is urgently required, A gesture camera unit 200 and a smart gesture control unit 300. The gesture camera 100 includes a gesture camera unit 200 and a smart gesture control unit 300. The gesture camera 100 includes a gesture control unit 300 and a gesture control unit 300. The gesture camera 100 includes a first infrared point, Point scan can be performed, and the initial gesture scan speed can be The gesture according to the movement of the current person can be compared with the reference gesture model through the smart gesture control unit and the specific gesture can be recognized in real time through the smart gesture control unit, It is possible to recognize the gesture according to the movement of a person. Therefore, it is possible to recognize the gesture not only on a general small screen including a PC but also on a large screen, thereby increasing the applicability and use range of the apparatus by 80% It is possible to control an action event or a media content linking function to perform a gesture in addition to a gesture after the recognition of a specific gesture, and to expand and apply it to various industrial fields such as educational contents, media art, exhibition works, It is possible to build and build a non-contact gesture recognition market. To provide an action event and feel contactless smart gesture recognition apparatus and method for performing a media content, it is an object of interlocking.
Description
본 발명에서는 트라이앵글형 적외선센서부, 제스처카메라부, 스마트제스처제어부를 통해 사람의 움직임에 따른 제스처만을 기준포인트화시켜 포커스 스캔시킨 후, 현재 사람의 움직임에 따른 제스처에다가 기준제스처모델과 비교·분석하여 특정 제스처를 실시간으로 인식시킬 수 있어, 사람의 몸에 별도의 제스처인식장비를 부착하거나 착용하지 않아도, 사람의 움직임에 따른 제스처만을 통해 기기쪽으로 액션이벤트 또는 미디어컨텐츠연동기능을 수행시키는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치 및 방법에 관한 것이다.
In the present invention, only the gesture according to the movement of a person is point-focused and focused through the triangle-type infrared sensor unit, the gesture camera unit, and the smart gesture control unit, and then the gesture according to the current movement of the person is compared with the reference gesture model It is possible to recognize a specific gesture in real time, so that an action event or an action event that performs an action event or an interlocking function of a media content to a device only through a gesture according to a movement of a person, without attaching or attaching a separate gesture recognition device to a human body Contact smart gesture recognition apparatus and method for performing media content linkage.
기존의 컴퓨터와의 User Interface(UI) 기술은 과거 마우스, 키보드와 같은 도구를 이용한 기술에서 현재는 2D 영상을 스크린을 통하여 터치하는 기술이 보편화되었고, 닌텐도 Wii, 마이크로소프트 Kinect 게임기 등이 등장하면서 동작인식 기술이 상용화되어 편리함과 몰입감을 느낄 수 있게 되었다. User Interface (UI) technology with existing computer has been popularized in the technology using tools such as mouse and keyboard, touching 2D image through screen, Nintendo Wii, Microsoft Kinect game machine, etc. Recognition technology has become commercialized, and convenience and immersion can be felt.
이때, 응용에 따라 기기가 몸에서 일정거리 떨어져 있거나 손을 마우스나 스크린에 접근하기 어려운 조건이 발생하기도 한다. At this time, depending on the application, the device may be separated from the body by a certain distance, or the hand may be difficult to access the mouse or the screen.
이러한 경우 손의 제스처를 통해서 컴퓨터나 스마트 기기에 명령을 전달할 필요가 있다. In this case, it is necessary to transmit commands to a computer or a smart device through a hand gesture.
종래의 제스처 인식장치로서, 데이터 글러브, 비전기반 제스처인식장치가 제시되고 있으나, 별도의 송수신장치와 카메라가 설치되어야 하고, 비용이 고가이므로 활용도가 낮은 문제점이 있었다.As a conventional gesture recognition device, a data glove and a vision-based gesture recognition device have been proposed. However, a separate transceiver and a camera have to be installed.
또한, 제스처 유형이 여러 종류여서 규격화된 제스처기준모델이 제시되지 않아, 동적 및 정적 제스처 인식이 서로 달라서 제스처 인식율이 낮고, 무엇보다, 비접촉 제스처인식시장을 활성화시키기 위해, 실감미디어콘텐츠와 연동시킬 수 있는 비접촉 제스처인식기반 기술개발이 절실히 필요한 실정이다.
In addition, since there are many kinds of gesture types, a standardized gesture reference model is not proposed. Therefore, the gesture recognition rate is different due to the difference of dynamic and static gesture recognition, and in particular, in order to activate the noncontact gesture recognition market, It is necessary to develop a non - contact gesture recognition based technology.
상기의 목적을 달성하기 위해 본 발명에서는 To achieve the above object, in the present invention,
제1 적외선포인트, 제2 적외선포인트, 제3 적외선포인트로 이루어진 트라이앵글형 적외선을 통해 사람의 움직임에 따른 제스처만을 기준포인트화시켜 포커스 스캔시킬 수 있고, 스마트제스처제어부를 통해 현재 사람의 움직임에 따른 제스처에다가 기준제스처모델과 비교·분석하여 특정 제스처를 실시간으로 인식시킬 수 있으며, 특정 제스처 인식 후, 제스처에다가 기기쪽으로 액션이벤트 또는 미디어컨텐츠연동기능이 수행시키도록 제어시킬 수 있는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치 및 방법을 제공하는데 그 목적이 있다.
The gesture according to the movement of a person can be used as a reference point to perform focus scanning through a triangle type infrared ray including a first infrared point, a second infrared point and a third infrared point, and a smart gesture control unit In addition, it is possible to recognize a specific gesture in real time by comparing and analyzing it with a reference gesture model. An action event to realize control of an action event or a media content linking function to a device in a gesture after recognizing a specific gesture. The present invention is directed to a non-contact smart gesture recognition apparatus and method.
상기의 목적을 달성하기 위해 본 발명에 따른 깊이카메라를 이용한 제스처 인식·실감미디어콘텐츠 인터페이스 장치는In order to attain the above object, the gesture recognition / real-sensory media content interface apparatus using a depth camera according to the present invention comprises:
깊이 카메라를 사용하여 사람의 손 동작을 입력 받고, 움직임의 위치와 방향을 얻기 위해 3차원의 데이터 흐름을 기하학적인 분석에 의해 실시간으로 측정하는 초기 동작 입력부(100)와,An initial
제스처의 유형이 사람 손가락의 형태 및 모양을 인식하는 정적 제스처, 사람의 손의 회전 및 방향 등 팔의 움직임에 의해 인식하는 동적 제스처에 대한 깊이 맵을 생성하여 어떠한 유형인지 수학적 판단을 가능하게 하는 제스처 판단부(200)와,A gesture that enables a type of mathematical determination by generating a depth map of a dynamic gesture recognized by the movement of the arm, such as a static gesture that recognizes the type and shape of a human finger, the rotation and direction of a human hand, A
제스처 판단부에 의해 분류된 제스처 유형 내에서 표현 별 좌표 및 해당하는 표현이 어떤 기능을 하는 것인지 모양 및 움직임을 판독해 줄 수 있는 제스처 인식부(300)와,A gesture recognizing unit (300) for reading a shape and a motion of a coordinate of the expression and a corresponding expression in the gesture type classified by the gesture judging unit,
이러한 제스처 인식 결과에 의해 미디어콘텐츠가 명령을 준 제스처에 해당하는 동작을 수행하거나 결과를 표출할 수 있도록 인터페이스 되는 콘텐츠 연동부(400)로 구성됨으로서 달성된다.
And a content interlocking unit 400 interfaced with the media content to perform an operation corresponding to the commanded gesture or to display the result according to the gesture recognition result.
또한, 본 발명에 따른 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식방법은In addition, the contactless smart gesture recognition method for performing an action event / actual feeling media content association according to the present invention
트라이앵글형 적외선센서부를 통해 트라이앵글형 적외선을 쏴서, 사람의 몸을 트라이앵글형상으로 기준포인트화시켜 포커스 스캔시키는 단계(S100)와,A step (S100) of shooting a triangle-shaped infrared ray through the triangle-type infrared ray sensor unit and focusing the human body into a triangle-shaped reference point,
제스처카메라부를 통해 사람의 몸에 닿아 다시 반사되는 트라이앵글형 적외선을 촬영시켜 사람의 움직임에 따른 제스처이미지를 획득시키는 단계(S200)와,A step (S200) of acquiring a gesture image according to a movement of a person by shooting a triangle-type infrared ray which is reflected again by touching a human body through a gesture camera unit,
스마트제스처제어부의 제스처영역추출부에서 제스처카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시키는 단계(S300)와,A step (S300) of extracting only a gesture region excluding a background region from a gesture image acquired from a gesture camera unit in a gesture region extraction unit of a smart gesture control unit;
스마트제스처제어부의 스마트제스처인식부에서 추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시킨 후, 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하여 특정 제스처가 어디에 매칭되는지를 인식시키는 단계(S400)와,The gesture region extracted from the smart gesture recognition unit of the smart gesture control unit is divided into a static gesture region or a dynamic gesture region and classified and classified into a static gesture region and a dynamic gesture region and compared with a reference gesture model, (Step S400)
스마트제스처제어부의 액션이벤트제어부에서 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 기기쪽으로 액션이벤트제어신호를 출력시키는 단계(S500)와,(S500) of causing an action event control unit of the smart gesture control unit to fetch an action event preset in accordance with a specific gesture and outputting an action event control signal to the device,
스마트제스처제어부의 실감미디어컨텐츠인터페이스부에서 특정 제스처에 맞게 미리 설정된 실감미디어컨텐츠를 인터페이스시켜 기기쪽에 특정 제스처에 따른 실감미디어컨텐츠를 표출시키는 단계(S600)로 이루어짐으로서 달성된다.
(S600) of interacting with sensible media content preset in accordance with a specific gesture by the sensible media content interface unit of the smart gesture control unit and displaying the sensible media content according to a specific gesture on the device side.
이상에서 설명한 바와 같이, 본 발명에서는 초기 제스처 스캔속도를 기존에 비해 70% 향상시킬 수 있고, 스마트제스처제어부를 통해 현재 사람의 움직임에 따른 제스처에다가 기준제스처모델과 비교·분석하여 특정 제스처를 실시간으로 인식시킬 수 있어, PC를 비롯한 일반 소형 스크린뿐만 아니라 대형 스크린에서의 제스처 인식이 가능하여 장비 응용력과 사용범위를 기존에 비해 80% 높일 수 있으며, 교육콘텐츠, 미디어아트, 전시작품, 홍보분야에 제공하는 미디어콘텐츠를 제스처 인식과 융합하여 활용하여 체험함으로써 몰입감 및 현실감을 향상시킬 수 있고, 기기와 상호 작용을 할 수 있는 인터랙션 기술을 제공할 수 있고, 이를 통해 UX(user experience) 효과를 제공하여 교육의 효율성을 높일 수 있는 좋은 효과가 있다.
As described above, according to the present invention, the initial gesture scan speed can be improved by 70% compared to the conventional method, and the smart gesture controller can compare the gesture according to the movement of the current person with the reference gesture model, It is possible to recognize the gesture on a large screen as well as a general small screen including a PC, so that it can increase the equipment application and the use range by 80%, and provide education contents, media art, exhibition work, and publicity (User experience) effect by providing the interaction technology that can interact with the device, and can provide the user experience effect There is a good effect of increasing the efficiency of the system.
도 1은 본 발명에 따른 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치(1)의 구성요소를 도시한 구성도,
도 2는 본 발명에 따른 트라이앵글형 적외선센서부의 구성요소를 도시한 블럭도,
도 3은 본 발명에 따른 제스처카메라부의 구성요소를 도시한 내부단면도,
도 4는 본 발명에 따른 스마트제스처제어부의 구성요소를 도시한 블럭도,
도 5는 본 발명에 따른 스마트제스처인식부의 구성요소를 도시한 블럭도,
도 6의 (a)는 본 발명에 따른 제스처카메라부로부터 획득한 제스처이미지를 도시한 일실시예도, (b)는 본 발명에 따른 RGB히스토그램엔진모듈에서 RGB 히스토그램을 통해 배경영역을 제외한 제스처영역만을 추출시키는 일실시예도, (c)는 본 발명에 따른 HSV 히스토그램생성부를 통해 H(색상), S(채도), V(명도)를 기반으로 X축, Y축, Z축의 3차원 히스토그램을 생성시키는 일실시예도,
도 7은 본 발명에 따른 기준제스처모델링설정부를 통해 사람의 움직임에 따른 제스처패턴을 DB화시켜 기준제스처모델로 미리 설정시키는 것을 도시한 일실시예도,
도 8은 본 발명에 따른 트라이앵글형스캔제어부를 통해 사람의 몸에 쏴주는 제1 적외선포인트센서부의 제1 적외선포인트, 제2 적외선포인트센서부의 제2 적외선포인트, 제3 적외선포인트센서부의 제3 적외선포인트를 가변시켜 하나의 트라이앵글형상으로 형성시킨 후, 사람의 몸을 트라이앵글형상으로 기준포인트화시켜 포커스 스캔시키도록 제어하는 것을 도시한 일실시예도,
도 9는 본 발명에 따른 액션이벤트제어부를 통해 스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 기기쪽으로 액션이벤트제어신호를 출력시키는 것을 도시한 일실시예도,
도 10은 본 발명에 따른 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식방법을 도시한 순서도.1 is a block diagram showing components of a non-contact smart gesture recognizing apparatus 1 that performs an action event / actual feeling media contents linkage according to the present invention.
FIG. 2 is a block diagram showing the components of the triangle-type infrared sensor unit according to the present invention,
3 is an internal cross-sectional view showing the components of the gesture camera unit according to the present invention,
4 is a block diagram illustrating components of a smart gesture control unit according to the present invention.
FIG. 5 is a block diagram illustrating components of a smart gesture recognition unit according to the present invention;
FIG. 6A is a diagram illustrating a gesture image obtained from a gesture camera unit according to an embodiment of the present invention. FIG. 6B is a diagram illustrating an RGB histogram engine module according to an exemplary embodiment of the present invention. (C) shows an example of generating the three-dimensional histogram of the X-axis, the Y-axis and the Z-axis based on H (color), S (saturation), and V (brightness) through the HSV histogram generator according to the present invention In one embodiment,
FIG. 7 is a flowchart illustrating a method of setting a gesture pattern according to a user's movement in the form of a database through a reference gesture modeling setting unit according to an exemplary embodiment of the present invention,
FIG. 8 is a block diagram illustrating a first infrared point of a first infrared point sensor unit, a second infrared point of a second infrared point sensor unit, a third infrared ray point of a third infrared point sensor unit, The point is varied to form one triangle shape, and then the human body is controlled to be the reference point in the triangle shape to perform the focus scan.
9 is a flowchart showing an action event control signal output to a device by calling an action event preset according to a specific gesture based on the specific gesture recognized by the smart gesture recognition unit through the action event control unit according to the present invention. For example,
10 is a flowchart showing a contactless smart gesture recognition method for performing an action event / actual feeling media content linkage according to the present invention.
이하, 본 발명에 따른 바람직한 실시예를 도면을 첨부하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명에 따른 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치(1)의 구성요소를 도시한 구성도에 관한 것으로, 이는 트라이앵글형 적외선센서부(100), 제스처카메라부(200), 스마트제스처제어부(300)로 구성된다.
FIG. 1 is a block diagram illustrating components of a contactless smart gesture recognizing apparatus 1 for performing an action / real-life media content interlock according to an embodiment of the present invention, which includes a triangle-type
먼저, 본 발명에 따른 트라이앵글형 적외선센서부(100)에 관해 설명한다.First, the triangle-type
상기 트라이앵글형 적외선센서부(100)는 기기 일측에 설치되어, 전방에 제1 적외선포인트, 제2 적외선포인트, 제3 적외선포인트로 이루어진 트라이앵글형 적외선을 쏴서, 사람의 몸을 트라이앵글형상으로 기준포인트화시켜 포커스 스캔시키는 역할을 한다.The triangle-type
이는 도 2에 도시한 바와 같이, 제1 적외선포인트센서부(110), 제2 적외선포인트센서부(120), 제3 적외선포인트센서부(130), 트라이앵글형스캔제어부(140)로 구성된다.
As shown in FIG. 2, the first infrared
상기 제1 적외선포인트센서부(110)는 사람의 몸 일측에 적외선프로젝트를 쏴서 제1 적외선포인트를 형성시키는 역할을 한다.The first infrared
이는 일자형 적외선프로젝트로 구성된다. It consists of a straight-line infrared project.
그리고, 후단 일측에 일자형 적외선프로젝트를 1°~360°회전시키는 회전모터가 포함되어 구성된다.
And a rotary motor that rotates a straight type infrared project from 1 ° to 360 ° on one side of the rear end.
상기 제2 적외선포인트센서부(120)는 사람의 몸 타측에 적외선프로젝트를 쏴서 제2 적외선포인트를 형성시키는 역할을 한다.The second infrared
이는 일자형 적외선프로젝트로 구성된다. It consists of a straight-line infrared project.
그리고, 후단 일측에 일자형 적외선프로젝트를 1°~360°회전시키는 회전모터가 포함되어 구성된다.
And a rotary motor that rotates a straight type infrared project from 1 ° to 360 ° on one side of the rear end.
상기 제3 적외선포인트센서부(130)는 사람의 몸 타측에 적외선프로젝트를 쏴서 제3 적외선포인트를 형성시키는 역할을 한다.The third infrared
이는 일자형 적외선프로젝트로 구성된다. It consists of a straight-line infrared project.
그리고, 후단 일측에 일자형 적외선프로젝트를 1°~360°회전시키는 회전모터가 포함되어 구성된다.
And a rotary motor that rotates a straight type infrared project from 1 ° to 360 ° on one side of the rear end.
상기 트라이앵글형스캔제어부(140)는 사람의 몸에 쏴주는 제1 적외선포인트센서부의 제1 적외선포인트, 제2 적외선포인트센서부의 제2 적외선포인트, 제3 적외선포인트센서부의 제3 적외선포인트를 가변시켜 하나의 트라이앵글형상으로 형성시킨 후, 사람의 몸을 트라이앵글형상으로 기준포인트화시켜 포커스 스캔시키도록 제어하는 역할을 한다.The triangle
여기서, 사람의 몸은 얼굴, 팔, 손가락, 몸통, 다리를 모두 포함한다.Here, the human body includes all of the face, arms, fingers, torso, and legs.
그리고, 사람의 움직임은 사람의 몸인 얼굴, 팔, 손가락, 몸통, 다리에서 움직이는 것을 모두 포함한다.And, the movement of a person includes all things that move from a person's face, arms, fingers, trunk, and legs.
상기 사람의 몸을 트라이앵글형상으로 기준포인트화시켜 스캔시키는 이유는 일반적으로 카메라만을 통해 사람의 움직임을 영상촬영할 경우에, 배경화면까지 촬영되기 때문에 배경화면영역을 삭제 후, 사람의 움직임에 따른 제스처영역만을 추출시켜야 하므로, 배경화면영역의 프레임이 차지하는 공간으로 인해 제스처 추출속도가 늦어지고, 제스처인식율이 떨어지는 문제점을 개선하기 위함이다.The reason why the human body is scanned in the form of a triangle as a reference point is that when a human's movement is photographed through only a camera, the background image is shot, So that the gesture extraction speed is delayed due to the space occupied by the frames in the background area and the gesture recognition rate is lowered.
즉, 사람의 몸인 얼굴, 팔, 손가락, 몸통, 다리 중에서 사람의 움직임에 따른 제스처 부위를 얼굴이 되었든, 팔이 되었든, 손가락이 되었든 간에 트라이앵글형상으로 기준포인트화시켜, 사람의 움직임인 발생한 얼굴, 팔, 손가락 중 어느 한 부위를 포커스(집중)시켜 스캔할 수가 있다.
That is, the gesture part corresponding to the movement of the human being among the face, arm, finger, torso, and legs of the human body is made into a reference point in a triangle shape whether face, arm, or finger, The operator can focus on any one of the arm and the finger to perform scanning.
일예로, 도 8에서 도시한 바와 같이, 사람의 움직임에 따른 제스처 부위로서, 얼굴, 손가락을 제스처부위로 설정시키고자 할 때에는 얼굴을 제1 적외선포인트센서부의 제1 적외선포인트로 설정시키고, 오른손 손가락을 제2 적외선포인트센서부의 제2 적외선포인트로 설정시키며, 왼손 손가락을 제3 적외선포인트센서부의 제3 적외선포인트로 설정시켜, 하나의 트라이앵글형상 적외선을 형성시킨다.For example, as shown in FIG. 8, when a face or a finger is set as a gesture part as a gesture part according to a movement of a person, the face is set as a first infrared point of the first infrared point sensor part, Is set to the second infrared point of the second infrared point sensor unit and the left hand finger is set to the third infrared point of the third infrared point sensor unit to form one triangular infrared ray.
이때, 트라이앵글형상 적외선이 형성된 얼굴, 왼손 손가락, 오른손 손가락을 기준포인트화시켜 포커스 스캔시킨다.At this time, the face on which the triangle-shaped infrared ray is formed, the left hand finger, and the right hand finger are made reference points to perform focus scanning.
그리고, 포커스 스캔된 얼굴, 왼손 손가락, 오른손 손가락을 제스처카메라부가 촬영한다.
Then, the gesture camera part photographs the face of the focus scan, the left hand finger, and the right hand finger.
다음으로, 본 발명에 따른 제스처카메라부(200)에 관해 설명한다.Next, the
상기 제스처카메라부(200)는 트라이앵글형 적외선센서부 일측에 위치되어, 트라이앵글형 적외선센서부를 통해 사람의 몸에 닿아 다시 반사되는 트라이앵글형 적외선을 촬영시켜 사람의 움직임에 따른 제스처이미지를 획득시키는 역할을 한다.The
이는 깊이카메라로 구성된다.It consists of a depth camera.
상기 깊이카메라는 입체 영상을 제작하려고 촬영하는 장면 또는 물체의 깊이 정보를 획득하는 장치로서, 트라이앵글형 적외선센서부에서 발생된 적외선이 물체에 반사되어 돌아오는 시간을 계산하여 물체의 깊이를 산출한다. The depth camera is an apparatus for acquiring depth information of a scene or an object to be photographed to produce a stereoscopic image. The depth camera calculates the depth of the object by calculating the return time of infrared rays generated by the triangle-type infrared sensor unit.
이때, 획득한 깊이 정보는 스테레오 정합 방법으로 얻은 깊이 정보보다 정확도가 높은 특성을 가진다.At this time, the obtained depth information has higher accuracy than the depth information obtained by the stereo matching method.
본 발명에 따른 제스처카메라부는 도 3에 도시한 바와 같이, 3D좌표설정부(210)가 포함되어 구성된다.The gesture camera unit according to the present invention includes a 3D coordinate setting
상기 3D좌표설정부는 사람의 움직임에 따른 제스처이미지를 획득시, 제스처 위치 중 X축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 앞뒤의 제스처로 설정시키고, 제스처 위치 중 Z축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 좌우의 제스처로 설정시키며, 제스처 위치 중 Y축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 상하의 제스처로 설정시키는 역할을 한다.When the gesture image according to the movement of a person is acquired, the 3D coordinate setting unit sets the X axis of the gesture position as a front and back gesture based on the front side of the camera by displaying coordinates from -value to + To + value, and sets the left and right gestures based on the front of the camera. The Y axis of the gesture position expresses the coordinates from the minus (-) value to the minus (+) value, and sets the upper and lower gestures based on the front of the camera.
이로 인해, 제스처이미지에 발생되는 잡음을 제거하고, X축, Y축, Z축으로 이루어진 정확한 제스처이미지를 획득할 수가 있다.
As a result, noise generated in the gesture image is removed, and an accurate gesture image composed of the X axis, the Y axis, and the Z axis can be obtained.
다음으로, 본 발명에 따른 스마트제스처제어부(300)에 관해 설명한다.Next, the
상기 스마트제스처제어부(300)는 제스처카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시킨 후, 추출시킨 제스처영역에다가 기준제스처모델과 비교·분석하여 특정 제스처를 인식시켜 기기쪽으로 액션이벤트 또는 미디어컨텐츠연동을 수행시키도록 제어시키는 역할을 한다.The smart
이는 도 4에 도시한 바와 같이, 제스처영역추출부(310), HSV 히스토그램생성부(320), 기준제스처모델링설정부(330), 스마트제스처인식부(340), 액션이벤트제어부(350), 실감미디어컨텐츠인터페이스부(360)로 구성된다.
4, the gesture
첫째, 본 발명에 따른 제스처영역추출부(310)에 관해 설명한다.First, a gesture
상기 제스처영역추출부(310)는 제스처카메라부로부터 획득한 제스처이미지에서 미리 설정된 RGB 히스토그램을 이용하여 배경영역을 제외한 제스처영역만을 추출시키는 역할을 한다.The gesture
이는 RGB히스토그램엔진모듈(311)이 포함되어 구성된다.This is configured to include the RGB
상기 RGB히스토그램엔진모듈(311)은 도 6에 도시한 바와 같이, RGB 히스토그램을 통해 배경영역을 제외한 제스처영역만을 추출시킨다.As shown in FIG. 6, the RGB
상기 RGB 히스토그램엔진모듈은 피부색의 사전 정보로서, 피부색과 배경색상에 대하여 각각 X축, Y축, Z축의 3차원 히스토그램을 구축하도록 구성된다.The RGB histogram engine module is configured to construct a three-dimensional histogram of X-axis, Y-axis, and Z-axis for skin color and background color as dictionary information of skin color.
즉, RGB 색상을 이용하여 지속적인 피부색 검출을 할 경우에 제스처카메라부로부터 획득한 제스처이미지를 그대로 사용할 수 있어 수행속도를 향상시킬 수가 있다.That is, when continuous color detection is performed using the RGB color, the gesture image acquired from the gesture camera unit can be used as it is, thereby improving the speed of execution.
상기 RGB 히스토그램엔진모듈은 다음과 같은 과정을 통해 수행된다.The RGB histogram engine module is performed through the following process.
먼저, 입력되는 제스처이미지 영역을 RGB히스토그램을 통해 배경영역을 제외한 제스처영역만을 마스크한다.First, only the gesture region excluding the background region is masked through the RGB histogram of the input gesture image region.
이때, 마스크는 반원형상으로 설정한다.
At this time, the mask is set to a semi-circular shape.
이어서, 마스크한 제스처영역에 발생된 노이즈를 필터링부를 통해 필터링시켜 제거한다.
Then, the noise generated in the masked gesture region is filtered and removed through the filtering unit.
끝으로, 필터링된 RGB 제스처영역을 HSV 히스토그램설정부로 전달시킨다.
Finally, the filtered RGB gesture region is passed to the HSV histogram setting unit.
둘째, 본 발명에 따른 HSV 히스토그램생성부(320)에 관해 설명한다.Second, the
상기 HSV 히스토그램생성부(320)는 제스처영역추출부에서 추출된 제스처 영역에서 색상정보를 이용하여 HSV 히스토그램을 생성시키는 역할을 한다.The
이는 제스처영역추출부에서 생성된 RGB 제스처영역을 HSV 제스처영역으로 변환시킨다.This converts the RGB gesture region generated by the gesture region extraction unit into the HSV gesture region.
상기 HSV 히스토그램생성부는 도 6에 도시한 바와 같이, H(색상), S(채도), V(명도)를 기반으로 X축, Y축, Z축의 3차원 히스토그램을 생성시킨다.
As shown in FIG. 6, the HSV histogram generator generates a three-dimensional histogram of X-axis, Y-axis, and Z-axis based on H (color), S (saturation), and V (brightness).
셋째, 본 발명에 따른 기준제스처모델링설정부(330)에 관해 설명한다.Third, the reference gesture
상기 기준제스처모델링설정부(330)는 도 7에 도시한 바와 같이, 사람의 움직임에 따른 제스처패턴을 DB화시켜 기준제스처모델로 미리 설정시키는 역할을 한다.As shown in FIG. 7, the reference gesture
이는 사람의 몸인 얼굴, 팔, 손가락, 몸통, 다리에서 움직이는 것을 모두 제스처모델링시킨다.It gestures all the movements of the human face, arms, fingers, torso, and legs.
본 발명에서는 얼굴, 손가락을 기준제스처모델로 설정시킨다.In the present invention, the face and the finger are set as the reference gesture model.
즉, 제스처 영역에 해당하는 픽셀(흰색)은 1로 , 배경영역에 해당하는 픽셀(검은색)은 0으로 하여 모든 픽셀에 대해 이진화 이미지 를 구성한다.That is, the pixel (white) corresponding to the gesture region is 1, the pixel corresponding to the background region (black) is 0, and the binary image .
J개의 제스처 패턴 각각에 Ni개의 이미지를 구성한 후, 다음의 수학식 1과 같이 평균을 구하여 기준제스처모델을 만든다.After constructing N i images in each of the J gesture patterns, a reference gesture model is created by averaging the following equation (1).
여기서, DMi ,j는 i번째 사용자의 j번째 제스처 패턴에 대한 모델이다. Here, DM i , j is a model for the jth gesture pattern of the i-th user.
은 i번째 사용자의 제스처 패턴에 대한 n번째 제스처이미지를 나타내며, 픽셀(x,y)가 제스처 영역에 속하는 경우에는 1, 배경영역에 속하는 경우에는 0의 값을 가진다. Represents an nth gesture image of the gesture pattern of the i-th user, and has a value of 1 when the pixel (x, y) belongs to the gesture region and a value of 0 when belonging to the background region.
DMi ,j는 사용자에 따라 다른 모델이 만들어지므로 사용자 종속모델에 해당한다.DM i , j corresponds to the user dependent model since different models are created according to the user.
이에 다음의 수학식 2와 같이 사용자 독립모델을 구성한다.Thus, a user-independent model is constructed as shown in Equation (2).
상기 IMj는 사용자 독립모델로서, 각 사용자의 제스처이미지를 모두 사용하여 평균을 연산시킨다.
The IM j is a user-independent model that calculates the average using all gesture images of each user.
넷째, 본 발명에 따른 스마트제스처인식부(340)에 관해 설명한다.Fourth, the smart
상기 스마트제스처인식부(340)는 추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시킨 후, 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하여 특정 제스처가 어디에 매칭되는지를 인식시키는 역할을 한다.The smart
이는 도 5에 도시한 바와 같이, 제스처분류부(341), 제스처비교분석부(342), 제스처인식부(343)로 구성된다.
As shown in FIG. 5, the
상기 제스처분류부(341)는 추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시키는 역할을 한다.The
이는 제스처분류기준을 얼굴움직임, 팔움직임, 손 움직임, 손가락 움직임, 몸통움직임, 다리움직임으로 나누어 분류시킨 후, 움직이지 않고 정지된 상태를 정적 제스처 영역으로 설정시키고, 움직이고 활동된 상태를 동적 제스처 영역으로 설정시킨다.
This is because the gesture classification standard is divided into facial movement, arm movement, hand movement, finger movement, body movement, and leg movement, and then the moving state is set as a static gesture region without moving, .
상기 제스처비교분석부(342)는 제스처분류부를 통해 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하는 역할을 한다.The gesture comparison and
여기서, 기준제스처모델은 사람의 몸인 얼굴, 팔, 손가락, 몸통, 다리에서 움직이는 것을 모두 제스처모델링시킨다.
Here, the reference gesture model gestures all the movements of a person's face, arms, fingers, torso, and legs.
상기 제스처인식부(343)는 제스처비교분석부에서 비교분석된 특정 제스처를 기준으로 어떠한 제스처 유형인지를 매칭하여 인식시키는 역할을 한다.The
여기서, 제스처 유형은 제스처 종류(얼굴움직임, 팔움직임, 손 움직임, 손가락 움직임, 몸통움직임, 다리움직임), 제스처 개수에 맞게 셋업(SETUP)테이블화시켜 미리 저장시킨다.
Here, the gesture type is stored in advance as a SETUP table according to the type of gesture (facial motion, arm motion, hand motion, finger motion, body motion, leg motion) and the number of gestures.
다섯째, 본 발명에 따른 액션이벤트제어부(350)에 관해 설명한다.Fifth, an action event control unit 350 according to the present invention will be described.
상기 액션이벤트제어부(350)는 스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 기기쪽으로 액션이벤트제어신호를 출력시키는 역할을 한다.The action event control unit 350 invokes a predetermined action event according to a specific gesture based on the specific gesture recognized by the smart gesture recognition unit and outputs an action event control signal to the device.
이는 도 9에서 도시한 바와 같이, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "한 점 클릭"이면, "한 점 클릭"의 비접촉식 특정 제스처에 맞는 "위치를 선택하기"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "한 점 더블 클릭"이면, "한 점 더블 클릭"의 비접촉식 특정 제스처에 맞는 "크게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "두 점 클릭"이면, "두 점 클릭"의 비접촉식 특정 제스처에 맞는 "작게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "두 점 더블 클릭"이면, "두 점 더블 클릭"의 비접촉식 특정 제스처에 맞는 "크게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "세 점 클릭"이면, "세 점 클릭"의 비접촉식 특정 제스처에 맞는 "작게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "네 점 클릭"이면, "네 점 클릭"의 비접촉식 특정 제스처에 맞는 "작게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "한 점 이동"이면, "한 점 이동"의 비접촉식 특정 제스처에 맞는 "이동하기"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "세 점 위로 이동"이면, "세 점 위로 이동"의 비접촉식 특정 제스처에 맞는 "3D 공간 앞으로 회전"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "세 점 아래로 이동"이면, "세 점 아래로 이동"의 비접촉식 특정 제스처에 맞는 "3D공간 뒤로 회전"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키도록 구성된다.9, when the non-contact specific gesture recognized by the smart gesture recognition unit is "one point click ", an action event called" Select location "matching the noncontact specific gesture of" (Fixed value) "corresponding to a non-contact specific gesture of" one-point double-click "when the non-contact specific gesture recognized by the smart gesture recognition unit is" one-point double- Contact type specific gesture recognized by the smart gesture recognizing unit is "two-point click ", a" small size " corresponding to the noncontact specific gesture of " Quot; fixed value) "to output an action event control signal to the device, and the non-contact specific item recognized by the smart gesture recognizing unit If the skater is a "double-point double-click," an action event called "enlarge (fixed value)" corresponding to a non-contact specific gesture of "double point double click" is invoked to output an action event control signal to the device, Quot; small fixed value "corresponding to the non-contact specific gesture of" click three points " if the noncontact specific gesture recognized by the unit is "three-point click ", and outputs an action event control signal to the apparatus , And if the non-contact specific gesture recognized by the smart gesture recognition unit is "four-point click ", an action event called" small-sized (fixed numerical value) "matching the non- Contact specific gesture recognized by the smart gesture recognition unit is "one point movement ", a" movement " corresponding to the non-contact specific gesture of & Contact type specific gesture recognized by the smart gesture recognition unit is "moving up three points ", a corresponding non-contact specific gesture of" moving up three points " Quot; move to three points below "if the non-contact specific gesture recognized by the smart gesture recognition unit is " moving down three points" Invites an action event called "3D space backward" for a non-contact specific gesture, and outputs an action event control signal to the device.
도 9에 도시된 제스처유형은 비접촉식 특정 제스처로서, 제스처카메라부 상에서 사용자의 움직임에 의해 형성되는 제스처를 말한다.
The gesture type shown in Fig. 9 is a non-contact specific gesture, which refers to a gesture formed by the movement of the user on the gesture camera unit.
여섯째, 본 발명에 따른 실감미디어컨텐츠인터페이스부(360)에 관해 설명한다.Sixth, realistic media
상기 실감미디어컨텐츠인터페이스부(360)는 스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 실감미디어컨텐츠를 인터페이스시켜 기기쪽에 특정 제스처에 따른 실감미디어컨텐츠를 표출시키는 역할을 한다.The sensible media
이는 제스처유저인터페이스(Gestural User Interface)가 포함되어 구성된다.It consists of a gestural user interface.
상기 제스처유저인터페이스(Gestural User Interface)(361)는 몸의 움직임을 이용해 디스플레이 기능을 갖는 기기쪽에 실감미디어컨텐츠를 인터페이스시켜 표출시키는 역할을 한다.The gestural user interface 361 interfaces the actual media content to the device having the display function by using the body movement.
일예로, 포인팅 디바이스로 손가락을 쓴다거나 몸짓을 이용하기 때문에 상당히 직과적이라는 장점이 있다.For example, a pointing device has the advantage of being quite straightforward because it uses fingers or gestures.
친숙한 동작들을 제스처로 사용하기 때문에, 처음 접하는 사람도 쉽게 적용할 수가 있다.Because it uses familiar gestures as gestures, it can easily be applied to the first person.
본 발명에 따른 제스처유저인터페이스는 터치스크린이나 자유롭게 신체의 움직임을 이용하는 형태의 모든 범주에 속하도록 구성된다.The gesture user interface according to the present invention is configured to belong to all categories of a form using a touch screen or body motion freely.
그리고, 전후 맥락(Context)에 따라 구성되고, 제스처유저인터페이스 제어는 사용자의 예정된 움직임에 근거하여 구성된다.And is configured in accordance with the context, and the gesture user interface control is configured based on the user's intended movement.
또한, 각각의 제스처 방식이 어떤 점에서 최선이고 어떤 점에서 최악인지를 알도록 구성된다. 사용자는 주어진 상황에서 최소한의 노력으로 입력방법을 선택한다.It is also configured to know at what point each gesture scheme is best and at what point it is worst. The user selects the input method with minimal effort in a given situation.
그리고, 새로운 인터랙션이 추가되거나 업데이트되도록 구성된다.And a new interaction is added or updated.
상기 실감미디어컨텐츠는 애니메이션 캐릭터, 아바타, 게임 캐릭터 등을 모두 포함한다.
The sensible media contents include an animation character, an avatar, a game character, and the like.
본 발명에 따른 실감미디어컨텐츠인터페이스부(360)는 표 1에서 도시한 바와 같이, 특정 제스처에 맞는 실감미디어컨텐츠DB부(362)가 포함되어 구성된다. As shown in Table 1, the sensible media
상기 실감미디어컨텐츠인터페이스부(360)는 스마트제스처인식부에서 인식된 특정 제스처가 "앞으로 한발 이동, 뒤로 한발 이동"이면, "앞으로 한발 이동, 뒤로 한발 이동"의 특정 제스처에 맞는 "캐릭터 전진, 후진"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 전진, 후진"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "오른손 움직임"이면, "오른손 움직임"의 특정 제스처에 맞는 "캐릭터 시야 변경"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 시야 변경"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "점프"이면, "점프"의 특정 제스처에 맞는 "캐릭터 점프"이라는 실감미디어컨텐츠를 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 점프"이라는 실감미디어컨텐츠를 표출시키며, 스마트제스처인식부에서 인식된 특정 제스처가 "앉기"이면, "앉기"의 특정 제스처에 맞는 "캐릭터 앉기"이라는 실감미디어컨텐츠를 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 앉기"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "오른손 내밀기"이면, "오른손 내밀기"의 특정 제스처에 맞는 "공격 모션"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "공격 모션"이라는 실감미디어컨텐츠를 표출시키며, 스마트제스처인식부에서 인식된 특정 제스처가 "왼손 내밀고 ↓ 움직임"이면, "왼손 내밀고 ↓ 움직임"의 특정 제스처에 맞는 "캐릭터 일시종료"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 일시종료"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "오른손 내밀고 ↑ 움직임"이면, "오른손 내밀고 ↑ 움직임"의 특정 제스처에 맞는 "캐릭터 게임종료"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 게임종료"이라는 실감미디어컨텐츠를 표출시킨다.If the specific gesture recognized by the smart gesture recognizing unit is "one foot move, one foot move ", the sensible media content interface unit 360 outputs a character advance Quot; is displayed in the sensible media content DB unit 362 and is interfaced to express realistic media content called "character forward and backward" on the device side, and the specific gesture recognized by the smart gesture recognition unit is called " Quot; change the character field of view " corresponding to the specific gesture of the "right-hand motion" in the real-effect media content DB unit 362 and displays the real- If the specific gesture recognized by the smart gesture recognition unit is "jump ", a" character jump " Quot; character jump "is displayed on the device side by bringing the real-sensed media content into the real-sensible media content DB unit 362 and interfaces the real-sensed media content to the device, and when the specific gesture recognized by the smart gesture recognition unit is" Quot; character sitting "corresponding to a specific gesture of" sitting "is displayed in the sensible media content DB unit 362 by interrogating the sensible media contents in the sensible media contents DB unit 362 and the sensible media contents called" , And if the specific gesture recognized by the smart gesture recognition unit is "right-handed outline ", realistic media content called" attack motion "matching the specific gesture of &Quot; attack motion "is displayed on the side of the gesture recognition section, and the specific gesture recognized by the smart gesture recognition section If the target is "left hand extended ↓ movement", realistic media contents called "character temporary end" corresponding to a specific gesture of "left hand extended ↓ movement" are called up in real media content DB unit 362 and interfaced to " And if the specific gesture recognized by the smart gesture recognizing unit is "right hand extended & up ", realistic media contents called" character game end "matching a specific gesture of " Called by the content DB unit 362, and interfaces with the device to display real-life media content called "end of character game ".
또한, 스마트제스처인식부에서 인식된 특정 제스처가 "스파링자세(왼손, 오른손 겹친 움직임)"이면, "스파링자세(왼손, 오른손 겹친 움직임)"의 특정 제스처에 맞는 "캐릭터 스파링자세"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 스파링자세"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "왼손과 오른손을 "X"자형으로 크로싱 움직임"이면, "왼손과 오른손을 "X"자형으로 크로싱 움직임"의 특정 제스처에 맞는 "캐릭터 방패막 형성"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 방패막 형성"이라는 실감미디어컨텐츠를 표출시키며, 스마트제스처인식부에서 인식된 특정 제스처가 "왼손을 쫙펴고 일자형 움직임"이면, "왼손을 쫙펴고 일자형 움직임"의 특정 제스처에 맞는 "캐릭터 칼 모션"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(362)에서 불러와, 인터페이스시켜 기기쪽에 "캐릭터 칼 모션"이라는 실감미디어컨텐츠를 표출시킨다.
If the specific gesture recognized by the smart gesture recognition unit is a "sparring posture (left hand, right hand overlapping movement) ", the sensory media content" character sparring posture "corresponding to a specific gesture of" sparring posture Quot; character sparring attitude "is displayed on the device side, and the specific gesture recognized by the smart gesture recognizing unit is" X "shaped in the left and right hands Realizing media content called " formation of a character shielding film "corresponding to a specific gesture of " crossing movement of the left hand and right hand" in the " crossing movement ", the sensible media content DB unit 362 calls, Character shielding film formation ", and the specific gesture recognized by the smart gesture recognition unit is expressed as" Type motion ", real-life media content called" character knife motion "corresponding to a specific gesture of" spreading left-handed and straight-line motion "is called in real-life media content DB unit 362 and interfaced, Express realistic media contents.
이하, 본 발명에 따른 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식방법에 관해 설명한다.
Hereinafter, a non-contact smart gesture recognizing method for performing an action event / actual feeling media content linking according to the present invention will be described.
먼저, 도 10에 도시한 바와 같이, 트라이앵글형 적외선센서부를 통해 트라이앵글형 적외선을 쏴서, 사람의 몸을 트라이앵글형상으로 기준포인트화시켜 포커스 스캔시킨다(S100).
First, as shown in FIG. 10, a triangle-shaped infrared ray is shot through a triangle-type infrared sensor unit, and a human's body is made a reference point in a triangle shape to perform focus scanning (S100).
다음으로, 제스처카메라부를 통해 사람의 몸에 닿아 다시 반사되는 트라이앵글형 적외선을 촬영시켜 사람의 움직임에 따른 제스처이미지를 획득시킨다(S200).
Next, a gesture image corresponding to a movement of a person is obtained by photographing a triangle-type infrared ray which is reflected again by touching a human body through a gesture camera unit (S200).
다음으로, 스마트제스처제어부의 제스처영역추출부에서 제스처카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시킨다(S300).
Next, in the gesture region extraction unit of the smart gesture control unit, only the gesture region excluding the background region is extracted from the gesture image acquired from the gesture camera unit (S300).
다음으로, 스마트제스처제어부의 스마트제스처인식부에서 추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시킨 후, 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하여 특정 제스처가 어디에 매칭되는지를 인식시킨다(S400).
Next, the gesture region extracted from the smart gesture recognition unit of the smart gesture control unit is subdivided into a static gesture region or a dynamic gesture region, and then the static gesture region and the dynamic gesture region are compared with the reference gesture model, And recognizes where the gesture is matched (S400).
다음으로, 스마트제스처제어부의 액션이벤트제어부에서 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 기기쪽으로 액션이벤트제어신호를 출력시킨다(S500).
Next, the action event control unit of the smart gesture control unit calls an action event preset in accordance with the specific gesture, and outputs an action event control signal to the device (S500).
끝으로, 스마트제스처제어부의 실감미디어컨텐츠인터페이스부에서 특정 제스처에 맞게 미리 설정된 실감미디어컨텐츠를 인터페이스시켜 기기쪽에 특정 제스처에 따른 실감미디어컨텐츠를 표출시킨다(S600).
Finally, the sensible media content interface unit of the smart gesture control unit interfaces preset sensible media content according to a specific gesture to display actual sensible media content according to a specific gesture on the device (S600).
이처럼, 본 발명에 따른 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식방법을 응용하여 미디어 아트, 멀티 터치테이블, 동작트래킹시스템, 인터렉티브 디자인, 가전기기 컨트롤러, OS 내 프로그램 컨트롤러에 적용시켜 사용할 수가 있다.
As described above, the contactless smart gesture recognition method for interlocking the action event / actual feeling media contents according to the present invention is applied to the media art, the multi-touch table, the motion tracking system, the interactive design, the appliance controller, and the program controller in the OS There is a number.
1 : 비접촉 스마트제스처인식장치 100 : 트라이앵글형 적외선센서부
200 : 제스처카메라부 300 : 스마트제스처제어부1: Contactless Smart Gesture Recognition Apparatus 100: Triangle Infrared Sensor Unit
200: gesture camera unit 300: smart gesture control unit
Claims (7)
트라이앵글형 적외선센서부 일측에 위치되어, 트라이앵글형 적외선센서부를 통해 사람의 몸에 닿아 다시 반사되는 트라이앵글형 적외선을 촬영시켜 사람의 움직임에 따른 제스처이미지를 획득시키는 제스처카메라부(200)와,
제스처카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시킨 후, 추출시킨 제스처영역에다가 기준제스처모델과 비교·분석하여 특정 제스처를 인식시켜 기기쪽으로 액션이벤트 또는 미디어컨텐츠연동을 수행시키도록 제어시키는 스마트제스처제어부(300)로 구성되는 것을 특징으로 하는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치.
A triangle type infrared ray sensor unit which is provided at one side of the apparatus and shoots a triangle type infrared ray including a first infrared ray point, a second infrared ray point and a third infrared ray point in front and focuses the human body to a reference point in a triangle shape, 100,
A gesture camera unit 200 positioned at one side of the triangle-type infrared sensor unit, capturing a triangle-type infrared ray reflected from a human body through a triangle-type infrared sensor unit to acquire a gesture image according to a movement of a person,
In the gesture image obtained from the gesture camera part, only the gesture area excluding the background area is extracted. Then, the extracted gesture area is compared with the reference gesture model and analyzed to recognize the specific gesture, so that the action event or the media content is linked to the device And a smart gesture controller (300) for controlling the smart gesture controller (300).
사람의 몸 일측에 적외선프로젝트를 쏴서 제1 적외선포인트를 형성시키는 제1 적외선포인트센서부(110)와,
사람의 몸 타측에 적외선프로젝트를 쏴서 제2 적외선포인트를 형성시키는 제2 적외선포인트센서부(120)와,
사람의 몸 타측에 적외선프로젝트를 쏴서 제3 적외선포인트를 형성시키는 제3 적외선포인트센서부(130)와,
사람의 몸에 쏴주는 제1 적외선포인트센서부의 제1 적외선포인트, 제2 적외선포인트센서부의 제2 적외선포인트, 제3 적외선포인트센서부의 제3 적외선포인트를 가변시켜 하나의 트라이앵글형상으로 형성시킨 후, 사람의 몸을 트라이앵글형상으로 기준포인트화시켜 포커스 스캔시키도록 제어하는 트라이앵글형스캔제어부(140)로 구성되는 것을 특징으로 하는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치.
2. The apparatus according to claim 1, wherein the triangle-type infrared sensor unit (100)
A first infrared point sensor unit 110 for forming a first infrared point by shooting an infrared project on one side of the human body,
A second infrared point sensor unit 120 for forming a second infrared point by shooting an infrared ray project on the other side of the human body,
A third infrared point sensor unit 130 for shooting an infrared ray project on the other side of the human body to form a third infrared ray point,
The first infrared point of the first infrared point sensor unit, the second infrared point of the second infrared point sensor unit, and the third infrared point of the third infrared point sensor unit are varied to form a triangle shape, And a triangle scan control unit (140) for controlling the focus scan of the human body in the form of a triangle as a reference point. The non-contact smart gesture recognition apparatus of claim 1,
사람의 움직임에 따른 제스처이미지를 획득시, 제스처 위치 중 X축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 앞뒤의 제스처로 설정시키고, 제스처 위치 중 Z축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 좌우의 제스처로 설정시키며, 제스처 위치 중 Y축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 상하의 제스처로 설정시키는 3D좌표설정부가 포함되어 구성되는 것을 특징으로 하는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치.
The apparatus according to claim 1, wherein the gesture camera unit (200)
When acquiring a gesture image according to the movement of a person, the X-axis of the gesture position is expressed as a front-rear gesture based on the front side of the camera by displaying the coordinates from the -value to the + value, and the Z- And a 3D coordinate setting unit for setting coordinates of the gesture position from the minus (-) value to the plus (+) value and setting the upper and lower gestures based on the camera front face Contact smart gesture recognition device that performs an action event, real-life media content link.
제스처카메라부로부터 획득한 제스처이미지에서 미리 설정된 RGB 히스토그램을 이용하여 배경영역을 제외한 제스처영역만을 추출시키는 제스처영역추출부(310)와,
제스처영역추출부에서 추출된 제스처 영역에서 색상정보를 이용하여 HSV 히스토그램을 생성시키는 HSV 히스토그램생성부(320)와,
사람의 움직임에 따른 제스처패턴을 DB화시켜 기준제스처모델로 미리 설정시키는 기준제스처모델링설정부(330)와,
추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시킨 후, 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하여 특정 제스처가 어디에 매칭되는지를 인식시키는 스마트제스처인식부(340)와,
스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 기기쪽으로 액션이벤트제어신호를 출력시키는 액션이벤트제어부(350)와,
스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 실감미디어컨텐츠를 인터페이스시켜 기기쪽에 특정 제스처에 따른 실감미디어컨텐츠를 표출시키는 실감미디어컨텐츠인터페이스부(360)로 구성되는 것을 특징으로 하는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치.
The apparatus of claim 1, wherein the smart gesture controller (300)
A gesture region extraction unit 310 for extracting only a gesture region excluding a background region using a RGB histogram set in advance in a gesture image acquired from the gesture camera unit;
An HSV histogram generator 320 for generating an HSV histogram using color information in a gesture region extracted by the gesture region extracting unit,
A reference gesture modeling setting unit 330 configured to convert a gesture pattern according to a person's movement into a DB and presetting the gesture pattern as a reference gesture model,
A smart gesture recognition unit for classifying the extracted gesture area into a static gesture area or a dynamic gesture area and then classifying and classifying the extracted gesture area and dynamic gesture area into a classified gesture area and a dynamic gesture area, (340)
An action event control unit 350 that invokes a predetermined action event according to a specific gesture based on the specific gesture recognized by the smart gesture recognition unit and outputs an action event control signal to the device,
And a sensible media content interface unit 360 for interfacing sensible media contents predetermined according to a specific gesture on the basis of the specific gesture recognized by the smart gesture recognition unit and displaying the sensible media content according to a specific gesture on the device side Contact smart gesture recognition device that performs an action event, real-life media content link.
추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시키는 제스처분류부(341)와,
제스처분류부를 통해 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하는 제스처비교분석부(342)와,
제스처비교분석부에서 비교분석된 특정 제스처를 기준으로 어떠한 제스처 유형인지를 매칭하여 인식시키는 제스처인식부(343)로 구성되는 것을 특징으로 하는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치.
The method of claim 4, wherein the smart gesture recognition unit (340)
A gesture classifying unit 341 for classifying and classifying the extracted gesture region into a static gesture region or a dynamic gesture region,
A gesture comparison and analysis unit 342 for comparing and analyzing the static gesture area and the dynamic gesture area classified with the gesture classification unit with the reference gesture model,
And a gesture recognition unit (343) for matching and recognizing any gesture type on the basis of a specific gesture that is compared and analyzed by the gesture comparison and analysis unit. The non-contact smart gesture recognition device .
몸의 움직임을 이용해 디스플레이 기능을 갖는 기기쪽에 실감미디어컨텐츠를 인터페이스시켜 표출시키는 제스처유저인터페이스(Gestural User Interface)(361)로 구성되는 것을 특징으로 하는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식장치.
5. The real-time media content interface unit (360) according to claim 4,
And a gestural user interface (361) for interfacing the sensible media contents to the device having the display function using the movement of the body. The contactless smart gesture Recognition device.
제스처카메라부를 통해 사람의 몸에 닿아 다시 반사되는 트라이앵글형 적외선을 촬영시켜 사람의 움직임에 따른 제스처이미지를 획득시키는 단계(S200)와,
스마트제스처제어부의 제스처영역추출부에서 제스처카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시키는 단계(S300)와,
스마트제스처제어부의 스마트제스처인식부에서 추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시킨 후, 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하여 특정 제스처가 어디에 매칭되는지를 인식시키는 단계(S400)와,
스마트제스처제어부의 액션이벤트제어부에서 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 기기쪽으로 액션이벤트제어신호를 출력시키는 단계(S500)와,
스마트제스처제어부의 실감미디어컨텐츠인터페이스부에서 특정 제스처에 맞게 미리 설정된 실감미디어컨텐츠를 인터페이스시켜 기기쪽에 특정 제스처에 따른 실감미디어컨텐츠를 표출시키는 단계(S600)로 이루어지는 것을 특징으로 하는 액션이벤트·실감미디어컨텐츠연동을 수행하는 비접촉 스마트제스처인식방법.
A step (S100) of shooting a triangle-shaped infrared ray through the triangle-type infrared ray sensor unit and focusing the human body into a triangle-shaped reference point,
A step (S200) of acquiring a gesture image according to a movement of a person by shooting a triangle-type infrared ray which is reflected again by touching a human body through a gesture camera unit,
A step (S300) of extracting only a gesture region excluding a background region from a gesture image acquired from a gesture camera unit in a gesture region extraction unit of a smart gesture control unit;
The gesture region extracted from the smart gesture recognition unit of the smart gesture control unit is divided into a static gesture region or a dynamic gesture region and classified and classified into a static gesture region and a dynamic gesture region and compared with a reference gesture model, (Step S400)
(S500) of causing an action event control unit of the smart gesture control unit to fetch an action event preset in accordance with a specific gesture and outputting an action event control signal to the device,
And a step (S600) of displaying actual sensed media contents according to a specific gesture on the device side by interfacing actual sensed media contents preset in accordance with a specific gesture in the real sense media content interface unit of the smart gesture control unit A contactless smart gesture recognition method performing interworking.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150073637A KR20160141023A (en) | 2015-05-27 | 2015-05-27 | The method of dynamic and static gesture recognition using depth camera and interface of immersive media contents |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150073637A KR20160141023A (en) | 2015-05-27 | 2015-05-27 | The method of dynamic and static gesture recognition using depth camera and interface of immersive media contents |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160141023A true KR20160141023A (en) | 2016-12-08 |
Family
ID=57576991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150073637A Abandoned KR20160141023A (en) | 2015-05-27 | 2015-05-27 | The method of dynamic and static gesture recognition using depth camera and interface of immersive media contents |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160141023A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710449A (en) * | 2018-05-02 | 2018-10-26 | Oppo广东移动通信有限公司 | Electronic device |
CN108762487A (en) * | 2018-05-02 | 2018-11-06 | Oppo广东移动通信有限公司 | Electronic device |
CN108985227A (en) * | 2018-07-16 | 2018-12-11 | 杭州电子科技大学 | A kind of action description and evaluation method based on space triangular plane characteristic |
KR102579463B1 (en) | 2022-11-28 | 2023-09-15 | 주식회사 에스씨크리에이티브 | Media art system based on extended reality technology |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101114989B1 (en) | 2010-11-11 | 2012-03-06 | (주)유비쿼터스통신 | Sex offender monitoring system using electronic anklet sensing camera for cctv |
-
2015
- 2015-05-27 KR KR1020150073637A patent/KR20160141023A/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101114989B1 (en) | 2010-11-11 | 2012-03-06 | (주)유비쿼터스통신 | Sex offender monitoring system using electronic anklet sensing camera for cctv |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710449A (en) * | 2018-05-02 | 2018-10-26 | Oppo广东移动通信有限公司 | Electronic device |
CN108762487A (en) * | 2018-05-02 | 2018-11-06 | Oppo广东移动通信有限公司 | Electronic device |
CN108710449B (en) * | 2018-05-02 | 2022-03-22 | Oppo广东移动通信有限公司 | Electronic device |
CN108985227A (en) * | 2018-07-16 | 2018-12-11 | 杭州电子科技大学 | A kind of action description and evaluation method based on space triangular plane characteristic |
CN108985227B (en) * | 2018-07-16 | 2021-06-11 | 杭州电子科技大学 | Motion description and evaluation method based on space triangular plane features |
KR102579463B1 (en) | 2022-11-28 | 2023-09-15 | 주식회사 에스씨크리에이티브 | Media art system based on extended reality technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2095296B1 (en) | A method and system for providing a three-dimensional model of an object of interest. | |
CN108845668B (en) | Human-computer interaction system and method | |
CN106598227B (en) | Gesture identification method based on Leap Motion and Kinect | |
US20170293364A1 (en) | Gesture-based control system | |
US20130335318A1 (en) | Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers | |
Lee et al. | 3D natural hand interaction for AR applications | |
CN107357428A (en) | Man-machine interaction method and device based on gesture identification, system | |
CN114170407B (en) | Model mapping method, device, equipment and storage medium for input equipment | |
Palleja et al. | Implementation of a robust absolute virtual head mouse combining face detection, template matching and optical flow algorithms | |
KR20160141023A (en) | The method of dynamic and static gesture recognition using depth camera and interface of immersive media contents | |
Fadzli et al. | VoxAR: 3D modelling editor using real hands gesture for augmented reality | |
KR101525011B1 (en) | tangible virtual reality display control device based on NUI, and method thereof | |
Hartanto et al. | Real time hand gesture movements tracking and recognizing system | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
Abdallah et al. | An overview of gesture recognition | |
Xu et al. | Bare hand gesture recognition with a single color camera | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
Raees et al. | Thumb inclination-based manipulation and exploration, a machine learning based interaction technique for virtual environments | |
Jaiswal et al. | Creative exploration of scaled product family 3D models using gesture based conceptual computer aided design (C-CAD) tool | |
Varga et al. | Survey and investigation of hand motion processing technologies for compliance with shape conceptualization | |
Verma et al. | 7. Machine vision for human–machine interaction using hand gesture recognition | |
Ahn et al. | A VR/AR Interface Design based on Unaligned Hand Position and Gaze Direction | |
Diaz et al. | Preliminary experimental study of marker-based hand gesture recognition system | |
XUAN | REAL TIME GESTURE RECOGNITION SYSTEM FOR ADAS | |
Van den Bergh et al. | Perceptive user interface, a generic approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150527 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20160729 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20170119 |
|
PC1904 | Unpaid initial registration fee |