[go: up one dir, main page]

KR20140137564A - 3 Dimensional Image Sensing System for Human Tracking and Its Method - Google Patents

3 Dimensional Image Sensing System for Human Tracking and Its Method Download PDF

Info

Publication number
KR20140137564A
KR20140137564A KR1020130058183A KR20130058183A KR20140137564A KR 20140137564 A KR20140137564 A KR 20140137564A KR 1020130058183 A KR1020130058183 A KR 1020130058183A KR 20130058183 A KR20130058183 A KR 20130058183A KR 20140137564 A KR20140137564 A KR 20140137564A
Authority
KR
South Korea
Prior art keywords
information
camera
data
image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020130058183A
Other languages
Korean (ko)
Inventor
정순기
정승대
박찬흠
이재강
모문정
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020130058183A priority Critical patent/KR20140137564A/en
Publication of KR20140137564A publication Critical patent/KR20140137564A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 인물 추적용 3차원 이미지 센싱 시스템 및 그 방법에 관한 것으로서, 특히 인물 추적용 3차원 이미지 센싱 시스템은 인물 영상을 촬영하는 카메라 장치 및 상기 카메라 장치로부터 전송되는 인물 영상을 분석하여 인물 상태 정보를 추출한 후에 상기 카메라 장치로 카메라 제어정보를 전송하는 이미지 센싱 장치를 포함하는 인물 추적용 이미지 센싱 시스템에 있어서, 상기 이미지 센싱 장치는, 상기 카메라 장치로부터 획득한 인물 영상을 수신하는 데이터 수신부; 상기 데이터 수신부에서 전송되는 인물 영상으로부터 얼굴 인식 영상을 추출하여 얼굴 방향 정보를 확인하고, 상기 인물 영상으로부터 깊이 정보를 추출하여 뼈대 데이터를 분리하는 데이터 추출부; 상기 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 상기 카메라 장치의 위치 보정을 수행하여 위치 보정 데이터를 획득하는 위치 보정부; 상기 얼굴 방향 정보, 상기 뼈대 데이터 및 위치 보정 데이터를 근거로 하여 현재 인물의 위치 정보, 뼈대의 자세 정보, 얼굴 방향 정보 또는 움직임 정보 중 하나 이상의 인물 상태 정보를 추출하여 전송하는 데이터 분석부; 상기 데이터 분석부로부터 전송받은 상기 인물 상태 정보를 근거로 상기 카메라 장치의 동작 상태를 결정하는 카메라 제어정보를 출력하는 제어부; 및 상기 카메라 제어정보를 상기 카메라 장치로 송신하는 데이터 송신부를 포함한다. 따라서, 본 발명은 인물의 위치와 행동을 추적하면서 무인으로 자동 촬영할 수 있고, 교육용 영상 컨텐츠 제작시 강사의 위치, 손의 위치 및 얼굴 방향 등을 추적하면서 강의 내용을 보다 효과적으로 촬영할 수 있을 뿐만 아니라 카메라 촬영 기사의 움직임이나 카메라 작동 중에 발생하는 소음 등이 최소화되어 강의 도중 발생되는 카메라 조작 소음으로 인한 수강생의 집중력 저하를 최소화할 수 있 다.The present invention relates to a three-dimensional image sensing system for a human figure and a method thereof, and more particularly, to a three-dimensional image sensing system for a human figure, which comprises a camera device for photographing a character image and a character image transmitted from the camera device, And an image sensing device for transmitting the camera control information to the camera device after extracting the camera control information, wherein the image sensing device comprises: a data receiver for receiving a person image acquired from the camera device; A data extracting unit for extracting a face recognition image from a portrait image transmitted from the data receiving unit to confirm face direction information, extracting depth information from the portrait image and separating skeleton data; A position correcting unit for matching the skeleton data with each landmark of the human body to convert the coordinate values of the camera coordinate system to coordinate values of the world coordinate system to perform position correction of the camera apparatus to obtain position correction data; A data analyzer for extracting and transmitting one or more pieces of person state information among position information of a current person, posture information of a skeleton, face direction information or motion information based on the face direction information, the skeleton data, and the position correction data; A controller for outputting camera control information for determining an operation state of the camera device based on the person state information transmitted from the data analyzer; And a data transmission unit for transmitting the camera control information to the camera apparatus. Therefore, the present invention can automatically photograph the position and behavior of the person while tracking the position of the person, and can record the contents of the lecture more effectively while tracking the position of the instructor, the position of the hand, The noise generated during the operation of the photographer or the camera operation is minimized, so that the deterioration of the concentration of the learner due to the camera operation noise generated during the lecture can be minimized.

Description

인물 추적용 3차원 이미지 센싱 시스템 및 그 방법{3 Dimensional Image Sensing System for Human Tracking and Its Method}{3 Dimensional Image Sensing System for Human Tracking and Its Method}

본 발명은 인물 추적용 3차원 이미지 센싱 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 3차원의 인물 영상에서 얼굴 방향 정보와 뼈대의 자세 정보를 추출하여 카메라 제어 정보로 활용함으로써 인물의 위치와 행동을 추적하면서 무인으로 자동 촬영할 수 있는 인물 추적용 3차원 이미지 센싱 시스템 및 그 방법에 관한 것이다.
The present invention relates to a three-dimensional image sensing system and method for tracking a person, and more particularly, to a system and method for three-dimensional image sensing using a three-dimensional person image, which extracts face direction information and posture information of a skeleton, Dimensional image sensing system and method for tracking a person, which can be automatically photographed without being tracked.

최근에는 직접 학원을 찾아가서 학습하는 오프라인 강의를 대신하여 시간과 공간의 제약이 없는 컴퓨터 또는 텔레비전 등을 통한 동영상 강의가 널리 이용되고 있다.In recent years, video lectures through computers or televisions that do not have time and space constraints have been widely used instead of offline lectures that go directly to academies.

이와 같은 동영상 강의는 학습자가 동영상을 시청하여 학습을 하는 것으로, 텔레비전을 통한 동영상의 학습 시에는 사용자가 단순히 화면을 보고 소리를 듣는 방식을 사용하며, 컴퓨터를 기반으로 한 동영상 콘텐츠의 학습시에는 대부분 사용자가 마우스와 키보드를 이용하여 입력을 실행하고 모니터 영상을 시청하고 스피커로 음향을 듣는 형태이다.In this video lecture, a learner watches a video and learns it. When learning a video through a television, a user simply looks at the screen and hears the sound. In learning a computer-based video content, The user executes the input using the mouse and the keyboard, watches the monitor image, and hears the sound through the speaker.

특히, 강사의 강의 내용의 영상을 녹화한 교육용 영상 컨텐츠는 최근 인터넷이 발달되고, 인터넷 사용자가 늘면서 서버를 통해 사용자에게 교육용 영상 컨텐츠를 제공하는 방법이 발달되고 있다.Particularly, educational video contents recording video of instructor's lectures are being developed in recent years as a way of providing educational video contents to users through servers while the Internet has been developed and the number of Internet users is increasing.

영상 컨텐츠의 제작을 위해서는 강사의 강의 내용의 영상을 녹화하기 위하여 강사가 강의를 실시하는 강의실 내에 카메라를 설치하고, 카메라의 조작이 능숙한 카메라 촬영 기사가 강사의 움직임에 따라 강사를 줌 인(zoom in) 또는 줌 아웃(zoom out)하고 카메라의 위치를 변경하면서 강사를 촬영하여 강의 내용의 영상을 녹화하였다.In order to create video contents, a camera is installed in a lecture room in which a lecturer lectures in order to record the lecture contents of a lecturer, and a camera photographer skilled in the operation of a camera zoom in ) Or zoom out, and the instructor was photographed while changing the position of the camera to record the video of the lecture contents.

이러한 종래의 강의 촬영 방법은 강사의 강의 내용을 촬영하기 위해 카메라의 조작이 능숙한 촬영 기사를 반드시 필요로 하였고, 강사의 움직임에 따라 촬영 기사가 카메라의 위치를 변경하면서 촬영하여야 하므로 강의 내용을 촬영하는 촬영 기사는 매우 분주하게 카메라를 수동으로 조작하면서 촬영하여야만 하는 불편한 점이 있었다.Such a conventional method of shooting a steel requires a photographer who is skilled in manipulating the camera to photograph the lecture contents of the lecturer. Since the photographer must take a picture while changing the position of the camera according to the motion of the lecturer, The photographer was inconvenient that he had to shoot the camera manually while very busy.

상기와 같은 문제점을 해결하고자, 자동으로 강사를 추적하여 강의를 촬영하는 기술들이 제시되고 있다. In order to solve the above problems, technologies for automatically tracing a lecturer and taking a lecture are proposed.

선행기술자료로써, 공개특허공보 제10-2004-0107954호(2004.12.23공개)를 보면, 자동 강사 추적시스템 및 추적 방법에 관한 기술내용이 공개되어 있다. As a prior art document, the disclosure of Patent Document No. 10-2004-0107954 (published on December 23, 2004) discloses a description of an automatic instructor tracking system and a tracking method.

도 1은 종래기술의 일 실시예에 따른 의한 자동 강사 추적 시스템을 설명하는 도면이다.1 is a diagram illustrating an automatic trainer tracking system according to an embodiment of the present invention.

도 1을 참고하면, 자동 강사 추적시스템 및 추적 방법은, 강단의 한쪽면에 일정한 높이와 일정한 간격으로 일렬로 배열되어 강사의 위치를 검출하기 위한 다수의 센서(100), 줌인/줌아웃 기능과 틸팅, 패닝 동작이 가능하여 제어명령에 따라 강사를 추적하면서 촬영할 수 있는 비디오 카메라(300), 및 센서(100)의 감지신호를 입력받아 해당 강사 위치로 비디오 카메라(300)를 이동시키는 컨트롤러(200)로 구성된다.Referring to FIG. 1, the automatic trainer tracking system and tracing method includes a plurality of sensors 100 arranged in a line at a predetermined height and at regular intervals on one side of a pulley so as to detect the position of a lecturer, a zooming / And a controller 200 for receiving the sensing signal of the sensor 100 and moving the video camera 300 to the lecturer position, and a controller 200 for receiving the sensing signal of the sensor 100 and moving the video camera 300 to the lecturer position, .

종래 기술의 자동 강사 추적시스템 및 추적 방법에서는 다수의 센서들(100)은 적외선 감지센서들로 구성되는데, 적외선 감지센서들은 발광부와 수광부가 일체로 형성되어 발광부를 통하여 적외선을 전방으로 발사하고, 발사된 적외선이 물체로부터 반사된 적외선을 수광부로 수광함으로써 물체를 감지한다. In the automatic lecture tracking system and tracking method of the related art, a plurality of sensors 100 are constituted by infrared ray sensors. The infrared ray sensors include a light emitting portion and a light receiving portion formed integrally with each other, emitting infrared rays forward through a light emitting portion, The emitted infrared ray senses the object by receiving the infrared ray reflected from the object to the light receiving section.

적외선 감지센서들의 감지거리는 조정볼륨을 통하여 강단의 전후 폭을 감안하여 대략 1.5m 이내로 조정된다. 또한, 강단의 우측 또는 좌측에 교탁이 설치된 경우에는 교탁이 감지되지 않도록 대응하는 센서들의 감지거리를 조정하여 세팅한다.The sensing distance of the infrared sensor is adjusted to within about 1.5m considering the front and rear width of the pulley through the adjustment volume. Further, in the case where a lectern is installed on the right or left side of the robots, the detection distance of the corresponding sensors is adjusted so as not to detect lectures.

그러나, 일반적인 센서는 감지거리를 정확하게 조절하는 것이 어렵고, 정확한 감지거리를 측정하는 센서는 고가이므로, 비용이 많이 든다는 문제점이 있다. 또한, 교탁 등의 위치는 달라질 수 있기 때문에 강단의 위치가 변경될 때마다 각 센서(100)의 감지거리를 조절해야 하는 번거로움이 있다.
However, it is difficult to precisely control the sensing distance of a general sensor, and a sensor that measures an accurate sensing distance is expensive, which is costly. In addition, since the position of a lecture can be changed, it is troublesome to adjust the detection distance of each sensor 100 every time the position of the strong end is changed.

본 발명은 컬러 영상과 깊이 영상을 합성한 3차원의 인물 영상에서 얼굴 방향 정보와 뼈대의 자세 정보를 추출하여 카메라 제어 정보로 활용함으로써 인물의 위치와 행동을 추적하면서 무인으로 자동 촬영할 수 있고, 교육용 영상 컨텐츠 제작시 강사의 위치를 추적하면서 강의 내용을 보다 효과적으로 촬영할 수 있을 뿐만 아니라 카메라 촬영 기사의 움직임이나 카메라 작동 중에 발생하는 소음 등이 최소화되어 강의 도중 발생되는 소음으로 인한 수강생의 집중력 저하를 최소화할 수 있는 인물 추적용 3차원 이미지 센싱 시스템 및 그 방법을 제공한다.
The present invention extracts face direction information and posture information of a skeleton from a three-dimensional portrait image obtained by synthesizing a color image and a depth image, and automatically captures the position and behavior of the person while tracking the position and behavior of the person, It is possible to record lecture contents more effectively while tracing the position of the lecturer in the production of image contents, and to minimize the learner's concentration loss due to the noise generated during the lecture because the movement of the camera photographer or the noise generated during the camera operation is minimized A three-dimensional image sensing system for tracking a person and a method therefor.

실시예들 중에서, 인물 추적용 3차원 이미지 센싱 시스템은, 인물 영상을 촬영하는 카메라 장치 및 상기 카메라 장치로부터 전송되는 인물 영상을 분석하여 인물 상태 정보를 추출한 후에 상기 카메라 장치로 카메라 제어정보를 전송하는 이미지 센싱 장치를 포함한다. 상기 이미지 센싱 장치는, 상기 카메라 장치로부터 획득한 인물 영상을 수신하는 데이터 수신부; 상기 데이터 수신부에서 전송되는 인물 영상으로부터 얼굴 인식 영상을 추출하여 얼굴 방향 정보를 확인하고, 상기 인물 영상으로부터 깊이 정보를 추출하여 뼈대 데이터를 분리하는 데이터 추출부; 상기 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 상기 카메라 장치의 위치 보정을 수행하여 위치 보정 데이터를 획득하는 위치 보정부; 상기 얼굴 방향 정보, 상기 뼈대 데이터 및 위치 보정 데이터를 근거로 하여 현재 인물의 위치 정보, 뼈대의 자세 정보, 얼굴 방향 정보 또는 움직임 정보 중 하나 이상의 인물 상태 정보를 추출하여 전송하는 데이터 분석부; 상기 데이터 분석부로부터 전송받은 상기 인물 상태 정보를 근거로 상기 카메라 장치의 동작 상태를 결정하는 카메라 제어정보를 출력하는 제어부; 및 상기 카메라 제어정보를 상기 카메라 장치로 송신하는 데이터 송신부를 포함한다.Among the embodiments, the three-dimensional image sensing system for tracking characters includes a camera device for photographing a portrait image and a portrait image transmitted from the camera device, extracting person state information, and then transmitting camera control information to the camera device And an image sensing device. The image sensing apparatus may further include: a data receiving unit that receives a portrait image acquired from the camera apparatus; A data extracting unit for extracting a face recognition image from a portrait image transmitted from the data receiving unit to confirm face direction information, extracting depth information from the portrait image and separating skeleton data; A position correcting unit for matching the skeleton data with each landmark of the human body to convert the coordinate values of the camera coordinate system to coordinate values of the world coordinate system to perform position correction of the camera apparatus to obtain position correction data; A data analyzer for extracting and transmitting one or more pieces of person state information among position information of a current person, posture information of a skeleton, face direction information or motion information based on the face direction information, the skeleton data, and the position correction data; A controller for outputting camera control information for determining an operation state of the camera device based on the person state information transmitted from the data analyzer; And a data transmission unit for transmitting the camera control information to the camera apparatus.

상기 카메라 장치는, 컬러(RGB) 이미지 센서, 적외선 센서 또는 심도 센서 중 적어도 하나 이상의 센서를 포함하고, 상기 적어도 하나 이상의 센서를 통해 컬러 영상과 깊이 영상을 합성하여 3차원의 인물 영상을 촬영하여 전송할 수 있다.The camera device may include at least one of a color (RGB) image sensor, an infrared sensor, and a depth sensor, and a color image and a depth image may be synthesized through the at least one sensor to capture and transmit a three- .

상기 데이터 추출부는, 상기 인물 영상에서 얼굴색 영역을 검출하여 얼굴 인식 영상을 생성하고, 상기 얼굴 인식 영상에서 눈 영역을 선택하여 상기 눈 영역에 대한 방향을 검출함으로써 얼굴 방향 정보를 확인하는 얼굴 인식부; 및 상기 인물 영상에서 인체의 각 특징점(Land-mark)의 기하학적 변화나 추가적인 센서를 이용한 깊이 정보를 추정하여 깊이 영상을 추출하고, 상기 깊이 영상에서 뼈대 데이터를 분리하는 뼈대 추출부를 포함할 수 있다.The data extracting unit may include a face recognizing unit for recognizing face direction information by detecting a facial color area in the portrait image to generate a face recognition image, selecting an eye area in the face recognition image and detecting a direction to the eye area, And a skeleton extracting unit for extracting a depth image by estimating a geometric change of each landmark of the human body or depth information using an additional sensor in the portrait image, and separating the skeleton data from the depth image.

상기 제어부는, 상기 인물 상태 정보를 기초로 인물의 위치 및 행동 정보에 따라 PTZ(Pan Tilt Zoom) 제어 정보를 생성하는 PTZ 제어 모듈을 추가로 포함하고, 상기 PTZ 제어 정보와 상기 카메라 장치의 꺼짐 동작, 대기 동작, 인식 동작, 추적 동작 중 어느 하나의 동작 상태를 결정하는 동작 상태 정보를 포함하여 카메라 제어정보를 생성 출력할 수 있다.The control unit may further include a PTZ control module for generating PTZ (Pan Tilt Zoom) control information according to the position and behavior information of the person based on the person state information. The PTZ control information and the off- , Operation state information for determining any one of an operation state, a waiting operation, a recognition operation, and a tracking operation, and generates and outputs camera control information.

실시예들 중에서, 인물 추적용 3차원 이미지 센싱 방법은, 인물 영상을 촬영하는 카메라 장치로부터 전송되는 인물 영상을 분석하여 인물 상태 정보를 추출한 후에 상기 카메라 장치로 카메라 제어정보를 전송하는 이미지 센싱 장치에서 수행하는 인물 추적용 이미지 센싱 방법에 있어서, 상기 카메라 장치로부터 획득한 인물 영상을 수신하는 데이터 수신 단계; 상기 인물 영상으로부터 얼굴 인식 영상을 추출하여 얼굴 방향 정보를 확인하고, 상기 인물 영상으로부터 깊이 정보를 추출하여 뼈대 데이터를 분리하는 데이터 추출 단계;Among the embodiments, the three-dimensional image sensing method for tracking a person includes an image sensing device for analyzing a portrait image transmitted from a camera device for capturing a portrait image to extract person state information, and then transmitting camera control information to the camera device A method of image sensing for tracking a person, the method comprising: receiving a character image acquired from the camera device; Extracting a face recognition image from the portrait image to confirm face direction information, extracting depth information from the portrait image, and separating skeleton data;

상기 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 상기 카메라 장치의 위치 보정 데이터를 획득하는 위치 보정 단계; 상기 얼굴 방향 정보, 상기 뼈대 데이터 및 위치 보정 데이터를 근거로 하여 현재 인물의 위치 정보, 뼈대의 자세 정보, 얼굴 방향 정보 또는 움직임 정보 중 하나 이상의 인물 상태 정보를 추출하여 전송하는 데이터 분석 단계; 상기 인물 상태 정보를 근거로 꺼짐 동작, 대기 동작, 인식 동작, 추적 동작 중 어느 하나의 동작 상태를 결정하는 카메라 제어정보를 출력하는 제어 단계; 및 상기 카메라 제어정보를 상기 카메라 장치로 송신하는 데이터 송신 단계를 포함한다.A position correcting step of matching the skeleton data with each landmark of the human body to convert the coordinate values of the camera coordinate system into coordinate values of the world coordinate system to obtain the position correction data of the camera device; Extracting and transmitting one or more pieces of person state information among position information of a current person, posture information of a skeleton, face direction information, or motion information based on the face direction information, the skeleton data, and the position correction data; A control step of outputting camera control information for determining an operation state of any one of an off operation, a standby operation, a recognition operation, and a tracking operation based on the person state information; And a data transmitting step of transmitting the camera control information to the camera apparatus.

상기 위치 보정 단계는, 상기 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 상기 카메라 장치의 위치 보정 여부를 확인하는 보정 판단 단계; 상기 보정 판단 단계에서 위치 보정이 필요하다고 판단한 경우에, 상기 카메라 장치 내 각 구성요소 간의 위치를 기준 보정값을 근거로 하여 보정하고, 상기 보정을 통해 얻어진 보정계수를 상기 보정 판단 단계로 전송하는 보정 수행 단계; 및 상기 보정 판단 단계에서 위치 보정이 필요하지 않다고 판단한 경우에, 상기 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 상기 카메라 장치의 위치 보정 데이터를 획득하는 데이터 획득 단계를 추가로 포함할 수 있다.The position correction step may include: a correction judgment step of checking whether the position of the camera device is corrected by matching the skeleton data with each landmark of the human body; And a correction unit that corrects the position of each component in the camera apparatus based on a reference correction value when it is determined that the position correction is necessary in the correction determination step and corrects the correction coefficient obtained through the correction to the correction determination step Performing step; And a data acquiring step of acquiring position correction data of the camera apparatus by converting the coordinate value of the camera coordinate system into the coordinate value of the world coordinate system when it is determined that the position correction is not necessary in the correction judgment step have.

상기 제어 단계는, 상기 카메라 제어정보에 상기 인물 상태 정보를 기초로 인물의 위치 및 행동 정보에 따라 산출된 PTZ(Pan Tilt Zoom) 제어 정보를 추가로 포함할 수 있다.
The control step may further include PTZ (Pan Tilt Zoom) control information calculated based on the position and behavior information of the person based on the person state information in the camera control information.

본 발명의 인물 추적용 3차원 이미지 센싱 시스템 및 그 방법은 컬러 영상과 깊이 영상을 합성한 3차원의 얼굴 영상에서 얼굴 방향 정보와 뼈대의 자세 정보를 추출하여 카메라 제어 정보로 활용함으로써 인물의 위치와 행동을 추적하면서 무인으로 자동 촬영할 수 있고, 교육용 영상 컨텐츠 제작시 강사의 위치, 손의 위치 및 얼굴 방향 등을 추적하면서 강의 내용을 보다 효과적으로 촬영할 수 있을 뿐만 아니라 카메라 촬영 기사의 움직임이나 카메라 작동 중에 발생하는 소음 등이 최소화되어 강의 도중 발생되는 카메라 조작 소음으로 인한 수강생의 집중력 저하를 최소화할 수 있는 효과가 있다.
The three-dimensional image sensing system and method of the present invention extracts face direction information and skeletal attitude information from a three-dimensional face image synthesized with a color image and a depth image, It is possible to capture the contents of the lecture more effectively while tracking the location of the instructor, the position of the hand and the direction of the face in the production of the educational image contents, So that the deterioration of the concentration of the learner due to the camera operation noise generated during the lecture can be minimized.

도 1은 종래기술의 일 실시예에 따른 의한 자동 강사 추적 시스템을 설명하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 인물 추적용 이미지 센싱 시스템의 구성을 설명하는 블록도이다.
도 3은 도 1의 얼굴 인식부의 얼굴 방향 인식 과정을 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 인물 추적용 이미지 센싱 방법을 설명하는 순서도이다.
1 is a diagram illustrating an automatic trainer tracking system according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a person tracking image sensing system according to an exemplary embodiment of the present invention.
FIG. 3 is a view for explaining the face direction recognition process of the face recognition unit of FIG. 1;
4 is a flowchart illustrating an image sensing method for tracking a person according to an exemplary embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The description of the present invention is merely an example for structural or functional explanation, and the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the present invention should be understood to include equivalents capable of realizing technical ideas. Also, the purpose or effect of the present invention should not be construed as limiting the scope of the present invention, since it does not mean that a specific embodiment should include all or only such effect.

한편, 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It should be understood that the singular " include "or" have "are to be construed as including a stated feature, number, step, operation, component, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the related art and can not be interpreted as having ideal or overly formal meaning unless explicitly defined in the present invention.

도 2는 본 발명의 일 실시예에 따른 인물 추적용 이미지 센싱 시스템의 구성을 설명하는 블록도이고, 도 3은 도 1의 얼굴 인식부의 얼굴 방향 인식 과정을 설명하는 도면이다.FIG. 2 is a block diagram for explaining a configuration of a person tracking image sensing system according to an embodiment of the present invention, and FIG. 3 is a view for explaining a face orientation recognition process of the face recognition unit of FIG.

도 2를 참고하면, 인물 추적용 이미지 센싱 시스템은 카메라 장치(110) 및 이미지 센싱 장치(120)를 포함한다.Referring to FIG. 2, the person tracking image sensing system includes a camera device 110 and an image sensing device 120.

카메라 장치(110)는 컬러(RGB) 이미지 센서(111), 적외선 센서(112) 또는 심도(Depth) 센서(113) 중 적어도 하나 이상의 센서를 포함하고, 적어도 하나 이상의 센서를 통해 컬러 영상과 깊이 영상을 합성한 3차원의 인물 영상을 생성하여 이미지 센싱 장치(120)로 전송한다. The camera device 110 includes at least one of a color (RGB) image sensor 111, an infrared sensor 112, or a depth sensor 113, And transmits the generated three-dimensional portrait image to the image sensing device 120. [0033] FIG.

이미지 센싱 장치(120)는 카메라 장치(110)로부터 전송되는 3차원의 인물 영상을 분석하여 현재 인물의 위치, 뼈대의 자세 정보, 얼굴 방향 정보 및 행동 정보를 포함하는 인물 상태 정보를 추출하고, 인물 상태 정보를 근거로 하여 카메라 제어정보를 생성하여 카메라 장치(110)에 전송함으로써 PTZ 제어 및 카메라 장치(110)의 동작 상태가 제어 되도록 한다. The image sensing device 120 analyzes the three-dimensional portrait image transmitted from the camera device 110 and extracts the person state information including the current position of the person, posture information of the skeleton, face direction information, and behavior information, Generates control information based on the status information, and transmits the control information to the camera device 110 so that the PTZ control and the operation state of the camera device 110 are controlled.

이러한 이미지 센싱 장치(120)는 데이터 수신부(121), 데이터 추출부(122), 위치 보정부(123), 데이터 분석부(124), 제어부(125) 및 데이터 송신부(126)를 포함한다. The image sensing apparatus 120 includes a data receiving unit 121, a data extracting unit 122, a position correcting unit 123, a data analyzing unit 124, a controller 125 and a data transmitting unit 126.

데이터 수신부(121)는 카메라 장치(110)로부터 획득한 3차원의 인물 영상을 수신하여 데이터 추출부(122)로 전송한다. The data receiving unit 121 receives the three-dimensional character image obtained from the camera device 110 and transmits the three-dimensional character image to the data extracting unit 122.

데이터 추출부(122)는 데이터 수신부(121)로부터 3차원의 인물 영상을 전송받아 얼굴 인식 영상과 깊이 영상을 추출한다. 데이터 추출부(122)는 얼굴 인식부(122a)와 뼈대 추출부(122b)를 포함한다.The data extracting unit 122 extracts the face recognition image and the depth image by receiving the three-dimensional person image from the data receiving unit 121. The data extracting unit 122 includes a face recognizing unit 122a and a skeleton extracting unit 122b.

얼굴 인식부(122a)는 인물 영상에서 얼굴색 영역을 검출하여 인물의 얼굴과 주변 영상을 구분하여 얼굴 인식 영상을 생성하고, 얼굴 인식 영상에서 눈 영역을 선택하여 눈 또는 눈동자의 위치가 어느 방향으로 향하고 있는지를 검출함으로써 얼굴 방향 정보를 확인한다. The face recognition unit 122a detects a face color region in the portrait image, generates a face recognition image by distinguishing the face of the person from the surrounding image, selects the eye region in the face recognition image, Thereby confirming the face direction information.

즉, 도 3에 도시된 바와 같이, 얼굴 인식부(122a)는 얼굴 인식 영상에서 눈 영역을 선택하여 두 눈이 정면을 향하고 있는 경우에 얼굴 방향을 정면 방향이라고 판단하고((a) 참조), 눈 영역에서 한쪽 눈이 오른쪽으로 쏠려있는 경우에 얼굴 방향을 오른쪽 방향이라고 판단하며((b) 참조), 눈 영역에서 한쪽 눈이 왼쪽으로 쏠려있는 경우에 얼굴 방향을 왼쪽 방향이라고 판단한다.((c) 참조) That is, as shown in FIG. 3, the face recognizing unit 122a selects the eye region in the face recognition image and determines that the face direction is the front direction when the two eyes face the front face (refer to (a) When one eye is pointing to the right in the eye region, the face direction is determined to be the right direction (see (b)), and when one eye is pointing to the left in the eye region, the face direction is determined as the left direction ( c)

이때, 얼굴 인식부(122a)는 얼굴색 영역을 검출하기 위해 각 나라별 얼굴색 특징 정보를 포함한 얼굴색 데이터를 저장하고, 3차원의 인물 영상에서 얼굴색 데이터에 부합하는 얼굴색 영역만을 추출한다. At this time, the face recognizing unit 122a stores facial color data including facial color feature information for each country in order to detect the facial color area, and extracts only the facial color area corresponding to the facial color data in the three-dimensional portrait image.

뼈대 추출부(122b)는 인물 영상에서 인체의 각 특징점(Land-mark)의 기하학적 변화를 이용하여 깊이 영상을 추정하여 깊이 정보를 추출하고, 깊이 정보에서 뼈대 데이터를 분리한다.The skeleton extracting unit 122b extracts depth information by extracting the depth image using the geometric changes of the land-marks of the human body in the portrait image, and separates the skeleton data from the depth information.

위치 보정부(123)는 뼈대 추출부(122b)에서 얻어진 10여 개의 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 선형 변환(Linear Transformation) 방식으로 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 카메라 장치 내 각 센서들(111, 112, 113)의 위치를 보정하여 위치 보정 데이터를 획득한다. 위치 보정부(123)는 일반적인 카메라 좌표계와 월드 좌표계 사이의 변환 관계를 적용한 알고리즘에 의해 카메라 장치(110)의 이동 및 각도 등의 위치 보정 데이터를 획득할 수 있다. The position correcting unit 123 matches ten or more skeleton data obtained from the skeleton extracting unit 122b with each landmark of the human body and performs a linear transformation on the coordinates of the camera coordinate system, And obtains the position correction data by correcting the positions of the sensors 111, 112 and 113 in the camera apparatus. The position correcting unit 123 can obtain the position correction data such as the movement and the angle of the camera device 110 by an algorithm using a conversion relation between a general camera coordinate system and a world coordinate system.

데이터 분석부(124)는 얼굴 인식부(122a), 뼈대 추출부(122b) 및 위치 보정부(123)로부터 얼굴 방향 정보, 뼈대 데이터 및 위치 보정 데이터를 근거로 하여 현재 인물의 위치 정보, 손의 위치와 같은 뼈대의 자세 정보, 얼굴 방향 정보 또는 움직임 정보 중 하나 이상의 인물 상태 정보를 추출하여 제어부(125)로 전송한다.The data analyzing unit 124 analyzes the position information of the current person based on the face direction information, the skeleton data, and the position correction data from the face recognizing unit 122a, the skeleton extracting unit 122b and the position correcting unit 123, Position information, face orientation information, or motion information, and transmits the extracted person state information to the controller 125.

제어부(125)는 데이터 분석부(124)로부터 전송받은 인물 상태 정보를 근거로 카메라 장치(110)의 꺼짐 동작, 대기 동작, 인식 동작, 추적 동작 중 어느 하나의 동작 상태를 결정하는 카메라 제어정보를 출력한다.The control unit 125 controls the camera device 110 based on the person state information transmitted from the data analysis unit 124 to obtain camera control information for determining the operation state of the camera device 110, Output.

이때, 제어부(125)는 인물의 위치 및 행동 정보에 따라 PTZ(Pan Tilt Zoom) 제어 정보를 생성하는 PTZ 제어 모듈(도시되지 않음)을 더 포함할 수 있고, 카메라 제어 정보에 카메라 장치(110)의 동작 상태 정보뿐만 아니라 PTZ 제어 정보를 포함할 수 있다. The control unit 125 may further include a PTZ control module (not shown) for generating PTZ (Pan Tilt Zoom) control information according to the position and behavior information of the person, As well as PTZ control information.

데이터 송신부(126)는 카메라 제어정보를 카메라 장치(110)로 송신한다.The data transmitting section 126 transmits the camera control information to the camera apparatus 110. [

이 외에도, 이미지 센싱 장치(120)는 데이터 추출부(122), 데이터 분석부(124) 및 제어부(125)에서 송수신되는 데이터들을 저장하는 메모리(도시되지 않음)를 더 포함할 수 있다. The image sensing device 120 may further include a data extractor 122, a data analyzer 124, and a memory (not shown) that stores data transmitted and received by the controller 125.

도 4는 본 발명의 일 실시예에 따른 인물 추적용 이미지 센싱 방법을 설명하는 순서도이다.4 is a flowchart illustrating an image sensing method for tracking a person according to an exemplary embodiment of the present invention.

도 4를 참고하면, 인물 추적용 이미지 센싱 방법은 이미지 센싱 장치(120)가 카메라 장치(110)로부터 컬러 영상과 깊이 영상을 합성한 3차원의 인물 영상을 수신하고, 3차원이 인물 영상에서 얼굴 인식 영상과 깊이 영상을 추출한다.(단계 S1 및 S2)Referring to FIG. 4, the image sensing apparatus for tracking a person receives a three-dimensional portrait image obtained by synthesizing a color image and a depth image from a camera apparatus 110, The recognition image and the depth image are extracted (steps S1 and S2)

이미지 센싱 장치(120)는 얼굴 인식 영상에서 눈 영역을 검출하여 얼굴 방향을 정면, 오른쪽, 왼쪽 방향 중 어느 하나의 방향인지 확인하여 얼굴 방향 정보를 추출한다.(단계 S3),The image sensing apparatus 120 detects the eye region in the face recognition image and extracts the face direction information by confirming whether the face direction is the front, right, or left direction (Step S3)

이미지 센싱 장치(120)는 인물 영상으로부터 심도 센서(113)에서 제공하는 API를 사용하여 뼈대 데이터를 추출한다.(단계 S4) 이미지 센싱 장치(120)는 10여 개의 뼈대 정보를 포함한 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 센서들(111, 112, 113)의 위치 보정이 필요한지를 판단한다.(단계 S5)The image sensing apparatus 120 extracts skeleton data using the API provided by the depth sensor 113 from the portrait image. (Step S4) The image sensing apparatus 120 receives skeleton data including ten skeleton information from the human body And converts the coordinate values of the camera coordinate system to coordinate values of the world coordinate system to determine whether the positions of the sensors 111, 112, and 113 need to be corrected (step S5)

이미지 센싱 장치(120)는 위치 보정이 필요하다고 판단된 경우에 각 센서들(111, 112, 113) 또는 PTZ 구동장치 간의 위치를 미리 입력한 기준 보정 값을 기준으로 보정하고, 이러한 보정 과정을 통해 얻어진 보정계수를 이용해 센서들(111, 112, 113) 또는 또는 PTZ 구동장치의 위치 보정이 필요한지를 다시 판단한다.(단계 S6~S8)When it is determined that the position correction is required, the image sensing device 120 corrects the position of the sensor 111, 112, 113 or the PTZ driving device based on a reference correction value previously inputted, It is again determined whether the position correction of the sensors 111, 112, 113 or the PTZ driving device is necessary by using the obtained correction coefficient (steps S6 to S8)

이미지 센싱 장치(120)는 센서들(111, 112, 113) 또는 PTZ 구동장치의 위치 보정이 필요없다고 판단한 경우에 위치 보정 데이터를 획득하고, 얼굴 방향 정보, 뼈대 데이터 및 위치 보정 데이터를 통합 및 분석하여 현재 인물의 위치 정보, 손의 위치 정보를 포함한 뼈대의 자세 정보, 얼굴 방향 정보 또는 움직임 정보 중 하나 이상의 인물 상태 정보를 추출한다.(단계 S9)The image sensing device 120 acquires the position correction data when it is determined that the position correction of the sensors 111, 112, 113 or the PTZ driving device is not necessary, and integrates and analyzes the face orientation information, skeleton data, (Step S9), the position information of the current person, the posture information of the skeleton including the position information of the hand, the face direction information, or the motion information.

이미지 센싱 장치(120)는 인물 상태 정보를 근거로 카메라 장치(110)의 꺼짐 동작, 대기 동작, 인식 동작, 추적 동작 중 어느 하나의 동작 상태를 결정하는 동작 상태 정보를 포함한 카메라 제어정보를 출력한다.(단계 S10)The image sensing apparatus 120 outputs camera control information including operation state information for determining the operation state of any one of the OFF operation, the standby operation, the recognition operation, and the tracking operation of the camera apparatus 110 based on the person state information (Step S10)

이때, 이미지 센싱 장치(120)는 카메라 제어정보에 상기 인물 상태 정보를 기초로 인물의 위치 및 행동 정보에 따라 산출된 PTZ(Pan Tilt Zoom) 제어 정보를 더 포함할 수 있다.At this time, the image sensing apparatus 120 may further include PTZ (Pan Tilt Zoom) control information calculated based on the position and behavior information of the person based on the person state information in the camera control information.

이미지 센싱 장치(120)는 카메라 제어정보를 카메라 장치(110)로 전송함으로써 인물이 위치하고 있는 장소에 맞게 카메라 장치(110)의 동작 상태를 변경할 수 있다.(단계 S11)The image sensing device 120 may transmit the camera control information to the camera device 110 so that the operation state of the camera device 110 can be changed according to the location where the person is located (step S11)

이와 같이, 본 발명의 일 실시예에 따른 인물 추적용 이미지 센싱 시스템 및 그 방법은 교육용 영상 컨텐츠 제작시 강사의 위치, 손의 위치 및 얼굴 방향 등을 추적하면서 강의 내용을 보다 효과적으로 촬영할 수 있다.As described above, the system and method for tracking a human figure according to an embodiment of the present invention can more effectively capture the content of a lecture while tracing a position of a lecturer, a position of a hand, and a face direction of a lecturer.

예를 들어, 인물 추적용 이미지 센싱 시스템 및 그 방법은 강의 도중 강사의 손의 위치를 추적하여 특정한 수강생을 지시한 경우에 해당 수강생의 영상을 촬영할 수 있고, 강사의 얼굴 방향을 자동으로 감지하여 강사의 음성 및 표정 변화 또는 강사가 사용하는 칠판이나 교육자료 등을 더욱 자세히 볼 수 있도록 촬영할 수 있다.For example, the image tracking system and method for tracing a person traces the position of a teacher's hand during a lecture, and when a specific learner is instructed, the image of the learner can be photographed. The face direction of the lecturer is automatically detected, Voice or facial expressions of the teacher, or the board or instructional materials used by the instructor.

또한, 인물 추적용 이미지 센싱 시스템 및 그 방법은 강사의 위치와 행동에 따라 자동으로 카메라 장치(110)를 제어하여 강사를 추적하면서 촬영하도록 함으로써 카메라 촬영 기사의 움직임이나 카메라 작동 중에 발생하는 소음 등이 최소화되고, 그로 인해 강의 도중 발생되는 카메라 조작 소음으로 인한 수강생의 집중력 저하를 최소화할 수 있다. In addition, the image sensing system and method for tracking a person can automatically track the instructor by controlling the camera device 110 according to the position and behavior of a lecturer, so that the noise of the camera photographer, So that it is possible to minimize deterioration of concentration of the learner due to the camera operation noise generated during the lecture.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

110 : 카메라 장치 120 : 이미지 센싱 장치
121 : 데이터 수신부 122 : 데이터 추출부
123 : 위치 보정부 124 : 데이터 분석부
125 : 제어부 126 : 데이터 송신부
110: camera device 120: image sensing device
121: Data receiving unit 122: Data extracting unit
123: position correcting unit 124: data analyzing unit
125: control unit 126: data transmission unit

Claims (7)

인물 영상을 촬영하는 카메라 장치 및 상기 카메라 장치로부터 전송되는 인물 영상을 분석하여 인물 상태 정보를 추출한 후에 상기 카메라 장치로 카메라 제어정보를 전송하는 이미지 센싱 장치를 포함하는 인물 추적용 이미지 센싱 시스템에 있어서,
상기 이미지 센싱 장치는,
상기 카메라 장치로부터 획득한 인물 영상을 수신하는 데이터 수신부;
상기 데이터 수신부에서 전송되는 인물 영상으로부터 얼굴 인식 영상을 추출하여 얼굴 방향 정보를 확인하고, 상기 인물 영상으로부터 깊이 정보를 추출하여 뼈대 데이터를 분리하는 데이터 추출부;
상기 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 상기 카메라 장치의 위치 보정을 수행하여 위치 보정 데이터를 획득하는 위치 보정부;
상기 얼굴 방향 정보, 상기 뼈대 데이터 및 위치 보정 데이터를 근거로 하여 현재 인물의 위치 정보, 뼈대의 자세 정보, 얼굴 방향 정보 또는 움직임 정보 중 하나 이상의 인물 상태 정보를 추출하여 전송하는 데이터 분석부;
상기 데이터 분석부로부터 전송받은 상기 인물 상태 정보를 근거로 상기 카메라 장치의 동작 상태를 결정하는 카메라 제어정보를 출력하는 제어부; 및
상기 카메라 제어정보를 상기 카메라 장치로 송신하는 데이터 송신부를 포함하는 인물 추적용 3차원 이미지 센싱 시스템.
And an image sensing device for analyzing a character image transmitted from the camera device to extract person state information and then transmitting camera control information to the camera device, the system comprising:
The image sensing apparatus includes:
A data receiving unit for receiving a portrait image acquired from the camera device;
A data extracting unit for extracting a face recognition image from a portrait image transmitted from the data receiving unit to confirm face direction information, extracting depth information from the portrait image and separating skeleton data;
A position correcting unit for matching the skeleton data with each landmark of the human body to convert the coordinate values of the camera coordinate system to coordinate values of the world coordinate system to perform position correction of the camera apparatus to obtain position correction data;
A data analyzer for extracting and transmitting one or more pieces of person state information among position information of a current person, posture information of a skeleton, face direction information or motion information based on the face direction information, the skeleton data, and the position correction data;
A controller for outputting camera control information for determining an operation state of the camera device based on the person state information transmitted from the data analyzer; And
And a data transmission unit for transmitting the camera control information to the camera device.
제1항에 있어서, 상기 카메라 장치는,
컬러(RGB) 이미지 센서, 적외선 센서 또는 심도 센서 중 적어도 하나 이상의 센서를 포함하고, 상기 적어도 하나 이상의 센서를 통해 컬러 영상과 깊이 영상을 합성하여 3차원의 인물 영상을 촬영하여 전송하는 것을 특징으로 하는 인물 추적용 3차원 이미지 센싱 시스템.
The camera device according to claim 1,
A color image (RGB) image sensor, an infrared sensor, and a depth sensor, wherein the color image and the depth image are synthesized through the at least one sensor, and the three-dimensional person image is captured and transmitted 3D image sensing system for character tracking.
제1항에 있어서, 상기 데이터 추출부는,
상기 인물 영상에서 얼굴색 영역을 검출하여 얼굴 인식 영상을 생성하고, 상기 얼굴 인식 영상에서 눈 영역을 선택하여 상기 눈 영역에 대한 방향을 검출함으로써 얼굴 방향 정보를 확인하는 얼굴 인식부; 및
상기 인물 영상에서 인체의 각 특징점(Land-mark)의 기하학적 변화나 추가적인 센서를 이용한 깊이 영상을 추정하여 깊이 정보를 추출하고, 상기 깊이 정보에서 뼈대 데이터를 분리하는 뼈대 추출부를 포함하는 것을 특징으로 하는 인물 추적용 3차원 이미지 센싱 시스템.
The apparatus of claim 1,
A face recognizing unit for recognizing facial direction information by detecting a face color region in the portrait image to generate a face recognition image, selecting an eye region in the face recognition image, and detecting a direction of the eye region; And
And a skeleton extracting unit for extracting depth information by estimating a geometric change of each landmark of the human body or a depth image using an additional sensor in the human image and separating the skeleton data from the depth information, 3D image sensing system for character tracking.
제1항에 있어서, 상기 제어부는,
상기 인물 상태 정보를 기초로 인물의 위치 및 행동 정보에 따라 PTZ(Pan Tilt Zoom) 제어 정보를 생성하는 PTZ 제어 모듈을 더 포함하고,
상기 PTZ 제어 정보와 상기 카메라 장치의 꺼짐 동작, 대기 동작, 인식 동작, 추적 동작 중 어느 하나의 동작 상태를 결정하는 동작 상태 정보를 포함하여 카메라 제어정보를 생성 출력하는 것을 특징으로 하는 인물 추적용 3차원 이미지 센싱 시스템.
The apparatus of claim 1,
And a PTZ control module for generating PTZ (Pan Tilt Zoom) control information according to the position and behavior information of the person based on the person state information,
Wherein the PTZ control information includes operation state information for determining one of an operation state of the PTZ control information, a turn-off operation of the camera apparatus, a standby operation, a recognition operation, and a tracking operation. Dimensional image sensing system.
인물 영상을 촬영하는 카메라 장치로부터 전송되는 인물 영상을 분석하여 인물 상태 정보를 추출한 후에 상기 카메라 장치로 카메라 제어정보를 전송하는 이미지 센싱 장치에서 수행하는 인물 추적용 이미지 센싱 방법에 있어서,
상기 카메라 장치로부터 획득한 인물 영상을 수신하는 데이터 수신 단계;
상기 인물 영상으로부터 얼굴 인식 영상을 추출하여 얼굴 방향 정보를 확인하고, 상기 인물 영상으로부터 깊이 정보를 추출하여 뼈대 데이터를 분리하는 데이터 추출 단계;
상기 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 상기 카메라 장치의 위치 보정 데이터를 획득하는 위치 보정 단계;
상기 얼굴 방향 정보, 상기 뼈대 데이터 및 위치 보정 데이터를 근거로 하여 현재 인물의 위치 정보, 뼈대의 자세 정보, 얼굴 방향 정보 또는 움직임 정보 중 하나 이상의 인물 상태 정보를 추출하여 전송하는 데이터 분석 단계;
상기 인물 상태 정보를 근거로 꺼짐 동작, 대기 동작, 인식 동작, 추적 동작 중 어느 하나의 동작 상태를 결정하는 카메라 제어정보를 출력하는 제어 단계; 및
상기 카메라 제어정보를 상기 카메라 장치로 송신하는 데이터 송신 단계를 포함하는 인물 추적용 3차원 이미지 센싱 방법.
A person tracking image sensing method performed by an image sensing device for analyzing a portrait image transmitted from a camera device for capturing a portrait image and extracting person state information and then transmitting camera control information to the camera device,
A data receiving step of receiving a portrait image acquired from the camera device;
Extracting a face recognition image from the portrait image to confirm face direction information, extracting depth information from the portrait image, and separating skeleton data;
A position correcting step of matching the skeleton data with each landmark of the human body to convert the coordinate values of the camera coordinate system into coordinate values of the world coordinate system to obtain the position correction data of the camera device;
Extracting and transmitting one or more pieces of person state information among position information of a current person, posture information of a skeleton, face direction information, or motion information based on the face direction information, the skeleton data, and the position correction data;
A control step of outputting camera control information for determining an operation state of any one of an off operation, a standby operation, a recognition operation, and a tracking operation based on the person state information; And
And a data transmitting step of transmitting the camera control information to the camera apparatus.
제5항에 있어서, 상기 위치 보정 단계는,
상기 뼈대 데이터를 인체의 각 특징점(Land-mark)에 매칭시켜 상기 카메라 장치의 위치 보정 여부를 확인하는 보정 판단 단계;
상기 보정 판단 단계에서 위치 보정이 필요하다고 판단한 경우에, 상기 카메라 장치 내 각 구성요소 간의 위치를 기준 보정값을 근거로 하여 보정하고, 상기 보정을 통해 얻어진 보정계수를 상기 보정 판단 단계로 전송하는 보정 수행 단계; 및
상기 보정 판단 단계에서 위치 보정이 필요하지 않다고 판단한 경우에, 상기 카메라 좌표계의 좌표값에서 월드 좌표계의 좌표값으로 변환하여 상기 카메라 장치의 위치 보정 데이터를 획득하는 데이터 획득 단계를 더 포함하는 것을 특징으로 하는 인물 추적용 3차원 이미지 센싱 방법.
6. The method according to claim 5,
A correction judgment step of checking whether the position of the camera apparatus is corrected by matching the skeleton data to each landmark of the human body;
And a correction unit that corrects the position of each component in the camera apparatus based on a reference correction value when it is determined that the position correction is necessary in the correction determination step and corrects the correction coefficient obtained through the correction to the correction determination step Performing step; And
And a data acquiring step of acquiring position correction data of the camera apparatus by converting a coordinate value of the camera coordinate system into a coordinate value of a world coordinate system when it is determined that the position correction is not required in the correction determination step, A three dimensional image sensing method for character tracking.
제5항에 있어서, 상기 제어 단계는,
상기 카메라 제어정보에 상기 인물 상태 정보를 기초로 인물의 위치 및 행동 정보에 따라 산출된 PTZ(Pan Tilt Zoom) 제어 정보를 더 포함하는 것을 특징으로 하는 인물 추적용 3차원 이미지 센싱 방법.
6. The method according to claim 5,
Wherein the camera control information further includes PTZ (Pan Tilt Zoom) control information calculated based on the position and behavior information of the person based on the person state information.
KR1020130058183A 2013-05-23 2013-05-23 3 Dimensional Image Sensing System for Human Tracking and Its Method Withdrawn KR20140137564A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130058183A KR20140137564A (en) 2013-05-23 2013-05-23 3 Dimensional Image Sensing System for Human Tracking and Its Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130058183A KR20140137564A (en) 2013-05-23 2013-05-23 3 Dimensional Image Sensing System for Human Tracking and Its Method

Publications (1)

Publication Number Publication Date
KR20140137564A true KR20140137564A (en) 2014-12-03

Family

ID=52457304

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130058183A Withdrawn KR20140137564A (en) 2013-05-23 2013-05-23 3 Dimensional Image Sensing System for Human Tracking and Its Method

Country Status (1)

Country Link
KR (1) KR20140137564A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170008638A (en) * 2015-07-14 2017-01-24 삼성전자주식회사 Three dimensional content producing apparatus and three dimensional content producing method thereof
KR20170127354A (en) * 2016-05-11 2017-11-21 강미연 Apparatus and method for providing video conversation using face conversion based on facial motion capture
KR20200027789A (en) * 2018-09-05 2020-03-13 주식회사 옵트론텍 Image sysntehsis device and driving assitance system including the same
KR20200100020A (en) * 2020-08-13 2020-08-25 삼성전자주식회사 Three dimensional content producing apparatus and three dimensional content producing method thereof
KR20220110015A (en) * 2021-01-29 2022-08-05 라온피플 주식회사 Method for recognizing writing motion from image using afticial intelligence and aparatus therefor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170008638A (en) * 2015-07-14 2017-01-24 삼성전자주식회사 Three dimensional content producing apparatus and three dimensional content producing method thereof
US11010967B2 (en) 2015-07-14 2021-05-18 Samsung Electronics Co., Ltd. Three dimensional content generating apparatus and three dimensional content generating method thereof
KR20170127354A (en) * 2016-05-11 2017-11-21 강미연 Apparatus and method for providing video conversation using face conversion based on facial motion capture
KR20200027789A (en) * 2018-09-05 2020-03-13 주식회사 옵트론텍 Image sysntehsis device and driving assitance system including the same
KR20200100020A (en) * 2020-08-13 2020-08-25 삼성전자주식회사 Three dimensional content producing apparatus and three dimensional content producing method thereof
KR20220110015A (en) * 2021-01-29 2022-08-05 라온피플 주식회사 Method for recognizing writing motion from image using afticial intelligence and aparatus therefor

Similar Documents

Publication Publication Date Title
EP1107052B1 (en) Method and apparatus for image projection, and apparatus for controlling image projection
US9274744B2 (en) Relative position-inclusive device interfaces
US11036966B2 (en) Subject area detection apparatus that extracts subject area from image, control method therefor, and storage medium, as well as image pickup apparatus and display apparatus
CN107507243A (en) A kind of camera parameters method of adjustment, instructor in broadcasting's video camera and system
GB2407635A (en) Control of camera field of view with user hand gestures recognition
WO2017126172A1 (en) Information processing device, information processing method, and recording medium
KR20140137564A (en) 3 Dimensional Image Sensing System for Human Tracking and Its Method
US8982050B2 (en) Motion compensation in an interactive display system
JP5438601B2 (en) Human motion determination device and program thereof
KR101642402B1 (en) Apparatus and method for capturing digital image for guiding photo composition
CN111985393A (en) A kind of intelligent mirror for correcting motion posture and its motion posture correction method
US20110084915A1 (en) Adjustment system and method for camera lens
JP6866467B2 (en) Gesture recognition device, gesture recognition method, projector with gesture recognition device and video signal supply device
JP6452235B2 (en) Face detection method, face detection device, and face detection program
KR100844129B1 (en) Mouse interface device using camera, system and method by the device, and computer readable recording medium for realizing this
CN109996048A (en) A kind of projection correction's method and its system based on structure light
CN115562490B (en) Deep learning-based aircraft cockpit cross-screen-eye movement interaction method and system
KR101686143B1 (en) Image processing apparatus and image processing method thereof
CN104867361B (en) A kind of scene interaction formula intelligent teaching terminal
KR101502683B1 (en) Instructor Tracing System Using 3 Dimensional Sensing Module
JP4883530B2 (en) Device control method based on image recognition Content creation method and apparatus using the same
CN113923361B (en) Data processing method, apparatus, device, and computer readable storage medium
US11838634B2 (en) Method of generating a digital video image using a wide-angle field of view lens
TWI411300B (en) A video detecting and monitoring method with adaptive detection cells and a system thereof
KR102711579B1 (en) projector control system

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130523

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20140630

Patent event code: PE09021S01D

PG1501 Laying open of application
E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20150130

Patent event code: PE09021S02D

PC1202 Submission of document of withdrawal before decision of registration

Comment text: [Withdrawal of Procedure relating to Patent, etc.] Withdrawal (Abandonment)

Patent event code: PC12021R01D

Patent event date: 20150309

WITB Written withdrawal of application