[go: up one dir, main page]

KR20180083245A - Apparatus and method for processing information of multi camera - Google Patents

Apparatus and method for processing information of multi camera Download PDF

Info

Publication number
KR20180083245A
KR20180083245A KR1020170146947A KR20170146947A KR20180083245A KR 20180083245 A KR20180083245 A KR 20180083245A KR 1020170146947 A KR1020170146947 A KR 1020170146947A KR 20170146947 A KR20170146947 A KR 20170146947A KR 20180083245 A KR20180083245 A KR 20180083245A
Authority
KR
South Korea
Prior art keywords
image
cameras
composite
information
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020170146947A
Other languages
Korean (ko)
Other versions
KR102430726B1 (en
Inventor
임성용
조용주
서정일
석주명
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US15/868,534 priority Critical patent/US10692262B2/en
Publication of KR20180083245A publication Critical patent/KR20180083245A/en
Application granted granted Critical
Publication of KR102430726B1 publication Critical patent/KR102430726B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • G06T3/0031
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)

Abstract

An apparatus and method for processing the information of a multi camera are disclosed. The apparatus for processing the information of a multi camera according to an embodiment of the present disclosure may include a plurality of cameras for capturing an image including at least one object, a positional information verifying part provided in each of the plurality of cameras and verifying positional information between the at least one object and the camera; and an image processing part for processing image information obtained from the plurality of cameras using the positional information received from the positional information verifying part. It is possible to effectively process creation or display of realistic media.

Description

멀티 카메라의 정보 처리 장치 및 방법{APPARATUS AND METHOD FOR PROCESSING INFORMATION OF MULTI CAMERA}TECHNICAL FIELD [0001] The present invention relates to an information processing apparatus and method for a multi-

본 개시는 영상 처리 방법 및 장치에 관한 것이며, 보다 구체적으로는 멀티 카메라 시스템을 통해 획득된 영상을 처리하는 방법 및 장치에 대한 것이다.The present disclosure relates to an image processing method and apparatus, and more particularly, to a method and apparatus for processing an image obtained through a multi-camera system.

HD(High Definition) 콘텐츠의 활용이 늘어나고 있으며, 보다 더 실감적인 영상을 원하는 시청자의 요구 충족을 위해 3차원 영상, UHD(Ultra High Definition) 영상 등과 같은 실감미디어 콘텐츠에 대한 개발이 이루어 지고 있다. The use of high definition (HD) content is increasing, and realistic media contents such as three-dimensional images and ultra high definition (UHD) images are being developed to meet the needs of viewers who want more realistic images.

최근, 실감미디어 콘텐츠 중 넓은 시야각(FOV: Field of View)을 제공하여 몰입감과 현장감을 극대화할 수 있는 고해상도의 파노라마 영상 콘텐츠나, 360°전방향의 영상을 제공하는 가상현실(VR; virtual reality) 컨텐츠 등에 대한 관심이 높아지고 있다. 2. Description of the Related Art [0002] In recent years, there has been a demand for providing a high-resolution panoramic image content capable of providing a wide field of view (FOV) Interest in content is growing.

이러한 고해상도의 파노라마 영상 콘텐츠나, 가상현실(VR; virtual reality) 컨텐츠를 구성하기 위해서는, 복수의 카메라를 사용한 멀티뷰 영상을 획득하는 기술, 멀티뷰 영상을 이용하여 파노라마 영상을 생성하는 기술, 고해상도 영상 렌더링을 위한 멀티 프로젝션 디스플레이 기술 등에 대한 개발이 요구된다.In order to construct such high-resolution panoramic image contents and virtual reality (VR) contents, techniques for acquiring multi-view images using a plurality of cameras, techniques for generating panoramic images using multi-view images, And multi-projection display technology for rendering.

본 개시의 기술적 과제는 실감미디어 콘텐츠의 생성 또는 디스플레이를 효과적으로 처리할 수 있는 방법 및 장치를 제공하는 것이다. The technical object of the present disclosure is to provide a method and apparatus that can effectively process creation or display of real-sensible media contents.

본 개시의 다른 기술적 과제는 실감미디어 콘텐츠를 구성하는 멀티뷰 영상을 효율적이고 빠르게 처리할 수 있는 방법 및 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for efficiently processing a multi-view image constituting real-sensible media contents.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시의 일 양상에 따르면 멀티 카메라의 정보 처리 장치가 제공될 수 있다. 상기 장치는 적어도 하나의 객체를 포함하는 영상을 촬영하는 복수의 카메라와, 상기 복수의 카메라 각각에 구비되며, 상기 적어도 하나의 객체와 상기 카메라 사이의 위치정보를 확인하는 위치정보 확인부와, 상기 위치정보 확인부로부터 수신한 위치정보를 사용하여, 상기 복수의 카메라로부터 획득한 영상정보를 처리하는 영상 처리부를 포함할 수 있다. According to one aspect of the present disclosure, an information processing apparatus of a multi-camera can be provided. The apparatus comprising: a plurality of cameras for capturing an image including at least one object; a positional information verifying unit provided for each of the plurality of cameras, for verifying positional information between the at least one object and the camera; And an image processing unit for processing image information obtained from the plurality of cameras using the positional information received from the positional information verifying unit.

본 개시의 다른 양상에 따르면 멀티 카메라를 이용한 합성영상 제공 방법이 제공될 수 있다. 상기 방법은 복수의 카메라로부터 각각 촬영된 복수의 영상을 입력받는 과정과, 상기 복수의 카메라에 대응되는 위치에 각각 마련된 복수의 위치확인부로부터 제공되는 복수의 위치정보를 수신하는 과정과, 상기 복수의 카메라에 대응되는 상기 위치정보, 상기 복수의 영상, 및 상기 합성영상 사이의 관계를 고려하여, 상기 복수의 영상 각각에 구비되는 원본화소를 상기 합성영상에 구비되는 합성화소와 매칭시키는 과정과, 상기 각각의 영상단위로 원본화소의 값을 확인하여 상기 합성화소의 값에 적용하는 과정과, 상기 합성화소의 값을 조합한 합성영상을 생성하는 과정을 포함할 수 있다. According to another aspect of the present disclosure, a composite image providing method using a multi-camera can be provided. The method includes the steps of receiving a plurality of images photographed by each of a plurality of cameras, receiving a plurality of pieces of positional information provided from a plurality of position determination units respectively provided at positions corresponding to the plurality of cameras, Matching original pixels included in each of the plurality of images with synthetic pixels included in the composite image in consideration of the relationship between the position information, the plurality of images, and the composite image corresponding to the camera of the composite image, Determining a value of a source pixel in each of the image units and applying the value to the value of the composite pixel; and generating a composite image by combining the values of the composite pixels.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above for this disclosure are only exemplary aspects of the detailed description of the disclosure which follow, and are not intended to limit the scope of the disclosure.

본 개시에 따르면, 실감미디어 콘텐츠의 생성 또는 디스플레이를 효과적으로 처리할 수 있는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus capable of effectively processing generation or display of sensible media contents can be provided.

또한, 본 개시에 따르면, 실감미디어 콘텐츠를 구성하는 멀티뷰 영상을 효율적이고 빠르게 처리할 수 있는 방법 및 장치가 제공될 수 있다.In addition, according to the present disclosure, a method and apparatus for efficiently processing a multi-view image constituting real-sensible media contents can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1은 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치의 구성을 도시하는 블록도이다.
도 2는 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치와 영상 사이의 관계를 예시하는 도면이다.
도 3a 및 도 3b는 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치에서 사용되는 합성영상의 기초가 되는 원본영상의 기하학적 관계를 예시하는 도면이다.
도 4는 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치에서 처리되는 원본영상과 합성영상 사이의 관계를 예시하는 도면이다.
도 5는 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 방법의 순서를 도시하는 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 방법에 위치정보를 변환처리 하는 동작을 예시하는 도면이다.
도 7은 본 개시의 다른 실시예에 따른 멀티 카메라를 이용한 합성영상 제공 방법의 순서를 예시하는 도면이다.
도 8은 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치와 방법 및 멀티 카메라를 이용한 합성영상 제공 장치와 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
1 is a block diagram showing a configuration of an information processing apparatus of a multi-camera according to an embodiment of the present disclosure.
2 is a diagram illustrating a relationship between an image processing apparatus and an image of a multi-camera according to an embodiment of the present disclosure.
FIGS. 3A and 3B are diagrams illustrating a geometric relationship of an original image as a basis of a composite image used in an information processing apparatus of a multi-camera according to an embodiment of the present disclosure; FIG.
4 is a diagram illustrating a relationship between an original image and a composite image processed in an information processing apparatus of a multi-camera according to an embodiment of the present disclosure.
5 is a flowchart showing a procedure of an information processing method of a multi-camera according to an embodiment of the present disclosure.
FIG. 6 is a diagram illustrating an example of an operation for converting position information into the information processing method of the multi-camera according to the embodiment of the present disclosure.
7 is a diagram illustrating a procedure of a method of providing a composite image using a multi-camera according to another embodiment of the present disclosure.
8 is a block diagram illustrating a computing system that implements an apparatus and method for processing information of a multi-camera and a method and apparatus for providing a composite image using a multi-camera according to an embodiment of the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, which will be easily understood by those skilled in the art. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. Parts not related to the description of the present disclosure in the drawings are omitted, and like parts are denoted by similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when an element is referred to as being "connected", "coupled", or "connected" to another element, it is understood that not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising "or" having "another element, it is meant to include not only excluding another element but also another element .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, the terms first, second, etc. are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements, etc. unless specifically stated otherwise. Thus, within the scope of this disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly a second component in one embodiment may be referred to as a first component .

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly illustrate each feature and do not necessarily mean that components are separate. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Thus, unless otherwise noted, such integrated or distributed embodiments are also included within the scope of this disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Thus, embodiments consisting of a subset of the components described in one embodiment are also included within the scope of the present disclosure. Also, embodiments that include other elements in addition to the elements described in the various embodiments are also included in the scope of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치의 구성을 도시하는 블록도이고, 도 2는 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치와 영상 사이의 관계를 예시하는 도면이다. FIG. 1 is a block diagram showing a configuration of an information processing apparatus of a multi-camera according to an embodiment of the present disclosure, and FIG. 2 is a diagram illustrating a relationship between an information processing apparatus and an image of a multi- FIG.

도 1 및 도 2를 참조하면, 멀티 카메라의 정보 처리 장치는 복수의 카메라(11a, 11b), 위치정보 확인부(13a, 13b), 및 영상 처리부(15)를 구비할 수 있다. Referring to FIGS. 1 and 2, an information processing apparatus of a multi-camera may include a plurality of cameras 11a and 11b, position information confirmation units 13a and 13b, and an image processing unit 15. [

복수의 카메라(11a, 11b)는 멀티 카메라 시스템에 기초하여 구비되는 카메라로서, 촬영 방향, 촬영 각도 등이 설정되어 소정의 영상을 촬영할 수 있는 카메라들일 수 있다. 또한, 복수의 카메라(11a, 11b)는 촬영 시작, 종료 등을 제어하는 제어 명령을 수신 또는 입력받을 수 있으며, 상기 제어 명령에 대응하여 영상의 촬영 또는 종료 등을 제어할 수 있고, 촬영된 영상의 촬영 시점이 동기화될 수 있다.The plurality of cameras 11a and 11b are cameras provided on the basis of the multi-camera system, and may be cameras capable of photographing predetermined images by setting shooting directions, shooting angles, and the like. In addition, the plurality of cameras 11a and 11b can receive or receive a control command for controlling the start and end of shooting, and can control shooting or ending of the video in response to the control command, Can be synchronized with each other.

본 발명의 실시예에서 복수의 카메라(11a, 11b)를 통해 촬영되는 영상은 정지영상 및 미리 정해진 시간단위로 촬영된 정지 영상을 조합한 동영상을 포함할 수 있다.In the embodiment of the present invention, an image captured through the plurality of cameras 11a and 11b may include a still image and a moving image obtained by combining still images captured in predetermined time units.

위치정보 확인부(13a, 13b)는 복수의 카메라(11a, 11b)의 상관 위치정보를 획득하는 장치일 수 있다. 예를 들어, 위치정보 확인부(13a, 13b)는 복수의 카메라(11a, 11b) 각각이 촬영하는 영상에 포함되는 피사체와, 복수의 카메라(11a, 11b) 사이의 거리를 측정할 수 있는 거리 측정기를 포함할 수 있다.The position information confirmation units 13a and 13b may be devices for acquiring correlation position information of the plurality of cameras 11a and 11b. For example, the positional information verifying units 13a and 13b may determine the distance between the subject included in the image captured by each of the plurality of cameras 11a and 11b and the plurality of cameras 11a and 11b Meter.

위치정보 확인부(13a, 13b)는 복수의 카메라(11a, 11b)의 내부에 각각 구비되거나, 상기 복수의 카메라(11a, 11b)의 외부에 각각 마련될 수 있으며, 복수의 카메라(11a, 11b)가 촬영하는 영상에 대응되는 영역에 포함되는 피사체까지의 거리를 측정할 수 있다.The location information confirmation units 13a and 13b may be provided inside the plurality of cameras 11a and 11b or may be provided outside the plurality of cameras 11a and 11b and may include a plurality of cameras 11a and 11b Can measure the distance to the subject included in the area corresponding to the image photographed by the photographer.

위치정보 확인부(13a, 13b)는 각 장치를 식별하는 위치정보 확인 장치 식별자와, 검출된 피사체(또는 객체)까지의 거리를 측정한 거리 데이터를 위치정보로서 출력할 수 있다.The positional information verifying units 13a and 13b can output, as positional information, a positional information verifying device identifier for identifying each device and distance data for measuring the distance to the detected subject (or object).

다른 예로서, 위치정보 확인부(13a, 13b)는 깊이 카메라(Depth Camera)를 포함할 수 있으며, 상기 깊이 카메라(Depth Camera)가 촬영하는 영역은 각각 해당되는 복수의 카메라(11a, 11b)가 촬영하는 영역에 대응되는 영역으로 설정될 수 있다. 상기 깊이 카메라(Depth Camera)는 해당 영역의 깊이 이미지를 촬영하여 제공할 수 있다.As another example, the location information confirmation units 13a and 13b may include a depth camera, and the area captured by the depth camera includes a plurality of cameras 11a and 11b And may be set as an area corresponding to an area to be photographed. The depth camera can photograph and provide a depth image of the corresponding region.

영상 처리부(15)는 멀티 카메라 시스템에 기초하여 구비되는 복수의 카메라(11a, 11b)의 촬영 방향, 촬영 각도 등에 대한 정보를 확인할 수 있으며, 상기 복수의 카메라(11a, 11b)의 위치에서 촬영되는 영상의 기하학정 정보를 반영하여, 합성영상을 생성할 수 있다.The image processing unit 15 can confirm information on the photographing direction, photographing angle, and the like of the plurality of cameras 11a and 11b provided on the basis of the multi-camera system. The image processing unit 15 photographs the plurality of cameras 11a and 11b The composite image can be generated by reflecting the geometric information of the image.

예를 들어, 도 3a 및 도 3b를 참조하면, 제1영상(301) 및 제2영상(302)은 서로 다른 촬영 지점에 위치한 카메라(11a, 11b)가 촬영한 영상임을 예시한다. For example, referring to FIGS. 3A and 3B, the first image 301 and the second image 302 illustrate images captured by cameras 11a and 11b located at different shooting locations.

이와 같이 서로 다른 촬영 지점에서 촬영한 영상일 경우, 두 영상 사이의 기하학적인 오차로 인해서 대응점을 찾기가 어려워진다. 즉, 도 3a에서 예시하고 있는 바와 같이, 제1영상(301)과 제2영상(302)은 쵤영된 점(P)을 촬영하는 카메라의 위치의 차이, 카메라의 배치로 인해 발생되는 오차, 및 카메라의 내부 특성의 차이 등이 존재할 수 있다. 이를 고려하여, 영상 처리부(15)는 제1영상(301) 및 제2영상(302)에 서로 대응되는 점이 위치한 라인(즉, 에피폴라 라인(Epipolar Line))(310)을 설정하여 영상 정렬(Image Rectification) 처리를 진행할 수 있다. 상기 에피폴라 라인(310)은 3차원 영상(예, 스테레오 영상)에서 제1영상(301)의 한 점이 제2영상(302)의 라인으로 대응되게 되는데, 이 대응되는 라인을 의미하는 것으로, 에피폴라 라인(310)을 일치시키기 위해 제1영상(301) 및 제2영상(302)을 촬영한 카메라의 내부 및 외부의 파라미터 정보(예, 카메라 초점거리(Focal length), 주점(Principal point)의 위치, 영상의 찌그러짐, 카메라 사이의 상대적인 회전 각도 및 위치)를 사용한 카메라 보정(Calibration)을 진행하여 처리할 수 있다. In the case of images taken at different shooting locations, it is difficult to find corresponding points due to the geometrical errors between the two images. That is, as illustrated in FIG. 3A, the first image 301 and the second image 302 are different from each other in terms of the difference in position of the camera for photographing the point P, the error caused by the arrangement of the camera, There may be differences in the internal characteristics of the camera and the like. In consideration of this, the image processing unit 15 sets a line (i.e., an epipolar line) 310 corresponding to each of the first image 301 and the second image 302, Image Rectification) processing. In the epipolar line 310, a point of the first image 301 corresponds to a line of the second image 302 in a three-dimensional image (e.g., a stereo image), which corresponds to the corresponding line. In order to match the polar lines 310, parameter information inside and outside the camera (e.g., camera focal length, principal point) of the camera that captured the first image 301 and the second image 302 The position of the image, the distortion of the image, and the relative rotation angle and position between the cameras).

나아가, 복수의 카메라의 색상 특성과 조명 및 그림자의 영향 등으로 인해 발생하는 두 시점 간의 색상 차이 또한 영상 합성 시에 주관적 화질 열화를 가져올 수 있다. 영상 처리부(15)는 제1영상(301) 및 제1영상(302)에 존재하는 대응점을 추출하고, 상기 대응점들 사이의 색상의 차이를 보정할 수 있다. Furthermore, the color difference between the two points of view caused by the color characteristics of the plurality of cameras and the influence of illumination and shadows may also lead to subjective image quality deterioration at the time of image synthesis. The image processing unit 15 may extract the corresponding points existing in the first image 301 and the first image 302 and correct the color difference between the corresponding points.

또한, 영상 처리부(15)는 상기 영상 정렬된 제1영상(301) 및 제2영상(302)을 3차원 좌표계로 변환하는 기하학적 처리를 통해 3차원의 합성 영상(305)을 생성한다. 예컨대, 영상 처리부(15)는 상기 영상 정렬된 제1영상(301) 및 제2영상(302)을 실린더 영역 또는 구면으로 투영하는 동작을 통해 3차원의 합성영상(305)을 생성할 수 있다. The image processing unit 15 generates a three-dimensional composite image 305 through a geometric process for converting the image-aligned first image 301 and the second image 302 into a three-dimensional coordinate system. For example, the image processing unit 15 may generate the three-dimensional composite image 305 by projecting the image-aligned first image 301 and the second image 302 onto the cylinder region or the spherical surface.

전술한 바와 같이, 영상 처리부(15)는 복수의 카메라(11a, 11b)로부터 촬영된 영상의 정렬 및 기하학적 변환을 처리함에 있어서,복수의 카메라(11a, 11b)의 위치정보를 사용할 수 있다. 이러한 복수의 카메라(11a, 11b)의 위치정보는 전술한 위치정보 확인부(13a, 13b)로부터 제공받을 수 있다.As described above, the image processing unit 15 can use the position information of the plurality of cameras 11a and 11b in processing the alignment and geometric transformation of images photographed from the plurality of cameras 11a and 11b. The positional information of the plurality of cameras 11a and 11b may be provided from the positional information verifying units 13a and 13b.

나아가, 위치정보 확인부(13a, 13b)가 각 장치를 식별하는 위치정보 확인 장치 식별자와, 검출된 피사체(또는 객체)까지의 거리를 측정한 거리 데이터를 포함하는 위치정보를 제공할 경우, 영상 처리부(15)는 상기 위치정보 확인 장치 식별자를 객체 식별자로 변환하여 처리할 수 있다. 이에 따라, 영상 처리부(15)는 객체 식별자를 사용하여, 해당 카메라에서 객체까지의 거리 데이터를 확인하고, 이를 영상 정렬 및 기하학적 변환 처리에 사용할 수 있다.Further, when the position information confirmation units 13a and 13b provide the position information including the position information identifying device identifier identifying each device and the distance data measuring the distance to the detected object (or object) The processing unit 15 may convert the location information identifying device identifier into an object identifier and process the object identifier. Accordingly, the image processing unit 15 can check the distance data from the camera to the object using the object identifier, and use it for image alignment and geometric transformation processing.

한편, 위치정보 확인부(13a, 13b)가 깊이 이미지를 제공하는 경우, 영상 처리부(15)는 깊이 이미지를 기반으로 해당 카메라로부터 객체까지의 거리 데이터를 산출할 수 있으며, 이렇게 산출된 거리 데이터를 영상 정렬 및 기하학적 변환 처리에 사용할 수 있다.On the other hand, when the position information confirmation units 13a and 13b provide a depth image, the image processing unit 15 can calculate the distance data from the corresponding camera to the object based on the depth image, It can be used for image alignment and geometric transformation processing.

도 4는 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치에서 처리되는 원본영상과 합성영상 사이의 관계를 예시하는 도면이다.4 is a diagram illustrating a relationship between an original image and a composite image processed in an information processing apparatus of a multi-camera according to an embodiment of the present disclosure.

합성영상(410)은 복수의 카메라로부터 촬영된 원본영상(401, 402)을 조합하여 구성할 수 있는데, 전술한 바와 같이 원본영상(401, 402)의 광도(photometric)와 기하학적인 변이 관계 등이 고려된다. The composite image 410 may be formed by combining original images 401 and 402 captured from a plurality of cameras. As described above, the photometric and geometric variations of the original images 401 and 402 .

예를 들면, 합성영상(410)에 구비되는 합성화소(XC)는 제1원본영상(401)에 구비된 제1원본화소(XA)에 광도(photometric)와 기하학적인 변이 관계를 고려한 제1가중치(WA)와 제2원본화소(XB)에 광도(photometric)와 기하학적인 변이 관계를 고려한 제2가중치(WB)를 조합하여 구성할 수 있다. 이때, 제1가중치(WA)와 제2가중치(WB)는 영상 합성 알고리즘으로부터 미리 계산될 수 있으며, 미리 계산된 데이터는 룩업 테이블(Look up Table) 포맷으로 관리될 수 있다.For example, the composite pixel X C included in the composite image 410 may include a first original pixel X A provided in the first original image 401, The first weight W A and the second original pixel X B may be combined with a second weight W B considering a photometric relationship and a geometric variation relationship. At this time, the first weight W A and the second weight W B can be calculated in advance from the image synthesis algorithm, and the pre-calculated data can be managed in a look-up table format.

나아가, 합성영상은 다양한 개수의 원본영상을 조합하여 구성할 수 있다. 그리고, 몇 개의 원본영상을 조합하여 합성영상을 구성하는지에 따라, 원본영상에 반영되는 가중치가 다르게 설정될 수 있다. 따라서, 룩업 테이블(Look up Table)에는 합성영상을 구성하는 원본영상의 개수에 따라, 각각 원본영상에 적용되는 가중치가 설정될 수 있다. Further, the composite image can be configured by combining a plurality of original images. Depending on how many original images are combined to form a composite image, the weights reflected on the original image can be set differently. Accordingly, a weight applied to the original image may be set in the lookup table according to the number of original images composing the composite image.

이에 기초하여, 영상 처리부(15)는 복수의 카메라(11a, 11b)의 수를 확인하고, 상기 복수의 카메라(11a, 11b)의 수에 대응되는 가중치를 적용한 룩업 테이블을 확인할 수 있다. 그리고, 확인된 룩업 테이블에 수록된 가중치 정보를 복수의 카메라(11a, 11b)로부터 제공되는 각각의 원본영상에 적용하여 합성영상을 구성할 수 있다. Based on this, the image processing unit 15 can check the number of the cameras 11a and 11b and check the lookup table to which the weight corresponding to the number of the cameras 11a and 11b is applied. The weight information included in the identified lookup table may be applied to each of the original images provided from the plurality of cameras 11a and 11b to form a composite image.

도 5는 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 방법의 순서를 도시하는 흐름도이다. 5 is a flowchart showing a procedure of an information processing method of a multi-camera according to an embodiment of the present disclosure.

멀티 카메라의 정보 처리 방법은 전술한 멀티 카메라의 정보 처리 장치에 의해 수행될 수 있다.The information processing method of the multi-camera can be performed by the above-described information processing apparatus of the multi-camera.

S51 단계에서, 멀티 카메라의 정보 처리 장치는 멀티 카메라 시스템에 기초한 복수의 카메라로부터 촬영되는 복수의 원본영상을 촬영 및 획득할 수 있다. In step S51, the information processing apparatus of the multi-camera can shoot and acquire a plurality of original images shot from a plurality of cameras based on the multi-camera system.

S52 단계에서, 멀티 카메라의 정보 처리 장치는 복수의 카메라에 각각 대응되는 상관 위치정보를 획득할 수 있다. 예를 들어, 멀티 카메라의 정보 처리 장치는 복수의 카메라 각각이 촬영하는 영상에 포함되는 피사체와, 복수의 카메라 사이의 거리를 측정할 수 있는 거리 측정기를 통해 확인되는 거리 데이터를 획득할 수 있다. In step S52, the information processing apparatus of the multi-camera can acquire the correlated position information corresponding to each of the plurality of cameras. For example, an information processing apparatus of a multi-camera can acquire distance data confirmed by a subject included in an image photographed by each of a plurality of cameras and a distance measurer capable of measuring a distance between the plurality of cameras.

특히, 멀티 카메라의 정보 처리 장치는 위치정보를 확인하는 장치를 식별하는 위치정보 확인 장치 식별자와, 검출된 피사체(또는 객체)까지의 거리를 측정한 거리 데이터를 포함하는 위치정보를 생성 및 출력할 수 있다.Particularly, the information processing apparatus of the multi-camera generates and outputs positional information including a positional information identifying apparatus identifier for identifying the positional information confirming apparatus and distance data for measuring the distance to the detected object (or object) .

S53 단계에서, 멀티 카메라의 정보 처리 장치는 멀티 카메라 시스템에 기초하여 구비되는 복수의 카메라의 촬영 방향, 촬영 각도 등에 대한 정보를 확인할 수 있으며, 상기 복수의 카메라의 위치에서 촬영되는 원본영상의 기하학정 정보를 반영하여, 합성영상을 생성할 수 있다.In step S53, the information processing apparatus of the multi-camera can confirm information about the photographing direction, photographing angle, and the like of a plurality of cameras provided on the basis of the multi-camera system, The composite image can be generated by reflecting the information.

합성 영상을 생성하는 과정에서, 멀티 카메라의 정보 처리 장치는 상기 기하학적 정보로서, S52 단계에서 제공한 위치정보를 사용할 수 있다. 구체적으로, 상기 수신된 위치정보는 장치 식별자(601, 도 6참조)와, 거리 데이터(602를 포함할 수 있는데, 장치 식별자(601)를 사용하여 영상에 포함된 객체를 특정할 수 없다. 따라서, 상기 수신된 위치정보에서 검출된 장치 식별자(601)를 객체 식별자(611)로 변환할 수 있다. In the process of generating the composite image, the information processing apparatus of the multi-camera may use the position information provided in step S52 as the geometric information. Specifically, the received location information may include a device identifier 601 (see FIG. 6) and distance data 602, which can not specify an object included in the image using the device identifier 601. Thus, , And convert the device identifier 601 detected in the received location information into the object identifier 611.

이와 같이 객체 식별자를 기준으로 변환된 위치정보는, 복수의 원본영상에 구비된 각각의 객체에 매칭될 수 있으므로, 합성영상을 생성하는 과정에거 원본영상을 정렬하거나 보정(Calibration) 하는데 중요한 정보로 사용될 수 있다. Since the position information converted based on the object identifier can be matched to each object included in the plurality of original images, it is important to align or calibrate the original image in the process of generating the composite image. Can be used.

한편, 다른 예로서, 상관 위치정보는 깊이 카메라(Depth Camera)로부터 촬영되는 깊이 이미지가 획득 및 제공될 수 있다. 이 경우, 멀티 카메라의 정보 처리 장치는 깊이 이미지를 기반으로 해당 카메라로부터 객체까지의 거리 데이터를 산출할 수 있으며, 이렇게 산출된 거리 데이터를 영상 정렬 및 기하학적 변환 처리에 사용할 수 있다.On the other hand, as another example, the correlated position information may be obtained and provided with a depth image taken from a depth camera. In this case, the information processing apparatus of the multi-camera can calculate the distance data from the camera to the object on the basis of the depth image, and the calculated distance data can be used for image alignment and geometric transformation processing.

도 7은 본 개시의 다른 실시예에 따른 멀티 카메라를 이용한 합성영상 제공 방법의 순서를 예시하는 도면이다.7 is a diagram illustrating a procedure of a method of providing a composite image using a multi-camera according to another embodiment of the present disclosure.

멀티 카메라를 이용한 합성영상 제공 방법은 전술한 멀티 카메라의 정보 처리 장치(특히, 영상 처리부)에 의해 수행될 수 있다.A composite image providing method using a multi-camera can be performed by the information processing apparatus (particularly, the image processing unit) of the above-described multi-camera.

멀티 카메라의 정보 처리 장치는 복수의 카메라로부터 제공되는 원본영상을 입력받고(S71), 상기 원본영상에 각각 대응되는 위치정보를 입력받는다(S72).The information processing apparatus of the multi-camera receives an original image provided from a plurality of cameras (S71), and receives position information corresponding to each of the original images (S72).

한편, 합성영상(410, 도 4참조)에 구비되는 합성화소(XC)는 제1원본영상(401)에 구비된 제1원본화소(XA)에 광도(photometric)와 기하학적인 변이 관계를 고려한 제1가중치(WA)와 제2원본화소(XB)에 광도(photometric)와 기하학적인 변이 관계를 고려한 제2가중치(WB)를 조합하여 구성할 수 있다. 이때, 제1가중치(WA)와 제2가중치(WB)는 영상 합성 알고리즘으로부터 미리 계산될 수 있으며, 미리 계산된 데이터는 룩업 테이블(Look up Table) 포맷으로 관리될 수 있다. 나아가, 합성영상은 다양한 개수의 원본영상을 조합하여 구성할 수 있다. 그리고, 몇 개의 원본영상을 조합하여 합성영상을 구성하는지에 따라, 원본영상에 반영되는 가중치가 다르게 설정될 수 있다. 따라서, 룩업 테이블(Look up Table)에는 합성영상을 구성하는 원본영상의 개수에 따라, 각각 원본영상에 적용되는 가중치가 설정될 수 있다. On the other hand, (see 410, FIG. 4) composite image the composite pixel (X C) is a first a first original pixel (X A) a geometric variation between brightness (photometric), and in having a source image (401) included in The first weight W A and the second original pixel X B may be configured by combining a second weight W B considering a photometric and a geometric variation relationship between the first weight W A and the second original pixel X B. At this time, the first weight W A and the second weight W B can be calculated in advance from the image synthesis algorithm, and the pre-calculated data can be managed in a look-up table format. Further, the composite image can be configured by combining a plurality of original images. Depending on how many original images are combined to form a composite image, the weights reflected on the original image can be set differently. Accordingly, a weight applied to the original image may be set in the lookup table according to the number of original images composing the composite image.

전술한 점을 고려하여, 멀티 카메라의 정보 처리 장치는 합성영상을 구성하는 원본영상의 개수를 확인한다(S73). 그리고, 멀티 카메라의 정보 처리 장치는 합성영상을 구성하는 원본영상의 개수를 고려하여 설정된 가중치 테이블을 확인하여, 상기 원본영상에 포함된 원본 화소들 각각에 적용되는 가중치 정보를 확인할 수 있다(S74).In consideration of the above points, the information processing apparatus of the multi-camera confirms the number of original images constituting the synthesized image (S73). The information processing apparatus of the multi-camera can confirm the weight information applied to each of the original pixels included in the original image by checking the weight table set in consideration of the number of original images constituting the combined image (S74) .

다음으로, 멀티 카메라의 정보 처리 장치는 상기 원본영상에 포함된 원본화소들 각각에 가중치 정보를 적용하여 합성영상의 일 영역으로 구비되는 합성화소의 값을 설정한다(S75).Next, the information processing apparatus of the multi-camera applies the weight information to each of the original pixels included in the original image to set the value of the combined pixel included in one region of the combined image (S75).

전술한 S71 내지 S75 단계는 합성영상을 구성하는 모든 원본영상의 입력이 완료될 때까지 반복적으로 진행하여, 합성영상에 구비되는 합성화소의 값이 모두 설정됨에 따라 합성영상을 출력한다(S76). The steps S71 through S75 described above are repeatedly performed until the input of all the original images constituting the composite image is completed, and the composite image is outputted as the values of the composite pixels included in the composite image are all set (S76).

도 8은 본 개시의 일 실시예에 따른 멀티 카메라의 정보 처리 장치와 방법 및 멀티 카메라를 이용한 합성영상 제공 장치와 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다. 8 is a block diagram illustrating a computing system that implements an apparatus and method for processing information of a multi-camera and a method and apparatus for providing a composite image using a multi-camera according to an embodiment of the present disclosure.

도 8을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.8, a computing system 1000 includes at least one processor 1100, a memory 1300, a user interface input device 1400, a user interface output device 1500, (1600), and a network interface (1700).

프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The processor 1100 may be a central processing unit (CPU) or a memory device 1300 and / or a semiconductor device that performs processing for instructions stored in the storage 1600. Memory 1300 and storage 1600 may include various types of volatile or non-volatile storage media. For example, the memory 1300 may include a ROM (Read Only Memory) and a RAM (Random Access Memory).

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Thus, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by processor 1100, or in a combination of the two. The software module may reside in a storage medium (i.e., memory 1300 and / or storage 1600) such as a RAM memory, a flash memory, a ROM memory, an EPROM memory, an EEPROM memory, a register, a hard disk, a removable disk, You may. An exemplary storage medium is coupled to the processor 1100, which can read information from, and write information to, the storage medium. Alternatively, the storage medium may be integral to the processor 1100. [ The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of this disclosure are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the disclosure are not intended to be all-inclusive and are intended to illustrate representative aspects of the disclosure, and the features described in the various embodiments may be applied independently or in a combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is to be accorded the broadest interpretation as understanding of the principles of the invention, as well as software or machine-executable instructions (e.g., operating system, applications, firmware, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.

Claims (16)

적어도 하나의 객체를 포함하는 영상을 촬영하는 복수의 카메라와,
상기 복수의 카메라 각각에 구비되며, 상기 적어도 하나의 객체와 상기 카메라 사이의 위치정보를 확인하는 위치정보 확인부와,
상기 위치정보 확인부로부터 수신한 위치정보를 사용하여, 상기 복수의 카메라로부터 획득한 영상정보를 처리하는 영상 처리부를 포함하는 것을 특징으로 하는 멀티 카메라의 정보 처리 장치.
A plurality of cameras for capturing an image including at least one object,
A positional information verifying unit provided in each of the plurality of cameras for verifying positional information between the at least one object and the camera;
And an image processing unit that processes the image information acquired from the plurality of cameras using the positional information received from the positional information verification unit.
제1항에 있어서,
상기 위치정보 확인부는,
상기 위치정보 확인부를 식별하는 장치 식별자와,
상기 적어도 하나의 객체와 상기 카메라 사이의 위치 데이터를 포함하는 위치정보를 생성하는 것을 특징으로 하는 멀티 카메라의 정보 처리 장치.
The method according to claim 1,
The location information verifying unit,
A device identifier for identifying the location information verifying unit,
And generates position information including positional data between the at least one object and the camera.
제2항에 있어서,
상기 영상 처리부는,
상기 장치 식별자와, 상기 위치 데이터를 포함하는 위치정보를 확인하고,
상기 장치 식별자를 상기 적어도 하나의 객체를 식별하는 객체 식별자로 변환하는 것을 특징으로 하는 멀티 카메라의 정보 처리 장치.
3. The method of claim 2,
Wherein the image processing unit comprises:
The device identifier and location information including the location data,
And converts the device identifier into an object identifier that identifies the at least one object.
제1항에 있어서,
상기 위치정보 확인부는,
상기 영상의 깊이 이미지를 획득하는 깊이(Depth) 카메라를 포함하는 것을 특징으로 하는 멀티 카메라의 정보 처리 장치.
The method according to claim 1,
The location information verifying unit,
And a depth camera for acquiring a depth image of the image.
제4항에 있어서,
상기 영상 처리부는,
상기 위치정보로서 상기 영상의 깊이 이미지를 제공하는 것을 특징으로 하는 멀티 카메라의 정보 처리 장치.
5. The method of claim 4,
Wherein the image processing unit comprises:
And provides the depth image of the image as the position information.
복수의 카메라를 사용하여 적어도 하나의 객체를 포함하는 영상을 촬영하는 과정과,
상기 복수의 카메라 각각으로부터 상기 적어도 하나의 객체까지의 위치정보를 확인하는 과정과,
상기 위치정보를 사용하여, 상기 복수의 카메라로부터 획득한 영상정보를 처리하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라의 정보 처리 방법.
The method includes capturing an image including at least one object using a plurality of cameras,
Identifying location information from each of the plurality of cameras to the at least one object;
And processing the image information acquired from the plurality of cameras using the position information.
제6항에 있어서,
상기 위치정보를 확인하는 과정은,
상기 위치정보 확인부를 식별하는 장치 식별자와,
상기 적어도 하나의 객체와 상기 카메라 사이의 위치 데이터를 포함하는 위치정보를 생성하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라의 정보 처리 방법.
The method according to claim 6,
The step of confirming the position information comprises:
A device identifier for identifying the location information verifying unit,
And generating position information including positional data between the at least one object and the camera.
제7항에 있어서,
상기 영상정보를 처리하는 과정은,
상기 장치 식별자와, 상기 위치 데이터를 포함하는 위치정보를 확인하는 과정과,
상기 장치 식별자를 상기 적어도 하나의 객체를 식별하는 객체 식별자로 변환하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라의 정보 처리 방법.
8. The method of claim 7,
The process of processing the image information includes:
Identifying the device identifier and location information including the location data;
And converting the device identifier into an object identifier that identifies the at least one object.
제6항에 있어서,
상기 위치정보를 확인하는 과정은,
상기 복수의 카메라 각각에 대응되는 위치에 마련된 깊이(Depth) 카메라로부터, 상기 영상의 깊이 이미지를 획득하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라의 정보 처리 방법.
The method according to claim 6,
The step of confirming the position information comprises:
And acquiring a depth image of the image from a depth camera provided at a position corresponding to each of the plurality of cameras.
제9항에 있어서,
상기 영상정보를 처리하는 과정은,
상기 위치정보로서 상기 영상의 깊이 이미지를 제공하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라의 정보 처리 방법.
10. The method of claim 9,
The process of processing the image information includes:
And providing a depth image of the image as the position information.
복수의 영상을 조합한 합성영상을 제공하는 방법에 있어서,
복수의 카메라로부터 각각 촬영된 복수의 영상을 입력받는 과정과,
상기 복수의 카메라에 대응되는 위치에 각각 마련된 복수의 위치확인부로부터 제공되는 복수의 위치정보를 수신하는 과정과,
상기 복수의 카메라에 대응되는 상기 위치정보, 상기 복수의 영상, 및 상기 합성영상 사이의 관계를 고려하여, 상기 복수의 영상 각각에 구비되는 원본화소를 상기 합성영상에 구비되는 합성화소와 매칭시키는 과정과,
상기 각각의 영상단위로 원본화소의 값을 확인하여 상기 합성화소의 값에 적용하는 과정과,
상기 합성화소의 값을 조합한 합성영상을 생성하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라를 이용한 합성영상 제공 방법.
A method of providing a composite image in which a plurality of images are combined,
Receiving a plurality of images respectively photographed from a plurality of cameras;
Receiving a plurality of pieces of positional information provided from a plurality of position determination units provided at positions corresponding to the plurality of cameras;
A step of matching original pixels provided in each of the plurality of images with synthetic pixels included in the composite image in consideration of the relationship between the position information, the plurality of images, and the composite image corresponding to the plurality of cameras, and,
Determining a value of an original pixel in each of the image units and applying the value to the value of the combined pixel;
And generating a composite image in which values of the composite pixels are combined with each other.
제11항에 있어서,
상기 원본화소를 합성화소와 매칭시키는 과정은,
상기 합성영상에 구비되는 상기 복수의 영상의 개수를 확인하는 과정과,
상기 영상의 개수를 고려하여 미리 정해진 중요도 테이블로부터, 상기 원본화소가 적용되는 상기 합성화소 및 중요도를 확인하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라를 이용한 합성영상 제공 방법.
12. The method of claim 11,
Wherein the step of matching the original pixel with the composite pixel comprises:
Determining a number of the plurality of images included in the composite image;
And checking the composite pixel to which the original pixel is applied and the importance of the composite pixel from a predetermined importance table in consideration of the number of the images.
제12항에 있어서,
상기 원본화소의 값을 상기 합성화소의 값에 적용하는 과정은,
상기 원본화소의 값에 중요도를 반영하고, 상기 중요도를 반영한 원본화소의 값을 상기 합성화소의 값에 적용하는 과정을 포함하는 것을 특징으로 하는 멀티 카메라를 이용한 합성영상 제공 방법.
13. The method of claim 12,
Wherein the step of applying the value of the original pixel to the value of the composite pixel comprises:
And applying a value of the original pixel reflecting the importance to the value of the original pixel and applying the value of the original pixel reflecting the importance to the value of the composite pixel.
복수의 영상을 조합한 합성영상을 제공하는 장치에 있어서,
적어도 하나의 객체를 포함하는 영상을 촬영하는 복수의 카메라와,
상기 복수의 카메라 각각에 구비되며, 상기 적어도 하나의 객체와 상기 카메라 사이의 위치정보를 확인하는 위치정보 확인부와,
상기 복수의 카메라에 대응되는 상기 위치정보, 상기 복수의 영상, 및 상기 합성영상 사이의 관계를 고려하여, 상기 복수의 영상 각각에 구비되는 원본화소를 상기 합성영상에 구비되는 합성화소와 매칭시키고, 상기 각각의 영상단위로 원본화소의 값을 확인하여 상기 합성화소의 값에 적용하고, 상기 합성화소의 값을 조합한 합성영상을 생성하는 영상 처리부를 포함하는 것을 특징으로 하는 멀티 카메라를 이용한 합성영상 제공 장치.
An apparatus for providing a composite image in which a plurality of images are combined,
A plurality of cameras for capturing an image including at least one object,
A positional information verifying unit provided in each of the plurality of cameras for verifying positional information between the at least one object and the camera;
A source pixel included in each of the plurality of images is matched with a composite pixel included in the composite image in consideration of the relationship between the position information, the plurality of images, and the composite image corresponding to the plurality of cameras, And an image processor for generating a composite image by combining the values of the composite pixels with the values of the composite pixels by checking the values of the original pixels in the respective image units. .
제14항에 있어서,
상기 영상 처리부는,
상기 합성영상에 구비되는 상기 복수의 영상의 개수를 확인하고,
상기 영상의 개수를 고려하여 미리 정해진 중요도 테이블로부터, 상기 원본화소가 적용되는 상기 합성화소 및 중요도를 확인하는 것을 특징으로 하는 멀티 카메라를 이용한 합성영상 제공 장치.
15. The method of claim 14,
Wherein the image processing unit comprises:
Checking the number of the plurality of images included in the composite image,
Wherein the synthesized pixel to which the original pixel is applied and the importance level are checked from a predetermined importance table in consideration of the number of the images.
제14항에 있어서,
상기 영상 처리부는,
상기 원본화소의 값에 중요도를 반영하고, 상기 중요도를 반영한 원본화소의 값을 상기 합성화소의 값에 적용하는 것을 특징으로 하는 멀티 카메라를 이용한 합성영상 제공 장치.
15. The method of claim 14,
Wherein the image processing unit comprises:
Wherein a value of the original pixel reflecting the importance of the original pixel and a value of the original pixel reflecting the importance are applied to the value of the composite pixel.
KR1020170146947A 2017-01-12 2017-11-06 Apparatus and method for processing information of multi camera Active KR102430726B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/868,534 US10692262B2 (en) 2017-01-12 2018-01-11 Apparatus and method for processing information of multiple cameras

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170005294 2017-01-12
KR1020170005294 2017-01-12

Publications (2)

Publication Number Publication Date
KR20180083245A true KR20180083245A (en) 2018-07-20
KR102430726B1 KR102430726B1 (en) 2022-08-10

Family

ID=63103573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170146947A Active KR102430726B1 (en) 2017-01-12 2017-11-06 Apparatus and method for processing information of multi camera

Country Status (1)

Country Link
KR (1) KR102430726B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487684A (en) * 2021-07-23 2021-10-08 浙江华睿科技股份有限公司 Calibration parameter determination method and device, storage medium and electronic device
WO2025146939A1 (en) * 2024-01-05 2025-07-10 삼성전자 주식회사 Electronic device for performing view synthesis, and operating method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110047949A (en) * 2009-10-30 2011-05-09 한국전자통신연구원 Virtual viewpoint image generating device and method
JP2012146224A (en) * 2011-01-13 2012-08-02 Digital Media Professional:Kk Drawing processing unit
JP2016024490A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Image processing apparatus, image processing method, and program
US20180316902A1 (en) * 2015-11-11 2018-11-01 Sony Corporation Image processing apparatus and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110047949A (en) * 2009-10-30 2011-05-09 한국전자통신연구원 Virtual viewpoint image generating device and method
JP2012146224A (en) * 2011-01-13 2012-08-02 Digital Media Professional:Kk Drawing processing unit
JP2016024490A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Image processing apparatus, image processing method, and program
US20180316902A1 (en) * 2015-11-11 2018-11-01 Sony Corporation Image processing apparatus and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487684A (en) * 2021-07-23 2021-10-08 浙江华睿科技股份有限公司 Calibration parameter determination method and device, storage medium and electronic device
WO2025146939A1 (en) * 2024-01-05 2025-07-10 삼성전자 주식회사 Electronic device for performing view synthesis, and operating method thereof

Also Published As

Publication number Publication date
KR102430726B1 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
CN110335211B (en) Depth image correction method, terminal device and computer storage medium
CN112634374B (en) Stereo calibration method, device, system for binocular camera and binocular camera
US10692262B2 (en) Apparatus and method for processing information of multiple cameras
CN101630406B (en) Camera calibration method and camera calibration device
KR20150120066A (en) System for distortion correction and calibration using pattern projection, and method using the same
CN113259642B (en) Film visual angle adjusting method and system
WO2022100668A1 (en) Temperature measurement method, apparatus, and system, storage medium, and program product
CN109785390B (en) Method and device for image correction
CN109785225B (en) Method and device for correcting image
CN111385461A (en) Panoramic shooting method and device, camera and mobile terminal
TW202013956A (en) Image device calibration method and related image device and arithmetic device
CN109040745A (en) Camera self-calibration method and device, electronic equipment and computer storage medium
KR20170128739A (en) Video providing apparatus and method for supporting production of immersive contents
US20170155889A1 (en) Image capturing device, depth information generation method and auto-calibration method thereof
CN109040746A (en) Camera calibration method and apparatus, electronic equipment, computer readable storage medium
WO2021163406A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
TWI595444B (en) Image capturing device, depth information generation method and auto-calibration method thereof
KR102430726B1 (en) Apparatus and method for processing information of multi camera
CN109658459A (en) Camera calibration method, device, electronic equipment and computer readable storage medium
US20200351488A1 (en) Three-dimensional information acquisition system using pitching practice, and method for calculating camera parameters
TWI812369B (en) Control method, tracking system and non-transitory computer-readable storage medium
WO2020146965A1 (en) Image refocusing control method and system
CN109429018B (en) Image processing device and method
CN111080689B (en) Method and device for determining face depth map

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20171106

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20200803

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20171106

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20211123

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20220518

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20220804

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20220804

End annual number: 3

Start annual number: 1

PG1601 Publication of registration