[go: up one dir, main page]

KR102160196B1 - Apparatus and method for 3d modeling - Google Patents

Apparatus and method for 3d modeling Download PDF

Info

Publication number
KR102160196B1
KR102160196B1 KR1020180123392A KR20180123392A KR102160196B1 KR 102160196 B1 KR102160196 B1 KR 102160196B1 KR 1020180123392 A KR1020180123392 A KR 1020180123392A KR 20180123392 A KR20180123392 A KR 20180123392A KR 102160196 B1 KR102160196 B1 KR 102160196B1
Authority
KR
South Korea
Prior art keywords
feature point
modeling
indoor
indoor space
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180123392A
Other languages
Korean (ko)
Other versions
KR20200042790A (en
Inventor
유연걸
신승호
임국찬
전진수
조익환
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180123392A priority Critical patent/KR102160196B1/en
Publication of KR20200042790A publication Critical patent/KR20200042790A/en
Application granted granted Critical
Publication of KR102160196B1 publication Critical patent/KR102160196B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • G06T11/10
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

일 실시예에 따른 3D 모델링 방법은, 라이다에 의해 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 단계; 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하는 단계; 상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함한다.A 3D modeling method according to an exemplary embodiment may include obtaining a point cloud for an indoor space by a lidar; Acquiring a plurality of indoor images of the indoor space by a camera; Determining a feature point deficient region from the plurality of indoor images; And 3D modeling the indoor space based on a point cloud corresponding to the feature point deficient region and the plurality of indoor images.

Description

3D 모델링 장치 및 방법{APPARATUS AND METHOD FOR 3D MODELING} 3D modeling device and method {APPARATUS AND METHOD FOR 3D MODELING}

본 발명은 실내 공간을 3D 모델링 하는 3D 모델링 장치 및 방법에 관한 것이다.The present invention relates to a 3D modeling apparatus and method for 3D modeling an indoor space.

근래에 들어, 가상 현실 혹은 증강 현실과 같이 가상의 정보를 이용하여 구현된 다양한 컨텐츠가 제안되고 있다. 가상 현실(Virtual Reality, VR)은 컴퓨터 등을 사용하여 인공적인 기술로 만들어 낸 가상 공간으로서, 실제와 유사하지만 실제가 아닌 특징이 있다. 증강 현실(Augmented Reality, AR)은 가상 현실의 한 분야로서, 사용자가 보는 현실의 객체에 가상의 정보를 합성하여, 가상의 정보를 현실의 일부로서 인식하도록 할 수 있는 기법을 가리킨다.In recent years, various contents implemented using virtual information such as virtual reality or augmented reality have been proposed. Virtual Reality (VR) is a virtual space created with artificial technology using a computer, etc., and has characteristics that are similar to reality but not real. Augmented Reality (AR) is a field of virtual reality, and refers to a technique that allows users to recognize virtual information as a part of reality by synthesizing virtual information on a real object viewed by the user.

이와 같은 가상 현실 혹은 증강 현실이 적용된 가상 공간(Virtual Space)을 구현하기 위해서는 컴퓨터 그래픽스 분야의 3D 모델링(3D Modeling)이 이용될 수 있다. 3D 모델링은 가상의 3차원 공간 속에 재현될 수 있는 수학적 모델을 만드는 과정을 의미한다. In order to implement such a virtual reality or a virtual space to which augmented reality is applied, 3D modeling in the field of computer graphics may be used. 3D modeling refers to the process of creating a mathematical model that can be reproduced in a virtual three-dimensional space.

만약, 실제 존재하는 실내 공간을 가상 공간으로 재현하고자 하는 경우, 3D 모델링 시 실제 공간에 대한 정보를 이용할 수 있다. 예를 들어, 실제 공간에 대한 영상을 이용하여 3D 모델링을 수행하면, 실제 공간과 유사한 가상의 3차원 공간을 생성할 수 있다.If an actual indoor space is to be reproduced as a virtual space, information on the actual space can be used during 3D modeling. For example, if 3D modeling is performed using an image of a real space, a virtual 3D space similar to the real space may be created.

한국공개특허공보, 제 10-2015-0129260호 (2011.12.14. 공개)Korean Patent Application Publication No. 10-2015-0129260 (published on December 14, 2011)

본 발명이 해결하고자 하는 과제는, 특징점 결핍 영역에 대응되는 포인트 클라우드를 기초로 실내 공간을 3D 모델링하는 3D 모델링 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide a 3D modeling apparatus and method for 3D modeling an indoor space based on a point cloud corresponding to a feature point deficient region.

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved by the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

일 실시예에 따른 3D 모델링 방법은, 라이다에 의해 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 단계; 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하는 단계; 및 상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함한다.A 3D modeling method according to an exemplary embodiment may include obtaining a point cloud for an indoor space by a lidar; Acquiring a plurality of indoor images of the indoor space by a camera; Determining a feature point deficient region from the plurality of indoor images; And 3D modeling the indoor space based on a point cloud corresponding to the feature point deficient region and the plurality of indoor images.

다른 실시예에 따른 3D 모델링 방법은, 3D 스캐너에 의해 실내 공간에 대한 스캔 영상을 획득하는 단계; 상기 획득된 스캔 영상으로부터 특징점 결핍 영역을 결정하는 단계; 상기 3D 스캐너에 의해 상기 특징점 결핍 영역에 대응되는 포인트 클라우드(Point Cloud)를 획득하는 단계; 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 및 상기 획득된 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 단계를 포함한다.According to another embodiment, a 3D modeling method includes: obtaining a scan image of an indoor space by a 3D scanner; Determining a feature point deficient region from the acquired scan image; Obtaining a point cloud corresponding to the feature point deficient region by the 3D scanner; Acquiring a plurality of indoor images of the indoor space by a camera; And 3D modeling the indoor space based on the acquired point cloud and the plurality of indoor images.

일 실시예에 따른 3D 모델링 장치는, 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 라이다; 실내 공간에 대한 복수의 실내 영상을 획득하는 카메라; 상기 복수의 실내 영상으로부터 특징점 결핍 영역을 결정하고, 상기 특징점 결핍 영역에 대응되는 포인트 클라우드 및 상기 복수의 실내 영상을 기초로 상기 실내 공간을 3D 모델링하는 영상 처리부를 포함한다.A 3D modeling apparatus according to an embodiment includes a lidar that acquires a point cloud for an indoor space; A camera that acquires a plurality of indoor images of the indoor space; And an image processing unit configured to determine a feature point deficient region from the plurality of indoor images, and 3D model the indoor space based on a point cloud corresponding to the feature point deficiency region and the plurality of indoor images.

일 실시예에 따른 3D 모델링 장치 및 방법은, 카메라에 의해 획득된 실내 영상과 라이다에 의해 획득된 포인트 클라우드를 함께 이용하므로, 고품질의 3D 모델을 획득할 수 있다.The 3D modeling apparatus and method according to an embodiment may obtain a high-quality 3D model because an indoor image acquired by a camera and a point cloud acquired by a lidar are used together.

또한, 실내 공간에 대한 영상 중 특징점 결핍 영역에 대해서만 라이다에 의해 획득된 포인트 클라우드를 이용하므로, 실내 공간 전 영역에 대한 포인트 클라우드를 이용하는 경우에 비해 3D 모델링의 연산량이 감소할 수 있다.In addition, since the point cloud obtained by the lidar is used only for the region lacking the feature point among the images of the indoor space, the computational amount of 3D modeling may be reduced compared to the case of using the point cloud for the entire indoor space.

도 1 은 본 발명의 일 실시예에 따른 3D 모델링 장치의 기능 블록도이다.
도 2는 본 발명의 일 실시예에 따른 3D 모델링 방법의 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 실내 영상을 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 특징점 추출 영상을 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 3D 메쉬를 예시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 제 1 중간 3D 모델을 예시한 도면이다.
도 7은 도 6의 제 1 중간 3D 모델 상에 특징점 결핍 영역을 예시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 특징점 결핍 영역에 대한 포인트 클라우드를 예시한 도면이다.
도 9는 도 8의 특징점 결핍 영역에 대한 3D 메쉬를 예시한 도면이다.
도 10은 도 8의 특징점 결핍 영역에 대한 제 2 중간 3D 모델을 예시한 도면이다.
도 11은 도 6의 제 1 중간 3D 모델에서 특징점 결핍 영역을 도 10의 제 2 중간 3D 모델로 대체한 3D 모델을 예시한 도면이다.
도 12는 본 발명의 다른 실시예에 따른 3D 모델링 방법의 흐름도이다.
도 13은 도 1의 실시예에 따른 3D 스캐너를 예시한 도면이다.
1 is a functional block diagram of a 3D modeling apparatus according to an embodiment of the present invention.
2 is a flowchart of a 3D modeling method according to an embodiment of the present invention.
3 is a diagram illustrating an indoor image according to an embodiment of the present invention.
4 is a diagram illustrating a feature point extraction image according to an embodiment of the present invention.
5 is a diagram illustrating a 3D mesh according to an embodiment of the present invention.
6 is a diagram illustrating a first intermediate 3D model according to an embodiment of the present invention.
7 is a diagram illustrating a region lacking feature points on the first intermediate 3D model of FIG. 6.
8 is a diagram illustrating a point cloud for a feature point deficient region according to an embodiment of the present invention.
9 is a diagram illustrating a 3D mesh for a feature point deficient region of FIG. 8.
FIG. 10 is a diagram illustrating a second intermediate 3D model for a region lacking a feature point of FIG. 8.
11 is a diagram illustrating a 3D model in which a region lacking a feature point in the first intermediate 3D model of FIG. 6 is replaced with the second intermediate 3D model of FIG. 10.
12 is a flowchart of a 3D modeling method according to another embodiment of the present invention.
13 is a diagram illustrating a 3D scanner according to the embodiment of FIG. 1.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.

도 1 은 본 발명의 일 실시예에 따른 3D 모델링 장치의 기능 블록도이다.1 is a functional block diagram of a 3D modeling apparatus according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 3D 모델링 장치(100)는 실내 공간을 가상의 3차원 공간으로 재현하기 위해 3D 모델링을 수행함으로써, 실내 공간에 대한 3D 모델을 획득할 수 있다. 이렇게 획득된 3D 모델은 가상 현실(Virtual Reality) 또는 증강 현실(Augmented Reality, AR) 컨텐츠 제공 시 이용될 수 있다.The 3D modeling apparatus 100 according to an embodiment of the present invention may obtain a 3D model for an indoor space by performing 3D modeling to reproduce an indoor space as a virtual three-dimensional space. The 3D model thus obtained may be used when providing virtual reality or augmented reality (AR) content.

이 때, 실제 실내 공간과 3D 모델 간의 유사도가 높을수록 사용자의 몰입도가 높아질 수 있다. 따라서, 3D 모델링 시에는 실제 실내 공간에 대한 정확한 정보를 이용할 필요가 있다.In this case, the higher the similarity between the actual indoor space and the 3D model, the higher the user's immersion. Therefore, in 3D modeling, it is necessary to use accurate information about the actual indoor space.

실내 공간의 3D 모델링 방법으로서 카메라(120)에 의해 획득된 영상을 이용하는 방법이 있다. 구체적으로, 카메라(120)에 의해 실내 공간에 대한 복수의 영상을 획득하고, 획득된 복수의 영상의 특징점을 추출하여 3D 모델링을 수행할 수 있다. 카메라(120)에 의해 획득된 영상을 이용하는 방법은 실내 공간의 재질과 색감을 상세히 재현해 낼 수 있다. 반면, 카메라(120)에 의해 획득된 영상은 특징점을 기반으로 3D 모델링을 수행하는 바, 단일 색상 영역에 대한 모델링 시 성능이 저하될 수 있다.As a 3D modeling method of an indoor space, there is a method of using an image acquired by the camera 120. Specifically, 3D modeling may be performed by acquiring a plurality of images of an indoor space by the camera 120 and extracting feature points of the acquired plurality of images. The method of using the image acquired by the camera 120 can reproduce the material and color of the indoor space in detail. On the other hand, since the image acquired by the camera 120 performs 3D modeling based on feature points, performance may be degraded when modeling a single color area.

실내 공간의 3D 모델링을 위한 다른 방법 중 하나는 라이다(112)(LiDAR)에 의해 획득된 포인트 클라우드를 이용하는 것이다. 구체적으로, 라이다(112)에 의해 실내 공간에 대한 포인트 클라우드를 획득하고, 이에 기초하여 3D 모델링을 수행할 수 있다. 이 경우, 실내 공간의 전체적인 형태를 구현하는데 우수한 성능을 나타낼 수 있다. 그러나, 깊이 정보에 기초한 포인트 클라우드의 특성 상, 실내 공간의 재질이나 색감을 재현하는데 부적합할 수 있다. 또한, 실내 공간을 3D 모델링 할 때에는 동적 물체를 제거할 필요가 있으나, 라이다(112)에 의한 포인트 클라우드는 동적 물체에 대한 정보를 포함하여 문제될 수 있다.One of the other methods for 3D modeling of an indoor space is to use a point cloud obtained by LiDAR 112. Specifically, a point cloud for an indoor space may be obtained by the lidar 112 and 3D modeling may be performed based on this. In this case, it can exhibit excellent performance in realizing the overall shape of the indoor space. However, due to the nature of the point cloud based on depth information, it may be unsuitable for reproducing the material or color of an indoor space. In addition, when 3D modeling an indoor space, it is necessary to remove a dynamic object, but the point cloud by the lidar 112 may be problematic including information on the dynamic object.

카메라(120) 및 라이다(112) 각각이 가진 문제점을 해결하기 위해, 카메라(120)에 의해 획득된 영상과 라이다(112)에 의해 획득된 포인트 클라우드를 함께 이용하여 실내 공간을 3D 모델링 할 수도 있다. 이 방법은 재질뿐만 아니라 형태를 구현할 때에도 우수한 성능을 보일 수 있다. 그럼에도 불구하고, 영상과 포인트 클라우드를 동시에 이용하는 경우에는 연산량이 급증하여, 실내 공간을 3D 모델링하는데 적용하기 어려울 수 있다.In order to solve the problems of each of the camera 120 and the lidar 112, the indoor space can be 3D modeled by using the image acquired by the camera 120 and the point cloud acquired by the lidar 112 together. May be. This method can exhibit excellent performance when implementing not only the material but also the shape. Nevertheless, when images and point clouds are used at the same time, the amount of computation increases rapidly, and it may be difficult to apply it to 3D modeling of an indoor space.

이를 해결하기 위해, 본 발명의 일 실시예에 따른 3D 모델링 장치(100)는 특징점 결핍 영역에 대해서는 포인트 클라우드를 이용하고, 나머지 영역에서는 카메라(120)에 의해 획득된 영상을 이용하여 3D 모델링 할 수 있다.To solve this, the 3D modeling apparatus 100 according to an embodiment of the present invention can perform 3D modeling using a point cloud for a region lacking a feature point, and using an image acquired by the camera 120 for the remaining region. have.

구체적으로, 도 1을 참조하면, 본 발명의 일 실시예에 따른 3D 모델링 장치(100)는 포인트 클라우드를 획득하는 3D 스캐너(110); 영상을 획득하는 카메라(120); 3D 모델링을 수행하는 영상 처리부(130); 및 3D 모델링 장치(100)의 각 구성을 제어하는 제어부(140)를 포함할 수 있다.Specifically, referring to FIG. 1, a 3D modeling apparatus 100 according to an embodiment of the present invention includes a 3D scanner 110 for obtaining a point cloud; A camera 120 for obtaining an image; An image processing unit 130 that performs 3D modeling; And a control unit 140 that controls each component of the 3D modeling apparatus 100.

3D 스캐너(110)는 3D 모델을 획득하고자 하는 실내 공간에 대한 포인트 클라우드를 획득할 수 있다. 이를 위해, 3D 스캐너(110)는 실내 공간에 레이저를 조사하고, 반사되는 레이저를 수신함으로써 포인트 클라우드를 획득할 수 있다.The 3D scanner 110 may acquire a point cloud for an indoor space in which a 3D model is to be acquired. To this end, the 3D scanner 110 may obtain a point cloud by irradiating a laser into an indoor space and receiving a reflected laser.

이를 위해, 3D 스캐너(110)는 펄스 레이저를 조사하고, 반사되는 레이저를 수신하는 라이다(112)를 포함할 수 있다. 구체적으로, 라이다(112)는 실내 공간에 펄스 레이저를 조사하고, 조사된 펄스 레이저가 반사되어 돌아오기까지 소요되는 시간 및 강도를 측정할 수 있다. 이렇게 측정된 결과에는 실내 공간에 대한 거리, 방향, 속도, 온도, 물질 분포, 농도 특성 등의 정보가 포함될 수 있다. 라이다(112)는 최종적으로 측정 결과를 포인트 클라우드에 저장할 수 있다. 여기서, 포인트 클라우드란 좌표계 상에서의 데이터의 집합을 의미하므로, 라이다(112)가 획득하는 포인트 클라우드는 3차원 좌표계에 대한 실내 공간의 정보를 포함할 수 있다.To this end, the 3D scanner 110 may include a lidar 112 that irradiates a pulsed laser and receives the reflected laser. Specifically, the lidar 112 may irradiate a pulsed laser into an indoor space, and measure a time and intensity required until the irradiated pulsed laser is reflected and returned. The measured results may include information such as distance, direction, speed, temperature, material distribution, and concentration characteristics for an indoor space. The lidar 112 may finally store the measurement result in the point cloud. Here, since the point cloud means a set of data on the coordinate system, the point cloud acquired by the lidar 112 may include information on the indoor space of the 3D coordinate system.

라이다(112)는 실내 공간의 전 영역에 대한 포인트 클라우드를 획득하기 위해, 실내 공간 전 영역에 대하여 레이저를 조사하도록 마련될 수 있다. 레이저는 직진성을 가지므로, 일 실시예에 따른 라이다(112)는 전 방향으로 레이저 조사가 가능하도록 패닝(Panning) 및/또는 틸팅(Tilting) 가능하게 마련될 수 있다.The lidar 112 may be provided to irradiate a laser to the entire indoor space in order to obtain a point cloud for the entire indoor space. Since the laser has straightness, the lidar 112 according to an exemplary embodiment may be provided to be panned and/or tilted to enable laser irradiation in all directions.

또한, 포인트 클라우드에 색채 정보를 부가하기 위해, 3D 스캐너(110)는 스캔 카메라(111)를 더 포함할 수 있다. 스캔 카메라(111)는 스캔 영상을 획득하여 라이다(112)에 제공할 수 있고, 라이다(112)는 획득된 포인트 클라우드 상에 제공받은 스캔 영상을 매칭함으로써 포인트 클라우드에 색체 정보를 부가할 수 있다.In addition, in order to add color information to the point cloud, the 3D scanner 110 may further include a scan camera 111. The scan camera 111 may acquire a scanned image and provide it to the lidar 112, and the lidar 112 may add color information to the point cloud by matching the scanned image provided on the acquired point cloud. have.

카메라(120)는 실내 공간에 대한 복수의 실내 영상을 획득할 수 있다. 카메라(120)는 화각에 따른 제약이 존재하므로, 하나의 실내 영상은 실내 공간 전체의 정보를 포함하기 어려울 수 있다. 따라서, 하나의 단일 카메라(120)는 위치를 달리하여 실내 공간을 복수 회 촬영함으로써 복수의 실내 영상을 획득할 수 있다. 이와는 달리, 서로 다른 방향을 향하는 복수의 카메라(120) 각각은 실내 공간의 서로 다른 위치를 촬영함으로써 복수의 실내 영상을 획득할 수 있다. The camera 120 may acquire a plurality of indoor images of the indoor space. Since the camera 120 has limitations according to the angle of view, it may be difficult for one indoor image to include information on the entire indoor space. Accordingly, one single camera 120 may acquire a plurality of indoor images by photographing an indoor space multiple times at different locations. In contrast, each of the plurality of cameras 120 facing different directions may acquire a plurality of indoor images by capturing different locations of the indoor space.

영상 처리부(130)는 포인트 클라우드 및 실내 영상을 이용하여 실내 공간에 대한 3D 모델링을 수행할 수 있다. 특히, 일 실시예에 따른 영상 처리부(130)는 특징점 결핍 영역을 결정하고, 결정된 특징점 결핍 영역에 대응되는 포인트 클라우드와 실내 영상을 이용하여 3D 모델링을 수행할 수 있다. 이에 대해서는 후술한다.The image processing unit 130 may perform 3D modeling of an indoor space using a point cloud and an indoor image. In particular, the image processing unit 130 according to an exemplary embodiment may determine a feature point deficiency region and perform 3D modeling using a point cloud and an indoor image corresponding to the determined feature point deficiency region. This will be described later.

제어부(140)는 3D 모델링 장치(100)의 각 구성을 제어할 수 있다. 예를 들어, 제어부(140)는 3D 모델링 장치(100)의 각 구성에 전원을 공급하거나 차단할 수 있고, 각 구성 간 통신을 제어할 수도 있다. 뿐만 아니라, 제어부(140)는 3D 모델링 장치(100)의 각 구성의 동작을 개시하거나 중단시킬 수도 있다.The controller 140 may control each component of the 3D modeling apparatus 100. For example, the controller 140 may supply or cut off power to each component of the 3D modeling apparatus 100 and control communication between each component. In addition, the controller 140 may start or stop the operation of each component of the 3D modeling apparatus 100.

특히, 제어부(140)는 3D 스캐너(110) 중 라이다(112)의 레이저 조사 방향을 제어할 수 있다. 상술한 바와 같이 라이다(112)가 패닝 및/또는 틸팅 가능하도록 마련된 경우, 제어부(140)는 원하는 방향으로 레이저를 조사하도록 라이다(112)의 패닝 각 및/또는 틸팅 각을 결정할 수 있다. 예를 들어, 제어부(140)는 실내 공간 중 특징점 결핍 영역에 레이저를 조사하도록 라이다(112)의 패닝 각 및/또는 틸팅 각을 결정할 수 있다. 이에 대해서는 후술한다.In particular, the controller 140 may control the laser irradiation direction of the lidar 112 of the 3D scanner 110. As described above, when the lidar 112 is provided to be panned and/or tiltable, the controller 140 may determine the panning angle and/or tilting angle of the lidar 112 to irradiate the laser in a desired direction. For example, the controller 140 may determine a panning angle and/or a tilting angle of the lidar 112 to irradiate a laser to a region lacking a feature point in an indoor space. This will be described later.

상술한 영상 처리부(130) 및 제어부(140)는 마이크로프로세서(Microprocessor)를 포함하는 연산 장치로 구현될 수 있고, 예를 들어 중앙 처리 장치(Central Processing Unit, CPU) 및 그래픽 처리 장치(Graphic Processing Unit, GPU) 중 적어도 하나로 구현될 수 있다. 이와는 달리, 영상 처리부(130) 및 제어부(140)가 하나의 SOC(System On Chip)으로 구현되는 것도 가능할 수 있다.The image processing unit 130 and the control unit 140 described above may be implemented as a computing device including a microprocessor, for example, a central processing unit (CPU) and a graphic processing unit (Graphic Processing Unit). , GPU) may be implemented in at least one of. Alternatively, the image processing unit 130 and the control unit 140 may be implemented as one SOC (System On Chip).

지금까지는 3D 모델링 장치(100)의 각 구성에 대하여 설명하였다. 이하에서는 3D 모델링 장치(100)에 의해 수행되는 여러 가지 실시예에 따른 3D 모델링 방법을 설명한다.So far, each configuration of the 3D modeling apparatus 100 has been described. Hereinafter, a 3D modeling method performed by the 3D modeling apparatus 100 according to various embodiments will be described.

도 2는 본 발명의 일 실시예에 따른 3D 모델링 방법의 흐름도이다.2 is a flowchart of a 3D modeling method according to an embodiment of the present invention.

3D 모델링 장치(100)는 먼저 카메라(120)에 의해 실내 공간에 대한 복수의 실내 영상을 획득할 수 있다(S100). 도 3을 통해 카메라(120)에 의해 획득되는 실내 영상을 설명한다.The 3D modeling apparatus 100 may first acquire a plurality of indoor images of the indoor space by the camera 120 (S100). An indoor image acquired by the camera 120 will be described with reference to FIG. 3.

도 3은 본 발명의 일 실시예에 따른 실내 영상을 예시한 도면이다.3 is a diagram illustrating an indoor image according to an embodiment of the present invention.

상술한 바와 같이, 3D 모델링 장치(100)는 하나의 단일 카메라(120)를 이용하여 서로 다른 위치에 대한 복수의 실내 영상을 획득할 수 있고, 이와는 달리 서로 다른 방향을 향하는 복수의 카메라(120) 각각을 이용하여 서로 다른 위치에 대한 복수의 실내 영상을 획득할 수 있다.As described above, the 3D modeling apparatus 100 may acquire a plurality of indoor images for different locations using a single camera 120, and, unlike this, a plurality of cameras 120 facing different directions. Each of them can be used to obtain a plurality of indoor images for different locations.

이렇게 획득된 복수의 실내 영상 각각은 적어도 하나의 다른 실내 영상과 적어도 일부가 중첩될 수 있다. 도 3에서는 실내 공간의 동일한 영역을 포함하는 서로 다른 복수의 실내 영상이 예시된다. Each of the plurality of indoor images obtained in this way may overlap at least a portion with at least one other indoor image. In FIG. 3, a plurality of different indoor images including the same area of the indoor space are illustrated.

이를 기초로 복수의 실내 영상을 상호 매칭하면, 실내 공간 전체에 대한 이미지 정보를 획득할 수 있다. 아울러, 동일 영역에 대하여 서로 다른 방향으로 촬영한 각각의 실내 영상은 실내 공간에 대한 깊이 정보를 포함하므로, 3D 모델링 장치(100)는 추후 이를 이용하여 3D 모델링을 수행할 수 있다. When a plurality of indoor images are matched with each other based on this, image information on the entire indoor space may be obtained. In addition, since each indoor image photographed in different directions for the same area includes depth information on the indoor space, the 3D modeling apparatus 100 may perform 3D modeling using this later.

다시 도 2를 참조하면, 3D 모델링 장치(100)는 획득된 복수의 실내 영상으로부터 특징점 결핍 영역을 결정할 수 있다(S110). 이하에서는 도 4 내지 7을 참조하여 특징점 결핍 영역을 결정하는 방법을 설명한다.Referring back to FIG. 2, the 3D modeling apparatus 100 may determine a feature point deficient region from a plurality of acquired indoor images (S110). Hereinafter, a method of determining a feature point deficiency region will be described with reference to FIGS. 4 to 7.

도 4는 본 발명의 일 실시예에 따른 특징점 추출 영상을 예시한 도면이고, 도 5는 본 발명의 일 실시예에 따른 3D 메쉬를 예시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 제 1 중간 3D 모델을 예시한 도면이고, 도 7은 도 6의 제 1 중간 3D 모델 상에 특징점 결핍 영역을 예시한 도면이다.4 is a diagram illustrating a feature point extraction image according to an embodiment of the present invention, FIG. 5 is a diagram illustrating a 3D mesh according to an embodiment of the present invention, and FIG. 6 is a diagram illustrating a feature point extraction image according to an embodiment of the present invention. A diagram illustrating a first intermediate 3D model, and FIG. 7 is a diagram illustrating a feature point deficient region on the first intermediate 3D model of FIG. 6.

특징점 결핍 영역을 결정하기 위해, 먼저 3D 모델링 장치(100)의 영상 처리부(130)는 카메라(120)에 의해 획득된 복수의 실내 영상으로부터 특징점을 추출할 수 있다. 구체적으로, 영상 처리부(130)는 복수의 실내 영상 각각에서 코너(Corner), 엣지(Edge), 경사(Gradient) 등을 기초로 특징점을 추출할 수 있다. In order to determine the region lacking the feature point, the image processing unit 130 of the 3D modeling apparatus 100 may first extract the feature point from a plurality of indoor images acquired by the camera 120. Specifically, the image processing unit 130 may extract feature points from each of the plurality of indoor images based on a corner, an edge, and a gradient.

또한, 영상 처리부(130)는 각각의 실내 영상으로부터 추출된 특징점에 깊이 정보를 부가할 수 있다. 상술한 바와 같이, 각각의 실내 영상은 서로 다른 방향에서 동일한 영역에 대하여 촬영되었으므로, 영상 처리부(130)는 각각의 실내 영상 간 차이에 기초하여 특징점에 깊이 정보를 부가할 수 있다. 이를 위해, 일 실시예에 따른 영상 처리부(130)는 삼각 측량법(Triangulation)을 적용할 수 있다.In addition, the image processing unit 130 may add depth information to feature points extracted from each indoor image. As described above, since each indoor image has been captured for the same area in different directions, the image processing unit 130 may add depth information to the feature point based on the difference between each indoor image. To this end, the image processing unit 130 according to an embodiment may apply a triangulation method.

영상 처리부(130)는 특징점에 깊이 정보를 부가함으로써, 특징점의 3차원 공간 상에서의 좌표를 획득할 수 있다. 이를 통해, 영상 처리부(130)는 실내 영상으로부터 추출한 특징점을 3차원 공간 상에 배치할 수 있다. 도 4를 참조하면, 3차원 공간 상에 배치된 특징점들은 실내 공간에 대한 형상, 재질, 및/또는 색감 정보를 포함할 수 있다.The image processing unit 130 may acquire coordinates of the feature point in a 3D space by adding depth information to the feature point. Through this, the image processing unit 130 may arrange the feature points extracted from the indoor image in the 3D space. Referring to FIG. 4, feature points arranged on a 3D space may include shape, material, and/or color information about an indoor space.

이 때, 영상 처리부(130)는 단위 영역 내 추출된 특징점의 개수를 확인할 수 있다. 확인된 개수가 미리 정해진 기준 개수 이하인 영역이 존재하는 경우, 영상 처리부(130)는 해당 영역을 특징점 결핍 영역으로 결정할 수 있다. 여기서, 기준 개수는 3D 모델링을 하기에 부족한 특징점의 최대 개수를 의미할 수 있다.In this case, the image processing unit 130 may check the number of extracted feature points in the unit area. When there is an area in which the identified number is less than or equal to the predetermined reference number, the image processing unit 130 may determine the area as a feature point deficient area. Here, the reference number may mean the maximum number of feature points insufficient for 3D modeling.

또한, 특징점을 추출한 후, 영상 처리부(130)는 특징점을 기초로 3D 메쉬(3D Mesh)를 생성할 수 있다. 구체적으로, 영상 처리부(130)는 추출된 특징점을 본(Bone)과 정점(Vertex)로 하여, 복수의 정점이 본에 의해 리깅되는 3D 메쉬를 생성할 수 있다. In addition, after extracting the feature points, the image processing unit 130 may generate a 3D mesh based on the feature points. Specifically, the image processing unit 130 may generate a 3D mesh in which a plurality of vertices are rigged by the bone by using the extracted feature points as bones and vertices.

이렇게 생성되는 3D 메쉬는 적어도 세 개의 정점이 이루는 복수의 폴리곤(Polygon)으로 구성될 수 있다. 도 5를 참조하면, 3D 메쉬는 무수히 많은 정점과 이들이 이루는 폴리곤을 포함함을 확인할 수 있다.The 3D mesh generated in this way may be composed of a plurality of polygons comprising at least three vertices. Referring to FIG. 5, it can be seen that the 3D mesh includes a myriad of vertices and polygons formed by them.

이 때, 영상 처리부(130)는 3D 메쉬를 구성하는 복수의 폴리곤 중 넓이를 확인할 수 있다. 만약, 확인된 넓이가 기준 넓이 이상인 폴리곤이 존재하는 경우, 영상 처리부(130)는 해당 폴리곤이 형성하는 영역을 특징점 결핍 영역으로 결정할 수 있다. 여기서, 기준 넓이는 3D 모델링을 하기에 부적합한 폴리곤의 최소 넓이를 의미할 수 있다.In this case, the image processing unit 130 may check the area among a plurality of polygons constituting the 3D mesh. If there is a polygon having the identified area equal to or greater than the reference area, the image processing unit 130 may determine an area formed by the corresponding polygon as a feature point deficient area. Here, the reference area may mean the minimum area of a polygon that is inappropriate for 3D modeling.

나아가, 3D 메쉬를 생성한 후, 영상 처리부(130)는 3D 메쉬에 텍스쳐링(Texturing)을 수행하여 제 1 중간 3D 모델을 생성할 수 있다. 구체적으로, 영상 처리부(130)는 3D 메쉬에 대하여 각각의 폴리곤을 형성하는 각각의 정점의 색채 정보를 기초로 해당 폴리곤에 색을 적용함으로써 텍스쳐링을 수행할 수 있다. 도 6을 참조하면, 3D 메쉬를 텍스쳐링 하여 얻어진 제 1 중간 3D 모델은 실제 실내 공간과 유사한 형태의 가상 공간을 형성함을 확인할 수 있다.Furthermore, after generating the 3D mesh, the image processing unit 130 may generate a first intermediate 3D model by performing texturing on the 3D mesh. Specifically, the image processing unit 130 may perform texturing by applying a color to a corresponding polygon based on color information of each vertex forming each polygon with respect to the 3D mesh. Referring to FIG. 6, it can be seen that the first intermediate 3D model obtained by texturing the 3D mesh forms a virtual space similar to the actual indoor space.

그러나, 도 6의 상부와 같이 텍스쳐링 되지 않은 영역이 존재할 수 있다. 이와 같은 영역은 실제 실내 공간과는 상이하게 구성되어 사용자의 실감을 낮출 수 있다. 따라서, 영상 처리부(130)는 제 1 중간 3D 모델 중 텍스쳐링 되지 않은 영역을 특징점 결핍 영역으로 결정할 수 있다. 도 7에서는 도 6의 제 1 중간 3D 모델에 대하여 특징점 결핍 영역 S가 결정된 경우가 예시된다. However, as shown in the upper part of FIG. 6, an untextured area may exist. Such an area may be configured differently from an actual indoor space, thereby lowering the user's sense of experience. Accordingly, the image processing unit 130 may determine an untextured region of the first intermediate 3D model as the feature point deficient region. In FIG. 7, a case where the feature point deficient region S is determined for the first intermediate 3D model of FIG. 6 is illustrated.

또한, 영상 처리부(130)는 제 1 중간 3D 모델 중 사용자의 입력에 의해 선택된 영역을 특징점 결핍 영역으로 결정할 수 있다. 이 경우, 사용자가 직접 특징점 결핍 영역을 결정하거나, 영상 처리부(130)가 사용자의 입력을 기초로 특징점 결핍 영역을 결정할 수 있다.Also, the image processing unit 130 may determine an area selected by a user's input among the first intermediate 3D model as a feature point deficient area. In this case, the user may directly determine the feature point deficient region or the image processing unit 130 may determine the feature point deficient region based on the user's input.

이처럼, 영상 처리부(130)는 실내 영상에서 특징점의 개수가 지나치게 적은 제 1 조건, 3D 메쉬 중 폴리곤의 넓이가 지나치게 큰 제 2 조건, 제 1 3D 모델에서 텍스쳐링 되지 않은 제 3 조건, 및 제 1 3D 모델에서 사용자의 입력에 의해 선택되는 제 4 조건 중 적어도 하나를 만족하는 영역을 특징점 결핍 영역으로 결정할 수 있다. 이렇게 결정된 영역은 실내 영상만을 이용하여 3D 모델링 할 수 없으므로, 3D 모델링 장치(100)는 특징점 결핍 영역의 3D 모델링을 위해 라이다(112)에 의해 획득된 포인트 클라우드를 이용할 수 있다.As such, the image processing unit 130 includes a first condition in which the number of feature points is too small in an indoor image, a second condition in which the polygon width is too large among the 3D meshes, a third condition that is not textured in the first 3D model, and the first 3D In the model, a region that satisfies at least one of the fourth conditions selected by the user's input may be determined as the feature point deficient region. Since the determined area cannot be 3D modeled using only the indoor image, the 3D modeling apparatus 100 may use the point cloud obtained by the lidar 112 for 3D modeling of the feature point deficient area.

다시 도 2를 참조하면, 3D 모델링 장치(100)는 실내 영상을 획득함과 동시에, 라이다(112)에 의해 실내 공간에 대한 포인트 클라우드를 획득할 수 있다(S120). 이를 위해, 3D 모델링 장치(100)의 제어부(140)는 실내 공간의 전 영역에 레이저를 조사할 수 있도록 라이다(112)를 패닝 및/또는 틸팅할 수 있다. Referring back to FIG. 2, the 3D modeling apparatus 100 may acquire an indoor image and at the same time acquire a point cloud for an indoor space by the lidar 112 (S120). To this end, the control unit 140 of the 3D modeling apparatus 100 may pan and/or tilt the lidar 112 to irradiate a laser to the entire area of the indoor space.

라이다(112)는 조사된 레이저가 실내 공간으로부터 반사된 결과를 수신하고, 이를 3차원 공간 상에 배치함으로써 포인트 클라우드를 획득할 수 있다. 또한, 라이다(112)는 3D 스캐너(110)의 스캔 카메라(111)로부터 스캔 영상을 제공받아, 포인트 클라우드에 색체 정보를 부가할 수 있다. 이렇게 획득된 포인트 클라우드는 실내 공간에 대한 형상, 재질 및/또는 색감 정보를 포함할 수 있다.The lidar 112 may obtain a point cloud by receiving a result of the irradiated laser reflected from the indoor space and placing it on the 3D space. In addition, the lidar 112 may receive a scanned image from the scan camera 111 of the 3D scanner 110 and add color information to the point cloud. The obtained point cloud may include shape, material, and/or color information about the indoor space.

마지막으로, 3D 모델링 장치(100)는 특징점 결핍 영역에 대응되는 포인트 클라우드 및 복수의 실내 영상을 기초로 실내 공간을 3D 모델링 할 수 있다(S130). 이하에서는 도 8 내지 11을 참조하여 포인트 클라우드 및 실내 영상을 기초로 3D 모델링 하는 방법을 설명한다.Finally, the 3D modeling apparatus 100 may 3D model an indoor space based on a point cloud corresponding to the feature point deficient region and a plurality of indoor images (S130). Hereinafter, a method of 3D modeling based on a point cloud and an indoor image will be described with reference to FIGS. 8 to 11.

도 8은 본 발명의 일 실시예에 따른 특징점 결핍 영역에 대한 포인트 클라우드를 예시한 도면이고, 도 9는 도 8의 특징점 결핍 영역에 대한 3D 메쉬를 예시한 도면이고, 도 10은 도 8의 특징점 결핍 영역에 대한 제 2 중간 3D 모델을 예시한 도면이고, 도 11은 도 6의 제 1 중간 3D 모델에서 특징점 결핍 영역을 도 10의 제 2 중간 3D 모델로 대체한 3D 모델을 예시한 도면이다.8 is a diagram illustrating a point cloud for a feature point deficient region according to an embodiment of the present invention, FIG. 9 is a diagram illustrating a 3D mesh for the feature point deficient region of FIG. 8, and FIG. 10 is a feature point of FIG. FIG. 11 is a diagram illustrating a second intermediate 3D model for the deficient region, and FIG. 11 is a diagram illustrating a 3D model in which the feature point deficient region in the first intermediate 3D model of FIG. 6 is replaced with the second intermediate 3D model of FIG. 10.

3D 모델링을 수행하기 위해, 먼저 3D 모델링 장치(100)는 앞서 결정된 특징점 결핍 영역에 대응되는 포인트 클라우드를 확인할 수 있다. 구체적으로, 3D 모델링 장치(100)의 영상 처리부(130)는 라이다(112)에 의해 획득된 포인트 클라우드를 복수의 실내 영상을 기초로 생성된 제 1 중간 3D 모델과 매칭할 수 있다. 포인트 클라우드의 각각의 점 데이터는 3차원 좌표를 가지므로, 영상 처리부(130)는 제 1 중간 3D 모델 상에 포인트 클라우드의 각각의 점 데이터를 3차원 좌표에 따라 매칭할 수 있다.In order to perform 3D modeling, first, the 3D modeling apparatus 100 may check a point cloud corresponding to the previously determined feature point deficient region. Specifically, the image processing unit 130 of the 3D modeling apparatus 100 may match the point cloud obtained by the lidar 112 with a first intermediate 3D model generated based on a plurality of indoor images. Since each point data of the point cloud has 3D coordinates, the image processing unit 130 may match each point data of the point cloud on the first intermediate 3D model according to the 3D coordinates.

그 다음, 영상 처리부(130)는 매칭된 복수의 실내 영상의 특징점 결핍 영역 내 포인트 클라우드를 확인할 수 있다. 도 8을 참조하면, 영상 처리부(130)는 도 7의 특징점 결핍 영역 S 내에 존재하는 포인트 클라우드를 확인할 수 있다.Then, the image processing unit 130 may check a point cloud within the feature point deficiency region of the plurality of matched indoor images. Referring to FIG. 8, the image processing unit 130 may check a point cloud existing in the feature point deficiency region S of FIG. 7.

특징점 결핍 영역 내 포인트 클라우드가 확인되면, 영상 처리부(130)는 확인된 포인트 클라우드를 이용하여 제 2 중간 3D 모델을 생성할 수 있다. 이를 위해, 영상 처리부(130)는 우선 특징점 결핍 영역 S 내의 포인트 클라우드의 각각의 점 데이터를 본과 정점로 하여, 복수의 정점이 본에 의해 리깅되는 3D 메쉬를 생성할 수 있다. 도 9를 참조하면, 영상 처리부(130)는 도 8의 특징점 결핍 영역 S 내에 존재하는 포인트 클라우드를 기초로 3D 메쉬를 생성할 수 있다. 그 다음, 영상 처리부(130)는 특징점 결핍 영역에 대한 3D 메쉬에 텍스쳐링을 수행하여 제 2 중간 3D 모델을 생성할 수 있다. 도 10을 참조하면, 영상 처리부(130)는 도 9의 특징점 결핍 영역 S 내에 존재하는 3D 메쉬에 텍스쳐링을 수행하여 제 2 중간 3D 모델을 생성할 수 있다.When the point cloud in the feature point deficiency region is identified, the image processing unit 130 may generate a second intermediate 3D model using the identified point cloud. To this end, the image processing unit 130 may generate a 3D mesh in which a plurality of vertices are rigged by the bone by first using point data of the point cloud in the feature point deficient region S as a bone and a vertex. Referring to FIG. 9, the image processing unit 130 may generate a 3D mesh based on a point cloud existing in the feature point deficiency region S of FIG. 8. Then, the image processing unit 130 may generate a second intermediate 3D model by performing texturing on the 3D mesh for the region lacking the feature point. Referring to FIG. 10, the image processing unit 130 may generate a second intermediate 3D model by performing texturing on a 3D mesh existing in the feature point deficient region S of FIG. 9.

마지막으로, 영상 처리부(130)는 제 1 중간 3D 모델 중 특징점 결핍 영역을 제 2 중간 3D 모델로 대체할 수 있다. 그 결과, 영상 처리부(130)는 도 11과 같은 실내 영상에 대한 3D 모델을 획득할 수 있다.Finally, the image processing unit 130 may replace a region lacking a feature point among the first intermediate 3D model with a second intermediate 3D model. As a result, the image processing unit 130 may obtain a 3D model for the indoor image as shown in FIG. 11.

도 6과 비교할 때, 도11의 3D 모델은 상부 영역이 실제 실내 공간과 유사하게 구현됨을 확인할 수 있다. 그 결과, 사용자는 도 11의 3D 모델에 대한 실감이 높아질 수 있다. 아울러, 실내 공간 전 영역에 대하여 획득한 포인트 클라우드를 모두 이용하여 3D 모델링하지 않기 때문에, 3D 모델링에 대한 연산량이 감소할 수 있다.Compared with FIG. 6, it can be seen that the 3D model of FIG. 11 has an upper area similar to an actual indoor space. As a result, the user can feel more about the 3D model of FIG. 11. In addition, since 3D modeling is not performed using all the point clouds acquired for the entire area of the indoor space, the amount of computation for 3D modeling may be reduced.

지금까지는 실내 공간 전 영역에 대한 포인트 클라우드를 획득한 후, 이 중 특징점 결핍 영역 내 포인트 클라우드를 선택적으로 이용하는 실시예를 설명하였다. 이와는 달리 실내 공간 중 특징점 결핍 영역에 대하여 선택적으로 포인트 클라우드를 획득한 후, 이를 기초로 3D 모델링을 수행할 수도 있다. 이하에서는 도 12 내지 13을 참조하여, 포인트 클라우드를 선택적으로 획득하여 3D 모델링 하는 방법을 설명한다.Until now, after acquiring point clouds for all areas of an indoor space, an embodiment of selectively using a point cloud in an area lacking a feature point has been described. Unlike this, after selectively acquiring a point cloud for a region lacking a feature point in an indoor space, 3D modeling may be performed based on this. Hereinafter, a method of selectively acquiring a point cloud and performing 3D modeling will be described with reference to FIGS. 12 to 13.

도 12는 본 발명의 다른 실시예에 따른 3D 모델링 방법의 흐름도이고, 도 13은 도 1의 실시예에 따른 3D 스캐너를 예시한 도면이다.12 is a flowchart of a 3D modeling method according to another embodiment of the present invention, and FIG. 13 is a diagram illustrating a 3D scanner according to the embodiment of FIG. 1.

먼저, 3D 모델링 장치(100)는 3D 스캐너(110)에 의해 실내 공간에 대한 스캔 영상을 획득할 수 있다(S200). 여기서, 스캔 영상은 3D 스캐너(110)의 스캔 카메라(111)에 의해 획득되는 영상으로서, 3D 모델링 장치(100)의 카메라(120)에 의해 획득되는 영상에 비해 해상도가 낮을 수 있다.First, the 3D modeling apparatus 100 may acquire a scan image of an indoor space by the 3D scanner 110 (S200). Here, the scan image is an image acquired by the scan camera 111 of the 3D scanner 110 and may have a lower resolution than the image acquired by the camera 120 of the 3D modeling apparatus 100.

그 다음, 3D 모델링 장치(100)는 획득된 스캔 영상으로부터 특징점 결핍 영역을 결정할 수 있다(S210). 이를 위해, 3D 모델링 장치(100)의 영상 처리부(130)는 획득된 스캔 영상으로부터 특징점을 추출하고, 추출된 특징점에 삼각 측량법 등을 적용하여 깊이 정보를 부가한 후, 깊이 정보가 부가된 특징점을 3차원 공간 상에 배치할 수 있다. 영상 처리부(130)는 3차원 공간 상에 배치된 특징점에 대하여 단위 영역 내 개수를 확인할 수 있다. 확인된 개수가 미리 정해진 기준 개수 이하인 영역이 존재하는 경우, 영상 처리부(130)는 해당 영역을 특징점 결핍 영역으로 결정할 수 있다. 여기서, 기준 개수는 3D 모델링을 하기에 부족한 특징점의 최대 개수를 의미할 수 있다.Then, the 3D modeling apparatus 100 may determine a feature point deficiency region from the acquired scan image (S210). To this end, the image processing unit 130 of the 3D modeling apparatus 100 extracts a feature point from the obtained scanned image, adds depth information to the extracted feature point by applying a triangulation method, etc., and then applies the feature point to which the depth information is added. It can be placed in a three-dimensional space. The image processing unit 130 may check the number of feature points arranged in the 3D space within the unit area. When there is an area in which the identified number is equal to or less than the predetermined reference number, the image processing unit 130 may determine the area as a feature point deficient area. Here, the reference number may mean the maximum number of feature points that are insufficient for 3D modeling.

특징점 결핍 영역이 결정되면, 3D 모델링 장치(100)는 특징점 결핍 영역에 대응되는 3D 스캐너(110)의 레이저 조사 각도를 결정할 수 있다(S220). 구체적으로, 3D 모델링 장치(100)의 제어부(140)는 3D 스캐너(110)의 라이다(112)가 특징점 결핍 영역으로 레이저를 조사할 수 있는 패닝 각 및/또는 틸팅 각을 결정할 수 있다.When the feature point deficient region is determined, the 3D modeling apparatus 100 may determine a laser irradiation angle of the 3D scanner 110 corresponding to the feature point deficient region (S220). Specifically, the control unit 140 of the 3D modeling apparatus 100 may determine a panning angle and/or a tilting angle at which the lidar 112 of the 3D scanner 110 can irradiate a laser to the feature point deficient region.

도 13을 참조하면, 라이다(112)는 직진하는 레이저 L을 조사할 수 있다. 따라서, 제어부(140)는 레이저 L이 특징점 결핍 영역에 도달할 수 있도록, 라이다(112)의 패닝 각 및/또는 틸팅 각을 변화시킬 수 있다. Referring to FIG. 13, the lidar 112 may irradiate a laser L going straight. Accordingly, the controller 140 may change the panning angle and/or the tilting angle of the lidar 112 so that the laser L reaches the feature point deficient region.

레이저 조사 각도가 결정되면, 3D 모델링 장치(100)는 결정된 조사 각도로 레이저를 조사하여 특징점 결핍 영역에 대응되는 포인트 클라우드를 획득할 수 있다(S230). 이 때, 획득되는 포인트 클라우드는 실내 공간 중 특징점 결핍 영역에 대한 정보만을 포함할 수 있다.When the laser irradiation angle is determined, the 3D modeling apparatus 100 may obtain a point cloud corresponding to the feature point deficient region by irradiating the laser at the determined irradiation angle (S230). In this case, the acquired point cloud may include only information on a region lacking a feature point in the indoor space.

3D 스캐너(110)에 의해 스캔 영상을 획득함과 동시에, 3D 모델링 장치(100)는 카메라(120)에 의해 실내 공간에 대한 복수의 실내 영상을 획득할 수 있다(S240). 이렇게 획득되는 복수의 실내 영상 각각은 적어도 하나의 다른 실내 영상과 적어도 일부가 중첩될 수 있다.At the same time as the scan image is acquired by the 3D scanner 110, the 3D modeling apparatus 100 may acquire a plurality of indoor images of the indoor space by the camera 120 (S240 ). Each of the plurality of indoor images obtained in this way may overlap at least a portion with at least one other indoor image.

마지막으로, 3D 모델링 장치(100)는 획득된 포인트 클라우드 및 복수의 실내 영상을 기초로 실내 공간을 3D 모델링 할 수 있다(S250). 이를 위해, 먼저 3D 모델링 장치(100)의 영상 처리부(130)는 획득된 실내 영상으로부터 특징점을 추출하고, 추출된 특징점에 삼각 측량법 등을 적용하여 깊이 정보를 부가한 후, 깊이 정보가 부가된 특징점을 3차원 공간 상에 배치할 수 있다. 그 다음, 영상 처리부(130)는 특징점과 포인트 클라우드를 매칭한 후, 매칭 결과를 이용하여 3D 모델링을 수행할 수 있다.Finally, the 3D modeling apparatus 100 may 3D model an indoor space based on the acquired point cloud and a plurality of indoor images (S250). To this end, first, the image processing unit 130 of the 3D modeling apparatus 100 extracts a feature point from the obtained indoor image, adds depth information to the extracted feature point by applying a triangulation method, etc., and then the feature point to which the depth information is added. Can be placed in a three-dimensional space. Then, after matching the feature point and the point cloud, the image processing unit 130 may perform 3D modeling using the matching result.

도 12의 방법에 따라 획득된 3D 모델을 획득할 경우, 포인트 클라우드 획득의 부하가 저감될 수 있다. 특히, 실내 공간의 전 영역에 대한 레이저 조사 없이, 포인트 클라우드의 획득이 필요한 영역에 대하여만 레이저 조사가 이루어질 수 있으므로, 포인트 클라우드 획득에 소요되는 시간이 단축될 수 있다.When acquiring the 3D model obtained according to the method of FIG. 12, the load of acquiring the point cloud may be reduced. In particular, since laser irradiation can be performed only on an area in which point cloud acquisition is required without laser irradiation on the entire area of an indoor space, the time required for acquiring a point cloud can be shortened.

상술한 여러 가지 실시예에 따른 3D 모델링 장치 및 방법은, 카메라에 의해 획득된 실내 영상과 라이다에 의해 획득된 포인트 클라우드를 함께 이용하므로, 고품질의 3D 모델을 획득할 수 있다. 또한, 실내 공간에 대한 영상 중 특징점 결핍 영역에 대해서만 라이다에 의해 획득된 포인트 클라우드를 이용하므로, 실내 공간 전 영역에 대한 포인트 클라우드를 이용하는 경우에 비해 3D 모델링의 연산량이 감소할 수 있다.The 3D modeling apparatus and method according to the various embodiments described above use together an indoor image acquired by a camera and a point cloud acquired by a lidar, thereby obtaining a high-quality 3D model. In addition, since the point cloud obtained by the lidar is used only for the region lacking the feature point among the images of the indoor space, the computational amount of 3D modeling may be reduced compared to the case of using the point cloud for the entire indoor space.

한편, 상술한 실시예에 따른 3D 모델링 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램 또는 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the 3D modeling method according to the above-described embodiment may be implemented in a computer program programmed to perform such a step or a computer-readable recording medium recording a computer program.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

일 실시예에 따르면, 상술한 3D 모델링 장치 및 방법은 댁내 또는 산업 현장 등 다양한 분야에서 이용될 수 있으므로 산업상 이용 가능성이 있다.According to an embodiment, the 3D modeling apparatus and method described above can be used in various fields such as indoors or industrial sites, and thus has industrial applicability.

100: 3D 모델링 장치
110: 3D 스캐너
111: 스캔 카메라
112: 라이다
120: 카메라
130: 영상 처리부
140: 제어부
100: 3D modeling device
110: 3D scanner
111: scan camera
112: Lida
120: camera
130: image processing unit
140: control unit

Claims (12)

3D 모델링 장치에 의해 수행되는 3D 모델링 방법에 있어서,
상기 3D 모델링 장치에 포함된 라이다에 의해 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 단계;
상기 3D 모델링 장치에 포함된 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계;
상기 복수의 실내 영상으로부터 상기 실내 공간 중에서 특징점 결핍 영역을 결정하는 단계; 및
상기 특징점 결핍 영역은 상기 특징점 결핍 영역에 대한 포인트 클라우드를 이용하고, 상기 실내 공간 중에서 상기 특징점 결핍 영역이 아닌 영역은 상기 복수의 실내 영상을 이용하여, 상기 실내 공간을 3D 모델링하는 단계를 포함하는
3D 모델링 방법.
In the 3D modeling method performed by the 3D modeling device,
Acquiring a point cloud for an indoor space using a lidar included in the 3D modeling device;
Acquiring a plurality of indoor images of the indoor space by a camera included in the 3D modeling apparatus;
Determining a feature point deficient region in the indoor space from the plurality of indoor images; And
3D modeling the indoor space by using a point cloud for the feature point deficient region for the feature point deficient region, and using the plurality of indoor images in an area other than the feature point deficient region among the indoor spaces.
3D modeling method.
제 1 항에 있어서,
상기 특징점 결핍 영역을 결정하는 단계는,
상기 복수의 실내 영상 각각으로부터 특징점을 추출하는 단계; 및
단위 영역 내 상기 추출된 특징점 개수가 기준 개수 이하인 영역을 상기 특징점 결핍 영역으로 결정하는 단계를 포함하는
3D 모델링 방법.
The method of claim 1,
The step of determining the feature point deficient region comprises:
Extracting feature points from each of the plurality of indoor images; And
Including the step of determining an area in which the number of extracted feature points is less than or equal to a reference number as the feature point deficient area
3D modeling method.
제 1 항에 있어서,
상기 특징점 결핍 영역을 결정하는 단계는,
상기 복수의 실내 영상 각각으로부터 특징점을 추출하는 단계;
상기 추출된 특징점을 기초로 3D 메쉬(Mesh)를 생성하는 단계; 및
상기 3D 메쉬를 구성하는 복수의 폴리곤(Polygon) 중 넓이가 기준 넓이 이상인 폴리곤이 형성하는 영역을 상기 특징점 결핍 영역으로 결정하는 단계를 포함하는
3D 모델링 방법.
The method of claim 1,
The step of determining the feature point deficient region comprises:
Extracting feature points from each of the plurality of indoor images;
Generating a 3D mesh based on the extracted feature points; And
Including the step of determining a region formed by a polygon having an area greater than or equal to a reference area among the plurality of polygons constituting the 3D mesh as the feature point deficient area
3D modeling method.
제 1 항에 있어서,
상기 특징점 결핍 영역을 결정하는 단계는,
상기 복수의 실내 영상 각각으로부터 특징점을 추출하는 단계;
상기 추출된 특징점을 기초로 3D 메쉬를 생성하는 단계;
상기 생성된 3D 메쉬에 텍스쳐링(Texturing)을 수행하여 제 1 중간 3D 모델을 생성하는 단계
3D 모델링 방법.
The method of claim 1,
The step of determining the feature point deficient region comprises:
Extracting feature points from each of the plurality of indoor images;
Generating a 3D mesh based on the extracted feature points;
Generating a first intermediate 3D model by performing texturing on the generated 3D mesh
3D modeling method.
제 4 항에 있어서,
상기 특징점 결핍 영역을 결정하는 단계는,
상기 제 1 중간 3D 모델 중 상기 텍스쳐링 되지 않은 영역을 상기 특징점 결핍 영역으로 결정하거나, 사용자의 입력에 의해 선택된 영역을 상기 특징점 결핍 영역으로 결정하는 단계를 포함하는
3D 모델링 방법.
The method of claim 4,
The step of determining the feature point deficient region comprises:
Determining the untextured region of the first intermediate 3D model as the feature point deficient region, or determining a region selected by a user input as the feature point deficient region
3D modeling method.
제 4 항에 있어서,
상기 실내 공간을 3D 모델링하는 단계는,
상기 특징점 결핍 영역에 대응되는 포인트 클라우드를 기초로 제 2 중간 3D 모델을 생성하는 단계; 및
상기 제 1 중간 3D 모델 중 상기 특징점 결핍 영역을 상기 제 2 중간 3D 모델로 대체하는 단계를 포함하는
3D 모델링 방법.
The method of claim 4,
The step of 3D modeling the indoor space,
Generating a second intermediate 3D model based on a point cloud corresponding to the feature point deficient region; And
Replacing the feature point deficient region of the first intermediate 3D model with the second intermediate 3D model
3D modeling method.
제 6 항에 있어서,
상기 제 2 중간 3D 모델을 생성하는 단계는,
상기 라이다에 의해 획득된 포인트 클라우드와 상기 복수의 실내 영상을 기초로 생성된 상기 제 1 중간 3D 모델을 매칭하는 단계;
상기 매칭된 제 1 중간 3D 모델의 상기 특징점 결핍 영역 내 포인트 클라우드를 확인하는 단계; 및
상기 확인된 포인트 클라우드를 이용하여 상기 제 2 중간 3D 모델을 생성하는 단계를 포함하는
3D 모델링 방법.
The method of claim 6,
Generating the second intermediate 3D model,
Matching the point cloud acquired by the lidar with the first intermediate 3D model generated based on the plurality of indoor images;
Checking a point cloud in the feature point deficient region of the matched first intermediate 3D model; And
Including the step of generating the second intermediate 3D model using the identified point cloud
3D modeling method.
3D 모델링 장치에 의해 수행되는 3D 모델링 방법에 있어서,
3D 모델링 장치에 포함된 3D 스캐너에 의해 실내 공간에 대한 스캔 영상을 획득하는 단계;
상기 획득된 스캔 영상으로부터 상기 실내 공간 중에서 특징점 결핍 영역을 결정하는 단계;
상기 3D 스캐너에 의해 상기 특징점 결핍 영역에 대한 포인트 클라우드(Point Cloud)를 획득하는 단계;
3D 모델링 장치에 포함된 카메라에 의해 상기 실내 공간에 대한 복수의 실내 영상을 획득하는 단계; 및
상기 특징점 결핍 영역은 상기 포인트 클라우드를 이용하고, 상기 실내 공간 중에서 상기 특징점 결핍 영역이 아닌 영역은 상기 복수의 실내 영상을 이용하여, 상기 실내 공간을 3D 모델링하는 단계를 포함하는
3D 모델링 방법.
In the 3D modeling method performed by the 3D modeling device,
Obtaining a scan image of an indoor space by a 3D scanner included in the 3D modeling apparatus;
Determining a feature point deficient region in the indoor space from the obtained scanned image;
Acquiring a point cloud for the feature point deficient region by the 3D scanner;
Acquiring a plurality of indoor images of the indoor space by a camera included in the 3D modeling apparatus; And
3D modeling the indoor space by using the point cloud for the feature point deficient region, and using the plurality of indoor images in the indoor space that is not the feature point deficient region.
3D modeling method.
제 8 항에 있어서,
상기 특징점 결핍 영역에 대응되는 포인트 클라우드를 획득하는 단계는,
상기 특징점 결핍 영역에 대응되는 상기 3D 스캐너의 레이저 조사 각도를 결정하는 단계; 및
상기 결정된 조사 각도로 상기 레이저를 조사하여 상기 특징점 결핍 영역에 대응되는 포인트 클라우드를 획득하는 단계를 포함하는
3D 모델링 방법.
The method of claim 8,
Acquiring a point cloud corresponding to the feature point deficient region,
Determining a laser irradiation angle of the 3D scanner corresponding to the feature point deficient region; And
Including the step of obtaining a point cloud corresponding to the feature point deficient region by irradiating the laser at the determined irradiation angle
3D modeling method.
◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈◈ Claim 10 was abandoned upon payment of the set registration fee. 실내 공간에 대한 포인트 클라우드(Point cloud)를 획득하는 라이다;
실내 공간에 대한 복수의 실내 영상을 획득하는 카메라; 및
상기 복수의 실내 영상으로부터 상기 실내 공간 중에서 특징점 결핍 영역을 결정하는 영상 처리부를 포함하고,
상기 영상 처리부는,
상기 특징점 결핍 영역은 상기 특징점 결핍 영역에 대한 포인트 클라우드를 이용하고, 상기 실내 공간 중에서 상기 특징점 결핍 영역이 아닌 영역은 상기 복수의 실내 영상을 이용하여, 상기 실내 공간을 3D 모델링하는
3D 모델링 장치.
Lida to acquire a point cloud for an indoor space;
A camera that acquires a plurality of indoor images of the indoor space; And
An image processing unit configured to determine a feature point deficient region in the indoor space from the plurality of indoor images,
The image processing unit,
The feature point deficiency region uses a point cloud for the feature point deficiency region, and a region of the indoor space that is not the feature point deficiency region uses the plurality of indoor images, thereby 3D modeling the indoor space.
3D modeling device.
컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은,
제1 항 내지 제9 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는,
컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The computer program,
Comprising instructions for causing a processor to perform a method according to any one of claims 1 to 9,
Computer program.
◈청구항 12은(는) 설정등록료 납부시 포기되었습니다.◈◈ Claim 12 was abandoned upon payment of the set registration fee. 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은,
제1 항 내지 제9 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program,
A computer-readable recording medium comprising instructions for causing a processor to perform the method according to any one of claims 1 to 9.
KR1020180123392A 2018-10-16 2018-10-16 Apparatus and method for 3d modeling Active KR102160196B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180123392A KR102160196B1 (en) 2018-10-16 2018-10-16 Apparatus and method for 3d modeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180123392A KR102160196B1 (en) 2018-10-16 2018-10-16 Apparatus and method for 3d modeling

Publications (2)

Publication Number Publication Date
KR20200042790A KR20200042790A (en) 2020-04-24
KR102160196B1 true KR102160196B1 (en) 2020-09-25

Family

ID=70465984

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180123392A Active KR102160196B1 (en) 2018-10-16 2018-10-16 Apparatus and method for 3d modeling

Country Status (1)

Country Link
KR (1) KR102160196B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102351002B1 (en) * 2021-04-08 2022-01-14 주식회사 평행공간 Apparatus and method for providing information on amount of sunlight indoors using 3d modeling

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102537295B1 (en) * 2021-02-01 2023-05-26 한국로봇융합연구원 Loaded object recognition device and object recognition method
KR102475520B1 (en) * 2021-10-07 2022-12-08 주식회사 벤타브이알 3D modeling conversion method and system for realization of photorealistic based metaverse
KR20230103198A (en) * 2021-12-31 2023-07-07 주식회사 쓰리아이 Texturing method for generating 3D virtual model and computing device therefor
KR20240102111A (en) * 2022-12-23 2024-07-03 (주)이머시브캐스트 High-quality virtual space model production system and method
KR102559717B1 (en) * 2023-01-04 2023-07-26 주식회사 크리토 Apparatus and Method for Generating 3D Human Model
KR102696588B1 (en) * 2023-11-10 2024-08-20 주식회사 아이스테이징아시아 Method and system for converting two-dimensional image into three-dimensional space image
KR20250104176A (en) 2023-12-29 2025-07-08 아일리스프런티어 주식회사 Method and system for performing tasks based on automatic generation of command prompt

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032743A (en) * 2000-07-13 2002-01-31 Sony Corp Three-dimensional image generation system, three-dimensional image generation method, and program providing medium
JP2004348575A (en) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science Three-dimensional model construction system and its program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120067888A (en) * 2010-12-16 2012-06-26 한국전자통신연구원 Apparatus and method for processing stereo image
KR20150129260A (en) 2014-05-09 2015-11-19 주식회사 아이너지 Service System and Method for Object Virtual Reality Contents
KR101803598B1 (en) * 2014-09-02 2017-12-01 네이버비즈니스플랫폼 주식회사 Apparatus and method system and mtehod for building indoor map using cloud point

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032743A (en) * 2000-07-13 2002-01-31 Sony Corp Three-dimensional image generation system, three-dimensional image generation method, and program providing medium
JP2004348575A (en) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science Three-dimensional model construction system and its program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102351002B1 (en) * 2021-04-08 2022-01-14 주식회사 평행공간 Apparatus and method for providing information on amount of sunlight indoors using 3d modeling

Also Published As

Publication number Publication date
KR20200042790A (en) 2020-04-24

Similar Documents

Publication Publication Date Title
KR102160196B1 (en) Apparatus and method for 3d modeling
JP6725110B2 (en) Image rendering of laser scan data
KR102109814B1 (en) Apparatus and method for registering images
US10229483B2 (en) Image processing apparatus and image processing method for setting an illumination environment
US8781161B2 (en) Image processing method and apparatus for generating a 3D model of a target object
US8687001B2 (en) Apparatus and method extracting light and texture, and rendering apparatus using light and texture
CN106548516B (en) Three-dimensional roaming method and device
CN108053469A (en) Complicated dynamic scene human body three-dimensional method for reconstructing and device under various visual angles camera
TW200426708A (en) A multilevel texture processing method for mapping multiple images onto 3D models
KR102571744B1 (en) Method and apparatus for generating three dimension contents
AU2012247147A1 (en) Face location detection
EP2826243B1 (en) Method and system for identifying depth data associated with an object
JPWO2020075252A1 (en) Information processing equipment, programs and information processing methods
Lv et al. Build 3D Scanner System based on Binocular Stereo Vision.
US11182951B2 (en) 3D object modeling using scale parameters and estimated distance
KR20210050366A (en) Apparatus and method for determining camera pose
JP6719644B2 (en) Three-dimensional image processing device, method and program
JP2004280776A (en) Method for determining shape of object in image
Park Interactive 3D reconstruction from multiple images: A primitive-based approach
KR20210050365A (en) Apparatus and method for registering images
CN109064533A (en) A kind of 3D loaming method and system
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
Hwang et al. A study on optimized mapping environment for real-time spatial mapping of HoloLens
US10176628B2 (en) Method for creating a 3D representation and corresponding image recording apparatus
JP7500325B2 (en) Imaging control device, evaluation system, imaging control method and program

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

L13-X000 Limitation or reissue of ip right requested

St.27 status event code: A-2-3-L10-L13-lim-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000