KR102370326B1 - Image processing method and image processing apparatus for generating 3d content using 2d images - Google Patents
Image processing method and image processing apparatus for generating 3d content using 2d images Download PDFInfo
- Publication number
- KR102370326B1 KR102370326B1 KR1020200054726A KR20200054726A KR102370326B1 KR 102370326 B1 KR102370326 B1 KR 102370326B1 KR 1020200054726 A KR1020200054726 A KR 1020200054726A KR 20200054726 A KR20200054726 A KR 20200054726A KR 102370326 B1 KR102370326 B1 KR 102370326B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- boundary line
- content
- boundary
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 76
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 claims description 27
- 230000014509 gene expression Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 명세서는 영상 처리 장치에 의하여 수행되는 영상 처리 방법에 있어서, 3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지와, 상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하는 단계; 상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하는 단계; 상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하는 단계; 및 상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정하는 단계를 포함하는 영상 처리 방법을 개시한다.Herein, in an image processing method performed by an image processing apparatus, a first image representing a 2D image of 3D content observed at a first position in a 3D coordinate system and the 3D content observed at a second position in the 3D coordinate system obtaining a second image representing a 2D image of detecting a first boundary line indicating one boundary of the 3D content in the first image; detecting a second boundary line indicating the one boundary in the second image; and determining a third boundary line expressing the one boundary in 3D in the 3D coordinate system by using the first boundary line and the second boundary line.
Description
본 발명은 3D 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치에 관한 것이다.The present invention relates to an image processing method and an image processing apparatus for generating 3D content.
3D 모델링이란 현실세계 또는 비현실 세계를 3차원적인 형태로 모델화 또는 가상화하여 구현하는 것을 가리킨다. 이러한 3차원(3D) 모델링은 3차원의 대상 객체를 기하학적 데이터로 표현함으로써 나타낼 수 있다.3D modeling refers to modeling or virtualizing the real or non-real world in a three-dimensional form. Such three-dimensional (3D) modeling can be represented by expressing a three-dimensional target object as geometric data.
과거에는 현실세계의 측량성과 기반 3차원 묘사 구축방법이 비효율적으로 간주됨에 따라 측량성과를 이용하지 않고, 사진이나 현장답사를 통한 목측에 근거하여 대략적인 3D 모델링이 이뤄지거나 비현실 세계에 대한 모델링이 주로 이루어졌다. 그러나, 근래에는 측량기술의 발달과 사진측량 툴의 개발 및 컴퓨터그래픽 기술의 발전으로 현실세계에 대한 3D 모델링 작업이 점진적으로 진행되고 있다.In the past, the method of constructing a 3D depiction based on the survey performance of the real world was considered inefficient, so instead of using the survey performance, approximate 3D modeling was made based on observations through photos or field visits, or modeling of the unreal world was mainly performed was done However, in recent years, 3D modeling work on the real world is gradually progressing due to the development of surveying technology, the development of photogrammetry tools, and the development of computer graphics technology.
일 예로, 3D 모델링은 대상 객체를 3D 스캐닝함으로써 생성될 수 있다. 스캐닝에 의해 생성된 픽쳐는 그 각 포인트에서 한 표면에 대한 거리를 기술한다. 따라서, 픽처 내의 각 포인트의 3차원 위치가 식별될 수 있다. 이러한 기술에서는 전형적으로 대상 객체의 모든 방향에서의 정보를 입수하기 위해 여러 방향에서의 스캔 작업이 필요하며, 이러한 작업은 상당한 작업시간을 소요하게 된다.As an example, the 3D modeling may be generated by 3D scanning the target object. A picture created by scanning describes the distance from each point to a surface. Accordingly, the three-dimensional position of each point in the picture can be identified. In such a technique, a scan operation from multiple directions is typically required to obtain information from all directions of the target object, and this operation takes a considerable amount of time.
3D 모델링 효율을 도모하기 위하여 한국 특허출원 제10-2018-0047235호는 상용화된 사진측량 툴(photogrammetry tool)로부터 획득한 데이터를 이용하여 3D 공간 내 가상 카메라 및 텍스처(texture)를 설정하고, 오브젝트에 대한 좌표를 설정함으로써 보다 현실감 있는 3D 모델을 신속하게 제작하는 방법을 개시하고 있다.In order to promote 3D modeling efficiency, Korean Patent Application No. 10-2018-0047235 sets a virtual camera and texture in 3D space using data obtained from a commercialized photogrammetry tool, Disclosed is a method for rapidly producing a more realistic 3D model by setting coordinates for
그러나, 근래 3D 모델링 수요가 급증함에 따라 보다 효율적인 3D 모델링 방법을 사용하고자 하는 니즈가 여전히 존재한다.However, as the demand for 3D modeling has rapidly increased in recent years, there is still a need to use a more efficient 3D modeling method.
본 명세서는 현실감 있는 3D 컨텐츠를 효율적으로 생성하는 영상 처리 방법 및 영상 처리 장치를 제시한다.The present specification provides an image processing method and an image processing apparatus for efficiently generating realistic 3D content.
상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 장치에 의하여 수행되는 영상 처리 방법은 3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지와, 상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하는 단계; 상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하는 단계; 상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하는 단계; 및 상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정하는 단계를 포함한다.An image processing method performed by an image processing apparatus according to an embodiment of the present invention for solving the above problems includes a first image representing a 2D image of 3D content observed at a first position in a 3D coordinate system, and a second image in the 3D coordinate system. obtaining a second image representing a 2D image of the 3D content observed at the location; detecting a first boundary line indicating one boundary of the 3D content in the first image; detecting a second boundary line indicating the one boundary in the second image; and determining a third boundary line expressing the one boundary in 3D in the 3D coordinate system by using the first boundary line and the second boundary line.
상기 제 3 경계선을 결정하는 단계는, 상기 제 1 위치에서 상기 3D 컨텐츠가 관측되는 방향으로 상기 제 1 경계선을 투사함으로써 제 1 투사면을 생성하는 단계; 상기 제 2 위치에서 상기 3D 컨텐츠가 관측되는 방향으로 상기 제 2 경계선을 투사함으로써 제 2 투사면을 생성하는 단계; 및 상기 제 1 투사면과 상기 제 2 투사면의 교차에 기반하여 상기 제 3 경계선을 결정하는 단계를 포함할 수 있다.The determining of the third boundary line may include: generating a first projection surface by projecting the first boundary line in a direction in which the 3D content is observed from the first position; generating a second projection surface by projecting the second boundary line in a direction in which the 3D content is observed from the second position; and determining the third boundary line based on the intersection of the first projection surface and the second projection surface.
상기 제 1 투사면을 생성하는 단계는, 상기 제 1 이미지의 화각 정보 및 해상도 정보에 기반하여 상기 제 1 경계선을 투사함으로써 수행될 수 있다.The generating of the first projection surface may be performed by projecting the first boundary line based on angle of view information and resolution information of the first image.
상기 제 1 경계선을 검출하는 단계는, 상기 제 1 이미지를 사용자 단말에 디스플레이하는 단계; 사용자 입력에 기반하여 상기 제 1 경계선을 제 1 이미지상에 표현하는 단계; 및 상기 제 1 경계선의 표현에 따라 상기 제 1 경계선을 검출하는 단계를 포함할 수 있다.The detecting of the first boundary line may include: displaying the first image on a user terminal; representing the first boundary line on a first image based on a user input; and detecting the first boundary line according to the expression of the first boundary line.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 방법은 상기 제 1 경계선을 구성하는 적어도 한 지점의 위치를 상기 단말에서 디스플레이 되는 지시자의 위치 이동에 따라 변경함으로써 상기 제 1 경계선을 수정하는 단계를 더 포함할 수 있다. 상기 지시자는 사용자 입력에 따라 상기 단말에서 디스플레이 되는 위치가 변경될 수 있다.In addition, the image processing method according to an embodiment for solving the above problem corrects the first boundary line by changing the position of at least one point constituting the first boundary line according to the movement of the position of the indicator displayed on the terminal. It may further include the step of The indicator may change a position displayed on the terminal according to a user input.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 방법은 상기 제 3 경계선을 이용하여 상기 3D 좌표계에서 3D로 표현되는 경계면을 생성하는 단계를 더 포함할 수 있다. 여기서, 상기 경계면은 상기 제 3 경계선이 소정의 방향으로 연장되어 생성될 수 있다.In addition, the image processing method according to an embodiment for solving the above problem may further include generating a boundary surface expressed in 3D in the 3D coordinate system by using the third boundary line. Here, the boundary surface may be generated by extending the third boundary line in a predetermined direction.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 방법은 3D 컨텐츠에서 대상 객체를 식별하는 단계; 상기 대상 객체가 2D로 표현된 제 1 이미지와 제 2 이미지를 획득하는 단계; 상기 제 1 이미지와 제 2 이미지에서 상기 대상 객체의 경계선을 검출하는 단계; 및 상기 검출된 경계선을 이용하여 상기 3D 좌표계에서 3D로 표현된 경계선을 결정하는 단계를 포함할 수 있다.In addition, an image processing method according to an embodiment for solving the above problem includes: identifying a target object in 3D content; obtaining a first image and a second image in which the target object is expressed in 2D; detecting a boundary line of the target object in the first image and the second image; and determining a boundary line expressed in 3D in the 3D coordinate system by using the detected boundary line.
상기 3D로 표현된 경계선을 결정하는 단계는, 상기 제 1 이미지와 상기 제 2 이미지 모두에서 표현된 상기 대상 객체의 동일 경계를 나타내는 경계선을 결정하는 단계를 포함할 수 있다.The determining of the boundary line expressed in 3D may include determining a boundary line indicating the same boundary of the target object expressed in both the first image and the second image.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 방법은 상기 3D로 표현된 경계선을 이용하여 상기 3D 좌표계에서 3D로 표현되는 경계면을 생성하는 단계를 더 포함할 수 있다.In addition, the image processing method according to an embodiment for solving the above problem may further include generating a boundary surface expressed in 3D in the 3D coordinate system by using the boundary line expressed in 3D.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 방법은 상기 생성된 경계면을 상기 3D 컨텐츠에 부가하는 단계를 더 포함할 수 있다. 이러한 경우, 상기 3D 컨텐츠에서 상기 생성된 경계면에 대응되는 소정의 데이터가 제거된 후 상기 생성된 경계면에 대한 데이터가 상기 3D 컨텐츠에 부가될 수 있다.In addition, the image processing method according to an embodiment for solving the above problem may further include adding the generated boundary surface to the 3D content. In this case, after predetermined data corresponding to the generated boundary surface is removed from the 3D content, data for the generated boundary surface may be added to the 3D content.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 장치는 프로세서 및 메모리를 포함하고, 상기 프로세서는 3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지를 획득하고, 상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하고, 상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하고, 상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하며, 상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정할 수 있다.In addition, an image processing apparatus according to an embodiment for solving the above problem includes a processor and a memory, wherein the processor acquires a first image representing a 2D image of 3D content observed at a first position in a 3D coordinate system, , obtains a second image indicating a 2D image of the 3D content observed at a second position in the 3D coordinate system, and detects a first boundary line indicating one boundary of the 3D content from the first image, and the second image , detects a second boundary line indicating the work boundary, and determines a third boundary line expressing the work boundary in 3D in the 3D coordinate system using the first boundary line and the second boundary line.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 영상 처리 장치는 프로세서 및 메모리를 포함하고, 상기 프로세서는 3D 컨텐츠에서 대상 객체를 식별하고, 상기 대상 객체가 2D로 표현된 제 1 이미지와 제 2 이미지를 획득하고, 상기 제 1 이미지와 제 2 이미지에서 상기 대상 객체의 경계선을 검출하며, 상기 검출된 경계선을 이용하여 상기 3D 좌표계에서 3D로 표현된 경계선을 결정할 수 있다.In addition, an image processing apparatus according to an embodiment of the present invention for solving the above problem includes a processor and a memory, wherein the processor identifies a target object from 3D content, and the target object includes a first image and a second image expressed in 2D. A second image may be obtained, a boundary line of the target object may be detected from the first image and the second image, and a boundary line expressed in 3D in the 3D coordinate system may be determined using the detected boundary line.
또한, 상기한 과제를 해결하기 위한 일 실시예에 따른 컴퓨터로 읽을 수 있는 기록 매체는 전술한 일 실시예에 따른 영상 처리 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체일 수 있다.In addition, the computer-readable recording medium according to an embodiment for solving the above problems may be a computer-readable recording medium in which a computer program for performing the image processing method according to the above-described embodiment is recorded. there is.
본 명세서에 기재된 기술적 사항에 따라, 일 실시 예에 따른 영상 처리 방법 및 영상 처리 장치는 대상 객체에 관한 복수의 2D 이미지에서 선택된 대상 객체의 경계선을 활용하여, 대상 객체를 3D로 표현하는 3D 컨텐츠를 효율적으로 생성할 수 있다.According to the technical details described in this specification, an image processing method and an image processing apparatus according to an embodiment utilize a boundary line of a target object selected from a plurality of 2D images of the target object to display 3D content representing the target object in 3D. can be created efficiently.
도 1은 일 실시 예에 따른 영상 처리 장치를 나타내는 블록도이다.
도 2는 일 실시 예에 따른 영상 처리 장치가 수행하는 영상 처리 방법을 설명하는 순서도이다.
도 3은 일 실시 예에 따른 대상 객체와 대상 객체를 둘러싼 복수의 카메라의 위치 관계를 나타내는 개념도이다.
도 4 및 도 5는 일 실시 예에 따른 제 1 및 제 2 이미지와 그에 대한 사용자 입력을 받기 위한 사용자 인터페이스를 도시하는 도면이다.
도 6은 일 실시 예에 따른 영상 처리 장치가 3차원 공간에서 가상의 투사면을 생성하는 방법을 설명하는 도면이다.
도 7은 일 실시 예에 따른 영상 처리 장치가 제 1 투사면과 제 2 투사면의 교차를 이용하여 경계선을 생성하는 방법을 설명하는 개념도이다.
도 8은 일 실시 예에 따른 영상 처리 장치가 3D 컨텐츠를 갱신하는 방법을 설명하는 순서도이다.
도 9는 3D 컨텐츠의 일 실시 예를 나타낸다.
도 10은 3차원 공간에서 가상의 3D 면을 생성하는 일 실시 예를 나타내는 도면이다.
도 11은 3D 컨텐츠의 일 부분이 갱신된 예를 나타내는 도면이다.1 is a block diagram illustrating an image processing apparatus according to an exemplary embodiment.
2 is a flowchart illustrating an image processing method performed by an image processing apparatus according to an exemplary embodiment.
3 is a conceptual diagram illustrating a positional relationship between a target object and a plurality of cameras surrounding the target object, according to an exemplary embodiment.
4 and 5 are diagrams illustrating first and second images and a user interface for receiving a user input therefor, according to an exemplary embodiment.
6 is a diagram illustrating a method of generating, by an image processing apparatus, a virtual projection surface in a 3D space, according to an exemplary embodiment.
7 is a conceptual diagram illustrating a method of generating, by an image processing apparatus, a boundary line by using an intersection of a first projection surface and a second projection surface according to an exemplary embodiment.
8 is a flowchart illustrating a method of updating 3D content by an image processing apparatus according to an exemplary embodiment.
9 shows an embodiment of 3D content.
10 is a diagram illustrating an embodiment of generating a virtual 3D surface in a 3D space.
11 is a diagram illustrating an example in which a part of 3D content is updated.
이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art can devise various devices that, although not explicitly described or shown herein, embody the principles of the invention and are included in the spirit and scope of the invention. In addition, it should be understood that all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the inventive concept, and are not limited to the specifically enumerated embodiments and states as such. .
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the invention pertains will be able to easily practice the technical idea of the invention. .
명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. In the specification and claims, terms such as "first," "second," "third," and "fourth," are used, if any, to distinguish between like elements and, if not necessarily, in a specific sequence. or to describe the order of occurrence. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate, for example, in sequences other than those shown or described herein. Likewise, where methods are described herein as including a series of steps, the order of those steps presented herein is not necessarily the order in which those steps may be performed, and any described steps may be omitted and/or Any other steps not described may be added to the method.
또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.Also, terms such as "left", "right", "front", "behind", "top", "bottom", "above", "below" in the specification and claims are used for descriptive purposes, It is not necessarily intended to describe an invariant relative position. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate otherwise than, for example, as shown or described herein. As used herein, the term “connected” is defined as being directly or indirectly connected in an electrical or non-electrical manner. Objects described herein as being "adjacent" to one another may be in physical contact with one another, in proximity to one another, or in the same general scope or area as appropriate for the context in which the phrase is used. The presence of the phrase “in one embodiment” herein refers to the same, but not necessarily, embodiment.
또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. In addition, in the specification and claims, references to 'connected', 'connecting', 'fastened', 'fastening', 'coupled', 'coupled', etc., and various variations of these expressions, refer to other elements directly It is used in the sense of being connected or indirectly connected through other elements.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for components used in this specification are given or used in consideration of ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.
또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, 'comprise' and/or 'comprising' means that a referenced component, step, operation and/or element is the presence of one or more other components, steps, operations and/or elements. or addition is not excluded.
또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, in the description of the invention, if it is determined that a detailed description of a known technology related to the invention may unnecessarily obscure the gist of the invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 3D 컨텐츠를 생성하는 일 실시 예에 따른 영상 처리 장치를 나타내는 블록도이다. 일 실시 예에 따른 영상 처리 장치(100)는 프로세서(110), 메모리(120), 통신부(130), 입력부(140), 출력부(150)를 포함하여 구성될 수 있다. 상기 구성은 예시적인 것으로 나열된 구성중 일부가 생략될 수도 있고, 나열되지 않은 구성이 더 포함될 수도 있다.1 is a block diagram illustrating an image processing apparatus according to an embodiment for generating 3D content. The
프로세서(110)는 영상 처리 장치(100)의 동작을 제어하여 이하 설명하는 영상 처리 방법을 수행하기 위하여, 메모리(120), 통신부(130), 입력부(140) 및 출력부(150) 중 적어도 어느 하나를 포함한 영상 처리 장치(100)의 각 구성을 제어할 수 있다.The
일 실시 예에서, 프로세서(110)는 3D 좌표계 상에서의 제 1 위치에서 보여지는 3D 컨텐츠의 이미지를 나타내는 제 1 이미지와, 3D 좌표계 상에서의 제 2 위치에서 보여지는 3D 컨텐츠의 이미지를 나타내는 제 2 이미지를 획득할 수 있다. 프로세서(110)는 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하고, 제 2 이미지에서 일 경계를 나타내는 제 2 경계선을 검출하며, 제 1 경계선과 제 2 경계선을 이용하여 3D 좌표계에서 일 경계를 표현하는 제 3 경계선을 결정할 수 있다. 여기서, 제 3 경계선은 3D 좌표계에서 표현되는 가상의 선일 수 있다.In an embodiment, the
다른 일 실시 예에서 프로세서(110)는 3D 컨텐츠에 포함된 대상 객체를 식별하고, 대상 객체가 표현된 제 1 이미지와 제 2 이미지를 획득할 수 있다. 프로세서(110)는 제 1 이미지와 제 2 이미지에서 상기 대상 객체의 경계선을 검출하며, 검출된 경계선을 이용하여 3D 좌표계에서의 가상의 경계선을 결정할 수 있다.In another embodiment, the
메모리(120)는 영상 처리 장치의 동작을 위한 프로그램 데이터와 임시 데이터를 저장할 수 있다. 나아가 메모리(120)는 영상 처리 방법을 수행하기 위한 3D 컨텐츠 데이터, 일 위치에서 생성된 3D 컨텐츠의 2D 이미지 데이터 등을 포함할 수 있다. 여기서 2D 이미지 데이터는 부가 정보로써 2D 이미지가 생성된 3D 좌표계에서의 위치 정보(e.g. x축, y축 및 z축의 좌표로 표현되는 위치 정보), 2D 이미지를 생성하기 위한 카메라 정보(e.g. 화각, 해상도, 컬러 포멧, 카메라 화각이 향하는 방향 정보 등)등을 포함할 수 있다.The
통신부(130)는 프로세서(110)의 제어에 따라 현존하는 무선/유선 통신 방법을 이용하여 외부 장치로부터 3D 컨텐츠 데이터, 2D 이미지 데이터, 이미지 생성 정보, 제어정보 등을 수신할 수 있고, 외부 장치로 3D 컨텐츠 데이터, 2D 이미지 데이터, 이미지 생성 정보, 제어정보 등을 송신할 수도 있다.The
입력부(140)는 일 실시 예에 따른 영상 처리 방법을 수행하기 위하여 사용자 입력을 받기 위한 키보드, 마우스, 터치패널 및 그를 활용한 사용자 인터페이스 등으로 구성될 수 있다. The
출력부(150)는 일 실시 예에 따른 영상 처리 방법을 수행하기 위해 사용자에게 처리 결과 또는 사용자 입력을 질의하기 위한 정보를 출력하기 위하여 디스플레이 패널 등을 포함하는 디스플레이부 등으로 구성될 수 있다.The
도 2는 일 실시 예에 따른 영상 처리 장치가 수행하는 영상 처리 방법을 설명하는 순서도이다. 도 3은 대상 객체(310)와 대상 객체를 둘러싼 복수의 카메라(320)의 위치관계를 나타내는 개념도이다.2 is a flowchart illustrating an image processing method performed by an image processing apparatus according to an exemplary embodiment. 3 is a conceptual diagram illustrating a positional relationship between a
이하, 도 2 및 도 3을 참조하여 일 실시 예에 따른 영상 처리 장치가 영상 처리 방법을 수행하여 대상 객체의 3D 컨텐츠를 생성하는 방법을 설명한다.Hereinafter, a method for generating 3D content of a target object by an image processing apparatus performing an image processing method according to an embodiment will be described with reference to FIGS. 2 and 3 .
먼저, 영상 처리 장치는 대상 객체(310)의 제 1 이미지와 제 2 이미지를 획득할 수 있다(S210). 제 1 이미지는 3D 좌표계 상의 제 1 위치(321)에서 보여지는 상기 대상 객체(310)의 이미지일 수 있다. 예를들어, 3D 좌표계가 현실 공간인 경우, 제 1 이미지는 3D 좌표계 중 어느 한 위치에 위치한 제 1 카메라(321)로 상기 대상 객체(310)를 촬영하여 생성한 2D 이미지일 수 있다. 예를들어, 3D 좌표계가 가상의 3D 공간인 경우, 제 1 이미지는 3D 좌표계 중 어느 한 위치에 위치한 가상의 제 1 카메라(321)로 상기 대상 객체(310)를 촬영하여 생성한 2D 이미지일 수 있다. 마찬가지로, 제 2 이미지는 3D 좌표계 상의 제 2 위치(322)에서 보여지는 상기 대상 객체(310)의 이미지일 수 있다. 예를들어, 제 2 이미지는 3D 좌표계 중 어느 한 위치에 위치한 제 2 카메라(322)로 상기 대상 객체(310)를 촬영하여 생성한 2D 이미지일 수 있다.First, the image processing apparatus may acquire a first image and a second image of the target object 310 (S210). The first image may be an image of the
일 실시 예에서, 제 1 위치와 제 2 위치는 서로 다른 위치이며, 이에 따라 제 1 이미지와 제 2 이미지에서 표현되는 객체의 이미지는 서로 다를 수 있다. 예를들어, 제 1 이미지는 도 4의 (a)와 같이 도시될 수 있다. 제 2 이미지는 도 5의 (a)와 같이 도시될 수 있다.In an embodiment, the first position and the second position are different positions, and accordingly, the images of the object represented in the first image and the second image may be different from each other. For example, the first image may be illustrated as in FIG. 4A . The second image may be illustrated as in FIG. 5A .
다음으로, 영상 처리 장치는 제 1 및 제 2 이미지에서 대상 객체(310)의 경계선을 검출할 수 있다(S220). 일 실시 예에 따른 영상 처리 장치는 객체 인식 알고리즘을 사용하여 이미지에서 객체를 인식할 수 있다. 나아가 경계 식별 알고리즘을 사용하여 인식된 객체의 경계를 식별함으로써 이미지에서 나타나는 대상 객체의 경계선을 검출할 수도 있다.Next, the image processing apparatus may detect the boundary of the
한편, 일 실시 예에 따른 영상 처리 장치는 사용자 입력에 기반하여 이미지에서 대상 객체의 경계선을 검출할 수도 있다. 이를 위하여, 일 실시 예에 따른 영상 처리 장치는 제 1 이미지를 사용자 단말의 디스플레이부에 표시할 수 있다. 이에 따라, 사용자는 디스플레이부에 표현된 제 1 이미지를 확인할 수 있다. 일 실시 예에서, 사용자는 제 1 경계선을 제 1 이미지 상에 생성하기 위한 사용자 입력을 영상 처리 장치에 입력할 수 있다. 이에 따라 영상 처리 장치는 제 1 이미지 상에 생성되는 제 1 경계선을 나타내는 데이터를 획득할 수 있다. 예를들어, 디스플레이부에 선분을 표현하게 하는 사용자 입력에 따라 영상 처리 장치는 제 1 경계선을 나타내는 데이터를 획득할 수 있다.Meanwhile, the image processing apparatus according to an embodiment may detect the boundary line of the target object from the image based on the user input. To this end, the image processing apparatus according to an embodiment may display the first image on the display unit of the user terminal. Accordingly, the user may check the first image displayed on the display unit. In an embodiment, the user may input a user input for generating the first boundary line on the first image to the image processing apparatus. Accordingly, the image processing apparatus may acquire data representing the first boundary line generated on the first image. For example, the image processing apparatus may acquire data indicating the first boundary line according to a user input that causes the display unit to represent line segments.
제 1 이미지에 대한 처리가 끝나면, 일 실시 예에 따른 영상 처리 장치는 제 2 이미지를 사용자 단말의 디스플레이부에 표시하고, 그에 대한 사용자 입력에 기반하여 제 2 경계선을 나타내는 데이터를 획득할 수 있다.When the processing of the first image is finished, the image processing apparatus according to an embodiment may display the second image on the display unit of the user terminal and acquire data indicating the second boundary line based on the user input thereto.
이를 위한 제 1 및 제 2 이미지의 표시와 그에 대한 사용자 입력을 받는 일 실시 예가 도 4 및 도 5에 도시되어 있다. 도 4의 (a)는 제 1 이미지와, 제 1 이미지 상에서 표현되는 사용자 인터페이스를 도시하며, 도 4의 (b)는 사용자 인터페이스의 개념을 나타낸다. 도 5의 (a)는 제 2 이미지와, 제 2 이미지 상에서 표현되는 사용자 인터페이스를 도시하며, 도 5의 (b)는 사용자 인터페이스의 개념을 나타낸다.For this purpose, an embodiment of displaying the first and second images and receiving a user input therefor is shown in FIGS. 4 and 5 . FIG. 4(a) shows a first image and a user interface displayed on the first image, and FIG. 4(b) shows the concept of a user interface. FIG. 5A shows a second image and a user interface displayed on the second image, and FIG. 5B shows the concept of a user interface.
이하, 도 4를 참조하여 제 1 이미지에서 대상 객체의 경계선을 검출하기 위한 사용자 인터페이스의 활용 예시를 설명한다. 일 실시 예에서, 영상 처리 장치는 사용자 인터페이스를 통해 입력된 사용자 입력에 기반하여, 디스플레이부에 표현되는 제 1 이미지 상에 제 1 경계선(430)을 표현할 수 있다.Hereinafter, an example of using the user interface for detecting the boundary line of the target object in the first image will be described with reference to FIG. 4 . In an embodiment, the image processing apparatus may express the
일 실시 예에 따른 사용자 인터페이스는 제 1 컨트롤러(410)와 제 2 컨트롤러(420)로 구성될 수 있다. 일 실시 예에 따른 영상 처리 장치는 제 1 이미지의 빈 공간에 대한 사용자 입력이 획득되는 경우 제 1 컨트롤러(410)를 해당 위치에 배치하고, 제 1 이미지의 빈 공간에 대한 사용자 입력이 재획득되는 경우 제 2 컨트롤러(420)를 해당 위치에 배치할 수 있다. 이에 따라, 영상 처리 장치는 도 4(b)에 도시된 바와 같이 제 1 컨트롤러(410)와 제 2 컨트롤러(420)를 관통하는 제 1 경계선(430)을 생성할 수 있다. 더하여, 영상 처리 장치는 컨트롤러의 위치를 변경하는 사용자 입력에 따라 컨트롤러의 위치를 변경함으로써 제 1 경계선(430)의 형태를 변경할 수 있다.The user interface according to an embodiment may include a
일 실시 예에서, 컨트롤러의 위치에 기반하여 경계선의 시작 지점과 종료 지점이 설정될 수 있다. 시작 지점과 종료 지점은 컨트롤러의 위치에서 소정 거리 이격되어 생성되거나, 컨트롤러가 지시하는 일 위치에서 생성될 수 있다. 예를들어, 도 4(b)에 도시된 바와 같이, 제 1 경계선(430)의 시작 지점(412)은 제 1 컨트롤러(410)의 위치에서 소정거리 이격되어 생성될 수 있다. 일 실시 예에 따른 영상 처리 장치는 제 1 경계선(430)에 수직한 제 1 안내선(411)을 디스플레이부를 통해 표시함으로써 제 1 컨트롤러(410)에 의하여 생성된 시작 지점(412)을 사용자에게 나타낼 수 있다. 여기서 제 1 안내선(411)은 제 1 카메라의 위치(401)에서 시작지점(412)을 관통하여 생성되는 가상의 선일 수 있다.In an embodiment, a starting point and an ending point of the boundary line may be set based on the location of the controller. The starting point and the ending point may be generated at a predetermined distance apart from the location of the controller, or may be generated at a location indicated by the controller. For example, as shown in FIG. 4B , the
또한, 도 4(b)에 도시된 바와 같이, 제 1 경계선(430)의 종료 지점(422)은 제 2 컨트롤러(420)의 위치에서 생성될 수 있다. 일 실시 예에 따른 영상 처리 장치는 제 1 경계선(430)에 수직한 제 2 안내선(421)을 디스플레이부를 통해 표시함으로써 제 2 컨트롤러(420)에 의하여 생성된 종료 지점(422)을 사용자에게 나타낼 수 있다. 여기서 제 2 안내선(421)은 제 1 카메라의 위치(401)에서 종료지점(422)을 관통하여 생성되는 가상의 선일 수 있다.Also, as shown in FIG. 4B , the
한편, 도 5의 (b)에 도시된 바와 같이, 제 2 경계선(530)의 시작 지점(512)은 제 1 컨트롤러(510)의 위치에서 생성될 수 있다. 일 실시 예에 따른 영상 처리 장치는 제 2 경계선(530)에 수직한 제 1 안내선(511)을 디스플레이부를 통해 표시함으로써 제 1 컨트롤러(510)에 의하여 생성된 시작 지점(512)을 사용자에게 나타낼 수 있다. 여기서 제 1 안내선(511)은 제 2 카메라의 위치(501)에서 시작지점(512)을 관통하여 생성되는 가상의 선일 수 있다.Meanwhile, as shown in FIG. 5B , the
또한, 제 2 경계선(530)의 종료 지점(522)은 제 2 컨트롤러(520)의 위치에서 소정거리 이격되어 생성될 수 있다. 일 실시 예에 따른 영상 처리 장치는 제 2 경계선(530)에 수직한 제 2 안내선(521)을 디스플레이부를 통해 표시함으로써 제 2 컨트롤러(520)에 의하여 생성된 종료 지점(522)을 사용자에게 나타낼 수 있다. 여기서 제 2 안내선(521)은 제 2 카메라의 위치(501)에서 종료지점(522)을 관통하여 생성되는 가상의 선일 수 있다.Also, the
다음으로, 영상 처리 장치는 제 1 이미지와 제 2 이미지에서 검출된 대상 객체의 경계선을 이용하여 3차원 공간에서의 투사면을 생성할 수 있다(S230). 도 6은 일 실시 예에 따른 영상 처리 장치가 3차원 공간에서의 가상의 투사면을 생성하는 방법을 설명하는 도면이다. 도 6에 도시된 바와 같이, 일 실시 예에 따른 영상 처리 장치는 제 1 경계선을 3차원 공간으로 투사하여 제 1 투사면을 3차원 공간에 생성할 수 있다. Next, the image processing apparatus may generate a projection surface in 3D space by using the boundary line of the target object detected in the first image and the second image (S230). 6 is a diagram for describing a method of generating, by an image processing apparatus, a virtual projection surface in a 3D space, according to an exemplary embodiment. As shown in FIG. 6 , the image processing apparatus according to an embodiment may generate a first projection surface in the 3D space by projecting the first boundary line into the 3D space.
예를들어, 일 실시 예에 따른 영상 처리 장치는 제 1 이미지가 생성된 3차원 내 위치인 제 1 위치에서 대상 객체를 향한 방향으로 제 1 경계선을 투사함으로써 제 1 투사면을 생성할 수 있다.For example, the image processing apparatus according to an embodiment may generate the first projection surface by projecting the first boundary line in the direction toward the target object from the first position, which is the position in the 3D where the first image is generated.
보다 상세히, 제 1 이미지를 촬영한 제 1 카메라의 위치(401)가 3차원 좌표계를 기준으로 특정되고, 상기 대상 사물의 위치(310)가 3차원 좌표계를 기준으로 특정되는 일 실시 예에서, 제 1 카메라의 위치에서 제 1 이미지의 해상도에 따라 생성된 제 1 경계선이 대상 사물을 향해 투사됨으로써 제 1 투사면이 생성될 수 있다.In more detail, in an embodiment in which the
이때, 제 1 이미지의 촬영 조건에 따라 제 1 경계선이 투사될 수 있다. 예를들어, 제 1 이미지의 화각 정보에 따라 제 1 경계선이 투사될 수 있다. 일 실시 예에서, 제 1 이미지와 함께 저장된 카메라의 화각 정보에 따른 확대 비율로 제 1 경계선이 확대되면서 3차원 공간으로 투사될 수 있다.In this case, the first boundary line may be projected according to the shooting condition of the first image. For example, the first boundary line may be projected according to the angle of view information of the first image. In an embodiment, the first boundary line may be enlarged at a magnification ratio according to the angle of view information of the camera stored together with the first image and projected into the 3D space.
마찬가지 방식으로, 일 실시 예에 따른 영상 처리 장치는 제 2 경계선을 3차원 공간으로 투사하여 제 2 투사면을 3차원 공간에 생성할 수 있다. In the same way, the image processing apparatus according to an embodiment may generate the second projection surface in the 3D space by projecting the second boundary line into the 3D space.
한편, S230 단계는 각 이미지에 대하여 설정된 제 1 안내선 및 제 2 안내선에 의하여 결정되는 면을 투사면으로 결정함으로써 수행될 수도 있다. 이에 따라 결정되는 투사면은 제 1 및 제 2 안내선의 표현 방식으로 정의될 수 있다. 예를들어, 투사면은 제 1 및 제 2 안내선의 벡터 표현으로 표현될 수 있다.Meanwhile, step S230 may be performed by determining a surface determined by the first guide line and the second guide line set for each image as the projection surface. The projection surface determined according to this may be defined as an expression method of the first and second guide lines. For example, the projection surface may be represented by a vector representation of the first and second guide lines.
다 상세히, 일 실시 예에 따른 영상 처리 장치는 제 1 이미지에 대한 제 1 안내선(411)과 제 2 안내선(421)에 의하여 정의되는 면을 제 1 이미지에 대한 제 1 투사면으로 결정할 수 있다. 마찬가지 방식으로, 일 실시 예에 따른 영상 처리 장치는 제 2 이미지에 대한 제 1 안내선(511)과 제 2 안내선(521)에 의하여 정의되는 면을 제 2 이미지에 대한 제 2 투사면으로 결정할 수 있다.In more detail, the image processing apparatus according to an embodiment may determine a surface defined by the
다음으로, 영상 처리 장치는 투사면의 교차를 이용하여 3차원 공간에서의 경계선을 결정할 수 있다(S240). 도 7은 제 1 투사면(710)과 제 2 투사면(720)의 교차를 이용하여 경계선을 생성하는 방법을 설명하는 개념도이다. 영상 처리 장치는 도 7에 도시된 바와 같이 3차원 공간 내에서 제 1 투사면(710)과 제 2 투사면(720)이 교차됨으로써 생성되는 경계선(730)을 앞서 S220단계에서 2D 이미지에서 특정된 경계선에 대한 3D 좌표계에서의 3D 경계선으로 결정할 수 있다. Next, the image processing apparatus may determine a boundary line in the 3D space by using the intersection of the projection surfaces ( S240 ). 7 is a conceptual diagram illustrating a method of generating a boundary line using the intersection of the
이와 같이, 영상 처리 장치는 대상 객체를 표현하는 각각의 경계선에 대하여 앞서 설명한 방법을 수행함으로써, 대상 객체를 표현하는 3D 컨텐츠를 3차원 좌표계에 생성할 수 있다.As described above, the image processing apparatus may generate 3D content representing the target object in the 3D coordinate system by performing the method described above with respect to each boundary line representing the target object.
도 8은 일 실시 예에 따른 영상 처리 장치를 이용하여 가상의 3D 공간에 생성된 3D 컨텐츠에 대하여 앞서 설명한 영상 처리 방법을 적용함으로써 3D 컨텐츠를 갱신하기 위한 방법을 설명하는 순서도이다.8 is a flowchart illustrating a method for updating 3D content by applying the above-described image processing method to 3D content generated in a virtual 3D space using an image processing apparatus according to an exemplary embodiment.
먼저, 일 실시 예에 따른 영상 처리 장치는 3D 컨텐츠에 포함된 대상 객체를 선택할 수 있다(S810). 도 9는 일 실시 예에 따른 3D 컨텐츠를 나타낸다. 일 실시 예에 따른 3D 컨텐츠는 도 9에 도시된 바와 같이 3D 스캐너를 이용하여 생성된 컨텐츠일 수 있다. 일 실시 예에 따른 영상 처리 장치는 3D 컨텐츠 내 대상 객체(910)를 선택하는 사용자 입력에 기반하여 대상 객체(910)를 결정할 수 있다. 또는 일 실시 예에 따른 영상 처리 장치는 3D 컨텐츠 내 대상 객체(910)를 식별하는 객체 식별 알고리즘을 이용하여 3D 컨텐츠 내 대상 객체(910)를 결정할 수도 있다.First, the image processing apparatus according to an embodiment may select a target object included in 3D content (S810). 9 illustrates 3D content according to an embodiment. 3D content according to an embodiment may be content generated using a 3D scanner as shown in FIG. 9 . The image processing apparatus according to an embodiment may determine the
다음으로, 일 실시 예에 따른 영상 처리 장치는 선택된 객체에 대한 복수의 2D 이미지를 획득할 수 있다(S820). 일 실시 예에 따른 영상 처리 장치는 앞서 도 3을 참조하여 설명한 바와 같이, 가상의 3D 공간에 복수의 2D 이미지 생성 위치를 결정할 수 있다. 이는 앞서 설명한 바와 같이 가상의 3D 공간에 복수의 가상의 카메라를 생성하는 것으로 설명될 수 있다. 이러한 점에서, 이하 2D 이미지 생성 위치에서 2D 이미지가 생성되는 것을 복수의 가상 카메라 위치에서 2D 이미지가 생성되는 것으로 갈음하여 설명한다.Next, the image processing apparatus according to an embodiment may acquire a plurality of 2D images of the selected object ( S820 ). As described above with reference to FIG. 3 , the image processing apparatus according to an embodiment may determine a plurality of 2D image generation positions in a virtual 3D space. This may be described as generating a plurality of virtual cameras in a virtual 3D space as described above. In this regard, hereinafter, the generation of the 2D image at the 2D image generation position will be described instead of the generation of the 2D image at the plurality of virtual camera positions.
일 실시 예에 따른 영상 처리 장치는 미리 설정된 카메라 배치에 기반하여 복수의 가상 카메라를 가상의 3D 공간에 생성할 수 있다. 다른 실시 예에서, 영상 처리 장치는 사용자 입력에 기반하여 복수의 카메라를 가상의 3D 공간에 생성할 수도 있다.The image processing apparatus according to an embodiment may generate a plurality of virtual cameras in a virtual 3D space based on a preset camera arrangement. In another embodiment, the image processing apparatus may generate a plurality of cameras in a virtual 3D space based on a user input.
일 실시 예에 따른 영상 처리 장치는 가상의 카메라 위치에서 대상 객체의 2D 이미지를 생성할 수 있다. 일 실시 예에 따른 영상 처리 장치는 소정의 옵션에 따라 이미지를 생성할 수 있다. 여기서, 소정의 옵션은 이미지를 생성하기 위한 일련의 카메라 설정 속성일 수 있다. 예를들어, 소정의 옵션은 화각, 해상도 등을 포함할 수 있다. 이에 따라, 일 실시 예에 따른 영상 처리 장치는 전술한 바와 같이 2D 이미지와 함께 이미지 생성된 부가 정보(e.g. 카메라 위치, 화각, 해상도 정보 등)를 2D 이미지에 매칭하여 저장할 수 있다.The image processing apparatus according to an embodiment may generate a 2D image of a target object at a virtual camera position. The image processing apparatus according to an embodiment may generate an image according to a predetermined option. Here, the predetermined option may be a set of camera setting attributes for generating an image. For example, the predetermined option may include an angle of view, a resolution, and the like. Accordingly, the image processing apparatus according to an embodiment may match and store the image-generated additional information (eg, camera position, angle of view, resolution information, etc.) together with the 2D image to the 2D image as described above.
다음으로, 일 실시 예에 따른 영상 처리 장치는 앞서 설명한 바와 같이 복수의 2D 이미지에서 객체의 경계선을 검출할 수 있다(S830). 다음으로, 일 실시 예에 따른 영상 처리 장치는 검출된 경계선들 중에서 3D 컨텐츠의 동일 경계선을 나타내는 경계선을 선택할 수 있다(S840). 일 실시 예에 따른 영상 처리 장치는 복수의 2D 이미지에서 검출된 경계선들을 그에 대응하는 3D 컨텐츠의 경계선이 동일한지 여부에 기반하여 분류함으로써 3D 컨텐츠의 동일 경계선을 나타내는 경계선을 선택할 수 있다. 다른 일 실시 예에 따른 영상 처리 장치는 3D 컨텐츠의 동일 경계선을 나타내는지 여부를 사용자 입력에 기반하여 결정할 수도 있다.Next, as described above, the image processing apparatus according to an embodiment may detect the boundary of the object from the plurality of 2D images (S830). Next, the image processing apparatus according to an embodiment may select a boundary line indicating the same boundary line of the 3D content from among the detected boundary lines ( S840 ). The image processing apparatus according to an embodiment may select a boundary line indicating the same boundary line of 3D content by classifying the boundary lines detected from the plurality of 2D images based on whether the boundary lines of the corresponding 3D content are the same. The image processing apparatus according to another embodiment may determine whether or not the same boundary line of 3D content is displayed based on a user input.
다음으로, 일 실시 예에 따른 영상 처리 장치는 앞서 설명한 바와 같이 선택된 복수의 경계선을 이용하여 복수의 투사면을 생성함으로써 3차원 공간에서의 3D 컨텐츠의 경계선을 생성할 수 있다(S850).Next, the image processing apparatus according to an embodiment may generate a boundary line of 3D content in a 3D space by generating a plurality of projection surfaces using a plurality of boundary lines selected as described above ( S850 ).
다음으로, 일 실시 예에 따른 영상 처리 장치는 결정된 3차원 공간에서의 경계선을 이용하여 3차원 공간에서의 면을 생성함으로써 3D 객체를 생성할 수 있다(S860). 도 10을 참조하여 보다 상세히 설명한다. 일 실시 예에 따른 영상 처리 장치는 3차원 공간에서 제 1 경계선(1010)과 제 2 경계선(1020)이 식별된 경우, 그 중 어느 하나의 경계선을 다른 하나의 경계선을 향해 연장함으로써(1011) 경계면(1030)을 생성할 수 있다.Next, the image processing apparatus according to an embodiment may generate a 3D object by generating a surface in the 3D space using the determined boundary line in the 3D space ( S860 ). It will be described in more detail with reference to FIG. 10 . In the image processing apparatus according to an embodiment, when the
다음으로, 일 실시 예에 따른 영상 처리 장치는 생성된 3D 객체를 이용하여 3D 컨텐츠를 수정할 수 있다(S870). 일 실시 예에 따른 영상 처리 장치는 도 11과 같이 생성된 3D 객체(1110)를 기존 3D 컨텐츠에 부가함으로써 3D 컨텐츠를 수정할 수 있다. 일 실시 예에 따른 영상 처리 장치는 3D 컨텐츠에서 대상 객체를 제거하고, 생성된 3D 객체를 부가함으로써 3D 컨텐츠를 수정할 수 있다.Next, the image processing apparatus according to an embodiment may modify 3D content by using the generated 3D object ( S870 ). The image processing apparatus according to an embodiment may modify 3D content by adding the
앞서 설명된 일 실시 예에 따른 영상 처리 장치 및 영상 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예에 따라 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The image processing apparatus and the image processing method according to the embodiment described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured according to the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
앞선 실시예에 대한 설명에서 참조된 도면 각각은 설명의 편의를 위해 도시된 일 실시 예에 불과하며, 각 화면에 표시된 정보들의 항목, 내용과 이미지들은 다양한 형태로 변형되어 표시될 수 있다.Each of the drawings referenced in the description of the previous embodiment is merely an embodiment shown for convenience of description, and items, contents, and images of information displayed on each screen may be modified and displayed in various forms.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to an embodiment shown in the drawings, this is merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
Claims (15)
3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지와, 상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하는 단계;
상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하는 단계;
상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하는 단계; 및
상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정하는 단계를 포함하고,
상기 제 1 위치에서 상기 3D 컨텐츠가 관측되는 방향, 상기 제 1 경계선에 대응되는 상기 3D 좌표계의 상기 제 1 위치에서의 제 1 3D-경계선, 상기 제 2 위치에서 상기 3D 컨텐츠가 관측되는 방향 및 상기 제 2 경계선에 대응되는 상기 3D 좌표계의 상기 제 2 위치에서의 제 2 3D-경계선에 기반하여 상기 제 3 경계선이 결정되는 영상 처리 방법.In the image processing method performed by the image processing apparatus,
obtaining a first image representing a 2D image of the 3D content observed at a first position in a 3D coordinate system and a second image representing a 2D image of the 3D content observed at a second position in the 3D coordinate system;
detecting a first boundary line indicating one boundary of the 3D content in the first image;
detecting a second boundary line indicating the one boundary in the second image; and
determining a third boundary line expressing the one boundary in 3D in the 3D coordinate system by using the first boundary line and the second boundary line,
a direction in which the 3D content is observed at the first position, a first 3D-boundary line in the first position of the 3D coordinate system corresponding to the first boundary line, a direction in which the 3D content is observed in the second position, and the An image processing method in which the third boundary line is determined based on a second 3D-boundary line at the second position of the 3D coordinate system corresponding to the second boundary line.
상기 제 3 경계선을 결정하는 단계는,
상기 제 1 위치에서 상기 3D 컨텐츠가 관측되는 방향으로 상기 제 1 3D-경계선을 투사함으로써 제 1 투사면을 생성하는 단계;
상기 제 2 위치에서 상기 3D 컨텐츠가 관측되는 방향으로 상기 제 2 3D-경계선을 투사함으로써 제 2 투사면을 생성하는 단계; 및
상기 제 1 투사면과 상기 제 2 투사면의 교차에 기반하여 상기 제 3 경계선을 결정하는 단계를 포함하는 영상 처리 방법.
The method of claim 1,
The step of determining the third boundary line,
generating a first projection surface by projecting the first 3D-boundary line in a direction in which the 3D content is observed at the first position;
generating a second projection surface by projecting the second 3D-boundary line in a direction in which the 3D content is observed at the second location; and
and determining the third boundary line based on the intersection of the first projection surface and the second projection surface.
상기 제 1 투사면을 생성하는 단계는,
상기 제 1 이미지의 화각 정보 및 해상도 정보에 기반하여 상기 제 1 3D-경계선을 투사함으로써 수행되는 영상 처리 방법.
3. The method of claim 2,
The step of generating the first projection surface,
An image processing method performed by projecting the first 3D-boundary line based on the angle of view information and resolution information of the first image.
상기 제 1 경계선을 검출하는 단계는,
상기 제 1 이미지를 사용자 단말에 디스플레이하는 단계;
사용자 입력에 기반하여 상기 제 1 경계선을 제 1 이미지상에 표현하는 단계; 및
상기 제 1 경계선의 표현에 따라 상기 제 1 경계선을 검출하는 단계를 포함하는 영상 처리 방법.
The method of claim 1,
The step of detecting the first boundary line,
displaying the first image on a user terminal;
representing the first boundary line on a first image based on a user input; and
and detecting the first boundary line according to the expression of the first boundary line.
상기 제 1 경계선을 구성하는 적어도 한 지점의 위치를 상기 단말에서 디스플레이 되는 지시자의 위치 이동에 따라 변경함으로써 상기 제 1 경계선을 수정하는 단계를 더 포함하고,
상기 지시자는 사용자 입력에 따라 상기 단말에서 디스플레이되는 위치가 변경되는 영상 처리 방법.
5. The method of claim 4,
Further comprising the step of modifying the first boundary line by changing the position of at least one point constituting the first boundary line according to the movement of the position of the indicator displayed in the terminal,
The indicator is an image processing method in which a position displayed on the terminal is changed according to a user input.
상기 제 3 경계선을 이용하여 상기 3D 좌표계에서 3D로 표현되는 경계면을 생성하는 단계를 더 포함하는 영상 처리 방법.
The method of claim 1,
and generating a boundary surface expressed in 3D in the 3D coordinate system by using the third boundary line.
상기 경계면은 상기 제 3 경계선이 소정의 방향으로 연장되어 생성되는 영상 처리 방법.
7. The method of claim 6,
The boundary surface is an image processing method in which the third boundary line is generated by extending in a predetermined direction.
3D 좌표계에서 표현되는 3D 컨텐츠에서 대상 객체를 식별하는 단계;
상기 대상 객체가 2D로 표현된 제 1 이미지와 제 2 이미지를 획득하는 단계;
상기 제 1 이미지와 제 2 이미지에서 상기 대상 객체의 경계선을 검출하는 단계; 및
상기 검출된 경계선을 이용하여 상기 3D 좌표계에서 3D로 표현된 상기 대상 객체의 경계선을 결정하는 단계를 포함하고,
상기 제 1 이미지는 상기 대상 객체가 제 1 위치에서 관측되는 2D 이미지이고,
상기 제 2 이미지는 상기 대상 객체가 제 2 위치에서 관측되는 2D 이미지이고,
상기 제 1 위치에서 상기 3D 컨텐츠가 관측되는 방향, 상기 제 2 위치에서 상기 3D 컨텐츠가 관측되는 방향 및 상기 제 1 이미지와 제 2 이미지에서의 상기 대상 객체의 경계선에 대응되는 상기 3D 좌표계의 3D-경계선에 기반하여 상기 3D 좌표계에서 3D로 표현된 상기 대상 객체의 경계선이 결정되는 영상 처리 방법.
In the image processing method performed by the image processing apparatus,
identifying a target object in 3D content expressed in a 3D coordinate system;
obtaining a first image and a second image in which the target object is expressed in 2D;
detecting a boundary line of the target object in the first image and the second image; and
determining a boundary line of the target object expressed in 3D in the 3D coordinate system by using the detected boundary line,
The first image is a 2D image in which the target object is observed at a first position,
The second image is a 2D image in which the target object is observed at a second position,
A direction in which the 3D content is observed from the first position, a direction in which the 3D content is observed from the second position, and the 3D- An image processing method in which a boundary line of the target object expressed in 3D in the 3D coordinate system is determined based on the boundary line.
상기 3D로 표현된 상기 대상 객체의 경계선을 결정하는 단계는,
상기 제 1 이미지와 상기 제 2 이미지 모두에서 표현된 상기 대상 객체의 동일 경계를 나타내는 경계선을 결정하는 단계를 포함하는 영상 처리 방법.
9. The method of claim 8,
The step of determining the boundary of the target object expressed in 3D comprises:
and determining a boundary line indicating the same boundary of the target object expressed in both the first image and the second image.
상기 3D로 표현된 상기 대상 객체의 경계선을 이용하여 상기 3D 좌표계에서 3D로 표현되는 상기 대상 객체의 경계면을 생성하는 단계를 더 포함하는 영상 처리 방법.
9. The method of claim 8,
and generating a boundary surface of the target object expressed in 3D in the 3D coordinate system by using the boundary line of the target object expressed in 3D.
상기 생성된 상기 대상 객체의 경계면을 상기 3D 컨텐츠에 부가하는 단계를 더 포함하는 영상 처리 방법.
11. The method of claim 10,
The image processing method further comprising the step of adding the generated boundary surface of the target object to the 3D content.
상기 3D 컨텐츠에서 상기 생성된 상기 대상 객체의 경계면에 대응되는 소정의 데이터가 제거된 후 상기 생성된 상기 대상 객체의 경계면에 대한 데이터가 상기 3D 컨텐츠에 부가되는 영상 처리 방법.12. The method of claim 11,
An image processing method in which predetermined data corresponding to the generated boundary surface of the target object is removed from the 3D content, and then data on the generated boundary surface of the target object is added to the 3D content.
프로세서 및 메모리를 포함하고,
상기 프로세서는,
3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지를 획득하고,
상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하고,
상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하고,
상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하며,
상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정하되,
상기 제 1 위치에서 상기 3D 컨텐츠가 관측되는 방향, 상기 제 1 경계선에 대응되는 상기 3D 좌표계의 상기 제 1 위치에서의 제 1 3D-경계선, 상기 제 2 위치에서 상기 3D 컨텐츠가 관측되는 방향 및 상기 제 2 경계선에 대응되는 상기 3D 좌표계의 상기 제 2 위치에서의 제 2 3D-경계선에 기반하여 상기 제 3 경계선이 결정되는 영상 처리 장치.
In the image processing apparatus,
processor and memory;
The processor is
Obtaining a first image representing a 2D image of 3D content observed at a first position in a 3D coordinate system,
acquiring a second image representing a 2D image of the 3D content observed at a second position in the 3D coordinate system;
detecting a first boundary line indicating one boundary of the 3D content in the first image,
Detecting a second boundary line indicating the one boundary in the second image,
Determining a third boundary line expressing the one boundary in 3D in the 3D coordinate system using the first boundary line and the second boundary line,
a direction in which the 3D content is observed at the first position, a first 3D-boundary line in the first position of the 3D coordinate system corresponding to the first boundary line, a direction in which the 3D content is observed in the second position, and the and the third boundary line is determined based on a second 3D-boundary line at the second position of the 3D coordinate system corresponding to the second boundary line.
프로세서 및 메모리를 포함하고,
상기 프로세서는,
3D 컨텐츠에서 대상 객체를 식별하고,
상기 대상 객체가 2D로 표현된 제 1 이미지와 제 2 이미지를 획득하고,
상기 제 1 이미지와 제 2 이미지에서 상기 대상 객체의 경계선을 검출하며,
상기 검출된 경계선을 이용하여 3D 좌표계에서 3D로 표현된 상기 대상 객체의 경계선을 결정하되,
상기 제 1 이미지는 상기 대상 객체가 제 1 위치에서 관측되는 2D 이미지이고,
상기 제 2 이미지는 상기 대상 객체가 제 2 위치에서 관측되는 2D 이미지이고,
상기 제 1 위치에서 상기 3D 컨텐츠가 관측되는 방향, 상기 제 2 위치에서 상기 3D 컨텐츠가 관측되는 방향 및 상기 제 1 이미지와 제 2 이미지에서의 상기 대상 객체의 경계선에 대응되는 상기 3D 좌표계의 3D-경계선에 기반하여 상기 3D 좌표계에서 3D로 표현된 상기 대상 객체의 경계선이 결정되는 영상 처리 장치.
In the image processing apparatus,
processor and memory;
The processor is
Identify the target object in the 3D content,
Obtaining a first image and a second image in which the target object is expressed in 2D,
detecting a boundary line of the target object in the first image and the second image,
Determining a boundary line of the target object expressed in 3D in a 3D coordinate system using the detected boundary line,
The first image is a 2D image in which the target object is observed at a first position,
The second image is a 2D image in which the target object is observed at a second position,
A direction in which the 3D content is observed from the first position, a direction in which the 3D content is observed from the second position, and the 3D- An image processing apparatus for determining a boundary line of the target object expressed in 3D in the 3D coordinate system based on the boundary line.
A computer-readable recording medium in which a computer program for performing the method of claim 1 or 8 is recorded.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2020/011216 WO2021040342A2 (en) | 2019-08-23 | 2020-08-24 | Image processing method and image processing device for generating 3d content by means of 2d images |
US17/636,433 US20220284667A1 (en) | 2019-08-23 | 2020-08-24 | Image processing method and image processing device for generating 3d content by means of 2d images |
CN202080059333.5A CN114270405A (en) | 2019-08-23 | 2020-08-24 | Image processing method and image processing apparatus for generating three-dimensional content using two-dimensional image |
EP20857952.4A EP4020400A4 (en) | 2019-08-23 | 2020-08-24 | Image processing method and image processing device for generating 3d content by means of 2d images |
KR1020220025894A KR20220029640A (en) | 2019-08-23 | 2022-02-28 | Image processing method and image processing apparatus for generating 3d content using 2d images |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190103851 | 2019-08-23 | ||
KR20190103851 | 2019-08-23 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220025894A Division KR20220029640A (en) | 2019-08-23 | 2022-02-28 | Image processing method and image processing apparatus for generating 3d content using 2d images |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210023663A KR20210023663A (en) | 2021-03-04 |
KR102370326B1 true KR102370326B1 (en) | 2022-03-04 |
Family
ID=75174724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200054726A Active KR102370326B1 (en) | 2019-08-23 | 2020-05-07 | Image processing method and image processing apparatus for generating 3d content using 2d images |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102370326B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102801032B1 (en) * | 2021-10-07 | 2025-04-30 | 주식회사 로킷헬스케어 | Method and apparatus for setting contour of 3d object applying equal time sampling |
KR102662058B1 (en) * | 2021-11-25 | 2024-04-30 | (주)천재교육 | An apparatus and method for generating 3 dimension spatial modeling data using a plurality of 2 dimension images acquired at different locations, and a program therefor |
KR102799192B1 (en) * | 2022-12-15 | 2025-04-23 | (주)천재교육 | An apparatus and method for generating 3 dimension spatial modeling data using a video and a plurality of images of a specific space, and a program therefor |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101288971B1 (en) * | 2007-02-16 | 2013-07-24 | 삼성전자주식회사 | Method and apparatus for 3 dimensional modeling using 2 dimensional images |
KR101388133B1 (en) * | 2007-02-16 | 2014-04-23 | 삼성전자주식회사 | Method and apparatus for creating a 3D model from 2D photograph image |
KR102498598B1 (en) * | 2016-10-18 | 2023-02-14 | 삼성전자주식회사 | Image processing apparatus and method for image processing thereof |
-
2020
- 2020-05-07 KR KR1020200054726A patent/KR102370326B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20210023663A (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102370326B1 (en) | Image processing method and image processing apparatus for generating 3d content using 2d images | |
CN111145139B (en) | Method, device and computer program for detecting 3D objects from 2D images | |
JP5248806B2 (en) | Information processing apparatus and information processing method | |
US8243061B2 (en) | Image processing apparatus and method of controlling operation of same | |
KR102413517B1 (en) | Image processing method and image processing apparatus for generating texture of 3d content using 2d image | |
US10354402B2 (en) | Image processing apparatus and image processing method | |
KR102279300B1 (en) | Virtual object display control apparatus, virtual object display system, virtual object display control method, and virtual object display control program | |
JP5799273B2 (en) | Dimension measuring device, dimension measuring method, dimension measuring system, program | |
US10950056B2 (en) | Apparatus and method for generating point cloud data | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR102378105B1 (en) | Apparatus for estimating 3d position in augmented reality and method performing thereof | |
US11189053B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
US10146331B2 (en) | Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates | |
KR20220029640A (en) | Image processing method and image processing apparatus for generating 3d content using 2d images | |
JP2012220271A (en) | Attitude recognition apparatus, attitude recognition method, program and recording medium | |
KR20230155413A (en) | Method for providing virtual indoor space content and server therefor | |
JP2013092888A (en) | Data processor | |
US11915356B2 (en) | Semi-automatic 3D scene optimization with user-provided constraints | |
JP2001005978A (en) | Device and method for extracting object, and program providing medium | |
KR102575503B1 (en) | Mobile terminal for creating virtual indoor space contents and control method thereof | |
KR20130065580A (en) | Electronic apparatus, method for producting of augemented reality image and computer-readable recording medium | |
JP7012965B2 (en) | 3D data scale granting method and 3D data scale granting program | |
US20160163090A1 (en) | Computing device and method for simulating process of scanning drawing of object | |
KR20220065301A (en) | Method and apparatus for generating textures of 3-dimension model | |
JP2017076260A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200507 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210429 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20211129 |
|
A107 | Divisional application of patent | ||
GRNT | Written decision to grant | ||
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20220228 Patent event code: PA01071R01D |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20220228 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20220302 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20250401 Start annual number: 4 End annual number: 4 |