KR102708278B1 - Apparatus and method of video stitching using depth based seam regeneration for seam optimized video stitching - Google Patents
Apparatus and method of video stitching using depth based seam regeneration for seam optimized video stitching Download PDFInfo
- Publication number
- KR102708278B1 KR102708278B1 KR1020230038328A KR20230038328A KR102708278B1 KR 102708278 B1 KR102708278 B1 KR 102708278B1 KR 1020230038328 A KR1020230038328 A KR 1020230038328A KR 20230038328 A KR20230038328 A KR 20230038328A KR 102708278 B1 KR102708278 B1 KR 102708278B1
- Authority
- KR
- South Korea
- Prior art keywords
- boundary line
- generated
- input images
- image
- synthetic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 107
- 230000008929 regeneration Effects 0.000 title claims abstract description 83
- 238000011069 regeneration method Methods 0.000 title claims abstract description 83
- 239000011159 matrix material Substances 0.000 claims abstract description 110
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 36
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims abstract description 23
- 239000000284 extract Substances 0.000 claims abstract description 22
- 230000001186 cumulative effect Effects 0.000 claims description 10
- 230000010339 dilation Effects 0.000 claims description 9
- 230000003628 erosive effect Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000007689 inspection Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000001172 regenerating effect Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
본 발명은 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 장치 및 방법 에 관한것으로, 본 발명의 일실시예에 따른 동영상 스티칭 장치는 동영상 프레임에 대하여 복수의 입력 영상을 수신하여 상기 복수의 입력 영상에 대한 공통 영역 영상을 처리함에 따라 스티칭 대상 영상을 등록하는 영상 등록부, 상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부, 상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부 및 상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함할 수 있다.The present invention relates to a video stitching device and method utilizing depth-based regeneration of a synthetic boundary line. According to an embodiment of the present invention, the video stitching device includes an image registration unit which receives a plurality of input images for a video frame, processes a common region image for the plurality of input images, and registers a stitching target image; a boundary generation unit which configures a boundary line generation matrix through characteristic information for the registered stitching target images, and generates a synthetic boundary line based on the configured boundary line generation matrix; a boundary line regeneration unit which calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and an image synthesis unit which synthesizes the plurality of input images based on one of the synthetic boundary lines among the generated synthetic boundary line and the synthetic boundary line regenerated according to the regeneration decision. Can be.
Description
본 발명은 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 장치 및 방법 에 관한것으로, 보다 구체적으로, 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보에 기반한 깊이 마스크와 복수의 입력 영상에서 연속되는 두 개의 영상을 이용한 잔차 마스크를 이용하여 합성 경계선의 재생성 여부를 판단하여 복수의 동영상 프레임에 대하여 선택적으로 합성 경계선을 재생성하는 동영상 스티칭 기술에 관한 것이다.The present invention relates to a video stitching device and method utilizing depth-based regeneration of a synthetic boundary line, and more specifically, to a video stitching technique for selectively regenerating a synthetic boundary line for a plurality of video frames by determining whether or not to regenerate a synthetic boundary line using a depth mask based on depth information according to parallax for a plurality of input images and a residual mask using two consecutive images from a plurality of input images.
영상 스티칭(Image Stitching)은 다수의 카메라로부터 촬영된 영상을 한 시점의 영상으로 합성하는 기술로써, 360도 영상 및 파노라마 영상을 생성하는데 활용될 수 있다.Image stitching is a technology that synthesizes images taken from multiple cameras into an image of a single point in time, and can be used to create 360-degree and panoramic images.
이와 같이 다수의 영상을 하나의 영상으로 합성하는 영상 스티칭 기술의 세부 기술 중 하나로는 합성 경계선을 활용하는 영상 스티칭 방법이 있다.One of the detailed techniques of the image stitching technology that synthesizes multiple images into one image is the image stitching method that utilizes a synthetic boundary line.
해당 영상 스티칭 기술은 다수의 입력 영상으로부터 크기, 회전 변환과 카메라의 시점 및 조도 변화에도 쉽게 식별 가능한 특징점(Keypoint) 추출을 시작으로 특징점 매칭, 공통 영역 계산, 호모그래피(Homography) 추정, 와핑(Warping) 과정이 진행된다.The video stitching technology starts with extracting keypoints that can be easily identified from multiple input images despite changes in size, rotation, camera viewpoint, and illumination, and then proceeds with keypoint matching, common area calculation, homography estimation, and warping.
또한, 와핑된 공통 영역 영상에 대하여 영상 간 차이 혹은 시각적 인지 에너지 함수 등으로 구성된 경계선 생성 행렬에서 누적 값이 최소인 경로를 합성 경계선으로 설정한다.In addition, for the warped common area image, the path with the minimum accumulated value in the boundary generation matrix composed of the difference between images or the visual perception energy function is set as the synthetic boundary.
해당 합성 경계선은 영상을 합성하는 기준선으로 활용되며, 합성된 영상에 대하여 카메라 간의 조도 차이 등으로 발생한 왜곡은 블렌딩(Blending) 과정을 통해 제거된다. The composite boundary line is used as a reference line for synthesizing images, and any distortion in the synthesized images caused by differences in illumination between cameras is removed through the blending process.
영상 스티칭 과정에서 경계선 생성 행렬의 누적 값이 최소인 경로를 따라 합성 경계선을 생성하는 것은 시차 왜곡을 최소화하기 위함으로써, 시차 왜곡이 최소화되도록 동영상을 스티칭하기 위해서는 동영상의 모든 프레임마다 새로운 합성 경계선을 생성할 필요성이 있다.In the video stitching process, generating a synthetic boundary along a path with a minimum accumulated value of the boundary generation matrix is intended to minimize parallax distortion. Therefore, in order to stitch a video so that parallax distortion is minimized, it is necessary to generate a new synthetic boundary for every frame of the video.
그러나 모든 동영상 프레임에 대하여 합성 경계선을 새로 생성하는 것은 계산 부하가 높기 때문에 특정 동영상 프레임에 대해서만 영상 스티칭을 적용할 수 있는 효율적인 동영상 스티칭 방법이 필요한 실정이다.However, since generating a new synthetic boundary for all video frames is computationally expensive, an efficient video stitching method that can apply video stitching only to specific video frames is needed.
본 발명은 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보에 기반한 깊이 마스크와 복수의 입력 영상에서 연속되는 두 개의 영상을 이용한 잔차 마스크를 이용하여 합성 경계선의 재생성 여부를 판단하여 복수의 동영상 프레임에 대하여 선택적으로 합성 경계선을 재생성하는 것을 목적으로 한다.The present invention aims to selectively regenerate a synthetic boundary for a plurality of video frames by determining whether or not to regenerate a synthetic boundary using a depth mask based on depth information according to parallax for a plurality of input images and a residual mask using two consecutive images from a plurality of input images.
본 발명은 모든 동영상 프레임에 대하여 합성 경계선을 새로 생성하지 않고, 특정한 규칙에 의해 선택된 동영상 프레임에 대해서만 합성 경계선을 생성하기에 보다 빠르게 동영상을 스티칭하는 것을 목적으로 한다.The present invention aims at stitching videos more quickly by generating synthetic boundaries only for video frames selected by specific rules, rather than generating new synthetic boundaries for all video frames.
본 발명은 단일의 합성 경계선을 통해서 동영상을 합성하는 경우에 스티칭된 동영상에서 시차 왜곡이 발생하는 확률을 감소시키기 위하여 시차 왜곡이 발생할 수 있는 동영상 프레임에 대하여 합성 경계선을 재생성하여 시차 왜곡 발생 확률을 낮추는 것을 목적으로 한다.The present invention aims to reduce the probability of parallax distortion occurring in a stitched video when synthesizing a video through a single synthesis boundary line by regenerating a synthesis boundary line for a video frame in which parallax distortion may occur, thereby reducing the probability of parallax distortion occurring.
본 발명은 깊이 정보에 기반한 깊이 마스크에서 탐사(search) 정도를 다르게 설정하여 영상 스티칭의 속도 및 정확도를 제어하는 것을 목적으로 한다.The present invention aims to control the speed and accuracy of image stitching by setting different search levels in a depth mask based on depth information.
본 발명의 일실시예에 따른 동영상 스티칭 장치는 동영상 프레임에 대하여 복수의 입력 영상을 수신하여 상기 복수의 입력 영상에 대한 공통 영역 영상을 처리함에 따라 스티칭 대상 영상을 등록하는 영상 등록부, 상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부, 상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부 및 상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함할 수 있다.According to one embodiment of the present invention, a video stitching device may include an image registration unit which receives a plurality of input images for a video frame, processes a common region image for the plurality of input images, and registers a stitching target image; a boundary generation unit which configures a boundary generation matrix through characteristic information for the registered stitching target images, and generates a synthetic boundary line based on the configured boundary generation matrix; a boundary regeneration unit which calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and an image synthesis unit which synthesizes the plurality of input images based on one of the synthetic boundary lines among the generated synthetic boundary line and the synthetic boundary line regenerated according to the determination of regeneration.
상기 경계선 재생성부는 상기 깊이 정보 행렬을 N 비트 양자화하고, 상기 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보를 상기 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 상기 깊이 마스크를 생성할 수 있다.The above boundary line regeneration unit can generate the depth mask by quantizing the depth information matrix into N bits and indicating the position information of the synthetic boundary line generated along the path with the minimum cumulative sum of the boundary line generation matrix as a delimiter for the quantized depth information matrix.
상기 생성된 깊이 마스크는 상기 생성된 합성 경계선에 인접한 깊이 정보 값의 분포에 따라 구분되고, 상기 생성된 합성 경계선이 재생성되는 경우에는 초기화되며, 상기 생성된 합성 경계선이 유지되는 경우에는 유지될 수 있다.The generated depth mask is distinguished according to the distribution of depth information values adjacent to the generated synthetic boundary line, and is initialized when the generated synthetic boundary line is regenerated, and can be maintained when the generated synthetic boundary line is maintained.
상기 경계선 재생성부는 상기 복수의 입력 영상에서 상기 연속되는 두 개의 영상인 제N-1 영상과 제N 영상의 차이 값의 크기를 통해 잔차 영상을 생성하고, 상기 생성된 잔차 영상에 대하여 침식과 팽창을 통해 상기 생성된 잔차 영상의 노이즈를 제거하며, 상기 노이즈가 제거된 잔차 영상에 대하여 임계값(θth)을 기준으로 이진화하여 상기 잔차 마스크를 생성할 수 있다.The above boundary line regeneration unit can generate a residual image through the size of the difference value between the N-1th image and the Nth image, which are two consecutive images from the plurality of input images, and remove noise from the generated residual image through erosion and dilation, and generate the residual mask by binarizing the residual image from which the noise has been removed based on a threshold value (θ th ).
상기 경계선 재생성부는 상기 깊이 마스크에 구분자로 표시된 합성 경계선 중 한 노드의 X좌표와 Y좌표를 중점으로 일정 크기(T×T)의 윈도우를 설정하고, 상기 설정된 윈도우를 상기 잔차 마스크에 적용하여 상기 윈도우 내 상기 잔차 마스크에서 "1"의 개수를 카운팅하며, 상기 카운팅된 개수를 상기 윈도우의 크기의 제곱으로 나눈 값을 오류 임계값(θerr)과 비교하여 상기 생성된 합성 경계선의 재생성 여부를 결정할 수 있다.The above boundary line regeneration unit sets a window of a certain size (T×T) centered on the X-coordinate and Y-coordinate of one node of the synthetic boundary line indicated by a delimiter in the depth mask, applies the set window to the residual mask, counts the number of “1”s in the residual mask within the window, and compares a value obtained by dividing the counted number by the square of the size of the window with an error threshold value (θ err ) to determine whether or not to regenerate the generated synthetic boundary line.
상기 오류 임계값(θerr)은 오류 민감도(α), 상기 깊이 마스크를 양자화한 비트 크기(N), 상기 합성 경계선의 한 노드의 좌측 깊이 마스크 값(DL) 및 우측 깊이 마스크 값(DR)을 이용하여 계산될 수 있다.The above error threshold (θ err ) can be calculated using the error sensitivity (α), the bit size (N) of the quantized depth mask, the left depth mask value (D L ) of one node of the synthetic boundary line, and the right depth mask value (D R ).
상기 영상 등록부는 상기 복수의 입력 영상에서 영상의 회전, 밝기 변화, 이동 변환에도 동일한 픽셀을 특징점들로 추출하고, 상기 추출된 특징점들에서 동일한 지점을 나타내는 특징점을 매칭하고, 상기 매칭된 특징점을 포함하는 공통 영역을 설정하며, 상기 공통 영역에서 상기 매칭된 특징점 간에 위치 관계를 통해 호모그래피를 추정하며, 상기 추정된 호모그래피를 이용하여 상기 입력 영상 간에 시차가 최소화되도록 와핑을 적용하여 상기 공통 영역 영상을 처리할 수 있다.The above image registration unit can process the common area image by extracting pixels that are the same as feature points from the plurality of input images, even when the images are rotated, changed in brightness, or translated, and matching feature points that represent the same point from the extracted feature points, setting a common area including the matched feature points, estimating a homography through a positional relationship between the matched feature points in the common area, and applying warping to minimize parallax between the input images using the estimated homography.
상기 경계선 생성부는 상기 처리된 공통 영역 영상에 대하여 가로축 및 세로축에 대한 픽셀 변화량 크기를 통해 에너지 함수를 계산하고, 상기 계산된 에너지 함수를 상기 특성 정보 중 에너지 정보로 추출하며, 상기 복수의 입력 영상에서 동일한 지점 간의 위치 차이를 통해 상기 처리된 공통 영역 영상에서 상기 특성 정보 중 깊이 정보를 추출하고, 상기 추출된 에너지 정보와 상기 추출된 깊이 정보에 기반하여 상기 경계선 생성 행렬을 구성할 수 있다.The above boundary line generation unit calculates an energy function through the pixel change amount sizes for the horizontal and vertical axes for the processed common area image, extracts the calculated energy function as energy information among the characteristic information, extracts depth information among the characteristic information from the processed common area image through the positional difference between the same points in the plurality of input images, and configures the boundary line generation matrix based on the extracted energy information and the extracted depth information.
상기 영상 합성부는 상기 동영상 프레임에서 상기 복수의 입력 영상에 대한 스티칭 결과를 확인하고, 상기 확인된 스티칭 결과에서 상기 복수의 입력 영상이 모두 스티칭되지 않은 경우에는 상기 합성 경계선의 재생성 여부 판단 요청을 진행하며, 상기 복수의 입력 영상이 모두 스티칭된 경우에는 상기 동영상 프레임의 다음 동영상 프레임에 대한 스티칭 대상 영상의 등록 요청을 진행할 수 있다.The above image synthesis unit can check the stitching result for the plurality of input images in the video frame, and if the plurality of input images are not all stitched in the checked stitching result, it can request whether to regenerate the synthesis boundary line, and if the plurality of input images are all stitched, it can request registration of a stitching target image for the next video frame of the video frame.
본 발명의 일실시예에 따른 동영상 스티칭 방법은 영상 등록부에서, 동영상 프레임에 대하여 복수의 입력 영상을 수신하여 상기 복수의 입력 영상에 대한 공통 영역 영상을 처리함에 따라 스티칭 대상 영상을 등록하는 단계, 경계선 생성부에서, 상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 단계, 경계선 재생성부에서, 상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계 및 영상 합성부에서, 상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a video stitching method may include: a step of registering, in an image registration unit, a stitching target image by receiving a plurality of input images for a video frame and processing a common region image for the plurality of input images; a step of configuring, in a boundary line generation unit, a boundary line generation matrix through characteristic information for the registered stitching target images; and a step of generating a synthetic boundary line based on the configured boundary line generation matrix; a step of calculating, in a boundary line regeneration unit, a depth information matrix according to parallax for the plurality of input images, extracting boundary line position information according to the boundary line generation matrix, generating a depth mask based on the extracted boundary line position information and the depth information matrix, generating a residual mask using two consecutive images from the plurality of input images, and determining whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and a step of synthesizing, in an image synthesis unit, the plurality of input images based on one of the generated synthetic boundary lines and the synthetic boundary lines regenerated according to the determination of regeneration.
상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계는, 상기 깊이 정보 행렬을 N 비트 양자화하고, 상기 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보를 상기 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 상기 깊이 마스크를 생성하는 단계 및 상기 복수의 입력 영상에서 상기 연속되는 두 개의 영상인 제N-1 영상과 제N 영상의 차이 값의 크기를 통해 잔차 영상을 생성하고, 상기 생성된 잔차 영상에 대하여 침식과 팽창을 통해 상기 생성된 잔차 영상의 노이즈를 제거하며, 상기 노이즈가 제거된 잔차 영상에 대하여 임계값(θth)을 기준으로 이진화하여 상기 잔차 마스크를 생성하는 단계를 포함할 수 있다.The step of determining whether to regenerate the generated synthetic boundary line may include the steps of quantizing the depth information matrix into N bits, displaying position information of the synthetic boundary line generated along a path having a minimum cumulative sum of the boundary line generation matrix as a delimiter for the quantized depth information matrix to generate the depth mask, and the steps of generating a residual image through the size of a difference value between an N-1th image and an Nth image, which are two consecutive images among the plurality of input images, and removing noise from the generated residual image through erosion and dilation, and generating the residual mask by binarizing the residual image from which the noise has been removed based on a threshold value (θ th ).
상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계는, 상기 깊이 마스크에 구분자로 표시된 합성 경계선 중 한 노드의 X좌표와 Y좌표를 중점으로 일정 크기(T×T)의 윈도우를 설정하고, 상기 설정된 윈도우를 상기 잔차 마스크에 적용하여 상기 윈도우 내 상기 잔차 마스크에서 "1"의 개수를 카운팅하며, 상기 카운팅된 개수를 상기 윈도우의 크기의 제곱으로 나눈 값을 오류 임계값(θerr)과 비교하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계를 포함할 수 있다.The step of determining whether to regenerate the generated synthetic boundary line may include the step of setting a window of a certain size (T×T) centered on the X-coordinate and Y-coordinate of one node of the synthetic boundary line indicated by a delimiter in the depth mask, applying the set window to the residual mask to count the number of “1”s in the residual mask within the window, and comparing a value obtained by dividing the counted number by the square of the size of the window with an error threshold value (θ err ) to determine whether to regenerate the generated synthetic boundary line.
본 발명은 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보에 기반한 깊이 마스크와 복수의 입력 영상에서 연속되는 두 개의 영상을 이용한 잔차 마스크를 이용하여 합성 경계선의 재생성 여부를 판단하여 복수의 동영상 프레임에 대하여 선택적으로 합성 경계선을 재생성할 수 있다.The present invention determines whether to regenerate a synthetic boundary line by using a depth mask based on depth information according to parallax for a plurality of input images and a residual mask using two consecutive images from a plurality of input images, thereby selectively regenerating a synthetic boundary line for a plurality of video frames.
본 발명은 모든 동영상 프레임에 대하여 합성 경계선을 새로 생성하지 않고, 특정한 규칙에 의해 선택된 동영상 프레임에 대해서만 합성 경계선을 생성하기에 보다 빠르게 동영상을 스티칭할 수 있다.The present invention can stitch videos more quickly by generating synthetic boundaries only for video frames selected by specific rules, rather than generating new synthetic boundaries for all video frames.
본 발명은 단일의 합성 경계선을 통해서 동영상을 합성하는 경우에 스티칭된 동영상에서 시차 왜곡이 발생하는 확률을 감소시키기 위하여 시차 왜곡이 발생할 수 있는 동영상 프레임에 대하여 합성 경계선을 재생성하여 시차 왜곡 발생 확률을 낮출 수 있다.The present invention can reduce the probability of parallax distortion occurring in a stitched video when synthesizing a video through a single synthesis boundary line by regenerating a synthesis boundary line for a video frame in which parallax distortion may occur, thereby reducing the probability of parallax distortion occurring.
본 발명은 깊이 정보에 기반한 깊이 마스크에서 탐사(search) 정도를 다르게 설정하여 영상 스티칭의 속도 및 정확도를 제어할 수 있다.The present invention can control the speed and accuracy of image stitching by setting different search levels in a depth mask based on depth information.
도 1 및 도 2는 본 발명의 일실시예와 관련하여 경계선 생성 행렬 기반 영상 스티칭 방법을 설명하는 도면이다.
도 3은 본 발명의 일실시예와 관련하여 경계선 생성 행렬 기반 동영상 스티칭 방법을 설명하는 도면이다.
도 4는 본 발명의 일실시예에 따른 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따른 동영상 스티칭 장치의 영상 등록부를 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른 동영상 스티칭 장치의 경계선 재생성부를 설명하기 위한 도면이다.
도 7은 본 발명의 일실시예에 따른 경계선 재생성부에서 계산된 깊이 정보를 설명하기 위한 도면이다.
도 8은 본 발명의 일실시예에 따른 경계선 재생성부에서 깊이 마스크를 생성하는 절차를 설명하기 위한 도면이다.
도 9는 본 발명의 일실시예에 따른 경계선 재생성부에서 생성된 깊이 마스크의 종류를 설명하기 위한 도면이다.
도 10은 본 발명의 일실시예에 따른 경계선 재생성부에서 잔차 마스크를 생성하는 절차를 설명하기 위한 도면이다.
도 11은 본 발명의 일실시예에 따른 경계선 재생성부에서 잔차 마스크 생성 과정에서 생성되는 예시 영상을 설명하기 위한 도면이다.
도 12는 본 발명의 일실시예에 따른 경계선 재생성부의 경계선 검사 절차를 설명하기 위한 도면이다.
도 13 및 도 14는 본 발명의 일실시예에 따른 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 방법을 설명하기 위한 도면이다.FIG. 1 and FIG. 2 are drawings explaining an image stitching method based on a boundary line generation matrix in relation to one embodiment of the present invention.
FIG. 3 is a drawing explaining a video stitching method based on a boundary line generation matrix in relation to one embodiment of the present invention.
FIG. 4 is a drawing for explaining a video stitching device utilizing depth-based synthetic boundary line regeneration according to one embodiment of the present invention.
FIG. 5 is a drawing for explaining an image registration unit of a video stitching device according to an embodiment of the present invention.
FIG. 6 is a drawing for explaining a boundary regeneration unit of a video stitching device according to an embodiment of the present invention.
FIG. 7 is a drawing for explaining depth information calculated in a boundary line regeneration unit according to one embodiment of the present invention.
FIG. 8 is a drawing for explaining a procedure for generating a depth mask in a boundary line regeneration unit according to an embodiment of the present invention.
FIG. 9 is a drawing for explaining the types of depth masks generated in a boundary line regeneration unit according to one embodiment of the present invention.
FIG. 10 is a drawing for explaining a procedure for generating a residual mask in a boundary line regeneration unit according to one embodiment of the present invention.
FIG. 11 is a drawing for explaining an example image generated in a residual mask generation process in a boundary line regeneration unit according to one embodiment of the present invention.
FIG. 12 is a drawing for explaining a boundary inspection procedure of a boundary regeneration unit according to one embodiment of the present invention.
FIGS. 13 and 14 are diagrams for explaining a video stitching method utilizing depth-based synthetic boundary line regeneration according to one embodiment of the present invention.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다.Below, various embodiments of this document are described with reference to the attached drawings.
실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다.It should be understood that the examples and terms used herein are not intended to limit the technology described in this document to a particular embodiment, but rather to encompass various modifications, equivalents, and/or alternatives of the embodiments.
하기에서 다양한 실시 예들을 설명에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.In the following description of various embodiments, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the invention, the detailed description will be omitted.
그리고 후술되는 용어들은 다양한 실시 예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.And the terms described below are terms defined in consideration of functions in various embodiments, and may vary depending on the intention or custom of the user or operator. Therefore, the definitions should be made based on the contents throughout this specification.
도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, similar reference numerals may be used for similar components.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.A singular expression may include a plural expression unless the context clearly indicates otherwise.
본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다.In this document, expressions such as "A or B" or "at least one of A and/or B" may include all possible combinations of the items listed together.
"제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.Expressions such as "first," "second," "firstly," or "secondly," may be used to describe the components without regard to order or importance, and are only used to distinguish one component from another and do not limit the components.
어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다.When it is said that a certain (e.g., a first) component is "(functionally or communicatively) connected" or "connected" to another (e.g., a second) component, said certain component may be directly connected to said other component, or may be connected through another component (e.g., a third component).
본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다.In this specification, the phrase “configured to” may be used interchangeably with, for example, “suitable for,” “having the ability to,” “modified to,” “made to,” “capable of,” or “designed to,” in terms of hardware or software, depending on the context.
어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다.In some contexts, the expression "a device configured to" may mean that the device is "capable of" doing something in conjunction with other devices or components.
예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.For example, the phrase "a processor configured (or set) to perform A, B, and C" can mean a dedicated processor (e.g., an embedded processor) to perform those operations, or a general-purpose processor (e.g., a CPU or application processor) that can perform those operations by executing one or more software programs stored in a memory device.
또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다.Also, the term 'or' implies an inclusive or rather than an exclusive or.
즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다.That is, unless otherwise stated or clear from the context, the expression 'x utilizes a or b' means any one of the natural inclusive permutations.
이하 사용되는 '..부', '..기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.The terms '..bu', '..gi', etc. used below mean a unit that processes at least one function or operation, and this can be implemented by hardware, software, or a combination of hardware and software.
도 1 및 도 2는 본 발명의 일실시예와 관련하여 경계선 생성 행렬 기반 영상 스티칭 방법을 설명하는 도면이다.FIG. 1 and FIG. 2 are drawings explaining an image stitching method based on a boundary line generation matrix in relation to one embodiment of the present invention.
도 1은 본 발명이 활용하는 경계선 생성 행렬 기반 영상 스티칭 기술의 과정을 예시한다.Figure 1 illustrates the process of an image stitching technique based on a boundary line generation matrix utilized by the present invention.
본 발명은 합성 경계선 기반 영상 스티칭의 응용 기술로써, 구체적으로는 기존 합성 경계선 기반 영상 스티칭을 통해서 동영상을 합성하는 경우 모든 프레임에 대하여 영상 스티칭의 전체 과정이 수행되는 비효율성을 극복하기 위한 기술이다.The present invention is an application technology of image stitching based on a synthetic boundary line, and more specifically, a technology for overcoming the inefficiency of performing the entire image stitching process for all frames when synthesizing a video through the existing image stitching based on a synthetic boundary line.
도 1을 참고하면, 기존 경계선 기반 영상 스티칭 기술은 단계(S101) 및 단계(S102)에서 특징점 추출하고, 단계(S103)에서 특징점 매칭하며, 단계(S104)에서 공통 영역 설정한다.Referring to Fig. 1, the existing boundary-based image stitching technology extracts feature points in steps (S101) and (S102), matches feature points in step (S103), and sets a common area in step (S104).
또한, 단계(S105)에서 호모그래피 추정하고, 단계(S106)에서 와핑하며, 단계(S107)에서 경계선 생성하고, 단계(S108)에서 영상 합성 과정을 수행한다.In addition, homography is estimated at step (S105), warping is performed at step (S106), a boundary line is generated at step (S107), and an image synthesis process is performed at step (S108).
해당 기술을 통해 동영상을 합성하는 경우에는 앞서 명시된 모든 과정을 동영상의 모든 프레임마다 수행해야 한다.When compositing a video using this technique, all of the processes described above must be performed for each and every frame of the video.
이때 특징점 추출 및 매칭 과정과 경계선 생성 과정은 실행 복잡도가 높은 프로세스로써, 반복 실행 시 프로세스에 소요되는 시간이 급격하게 증가하게 된다는 제한 사항이 있다.At this time, the feature point extraction and matching process and the boundary line generation process are processes with high execution complexity, and there is a limitation that the time required for the process increases rapidly when repeatedly executed.
도 2는 기존 경계선 생성 행렬 기반 영상 스티칭 방법에서 경계선을 생성하는 절차를 예시한다.Figure 2 illustrates a procedure for generating a boundary line in an existing boundary line generation matrix-based image stitching method.
도 2를 참고하면, 영상 스티칭 방법은 단계(S201)에서 좌측 입력 영상과 우측 입력 영상과 같은 복수의 입력 영상들 간에 픽셀 차이 값이나 시각적 인지 에너지 함수와 같은 영상 특성 정보(200)를 계산한다.Referring to FIG. 2, the image stitching method calculates image characteristic information (200), such as pixel difference values or visual perception energy functions, between multiple input images, such as a left input image and a right input image, in step (S201).
단계(S202)에서 영상 스티칭 방법은 해당 영상 특성 정보(200)를 통해 경계선 생성 행렬을 구성한다. 이미지(201)는 경계선 생성 행렬 결과를 예시한다.In step (S202), the image stitching method constructs a boundary generation matrix using the corresponding image characteristic information (200). Image (201) exemplifies the boundary generation matrix result.
단계(S203)에서 영상 스티칭 방법은 경계선 생성 행렬에서 누적 합이 최소인 경로를 합성 경계선으로 설정 및 생성한다. 이미지(202)는 합성 경계선 생성 결과를 예시한다.In step (S203), the image stitching method sets and generates a path with a minimum cumulative sum in a boundary line generation matrix as a synthetic boundary line. Image (202) illustrates the result of generating a synthetic boundary line.
단계(S204)에서 영상 스티칭 방법은 합성 경계선을 따라 입력 영상을 합성한다. In step (S204), the image stitching method synthesizes input images along a synthesis boundary.
이때 해당 과정이 동영상의 모든 프레임마다 새로 진행되지 않는다면 동영상에서 움직이는 사물 위에서 합성 경계선이 생성될 수 있고, 이는 합성된 영상에서 시차 왜곡을 발생시킬 수 있다. 여기서, 시차 왜곡은 합성 경계선이 사물 영역에서 생성됨에 따라서, 스티칭된 영상에서 사물이 중복되어 나타나거나 사물의 일부가 사라지는 현상을 지칭할 수 있다.If this process is not performed anew for every frame of the video, a synthetic boundary line may be generated over a moving object in the video, which may cause parallax distortion in the synthesized image. Here, parallax distortion may refer to a phenomenon in which an object appears duplicated or part of an object disappears in the stitched image as the synthetic boundary line is generated in the object area.
도 3은 본 발명의 일실시예와 관련하여 경계선 생성 행렬 기반 동영상 스티칭 방법을 설명하는 도면이다.FIG. 3 is a drawing explaining a video stitching method based on a boundary line generation matrix in relation to one embodiment of the present invention.
도 3은 본 발명의 일실시예와 관련하여 종래의 경계선 생성 행렬 기반 동영상 스티칭 방법을 예시한다.FIG. 3 illustrates a conventional boundary line generation matrix-based video stitching method in relation to one embodiment of the present invention.
도 3을 참고하면, 동영상 스티칭 방법은 반복 실행을 줄이기 위하여, 동영상에서 특정한 프레임을 선택하고 해당 영상 프레임에 대해서만 영상 스티칭을 적용하는 동영상 스티칭 기술을 제안한다.Referring to Fig. 3, the video stitching method proposes a video stitching technique that selects a specific frame from a video and applies video stitching only to the corresponding video frame in order to reduce repetitive execution.
객체 검출 절차(S300)를 통해 단계(S301)에서 객체 검출하고, 단계(S302)에서 객체 추적하며, 단계(S303)에서 객체 이동 여부를 판단하고, 단계(S304)에서 객체가 이동한 것으로 판단하면 경계선을 재생성한다.Through the object detection procedure (S300), an object is detected in step (S301), the object is tracked in step (S302), whether the object has moved is determined in step (S303), and if the object is determined to have moved in step (S304), a boundary line is regenerated.
객체 검출 절차(S300)를 통해 동영상 내에서 움직이는 사물을 탐색하고, 사물의 이동된 위치와 합성 경계선의 위치 비교를 통해서 합성 경계선을 재생성할지를 판단한다.The object detection procedure (S300) searches for moving objects within a video, and determines whether to regenerate a synthetic boundary line by comparing the moved position of the object with the position of the synthetic boundary line.
그러나 해당 합성 경계선 재생성 판단 기능을 지원하기 위해 추가되는 객체 검출 절차의 실행 복잡도는 낮지 않으며, 객체 검출의 성능에 따라서 경계선 재생성이 필요한 프레임을 선택하는 정확도가 크게 달라질 수 있다.However, the execution complexity of the object detection procedure added to support the synthetic boundary line regeneration judgment function is not low, and the accuracy of selecting a frame requiring boundary line regeneration may vary significantly depending on the performance of object detection.
이에 딥러닝 기반의 사물 검출을 활용하여 빠르고 정확한 객체 검출을 지원할 수 있지만, 동영상 내에서 딥러닝 학습 단계에서 정의되지 않은 사물이 존재하는 경우 검출되지 않아 잘못된 결과를 유발할 수 있다.Although deep learning-based object detection can be used to support fast and accurate object detection, if there are objects in the video that were not defined in the deep learning training stage, they may not be detected, which may lead to incorrect results.
도 4는 본 발명의 일실시예에 따른 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 장치를 설명하기 위한 도면이다.FIG. 4 is a drawing for explaining a video stitching device utilizing depth-based synthetic boundary line regeneration according to one embodiment of the present invention.
도 4는 본 발명의 일실시예에 따른 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 장치의 구성 요소를 예시한다.FIG. 4 illustrates components of a video stitching device utilizing depth-based synthetic boundary regeneration according to one embodiment of the present invention.
도 4를 참고하면, 본 발명의 일실시예에 따른 동영상 스티칭 장치(400)는 영상 등록부(410), 경계선 생성부(420), 경계선 재생성부(430) 및 영상 합성부(440)를 포함한다.Referring to FIG. 4, a video stitching device (400) according to one embodiment of the present invention includes an image registration unit (410), a boundary line generation unit (420), a boundary line regeneration unit (430), and an image synthesis unit (440).
동영상 스티칭 장치(400)는 모든 동영상 프레임에 대하여 영상 스티칭을 진행하는 것이 아니라, 특정한 규칙에 의하여 선택된 동영상 프레임에 대해서만 합성 경계선을 재생성하여 효율적인 동영상 스티칭을 수행할 수 있다.The video stitching device (400) performs efficient video stitching by regenerating a synthetic boundary line only for video frames selected according to specific rules, rather than performing video stitching for all video frames.
또한, 동영상 스티칭 장치(400)는 깊이 정보에 따라 탐사(search) 정도를 다르게 설정하여 영상 스티칭의 빠른 속도나 정확함을 조절한다.Additionally, the video stitching device (400) controls the speed and accuracy of video stitching by setting the search level differently according to depth information.
본 발명의 일실시예에 따르면 영상 등록부(410)는 동영상 프레임에 대하여 복수의 입력 영상을 수신하여 복수의 입력 영상에 대한 공통 영역 영상을 처리함에 따라 스티칭 대상 영상을 등록한다.According to one embodiment of the present invention, an image registration unit (410) receives a plurality of input images for a video frame and registers a stitching target image by processing a common area image for the plurality of input images.
일례로, 영상 등록부(410)는 복수의 입력 영상에서 영상의 회전, 밝기 변화, 이동 변환에도 동일한 픽셀을 특징점들로 추출하고, 추출된 특징점들에서 동일한 지점을 나타내는 특징점을 매칭한다.For example, the image registration unit (410) extracts the same pixels as feature points from multiple input images even when the images are rotated, changed in brightness, or translated, and matches feature points representing the same point among the extracted feature points.
또한, 영상 등록부(410)는 매칭된 특징점을 포함하는 공통 영역을 설정하며, 공통 영역에서 매칭된 특징점 간에 위치 관계를 통해 호모그래피를 추정하며, 추정된 호모그래피를 이용하여 입력 영상 간에 시차가 최소화되도록 와핑을 적용하여 공통 영역 영상을 처리할 수 있다.In addition, the image registration unit (410) sets a common area including matched feature points, estimates homography through a positional relationship between matched feature points in the common area, and processes the common area image by applying warping so that the parallax between input images is minimized using the estimated homography.
본 발명의 일실시예에 따르면 경계선 생성부(420)는 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성할 수 있다.According to one embodiment of the present invention, a boundary line generation unit (420) can configure a boundary line generation matrix using characteristic information on a stitching target image, and generate a synthetic boundary line based on the configured boundary line generation matrix.
일례로, 경계선 생성부(420)는 처리된 공통 영역 영상에 대하여 가로축 및 세로축에 대한 픽셀 변화량 크기를 통해 에너지 함수를 계산하고, 계산된 에너지 함수를 특성 정보 중 에너지 정보로 추출한다.For example, the boundary line generation unit (420) calculates an energy function through the pixel change amount sizes for the horizontal and vertical axes for the processed common area image, and extracts the calculated energy function as energy information among the characteristic information.
본 발명의 일실시예에 따르면 경계선 생성부(420)는 복수의 입력 영상에서 동일한 지점 간의 위치 차이를 통해 처리된 공통 영역 영상에서 특성 정보 중 깊이 정보를 추출하고, 추출된 에너지 정보와 추출된 깊이 정보에 기반하여 경계선 생성 행렬을 구성할 수 있다.According to one embodiment of the present invention, the boundary line generation unit (420) can extract depth information from among characteristic information in a common area image processed through the positional difference between identical points in a plurality of input images, and configure a boundary line generation matrix based on the extracted energy information and the extracted depth information.
일례로, 경계선 재생성부(430)는 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성한다.For example, the boundary line regeneration unit (430) calculates a depth information matrix according to parallax for multiple input images, extracts boundary line position information according to the boundary line generation matrix, and generates a depth mask based on the extracted boundary line position information and the depth information matrix.
본 발명의 일실시예에 따르면 경계선 재생성부(430)는 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 생성된 깊이 마스크와 생성된 잔차 마스크를 이용하여 생성된 합성 경계선의 재생성 여부를 결정할 수 있다.According to one embodiment of the present invention, a boundary line regeneration unit (430) generates a residual mask using two consecutive images from a plurality of input images, and can determine whether to regenerate a generated synthetic boundary line using the generated depth mask and the generated residual mask.
일례로, 경계선 재생성부(430)는 깊이 정보 행렬을 N 비트 양자화하고, 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보를 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 깊이 마스크를 생성한다.For example, the boundary line regeneration unit (430) quantizes a depth information matrix into N bits and generates a depth mask by indicating the position information of a synthetic boundary line generated along a path with a minimum cumulative sum of the boundary line generation matrix as a delimiter for the quantized depth information matrix.
예를 들어, 깊이 마스크는 합성 경계선에 인접한 깊이 정보 값의 분포에 따라 구분되고, 합성 경계선이 재생성되는 경우에는 초기화되며, 합성 경계선이 유지되는 경우에는 유지될 수 있다.For example, a depth mask may be distinguished based on the distribution of depth information values adjacent to a synthetic boundary, initialized when the synthetic boundary is regenerated, or maintained when the synthetic boundary is maintained.
본 발명의 일실시예에 따르면 경계선 재생성부(430)는 복수의 입력 영상에서 연속되는 두 개의 영상인 제N-1 영상과 제N 영상의 차이 값의 크기를 통해 잔차 영상을 생성하고, 잔차 영상에 대하여 침식과 팽창을 통해 잔차 영상의 노이즈를 제거한다.According to one embodiment of the present invention, a boundary line regeneration unit (430) generates a residual image through the size of the difference value between an N-1th image and an Nth image, which are two consecutive images from a plurality of input images, and removes noise from the residual image through erosion and dilation.
또한, 경계선 재생성부(430)는 노이즈가 제거된 잔차 영상에 대하여 임계값(θth)을 기준으로 이진화하여 잔차 마스크를 생성할 수 있다. 예를 들어, 잔차 영상은 모션 프레임(MotN) 영상으로 지칭될 수 있다.In addition, the boundary regeneration unit (430) can generate a residual mask by binarizing the residual image from which noise has been removed based on a threshold value (θ th ). For example, the residual image can be referred to as a motion frame (Mot N ) image.
일례로, 경계선 재생성부(430)는 깊이 마스크에 구분자로 표시된 합성 경계선 중 한 노드의 X좌표와 Y좌표를 중점으로 일정 크기(T×T)의 윈도우를 설정하고, 설정된 윈도우를 잔차 마스크에 적용하여 윈도우 내 상기 잔차 마스크에서 "1"의 개수를 카운팅한다.For example, the boundary line regeneration unit (430) sets a window of a certain size (T×T) centered on the X-coordinate and Y-coordinate of one node of the synthetic boundary line indicated as a delimiter in the depth mask, applies the set window to the residual mask, and counts the number of “1”s in the residual mask within the window.
예를 들어, 경계선 재생성부(430)는 카운팅된 개수를 상기 윈도우의 크기의 제곱으로 나눈 값을 오류 임계값(θerr)과 비교하여 생성된 합성 경계선의 재생성 여부를 결정할 수 있다.For example, the boundary line regeneration unit (430) can determine whether to regenerate the generated synthetic boundary line by comparing the value obtained by dividing the counted number by the square of the size of the window with an error threshold value (θ err ).
경계선 재생성부(430)는 카운팅된 개수를 상기 윈도우의 크기의 제곱으로 나눈 값이 오류 임계값보다 큰 경우에는 합성 경계선을 재 생성하는 것으로 결정하고, 경계선 생성부(420)에 합성 경계선 생성을 요청한다.The boundary line regeneration unit (430) determines to regenerate a synthetic boundary line if the value of the counted number divided by the square of the size of the window is greater than the error threshold, and requests the boundary line generation unit (420) to generate a synthetic boundary line.
본 발명의 일실시예에 따르면 영상 합성부(440)는 생성된 합성 경계선 및 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 복수의 입력 영상을 합성할 수 있다.According to one embodiment of the present invention, the image synthesis unit (440) can synthesize a plurality of input images based on one of the synthesis boundaries among the generated synthesis boundaries and the regenerated synthesis boundaries according to the regeneration decision.
일례로, 영상 합성부(440)는 동영상 프레임에서 복수의 입력 영상에 대한 스티칭 결과를 확인하고, 확인된 스티칭 결과에서 복수의 입력 영상이 모두 스티칭되지 않은 경우에는 합성 경계선의 재생성 여부 판단 요청을 진행한다.For example, the image synthesis unit (440) checks the stitching results for multiple input images in a video frame, and if none of the multiple input images are stitched in the confirmed stitching results, it requests a determination on whether to regenerate the synthesis boundary line.
또한, 영상 합성부(440)는 복수의 입력 영상이 모두 스티칭된 경우에는 동영상 프레임의 다음 동영상 프레임에 대한 스티칭 대상 영상의 등록 요청을 진행한다.In addition, when multiple input images are all stitched, the image synthesis unit (440) requests registration of a stitching target image for the next video frame of the video frame.
따라서, 본 발명은 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보에 기반한 깊이 마스크와 복수의 입력 영상에서 연속되는 두 개의 영상을 이용한 잔차 마스크를 이용하여 합성 경계선의 재생성 여부를 판단하여 복수의 동영상 프레임에 대하여 선택적으로 합성 경계선을 재생성할 수 있다.Accordingly, the present invention can selectively regenerate a synthetic boundary for a plurality of video frames by determining whether to regenerate a synthetic boundary using a depth mask based on depth information according to parallax for a plurality of input images and a residual mask using two consecutive images from the plurality of input images.
도 5는 본 발명의 일실시예에 따른 동영상 스티칭 장치의 영상 등록부를 설명하기 위한 도면이다.FIG. 5 is a drawing for explaining an image registration unit of a video stitching device according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 따른 동영상 스티칭 장치의 영상 등록부의 구성 요소를 예시한다.FIG. 5 illustrates components of an image registration unit of a video stitching device according to an embodiment of the present invention.
도 5를 참고하면, 본 발명의 일실시예에 따르면 영상 등록부(500)는 특징점 추출 및 매칭부(510), 공통 영역 추정부(520), 호모그래피 추정부(530) 및 와핑부(540)를 포함한다.Referring to FIG. 5, according to one embodiment of the present invention, an image registration unit (500) includes a feature point extraction and matching unit (510), a common area estimation unit (520), a homography estimation unit (530), and a warping unit (540).
특징점 추출 및 매칭부(510)는 복수의 입력 영상에서 영상의 회전, 밝기 변화, 이동 변환에도 동일한 픽셀을 특징점들로 추출하고, 추출된 특징점들에서 동일한 지점을 나타내는 특징점을 매칭한다.The feature point extraction and matching unit (510) extracts the same pixels as feature points from multiple input images even when the images are rotated, changed in brightness, or translated, and matches feature points representing the same point among the extracted feature points.
공통 영역 추정부(520)는 매칭된 특징점을 포함하는 공통 영역을 설정한다.The common area estimation unit (520) sets a common area including matched feature points.
호모그래피 추정부(530)는 공통 영역에서 매칭된 특징점 간에 위치 관계를 통해 호모그래피를 추정한다.The homography estimation unit (530) estimates homography through the positional relationship between matched feature points in a common area.
와핑부(540)는 호모그래피를 이용하여 입력 영상 간에 시차가 최소화되록 와핑을 적용한다.The warping unit (540) applies warping using homography to minimize parallax between input images.
본 발명의 영상 등록부(500)는 복수의 입력 영상 간에 공통 영역과 호모그래피 정보를 획득하기 위한 절차로써, 상기에 언급한 절차만으로 그 활용이 제한되지 않는다.The image registration unit (500) of the present invention is a procedure for obtaining common areas and homography information between multiple input images, and its utilization is not limited to the procedure mentioned above.
도 6은 본 발명의 일실시예에 따른 동영상 스티칭 장치의 경계선 재생성부를 설명하기 위한 도면이다.FIG. 6 is a drawing for explaining a boundary regeneration unit of a video stitching device according to an embodiment of the present invention.
도 6은 본 발명의 일실시예에 따른 동영상 스티칭 장치의 경계선 재생성부의 구성 요소를 예시한다.FIG. 6 illustrates components of a boundary regeneration unit of a video stitching device according to an embodiment of the present invention.
도 6을 참고하면, 본 발명의 일실시예에 따른 동영상 스티칭 장치의 경계선 재생성부(600)는 깊이 정보 계산부(610), 깊이 마스크 생성부(620), 잔차 마스크 생성부(630), 경계선 검사부(640) 및 경계선 재생성부(650)를 포함한다.Referring to FIG. 6, a boundary line regeneration unit (600) of a video stitching device according to an embodiment of the present invention includes a depth information calculation unit (610), a depth mask generation unit (620), a residual mask generation unit (630), a boundary line inspection unit (640), and a boundary line regeneration unit (650).
일례로, 깊이 정보 계산부(610)는 복수의 입력 영상에 대하여 시차에 따른 깊이 정보를 계산한다.For example, the depth information calculation unit (610) calculates depth information according to parallax for multiple input images.
깊이 정보는 경계선 생성 행렬에 따른 경계선 위치 정보 추출에 이용된다.Depth information is used to extract boundary location information according to the boundary generation matrix.
깊이 마스크 생성부(620)는 경계선 위치 정보와 깊이 정보 행렬에 기반하여 깊이 마스크를 생성한다.The depth mask generation unit (620) generates a depth mask based on boundary position information and a depth information matrix.
깊이 마스크 생성부(620)는 깊이 정보 행렬을 N 비트 양자화하고, 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보를 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 깊이 마스크를 생성한다.The depth mask generation unit (620) quantizes the depth information matrix into N bits and generates a depth mask by indicating the position information of a synthetic boundary line generated along a path with a minimum cumulative sum of the boundary line generation matrix as a delimiter for the quantized depth information matrix.
깊이 마스크는 새로운 합성 경계선을 생성해야하는 경우에만 새로운 깊이 마스크로 초기화되며, 새로운 합성 경계선을 생성할 필요가 없는 경우에는 해당 값이 유지된다.The depth mask is initialized to a new depth mask only when a new composite boundary needs to be generated, and its value is kept otherwise.
잔차 마스크 생성부(630)는 복수의 입력 영상에서 연속되는 두 개의 영상인 제N-1 영상과 제N 영상의 차이 값의 크기를 통해 잔차 영상을 생성하고, 생성된 잔차 영상에 대하여 침식과 팽창을 통해 생성된 잔차 영상의 노이즈를 제거하며, 노이즈가 제거된 잔차 영상에 대하여 임계값(θth)을 기준으로 이진화하여 잔차 마스크를 생성한다.The residual mask generation unit (630) generates a residual image through the size of the difference value between the N-1th image and the Nth image, which are two consecutive images from a plurality of input images, removes noise from the generated residual image through erosion and dilation, and generates a residual mask by binarizing the residual image from which noise has been removed based on a threshold value (θ th ).
경계선 검사부(640)는 깊이 마스크에서 경계선의 위치 정보와 깊이 정보 그리고 잔차 마스크에 적용되는 윈도우 크기 내의 "1"의 개수를 오류 임계값과 비교하여 경계선의 재생성 여부를 검사한다.The boundary inspection unit (640) compares the position information and depth information of the boundary in the depth mask and the number of “1”s within the window size applied to the residual mask with an error threshold value to check whether the boundary is regenerated.
경계선 재생성부(650)는 경계선 검사 결과에 따라 경계선의 재생성 요청을 경계선 생성부에 전달하여 경계선이 재생성되도록한다.The boundary line regeneration unit (650) transmits a boundary line regeneration request to the boundary line generation unit based on the boundary line inspection result so that the boundary line is regenerated.
따라서, 본 발명은 단일의 합성 경계선을 통해서 동영상을 합성하는 경우에 스티칭된 동영상에서 시차 왜곡이 발생하는 확률을 감소시키기 위하여 시차 왜곡이 발생할 수 있는 동영상 프레임에 대하여 합성 경계선을 재생성하여 시차 왜곡 발생 확률을 낮출 수 있다.Accordingly, the present invention can reduce the probability of parallax distortion occurring in a stitched video when synthesizing a video through a single synthesis boundary line by regenerating a synthesis boundary line for a video frame in which parallax distortion may occur, thereby reducing the probability of parallax distortion occurring.
도 7은 본 발명의 일실시예에 따른 경계선 재생성부에서 계산된 깊이 정보를 설명하기 위한 도면이다.FIG. 7 is a drawing for explaining depth information calculated in a boundary line regeneration unit according to one embodiment of the present invention.
도 7은 본 발명의 일실시예에 따른 경계선 재생성부에서 계산된 깊이 정보를 예시한다.Figure 7 illustrates depth information calculated in a boundary line regeneration unit according to one embodiment of the present invention.
도 7을 참고하면, 이미지(700)는 입력 영상을 나타내고, 이미지(710)는 깊이 정보 영상을 나타낸다.Referring to FIG. 7, image (700) represents an input image and image (710) represents a depth information image.
이미지(700)에 대한 깊이 정보 영상은 이미지(710)일 수 있다.The depth information image for the image (700) may be the image (710).
깊이 정보 행렬은 N비트 양자화가 진행되며, 이때 거리가 가까울수록 작은 값으로 설정하거나 큰 값으로 설정할 수 있다.The depth information matrix undergoes N-bit quantization, and can be set to a smaller or larger value as the distance gets closer.
깊이 정보 계산 과정은 깊이 정보 생성 방법에 따라 제한 받지 않는다..The depth information calculation process is not limited by the depth information generation method.
적어도 2장의 입력 영상으로부터 시차를 활용하여 계산하거나 딥러닝 기반 깊이 정보 예측기를 활용하여 단일 영상으로부터 추출할 수 있다.It can be calculated by utilizing the parallax from at least two input images, or extracted from a single image using a deep learning-based depth information predictor.
도 8은 본 발명의 일실시예에 따른 경계선 재생성부에서 깊이 마스크를 생성하는 절차를 설명하기 위한 도면이다.FIG. 8 is a drawing for explaining a procedure for generating a depth mask in a boundary line regeneration unit according to an embodiment of the present invention.
도 8은 본 발명의 일실시예에 따른 경계선 재생성부에서 깊이 마스크를 생성하는 절차를 예시한다.FIG. 8 illustrates a procedure for generating a depth mask in a boundary regeneration unit according to an embodiment of the present invention.
도 8을 참고하면, 본 발명의 일실시예에 따르면 경계선 재생성부는 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보는 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 깊이 마스크를 생성한다.Referring to FIG. 8, according to one embodiment of the present invention, a boundary line regeneration unit generates a depth mask by indicating position information of a synthetic boundary line generated along a path with a minimum cumulative sum of a boundary line generation matrix as a delimiter for a quantized depth information matrix.
본 발명의 일실시예에 따르면 경계선 재생성부는 경계선 생성 행렬(800)에서 경계선 위치 정보를 추출하여 경계선 위치 정보(810)를 생성한다.According to one embodiment of the present invention, a boundary line regeneration unit extracts boundary line location information from a boundary line generation matrix (800) and generates boundary line location information (810).
본 발명의 일실시예에 따르면 경계선 재생성부는 기 생성된 깊이 정보 행렬(820)과 경계선 위치 정보(810)를 결합하여 깊이 마스크(830)를 생성한다.According to one embodiment of the present invention, a boundary line regeneration unit generates a depth mask (830) by combining a previously generated depth information matrix (820) and boundary line position information (810).
도 9는 본 발명의 일실시예에 따른 경계선 재생성부에서 생성된 깊이 마스크의 종류를 설명하기 위한 도면이다.FIG. 9 is a drawing for explaining the types of depth masks generated in a boundary line regeneration unit according to one embodiment of the present invention.
도 9는 본 발명의 일실시예에 따른 경계선 재생성부에서 생성된 깊이 마스크의 종류를 예시한다.FIG. 9 illustrates the types of depth masks generated in a boundary line regeneration unit according to one embodiment of the present invention.
도 9를 참고하면, 제1 깊이 마스크(900)는 가까운 거리 정보로 구성된 깊이 마스크를 나타낼 수 있다.Referring to FIG. 9, the first depth mask (900) may represent a depth mask composed of close distance information.
제2 깊이 마스크(910)는 먼 거리 정보로 구성된 깊이 마스크를 나타낼 수 있다.The second depth mask (910) may represent a depth mask composed of long-distance information.
제3 깊이 마스크(920)는 혼합 거리 정보로 구성된 깊이 마스크를 나타낼 수 있다.The third depth mask (920) may represent a depth mask composed of mixed distance information.
제1 깊이 마스크(900)는 양자화된 비트 크기 "12"로 구성된다.The first depth mask (900) consists of a quantized bit size of “12”.
제2 깊이 마스크(910)는 양자화된 비트 크기"230"로 구성된다.The second depth mask (910) consists of a quantized bit size of “230”.
제3 깊이 마스크(920)는 양자화된 비트 크기 "12"와 "230"로 구성된다.The third depth mask (920) consists of quantized bit sizes “12” and “230”.
양자화된 비트 크기는 거리 정보가 가까울수록 작게 설정될 수 있다.The quantized bit size can be set smaller as the distance information gets closer.
깊이 정보 행렬은 N비트 양자화가 진행되며, 이때 거리가 가까울수록 작은 값으로 설정하거나 큰 값으로 설정할 수 있다.The depth information matrix undergoes N-bit quantization, and can be set to a smaller or larger value as the distance gets closer.
일례로, "0"부터 "1"사이로 나타나는 깊이 정보를 "8"비트로 양자화하는 경우에는 가장 가까운 거리를 나타나는 영역에 대해서는 "0"값이 할당되고, 가장 먼 거리의 영역에는 "255"이 할당된다.For example, when quantizing depth information, which ranges from "0" to "1", into "8" bits, the value "0" is assigned to the area representing the closest distance, and "255" is assigned to the area representing the farthest distance.
반대로, "0"부터 "1"사이로 나타나는 깊이 정보를 8비트로 양자화하는 경우에는 가장 가까운 거리를 나타나는 영역에 대해서는 "255"값이 할당되고, 가장 먼 거리의 영역에는 0이 할당될 수 있다.Conversely, when depth information, which ranges from "0" to "1", is quantized into 8 bits, the area representing the closest distance may be assigned a value of "255", and the area representing the farthest distance may be assigned a value of 0.
도 10은 본 발명의 일실시예에 따른 경계선 재생성부에서 잔차 마스크를 생성하는 절차를 설명하기 위한 도면이다.FIG. 10 is a drawing for explaining a procedure for generating a residual mask in a boundary line regeneration unit according to one embodiment of the present invention.
도 10은 본 발명의 일실시예에 따른 동영상 스티칭 방법이 경계선 재생성부에서 잔차 마스크를 생성하는 절차를 예시한다.FIG. 10 illustrates a procedure for generating a residual mask in a boundary line regeneration section in a video stitching method according to an embodiment of the present invention.
도 10을 참고하면, 단계(S1001)에서 동영상 스티칭 방법은 입력 영상에서 (N-1) 번째와 N 번째 영상의 잔차 영상을 생성한다.Referring to FIG. 10, in step (S1001), the video stitching method generates residual images of the (N-1)th and Nth images from the input image.
동영상 스티칭 방법은 입력 영상에서 (N-1)번째 프레임과 N번째 프레임이 필요하고, (N-1)번째 프레임과 N번째 프레임의 차이 값의 크기를 통해 모션 프레임 영상을 생성한다. 여기서, 모션 프레임 영상은 잔차 영상일 수 있고, 모션 프레임 영상은 수학식 1에 기반하여 결정될 수 있다.The video stitching method requires the (N-1)th frame and the Nth frame from the input video, and generates a motion frame image through the size of the difference value between the (N-1)th frame and the Nth frame. Here, the motion frame image may be a residual image, and the motion frame image may be determined based on mathematical expression 1.
[수학식 1][Mathematical formula 1]
수학식 1에서, MotN은 모션 프레임 영상을 나타낼 수 있고, ??N은 N번째 프레임을 나타낼 수 있으며, ??N-1은 (N-1)번째 프레임을 나타낼 수 있다.In mathematical expression 1, Mot N can represent a motion frame image, ?? N can represent the Nth frame, and ?? N-1 can represent the (N-1)th frame.
단계(S1002)에서 동영상 스티칭 방법은 잔차 영상에 대하여 침식과 팽창 처리 적용한다.In step (S1002), the video stitching method applies erosion and dilation processing to the residual image.
동영상 스티칭 방법은 모션 프레임 영상에 대하여 시차 왜곡이 발생할 수 있는지를 판단하기 위하여 사물의 이동을 계산하지만 촬영하는 카메라의 조도 환경이나 카메라의 흔들림 등으로 인해 노이즈가 포함되는데 이를 제거한다.The video stitching method calculates the movement of objects to determine whether parallax distortion may occur in motion frame images, but noise is included due to the lighting environment of the shooting camera or camera shake, and this is removed.
단계(S1003)에서 동영상 스티칭 방법은 침식과 팽창이 적용된 잔차 영상에 대하여 이진화 적용한다.In step (S1003), the video stitching method applies binarization to the residual image to which erosion and dilation have been applied.
모션 프레임 영상(MotN)에 대하여 임계값(θth)을 기준으로 이진화하여 잔차 마스크(MR)를 형성하기 위한 수학식 2는 아래와 같이 정리할 수 있다.Mathematical expression 2 for forming a residual mask (M R ) by binarizing a motion frame image (Mot N ) based on a threshold value (θ th ) can be organized as follows.
[수학식 2][Mathematical formula 2]
수학식 2에서, MR은 잔차 마스크를 나타낼 수 있고, θth는 임계값을 나타낼 수 있으며, MotN는 모션 프레임 영상을 나타낼 수 있다.In mathematical expression 2, M R can represent a residual mask, θ th can represent a threshold, and Mot N can represent a motion frame image.
잔차 마스크는 수학식 1 및 2에 기반하여 "0"과 "1"로 구성된다.The residual mask consists of “0” and “1” based on mathematical expressions 1 and 2.
도 11은 본 발명의 일실시예에 따른 경계선 재생성부에서 잔차 마스크 생성 과정에서 생성되는 예시 영상을 설명하기 위한 도면이다.FIG. 11 is a drawing for explaining an example image generated in a residual mask generation process in a boundary line regeneration unit according to one embodiment of the present invention.
도 11을 참고하면, 이미지(1100)는 N-1 번째 프레임을 나타내고, 이미지(1101)는 N번째 프레임을 나타낼 수 있다.Referring to FIG. 11, image (1100) may represent the N-1th frame, and image (1101) may represent the Nth frame.
이미지(1110)는 잔차 프레임 영상을 나타낼 수 있고, 이미지(1111)는 침식 및 팽창 적용 영상을 나타낼 수 있으며, 이미지(1112)는 이진화 적용 영상을 나타낼 수 있다.Image (1110) may represent a residual frame image, image (1111) may represent an image to which erosion and dilation have been applied, and image (1112) may represent an image to which binarization has been applied.
도 12는 본 발명의 일실시예에 따른 경계선 재생성부의 경계선 검사 절차를 설명하기 위한 도면이다.FIG. 12 is a drawing for explaining a boundary inspection procedure of a boundary regeneration unit according to one embodiment of the present invention.
도 12는 본 발명의 일실시예에 따른 경계선 재생성부의 경계선 검사 절차를 예시한다.FIG. 12 illustrates a boundary inspection procedure of a boundary regeneration unit according to one embodiment of the present invention.
도 12를 참고하면, 본 발명의 일실시예에 따른 경계선 재생성부의 경계선 검사 절차는 깊이 마스크(1200)와 이진화된 잔차 마스크(1210)를 이용하여 수행된다.Referring to FIG. 12, the boundary inspection procedure of the boundary regeneration unit according to one embodiment of the present invention is performed using a depth mask (1200) and a binarized residual mask (1210).
깊이 마스크(1200)에 구분자로 표시된 합성 경계선 중 한 노드(1201)의 X좌표와 Y좌표를 중점으로 T x T 크기의 윈도우(1211) 영역 내의 잔차 마스크(1210)의 누적 값(Z)을 계산한다. 수학식 3은 아래와 같이 정리 될 수 있다.The accumulated value (Z) of the residual mask (1210) within a window (1211) of size T x T is calculated, focusing on the X-coordinate and Y-coordinate of one node (1201) among the synthetic boundaries indicated by delimiters in the depth mask (1200). Mathematical expression 3 can be organized as follows.
[수학식 3][Mathematical formula 3]
수학식 3에서, Z는 누적 값을 나타낼 수 있고, MR은 잔차 마스크를 나타낼 수 있다.In mathematical expression 3, Z can represent a cumulative value, and M R can represent a residual mask.
여기서, 윈도우(1211) 영역의 크기는 실험적으로 조절 가능하고, 해당 비디오 프레임에서 합성 경계선을 재생성해야 하는지를 판단하는 것은 수학식 4에서 나타나는 바와 같이 경계선 검사 절차는 윈도우 영역 내의 잔차 마스크(1210)에서 "1"의 개수를 윈도우 크기(T)의 제곱으로 나눈 값이 오류 임계값(θerr)보다 클 때 합성 경계선을 재 생성하는 것으로 결정한다. 수학식 4는 아래와 같이 정리 될 수 있다.Here, the size of the window (1211) region is experimentally adjustable, and the boundary checking procedure, as shown in Equation 4, determines whether the synthetic boundary should be regenerated in the corresponding video frame by determining to regenerate the synthetic boundary when the number of "1"s in the residual mask (1210) within the window region divided by the square of the window size (T) is greater than the error threshold (θ err ). Equation 4 can be summarized as follows.
[수학식 4][Mathematical Formula 4]
수학식 4에서, Z는 누적 값을 나타낼 수 있고, T는 윈도우 크기를 나타낼 수 있으며, θerr는 오류 임계값을 나타낼 수 있다.In mathematical expression 4, Z can represent an accumulated value, T can represent a window size, and θ err can represent an error threshold.
경계선 재생성 과정은 경계선 검사 과정에서 경계선 재생성 과정에서는 앞선 경계선 검사 과정에서 해당 비디오 프레임에서의 결정 값이 거짓(False)인 경우 경계선을 재생성하고, 진실(True)인 경우에는 이전에 생성된 합성 경계선을 유지한다.The boundary regeneration process regenerates the boundary if the decision value in the corresponding video frame in the previous boundary regeneration process is false, and maintains the previously generated synthetic boundary if it is true.
오류 임계값(θerr)은 오류 민감도(α), 깊이 마스크를 양자화한 비트 크기(N), 합성 경계선의 한 노드의 좌측 깊이 마스크 값(DL) 및 우측 깊이 마스크 값(DR)을 이용하여 계산된다. 이는 수학식 5와 같이 정리할 수 있다.The error threshold (θ err ) is calculated using the error sensitivity (α), the bit size (N) of the quantized depth mask, the left depth mask value (D L ) and the right depth mask value (D R ) of one node of the synthetic boundary. This can be organized as shown in Equation 5.
[수학식 5][Mathematical Formula 5]
순차적으로 진행할 시 다시 경계선을 생성해야하는지 판단은 잔차 마스크에 기반하고, 누적 값은 윈도우 크기(T) 내 "1"의 개수고, 동일한 기준점에서 우측 깊이와 좌측 깊이에서 오류 민감도를 고려하여 N비트 양자화한 비트 크기를 고려하여 결정될 수 있다.When proceeding sequentially, the judgment of whether to generate the boundary line again is based on the residual mask, and the accumulated value is the number of "1"s in the window size (T), and it can be determined by considering the bit size of N-bit quantization considering the error sensitivity at the right depth and the left depth at the same reference point.
동일한 기준점(1201)의 우측 깊이(1203)와 좌측 깊이(1202)이고, 윈도우(1211) 내 누적 값은 6개이다.The right depth (1203) and the left depth (1202) of the same reference point (1201) are 6, and the accumulated value within the window (1211) is 6.
도 13 및 도 14는 본 발명의 일실시예에 따른 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 방법을 설명하기 위한 도면이다.FIGS. 13 and 14 are diagrams for explaining a video stitching method utilizing depth-based synthetic boundary line regeneration according to one embodiment of the present invention.
도 13은 본 발명의 일실시예에 따른 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 방법에 따라 합성 경계선의 재생성 여부를 판단하여 복수의 동영상 프레임에 대하여 선택적으로 합성 경계선을 재생성하여 동영상 스티칭하는 절차를 예시한다.FIG. 13 illustrates a procedure for video stitching by selectively regenerating a synthetic boundary for a plurality of video frames by determining whether to regenerate a synthetic boundary according to a video stitching method utilizing the regeneration of a depth-based synthetic boundary according to one embodiment of the present invention.
도 13을 참고하면, 단계(S1301)에서 본 발명의 일실시예에 따른 동영상 스티칭 방법은 스티칭 대상 영상을 등록한다.Referring to FIG. 13, in step (S1301), a video stitching method according to an embodiment of the present invention registers a stitching target video.
즉, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 동영상 프레임에 대하여 복수의 입력 영상을 수신하여 복수의 입력 영상에 대한 공통 영역 영상을 처리함에 따라 스티칭 대상 영상을 등록한다.That is, a video stitching method according to one embodiment of the present invention receives a plurality of input images for a video frame and registers a stitching target image by processing a common area image for the plurality of input images.
단계(S1302)에서 본 발명의 일실시예에 따른 동영상 스티칭 방법은 경계선 생성 행렬에 기반하여 합성 경계선을 생성한다.In step (S1302), a video stitching method according to an embodiment of the present invention generates a synthetic boundary line based on a boundary line generation matrix.
즉, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 단계(S1301)에서 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성한다.That is, a video stitching method according to an embodiment of the present invention constructs a boundary line generation matrix through characteristic information on a stitching target image registered in step (S1301), and generates a synthetic boundary line based on the constructed boundary line generation matrix.
단계(S1303)에서 본 발명의 일실시예에 따른 동영상 스티칭 방법은 깊이 마스크 및 잔차 마스크를 생성하고, 깊이 마스크와 잔차 마스크를 이용하여 경계선의 재생성 여부를 결정한다.In step (S1303), a video stitching method according to an embodiment of the present invention generates a depth mask and a residual mask, and determines whether to regenerate a boundary line using the depth mask and the residual mask.
즉, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 추출된 경계선 위치 정보와 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 생성된 깊이 마스크와 생성된 잔차 마스크를 이용하여 생성된 합성 경계선의 재생성 여부를 결정한다.That is, a video stitching method according to an embodiment of the present invention calculates a depth information matrix according to parallax for a plurality of input images, extracts boundary position information according to a boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask.
단계(S1304)에서 본 발명의 일실시예에 따른 동영상 스티칭 방법은 합성 경계선에 기반하여 복수의 입력 영상을 합성한다.In step (S1304), a video stitching method according to an embodiment of the present invention synthesizes multiple input images based on a synthetic boundary line.
즉, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 기 생성된 합성 경계선 및 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 복수의 입력 영상을 합성할 수 있다.That is, a video stitching method according to one embodiment of the present invention can synthesize a plurality of input images based on one of a previously generated synthetic boundary line and a synthetic boundary line regenerated according to a regeneration decision.
따라서, 본 발명은 모든 동영상 프레임에 대하여 합성 경계선을 새로 생성하지 않고, 특정한 규칙에 의해 선택된 동영상 프레임에 대해서만 합성 경계선을 생성하기에 보다 빠르게 동영상을 스티칭할 수 있다.Therefore, the present invention can stitch videos more quickly by generating synthetic boundaries only for video frames selected by specific rules, rather than generating new synthetic boundaries for all video frames.
도 14는 본 발명의 일실시예에 따른 깊이 기반 합성 경계선의 재생성을 활용한 동영상 스티칭 방법에 따라 깊이 마스크 생성 절차를 선택적으로 수행하여 동영상 스티칭을 수행하는 절차를 예시한다.FIG. 14 illustrates a procedure for performing video stitching by selectively performing a depth mask generation procedure according to a video stitching method utilizing regeneration of a depth-based synthetic boundary line according to one embodiment of the present invention.
도 14를 참고하면, 단계(S1401)에서 본 발명의 일실시예에 따른 동영상 스티칭 방법은 이전 동영상 프레임에서 합성 경계선이 새로 생성되었는지 여부를 판단한다.Referring to FIG. 14, in step (S1401), a video stitching method according to an embodiment of the present invention determines whether a synthetic boundary line is newly generated in a previous video frame.
본 발명의 일실시예에 따른 동영상 스티칭 방법은 합성 경계선이 새로 생긴 경우에는 단계(S1402)로 진행하고, 합성 경계선이 새로 생기지 않은 경우에는 단계(S1403)으로 진행한다.A video stitching method according to one embodiment of the present invention proceeds to step (S1402) if a new synthetic boundary line is created, and proceeds to step (S1403) if a new synthetic boundary line is not created.
단계(S1402)에서, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 공통 영역 영상에서 깊이 정보를 계산 및 추출한다.In step (S1402), a video stitching method according to an embodiment of the present invention calculates and extracts depth information from a common area image.
단계(S1403)에서, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 깊이 마스크를 생성한다.In step (S1403), a video stitching method according to an embodiment of the present invention generates a depth mask.
즉, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 깊이 정보 계산 및 깊이 마스크 생성은 이전 동영상 프레임에서 합성 경계선이 새로 생성된 경우에만 수행한다.That is, the video stitching method according to one embodiment of the present invention performs depth information calculation and depth mask generation only when a synthetic boundary line is newly generated from a previous video frame.
단계(S1404)에서, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 잔차 마스크를 생성한다.In step (S1404), a video stitching method according to an embodiment of the present invention generates a residual mask.
단계(S1405)에서, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 경계선 검사에 기반하여 경계선 재생성 여부를 판단한다.In step (S1405), a video stitching method according to an embodiment of the present invention determines whether a boundary line is regenerated based on boundary line inspection.
본 발명의 일실시예에 따른 동영상 스티칭 방법은 경계선이 재생성이 결정되면 단계(S1406)으로 진행하여 경계선을 재생성하고, 재생성되지 않으면 이전에 생성된 경계선에 기반하여 단계(S1407)에서 입력영상들을 합성한다.A video stitching method according to one embodiment of the present invention proceeds to step (S1406) to regenerate the boundary line if it is determined that the boundary line is to be regenerated, and if not, input images are synthesized at step (S1407) based on the previously generated boundary line.
즉, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 합성 경계선을 재생성할지 또는 기존 합성 경계선을 유지할지 결정한다.That is, a video stitching method according to one embodiment of the present invention determines whether to regenerate a synthetic boundary line or maintain an existing synthetic boundary line.
단계(S1408)에서 본 발명의 일실시예에 따른 동영상 스티칭 방법은 모든 동영상 프레임을 스티칭했는지 여부를 판단한다.In step (S1408), a video stitching method according to an embodiment of the present invention determines whether all video frames have been stitched.
본 발명의 일실시예에 따른 동영상 스티칭 방법은 동영상에 포함되는 모든 동영상 프레임에서 입력 영상들이 스티칭된 경우에는 해당 절차를 종료하고, 반대로, 스티칭 대상이 남았다면 단계(S1401)로 돌아간다.A video stitching method according to one embodiment of the present invention ends the procedure when input images are stitched in all video frames included in a video, and conversely, when there are stitching targets remaining, the procedure returns to step (S1401).
즉, 본 발명의 일실시예에 따른 동영상 스티칭 방법은 모든 동영상 프레임에 대하여 스티칭이 종료될 때까지 반복한다.That is, the video stitching method according to one embodiment of the present invention is repeated until stitching is completed for all video frames.
따라서, 본 발명은 깊이 정보에 기반한 깊이 마스크에서 탐사(search) 정도를 다르게 설정하여 영상 스티칭의 속도 및 정확도를 제어할 수 있다.Therefore, the present invention can control the speed and accuracy of image stitching by setting different search levels in a depth mask based on depth information.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be implemented using one or more general-purpose computers or special-purpose computers, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding to them. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For ease of understanding, the processing device is sometimes described as being used alone, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. For example, the processing unit may include multiple processors, or a processor and a controller. Other processing configurations, such as parallel processors, are also possible.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program commands, data files, data structures, etc., alone or in combination. The program commands recorded on the medium may be those specially designed and configured for the embodiment or may be those known to and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program commands such as ROMs, RAMs, flash memories, etc. Examples of the program commands include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiment, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing device to perform a desired operation or may, independently or collectively, command the processing device. The software and/or data may be permanently or temporarily embodied in any type of machine, component, physical device, virtual equipment, computer storage medium or device, or transmitted signal waves, for interpretation by the processing device or for providing instructions or data to the processing device. The software may also be distributed over network-connected computer systems and stored or executed in a distributed manner. The software and data may be stored on one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art will appreciate that various modifications and variations may be made from the above teachings. For example, appropriate results may be achieved even if the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or are replaced or substituted by other components or equivalents.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also included in the scope of the claims described below.
400: 동영상 스티칭 장치
410: 영상 등록부 420: 경계선 생성부
430: 경계선 재생성부 440: 영상 합성부400: Video Stitching Device
410: Image registration unit 420: Boundary generation unit
430: Boundary Regeneration Section 440: Image Synthesis Section
Claims (12)
상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부;
상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부; 및
상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함하고,
상기 경계선 재생성부는 상기 복수의 입력 영상에서 상기 연속되는 두 개의 영상인 제N-1 영상과 제N 영상의 차이 값의 크기를 통해 잔차 영상을 생성하고, 상기 생성된 잔차 영상에 대하여 침식과 팽창을 통해 상기 생성된 잔차 영상의 노이즈를 제거하며, 상기 노이즈가 제거된 잔차 영상에 대하여 임계값(θth)을 기준으로 이진화하여 상기 잔차 마스크를 생성하는 것을 특징으로 하는 것을 특징으로 하는
동영상 스티칭 장치.An image registration unit that receives multiple input images for a video frame and registers a stitching target image by processing a common area image for the multiple input images;
A boundary generation unit which constructs a boundary generation matrix using characteristic information on the registered stitching target image, and generates a synthetic boundary line based on the constructed boundary generation matrix;
A boundary line regeneration unit that calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
An image synthesis unit is included that synthesizes the plurality of input images based on one of the synthetic boundary lines generated above and the synthetic boundary lines re-generated according to the regeneration decision.
The above boundary line regeneration unit is characterized in that it generates a residual image through the size of the difference value between the N-1th image and the Nth image, which are two consecutive images, from the plurality of input images, and removes noise from the generated residual image through erosion and dilation, and generates the residual mask by binarizing the residual image from which the noise has been removed based on a threshold value (θ th ).
Video stitching device.
상기 경계선 재생성부는 상기 깊이 정보 행렬을 N 비트 양자화하고, 상기 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보를 상기 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 상기 깊이 마스크를 생성하는 것을 특징으로 하는
동영상 스티칭 장치.In the first paragraph,
The above boundary line regeneration unit is characterized in that it quantizes the depth information matrix into N bits and generates the depth mask by indicating the position information of the synthetic boundary line generated along the path with the minimum cumulative sum of the boundary line generation matrix as a delimiter for the quantized depth information matrix.
Video stitching device.
상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부;
상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부; 및
상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함하고,
상기 경계선 재생성부는 상기 깊이 정보 행렬을 N 비트 양자화하고, 상기 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보를 상기 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 상기 깊이 마스크를 생성하며,
상기 생성된 깊이 마스크는 상기 생성된 합성 경계선에 인접한 깊이 정보 값의 분포에 따라 구분되고, 상기 생성된 합성 경계선이 재생성되는 경우에는 초기화되며, 상기 생성된 합성 경계선이 유지되는 경우에는 유지되는 것을 특징으로 하는
동영상 스티칭 장치.An image registration unit that receives multiple input images for a video frame and registers a stitching target image by processing a common area image for the multiple input images;
A boundary generation unit which constructs a boundary generation matrix using characteristic information on the registered stitching target image, and generates a synthetic boundary line based on the constructed boundary generation matrix;
A boundary line regeneration unit that calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
An image synthesis unit is included that synthesizes the plurality of input images based on one of the synthetic boundary lines generated above and the synthetic boundary lines re-generated according to the regeneration decision.
The above boundary line regeneration unit quantizes the depth information matrix into N bits, and generates the depth mask by indicating the position information of the synthetic boundary line generated along the path with the minimum cumulative sum of the boundary line generation matrix as a delimiter for the quantized depth information matrix.
The generated depth mask is characterized in that it is distinguished according to the distribution of depth information values adjacent to the generated synthetic boundary line, and is initialized when the generated synthetic boundary line is regenerated, and is maintained when the generated synthetic boundary line is maintained.
Video stitching device.
상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부;
상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부; 및
상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함하고,
상기 경계선 재생성부는 상기 깊이 마스크에 구분자로 표시된 합성 경계선 중 한 노드의 X좌표와 Y좌표를 중점으로 일정 크기(T×T)의 윈도우를 설정하고, 상기 설정된 윈도우를 상기 잔차 마스크에 적용하여 상기 윈도우 내 상기 잔차 마스크에서 "1"의 개수를 카운팅하며, 상기 카운팅된 개수를 상기 윈도우의 크기의 제곱으로 나눈 값을 오류 임계값(θerr)과 비교하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 것을 특징으로 하는
동영상 스티칭 장치.An image registration unit that receives multiple input images for a video frame and registers a stitching target image by processing a common area image for the multiple input images;
A boundary line generation unit which constructs a boundary line generation matrix using characteristic information on the registered stitching target image, and generates a synthetic boundary line based on the constructed boundary line generation matrix;
A boundary line regeneration unit that calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
An image synthesis unit is included that synthesizes the plurality of input images based on one of the synthetic boundary lines generated above and the synthetic boundary lines re-generated according to the regeneration decision.
The above boundary line regeneration unit sets a window of a certain size (T×T) centered on the X-coordinate and Y-coordinate of one node of the synthetic boundary line indicated by a delimiter in the depth mask, applies the set window to the residual mask, counts the number of "1"s in the residual mask within the window, and compares the value obtained by dividing the counted number by the square of the size of the window with an error threshold value (θ err ) to determine whether to regenerate the generated synthetic boundary line.
Video stitching device.
상기 오류 임계값(θerr)은 오류 민감도(α), 상기 깊이 마스크를 양자화한 비트 크기(N), 상기 합성 경계선의 한 노드의 좌측 깊이 마스크 값(DL) 및 우측 깊이 마스크 값(DR)을 이용하여 계산되는 것을 특징으로 하는
동영상 스티칭 장치.In paragraph 5,
The above error threshold value (θ err ) is characterized in that it is calculated using the error sensitivity (α), the bit size (N) of the quantized depth mask, the left depth mask value (D L ) of one node of the synthetic boundary line, and the right depth mask value (D R ).
Video stitching device.
상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부;
상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부; 및
상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함하고,
상기 영상 등록부는 상기 복수의 입력 영상에서 영상의 회전, 밝기 변화, 이동 변환에도 동일한 픽셀을 특징점들로 추출하고, 상기 추출된 특징점들에서 동일한 지점을 나타내는 특징점을 매칭하고, 상기 매칭된 특징점을 포함하는 공통 영역을 설정하며, 상기 공통 영역에서 상기 매칭된 특징점 간에 위치 관계를 통해 호모그래피를 추정하며, 상기 추정된 호모그래피를 이용하여 상기 입력 영상 간에 시차가 최소화되도록 와핑을 적용하여 상기 공통 영역 영상을 처리하는 것을 특징으로 하는
동영상 스티칭 장치.An image registration unit that receives multiple input images for a video frame and registers a stitching target image by processing a common area image for the multiple input images;
A boundary generation unit which constructs a boundary generation matrix using characteristic information on the registered stitching target image, and generates a synthetic boundary line based on the constructed boundary generation matrix;
A boundary line regeneration unit that calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
An image synthesis unit is included that synthesizes the plurality of input images based on one of the synthetic boundary lines generated above and the synthetic boundary lines re-generated according to the regeneration decision.
The image registration unit extracts the same pixels as feature points from the plurality of input images even when the images are rotated, changed in brightness, or translated, matches feature points representing the same point from the extracted feature points, sets a common area including the matched feature points, estimates homography through a positional relationship between the matched feature points in the common area, and processes the common area image by applying warping so that the parallax between the input images is minimized using the estimated homography.
Video stitching device.
상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부;
상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부; 및
상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함하고,
상기 경계선 생성부는 상기 처리된 공통 영역 영상에 대하여 가로축 및 세로축에 대한 픽셀 변화량 크기를 통해 에너지 함수를 계산하고, 상기 계산된 에너지 함수를 상기 특성 정보 중 에너지 정보로 추출하며, 상기 복수의 입력 영상에서 동일한 지점 간의 위치 차이를 통해 상기 처리된 공통 영역 영상에서 상기 특성 정보 중 깊이 정보를 추출하고, 상기 추출된 에너지 정보와 상기 추출된 깊이 정보에 기반하여 상기 경계선 생성 행렬을 구성하는 것을 특징으로 하는
동영상 스티칭 장치.An image registration unit that receives multiple input images for a video frame and registers a stitching target image by processing a common area image for the multiple input images;
A boundary line generation unit which constructs a boundary line generation matrix using characteristic information on the registered stitching target image, and generates a synthetic boundary line based on the constructed boundary line generation matrix;
A boundary line regeneration unit that calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
An image synthesis unit is included that synthesizes the plurality of input images based on one of the synthetic boundary lines generated above and the synthetic boundary lines re-generated according to the regeneration decision.
The above boundary line generation unit calculates an energy function through the pixel change amount sizes for the horizontal and vertical axes for the processed common area image, extracts the calculated energy function as energy information among the characteristic information, extracts depth information among the characteristic information from the processed common area image through the positional difference between the same points in the plurality of input images, and configures the boundary line generation matrix based on the extracted energy information and the extracted depth information.
Video stitching device.
상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 경계선 생성부;
상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 경계선 재생성부; 및
상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 영상 합성부를 포함하고,
상기 영상 합성부는 상기 동영상 프레임에서 상기 복수의 입력 영상에 대한 스티칭 결과를 확인하고, 상기 확인된 스티칭 결과에서 상기 복수의 입력 영상이 모두 스티칭되지 않은 경우에는 상기 합성 경계선의 재생성 여부 판단 요청을 진행하며, 상기 복수의 입력 영상이 모두 스티칭된 경우에는 상기 동영상 프레임의 다음 동영상 프레임에 대한 스티칭 대상 영상의 등록 요청을 진행하는 것을 특징으로 하는
동영상 스티칭 장치.An image registration unit that receives multiple input images for a video frame and registers a stitching target image by processing a common area image for the multiple input images;
A boundary line generation unit which constructs a boundary line generation matrix using characteristic information on the registered stitching target image, and generates a synthetic boundary line based on the constructed boundary line generation matrix;
A boundary line regeneration unit that calculates a depth information matrix according to parallax for the plurality of input images, extracts boundary line position information according to the boundary line generation matrix, generates a depth mask based on the extracted boundary line position information and the depth information matrix, generates a residual mask using two consecutive images from the plurality of input images, and determines whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
An image synthesis unit is included that synthesizes the plurality of input images based on one of the synthetic boundary lines generated above and the synthetic boundary lines re-generated according to the regeneration decision.
The above image synthesis unit checks the stitching result for the plurality of input images in the video frame, and if the plurality of input images are not all stitched in the checked stitching result, it requests a determination on whether to regenerate the synthesis boundary line, and if the plurality of input images are all stitched, it requests registration of the stitching target image for the next video frame of the video frame.
Video stitching device.
경계선 생성부에서, 상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 단계;
경계선 재생성부에서, 상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계; 및
영상 합성부에서, 상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 단계를 포함하고,
상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계는,
상기 복수의 입력 영상에서 상기 연속되는 두 개의 영상인 제N-1 영상과 제N 영상의 차이 값의 크기를 통해 잔차 영상을 생성하고, 상기 생성된 잔차 영상에 대하여 침식과 팽창을 통해 상기 생성된 잔차 영상의 노이즈를 제거하며, 상기 노이즈가 제거된 잔차 영상에 대하여 임계값(θth)을 기준으로 이진화하여 상기 잔차 마스크를 생성하는 단계를 포함하는 것을 특징으로 하는
동영상 스티칭 방법.In an image registration unit, a step of receiving a plurality of input images for a video frame and registering a stitching target image by processing a common area image for the plurality of input images;
In the boundary line generation unit, a step of configuring a boundary line generation matrix through characteristic information for the registered stitching target image, and generating a synthetic boundary line based on the configured boundary line generation matrix;
In a boundary line regeneration unit, a step of calculating a depth information matrix according to parallax for the plurality of input images, extracting boundary line position information according to the boundary line generation matrix, generating a depth mask based on the extracted boundary line position information and the depth information matrix, generating a residual mask using two consecutive images from the plurality of input images, and determining whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
In the image synthesis unit, a step of synthesizing the plurality of input images based on one of the generated synthesis boundary lines and the regenerated synthesis boundary lines according to the regeneration decision is included,
The step of determining whether to regenerate the above-mentioned generated synthetic boundary line is:
It is characterized by including a step of generating a residual image through the size of the difference value between the N-1th image and the Nth image, which are two consecutive images from the plurality of input images, removing noise from the generated residual image through erosion and dilation, and generating the residual mask by binarizing the residual image from which the noise has been removed based on a threshold value (θ th ).
How to stitch videos.
상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계는,
상기 깊이 정보 행렬을 N 비트 양자화하고, 상기 경계선 생성 행렬의 누적 합이 최소인 경로를 따라서 생성된 합성 경계선의 위치 정보를 상기 양자화된 깊이 정보 행렬에 대하여 구분자로 표시하여 상기 깊이 마스크를 생성하는 단계를 포함하는 것을 특징으로 하는
동영상 스티칭 방법.In Article 10,
The step of determining whether to regenerate the above-mentioned generated synthetic boundary line is:
A method characterized by comprising the step of generating the depth mask by quantizing the depth information matrix into N bits and indicating the position information of the synthetic boundary line generated along the path with the minimum cumulative sum of the boundary line generation matrix as a delimiter for the quantized depth information matrix.
How to stitch videos.
경계선 생성부에서, 상기 등록된 스티칭 대상 영상에 대한 특성 정보를 통해 경계선 생성 행렬을 구성하고, 상기 구성된 경계선 생성 행렬에 기반하여 합성 경계선을 생성하는 단계;
경계선 재생성부에서, 상기 복수의 입력 영상에 대한 시차(parallax)에 따른 깊이 정보 행렬을 계산하고, 상기 경계선 생성 행렬에 따른 경계선 위치 정보를 추출하며, 상기 추출된 경계선 위치 정보와 상기 깊이 정보 행렬에 기반한 깊이 마스크를 생성하고, 상기 복수의 입력 영상에서 연속되는 두 개의 영상을 이용하여 잔차 마스크를 생성하며, 상기 생성된 깊이 마스크와 상기 생성된 잔차 마스크를 이용하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계; 및
영상 합성부에서, 상기 생성된 합성 경계선 및 상기 재생성 결정에 따라 재 생성된 합성 경계선 중 어느 하나의 합성 경계선에 기반하여 상기 복수의 입력 영상을 합성하는 단계를 포함하고,
상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계는,
상기 깊이 마스크에 구분자로 표시된 합성 경계선 중 한 노드의 X좌표와 Y좌표를 중점으로 일정 크기(T×T)의 윈도우를 설정하고, 상기 설정된 윈도우를 상기 잔차 마스크에 적용하여 상기 윈도우 내 상기 잔차 마스크에서 "1"의 개수를 카운팅하며, 상기 카운팅된 개수를 상기 윈도우의 크기의 제곱으로 나눈 값을 오류 임계값(θerr)과 비교하여 상기 생성된 합성 경계선의 재생성 여부를 결정하는 단계를 포함하는 것을 특징으로 하는
동영상 스티칭 방법.In an image registration unit, a step of receiving a plurality of input images for a video frame and registering a stitching target image by processing a common area image for the plurality of input images;
In the boundary line generation unit, a step of configuring a boundary line generation matrix through characteristic information on the registered stitching target image, and generating a synthetic boundary line based on the configured boundary line generation matrix;
In a boundary line regeneration unit, a step of calculating a depth information matrix according to parallax for the plurality of input images, extracting boundary line position information according to the boundary line generation matrix, generating a depth mask based on the extracted boundary line position information and the depth information matrix, generating a residual mask using two consecutive images from the plurality of input images, and determining whether to regenerate the generated synthetic boundary line using the generated depth mask and the generated residual mask; and
In the image synthesis unit, a step of synthesizing the plurality of input images based on one of the generated synthesis boundary lines and the regenerated synthesis boundary lines according to the regeneration decision is included,
The step of determining whether to regenerate the above-mentioned generated synthetic boundary line is:
A method for generating a synthetic boundary line, comprising: setting a window of a certain size (T×T) centered on the X-coordinate and Y-coordinate of one node of a synthetic boundary line indicated by a delimiter in the depth mask; applying the set window to the residual mask; counting the number of "1"s in the residual mask within the window; and comparing the value obtained by dividing the counted number by the square of the size of the window with an error threshold value (θ err ) to determine whether to regenerate the generated synthetic boundary line.
How to stitch videos.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230038328A KR102708278B1 (en) | 2023-03-24 | 2023-03-24 | Apparatus and method of video stitching using depth based seam regeneration for seam optimized video stitching |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230038328A KR102708278B1 (en) | 2023-03-24 | 2023-03-24 | Apparatus and method of video stitching using depth based seam regeneration for seam optimized video stitching |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102708278B1 true KR102708278B1 (en) | 2024-09-23 |
Family
ID=92924897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230038328A Active KR102708278B1 (en) | 2023-03-24 | 2023-03-24 | Apparatus and method of video stitching using depth based seam regeneration for seam optimized video stitching |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102708278B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190118662A (en) * | 2017-03-10 | 2019-10-18 | 레이던 컴퍼니 | Symbology Encoding Method of Video Data |
KR102179153B1 (en) | 2014-08-27 | 2020-11-16 | 케어스트림 덴탈 테크놀로지 톱코 리미티드 | Automatic restitching of 3-d surfaces |
KR102271521B1 (en) | 2019-12-31 | 2021-07-01 | 씨제이포디플렉스 주식회사 | Method of generating surrounging image and server performing the same |
KR20210111622A (en) | 2020-03-03 | 2021-09-13 | 주식회사 케이티 | Server, metohd and computer program for providing immersive contents |
KR20220136797A (en) | 2021-04-01 | 2022-10-11 | 경희대학교 산학협력단 | Apparatus and method for image stitching based on priority object |
-
2023
- 2023-03-24 KR KR1020230038328A patent/KR102708278B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102179153B1 (en) | 2014-08-27 | 2020-11-16 | 케어스트림 덴탈 테크놀로지 톱코 리미티드 | Automatic restitching of 3-d surfaces |
KR20190118662A (en) * | 2017-03-10 | 2019-10-18 | 레이던 컴퍼니 | Symbology Encoding Method of Video Data |
KR102271521B1 (en) | 2019-12-31 | 2021-07-01 | 씨제이포디플렉스 주식회사 | Method of generating surrounging image and server performing the same |
KR20210111622A (en) | 2020-03-03 | 2021-09-13 | 주식회사 케이티 | Server, metohd and computer program for providing immersive contents |
KR20220136797A (en) | 2021-04-01 | 2022-10-11 | 경희대학교 산학협력단 | Apparatus and method for image stitching based on priority object |
Non-Patent Citations (1)
Title |
---|
이성배 외 2인. LDPM 영상 평가를 활용한 동영상 스티칭의 시차 왜곡 검출 및 정정 방법. 방송공학회지. 서울: 한국공학회. 2020.9.05. 제25권, 제5호, pp.685-697* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102137264B1 (en) | Apparatus and method for camera pose estimation | |
KR102225093B1 (en) | Apparatus and method for estimating camera pose | |
KR102723996B1 (en) | Method for detecting 3d object from 2d image and apparatus thereof | |
US20150029222A1 (en) | Dynamically configuring an image processing function | |
CN106488215B (en) | Image processing method and apparatus | |
US11568631B2 (en) | Method, system, and non-transitory computer readable record medium for extracting and providing text color and background color in image | |
KR20220043847A (en) | Method, apparatus, electronic device and storage medium for estimating object pose | |
US9342867B2 (en) | Apparatus and method for reconstructing super-resolution three-dimensional image from depth image | |
US11620730B2 (en) | Method for merging multiple images and post-processing of panorama | |
KR20210116953A (en) | Method and apparatus for tracking target | |
US20150178573A1 (en) | Ground plane detection | |
KR102427846B1 (en) | Method and apparatus for image matchng | |
KR20210133472A (en) | Method of merging images and data processing device performing the same | |
US9280846B2 (en) | Method, apparatus, and computer-readable recording medium for depth warping based occlusion culling | |
CN108447105A (en) | A kind of processing method and processing device of panoramic picture | |
CN112446239A (en) | Neural network training and target detection method, device and storage medium | |
KR102708278B1 (en) | Apparatus and method of video stitching using depth based seam regeneration for seam optimized video stitching | |
US11227166B2 (en) | Method and device for evaluating images, operating assistance method, and operating device | |
KR20210075618A (en) | Method and apparatus for generating disparity map using edge image | |
KR102667946B1 (en) | Apparatus and method of image stitching using depth based seam generation matrix construction | |
CN113870292B (en) | Edge detection method and device of depth image and electronic equipment | |
KR102263540B1 (en) | Method and apparatus for setting gt region on distored image | |
KR20220133766A (en) | Real-time omnidirectional stereo matching method using multi-view fisheye lenses and system therefore | |
US10713808B2 (en) | Stereo matching method and system using rectangular window | |
US11900607B2 (en) | Method and apparatus for framing three dimensional target object for generation of virtual camera layout |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20230324 |
|
PA0201 | Request for examination |
Patent event code: PA02011R01I Patent event date: 20230324 Comment text: Patent Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240318 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240820 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240913 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240919 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |