[go: up one dir, main page]

KR101764531B1 - 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템 - Google Patents

네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템 Download PDF

Info

Publication number
KR101764531B1
KR101764531B1 KR1020160024155A KR20160024155A KR101764531B1 KR 101764531 B1 KR101764531 B1 KR 101764531B1 KR 1020160024155 A KR1020160024155 A KR 1020160024155A KR 20160024155 A KR20160024155 A KR 20160024155A KR 101764531 B1 KR101764531 B1 KR 101764531B1
Authority
KR
South Korea
Prior art keywords
image
images
camera
cameras
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020160024155A
Other languages
English (en)
Inventor
이호원
최현호
조명진
Original Assignee
한경대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한경대학교 산학협력단 filed Critical 한경대학교 산학협력단
Priority to KR1020160024155A priority Critical patent/KR101764531B1/ko
Priority to US15/445,544 priority patent/US10564601B2/en
Application granted granted Critical
Publication of KR101764531B1 publication Critical patent/KR101764531B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • H04N13/0217
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • H04N13/0242
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • G03H2001/0088Adaptation of holography to specific applications for video-holography, i.e. integrating hologram acquisition, transmission and display
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • G03H2001/0204Object characteristics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/303D object
    • G03H2210/333D/2D, i.e. the object is formed of stratified 2D planes, e.g. tomographic data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/40Synthetic representation, i.e. digital or optical object decomposition
    • G03H2210/42Synthetic representation, i.e. digital or optical object decomposition from real object, e.g. using 3D scanner
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2226/00Electro-optic or electronic components relating to digital holography
    • G03H2226/02Computing or processing means, e.g. digital signal processor [DSP]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2226/00Electro-optic or electronic components relating to digital holography
    • G03H2226/04Transmission or communication means, e.g. internet protocol

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템을 개시한다. 본 발명은 인-네크워크 컴퓨팅(In-Network Computing) 기술을 통하여 사용자에게 실시간 고효율 3D/홀로그램 영상 서비스를 제공하는 것을 그 목적으로 한다. 구체적으로는, 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만드는 경우에 각 카메라가 찍은 정보를 효율적으로 처리 및 전송할 수 있도록 하며, 카메라들 간 프로세싱을 통하여 전송해야 할 정보량을 줄이면서도 최종 3D/홀로그램 이미지의 품질의 손실을 최소화하고자 한다.

Description

네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템{METHOD AND SYSTEM FOR IMAGE PROCESSING AND DATA TRANSMISSION IN NETWORK CAMERA ENVIRONMENTS}
아래의 설명은 네트워크 기반 다중 카메라 영상 처리 및 전송 기술에 관한 것이다.
모바일 기기의 보급이 기하급수적으로 증가하고 모바일 기기의 기술이 발전함에 따라 이를 활용한 다양한 컨텐츠에 대한 개발 요구 또한 증가되고 있다. 이에 컨텐츠는 사용자에게 보다 다양한 경험을 제공하는 3D/홀로그램 컨텐츠로 발전되어 가고 있으며, 현재 3D/홀로그램 컨텐츠를 제공하는 전자 기기가 보급되면서 점차 그 수요가 증가됨에 따라 사용자에게 보다 나은 3D/홀로그램 컨텐츠를 제공하기 위한 다양한 연구가 요구되고 있다.
특히, 모바일 기기에서 3D/홀로그램 컨텐츠를 무선으로 전송하는 기술에 대한 연구가 필요하다. 기존의 2D 컨텐츠를 배급하는 시스템은 예컨대, 유튜브(You Tube)와 같은 사이트는 2D 컨텐츠를 서버에 저장한 뒤 배포하는 방식을 취하고 있다. 그러나, 3D/홀로그램 컨텐츠를 실시간으로 업로드하고, 서버 등에 저장된 3D/홀로그램 컨텐츠를 모바일 환경에서 재생할 수 있도록 하는 시스템에 대한 개발은 미비한 실정이다.
따라서, 2D 컨텐츠를 3D/홀로그램 컨텐츠로 빠르게 생성시킬 수 있고, 3D/홀로그램 컨텐츠를 무선 네트워크상에서 실시간으로 빠르게 전송할 수 있는 시스템의 개발이 필요하다. 일 예로, 한국 공개특허공보 제2011-0044419호(발명의 명칭: 클라우드 컴퓨팅 기반 영상 제작 제공 시스템, 그의 영상 제작 제공 방법 및 이를 위한 장치)는 클라우드 컴퓨팅에 기반하여 영상을 제작할 수 있도록 하는 영상 제작 제공 장치에 있어서, 영상 제작에 필요한 어플리케이션을 탑재되어 있고, 단말 장치는 네트워크를 통해 서비스 장치에 구비된 영상 제작 리소스를 사용하여 3D 영상을 제작할 수 있으며, 컨텐츠 제공부는 네트워크를 통해 단말장치에 컨텐츠를 제공할 수 있으며, 이때 클라우드 컴퓨팅부는 단말 장치를 위한 리소스를 할당하는 장치를 제안하고 있다.
3D/홀로그램 영상 서비스는 미래 5G 이동통신에 이어서 핵심 서비스들 중 하나이다. 하지만, 기존의 2D 영상과 비교할 때 3D/홀로그램 영상의 전송을 위해서는 많은 양의 무선 자원이 필요하다.
무선 링크 상에서 3D/홀로그램 영상의 전송에 필요한 무선 자원의 양을 줄이는 것은 망의 효율 향상 및 성능 개선을 위한 매우 중요한 연구 이슈이다.
다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 각 카메라가 찍은 정보를 효율적으로 처리 및 전송할 수 있는 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 시스템 및 방법을 제공한다.
카메라들간 프로세싱을 통하여 전송해야 할 정보량을 줄이면서 동시에 사용자에게 제공되는 최종 3D/홀로그램 이미지의 품질(quality)을 유지할 수 있는 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 시스템 및 방법을 제공한다.
컴퓨터로 구현되는 방법에 있어서, 공통된 대상에 대하여 2D 이미지를 생성하는 복수의 카메라 중 적어도 하나의 카메라에서, 상기 복수의 카메라에서 생성된 복수의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 복수의 2D 이미지에 대한 이미지 정보를 압축하는 단계를 포함하는 방법을 제공한다.
일 측면에 따르면, 상기 압축하는 단계는, 상기 공간 상에서의 상관 관계를 가진 2D 이미지를 대상으로 여러 값을 기반으로 하나의 대표 값을 결정하는 압축 연산을 사용하여 적어도 하나의 대표 이미지를 결정하는 단계를 포함할 수 있다.
다른 측면에 따르면, 상기 컴퓨터로 구현되는 방법은, 상기 적어도 하나의 카메라에서, 상기 이미지 정보를 상위 시스템인 서비스 서버로 전송하는 단계를 더 포함하고, 상기 서비스 서버에서는 상기 이미지 정보를 이용한 디코딩을 통해 상기 복수의 2D 이미지를 생성할 수 있다.
또 다른 측면에 따르면, 상기 압축하는 단계는, 상기 2D 이미지를 뎁스(depth) 별 영역으로 분할하는 단계; 상기 분할된 이미지들을 상기 뎁스 별로 분류하는 단계; 상기 뎁스 별로 분류된 이미지들 간 상관관계를 기반으로 각 이미지 별로 레퍼런스 이미지와 대비한 쉬프팅 픽셀 값을 계산하는 단계; 상기 쉬프팅 픽셀 값을 기반으로 해당 이미지의 쉬프팅을 수행한 후 해당 뎁스의 이미지들에 대해 압축 연산을 수행하여 하나의 대표 이미지를 결정하는 단계; 및 상기 뎁스 각각에 대하여 상기 대표 이미지를 결정하기 위해 상기 계산하는 단계와 상기 결정하는 단계를 상기 뎁스 별로 반복 수행하는 단계를 포함하고, 상기 컴퓨터로 구현되는 방법은, 상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 상위 시스템인 서비스 서버로 전송하는 단계를 더 포함할 수 있다.
또 다른 측면에 따르면, 상기 서비스 서버에서는 상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 이용하여 상기 복수의 2D 이미지로 디코딩 한 후 상기 디코딩된 복수의 2D 이미지로부터 3D 이미지를 생성할 수 있다.
컴퓨터로 구현되는 시스템에 있어서, 상기 시스템은, 적어도 하나의 프로그램이 로딩된 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 복수의 카메라에서 생성된 복수의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 복수의 2D 이미지에 대한 이미지 정보를 압축하는 과정을 처리하는 것을 특징으로 하는 시스템을 제공한다.
일 측면에 따르면, 상기 이미지 정보는 뎁스 별 대표 이미지와 이미지들 간의 공간 상에서의 상관 관계를 나타내는 제어 정보를 포함할 수 있다.
다른 측면에 따르면, 기 압축하는 과정은, 상기 공간 상에서의 상관 관계를 가진 2D 이미지를 대상으로 여러 값을 기반으로 하나의 대표 값을 결정하는 압축 연산을 사용하여 적어도 하나의 대표 이미지를 결정하는 과정을 포함할 수 있다.
또 다른 측면에 따르면, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 상기 이미지 정보를 상위 시스템인 서비스 서버로 전송하는 과정을 더 포함하고, 상기 서비스 서버에서는 상기 이미지 정보를 이용한 디코딩을 통해 상기 복수의 2D 이미지를 생성하여 상기 생성된 복수의 2D 이미지로부터 3D 이미지를 생성할 수 있다.
본 발명의 실시 예에 따르면, 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 각 카메라가 찍은 정보를 효율적으로 처리 및 전송함으로써 각각의 카메라에서 촬영된 이미지들을 기지국 또는 허브 단말로 전송하는데 있어서 야기되는 전송 오버헤드(transmission overhead)를 줄이는 동시에 사용자에게 제공되는 최종 3D/홀로그램 영상의 품질을 최대한 보장할 수 있다.
도 1은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경에서 3D 영상을 제공하는 3D 영상 서비스의 일 예를 설명하기 위한 예시 도면이다.
도 2는 네트워크 기반 다중 카메라 환경에서의 기존 데이터 전송 방식을 도시한 예시 도면이다.
도 3은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경 및 데이터 전송 방식의 예를 도시한 예시 도면이다.
도 4는 본 발명의 일 실시예에 있어서 상관 관계가 높은 이미지들의 예를 도시한 예시 도면이다.
도 5는 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법의 예를 도시한 순서도이다.
도 6 내지 도 8은 본 발명의 일 실시예에 있어서 복수의 카메라에 대해 한 카메라에서 처리된 대표 이미지 및 제어 정보를 설명하기 위한 예시 도면이다.
도 9는 본 발명의 일 실시예에 있어서 3D 이미지를 생성하는 과정의 일례를 도시한 순서도이다.
도 10은 본 발명의 일 실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 실시예들은 네트워크 기반 다중 카메라 영상 처리 및 전송 기술에 관한 것으로, 더욱 상세하게는 유선 또는 무선의 다중 카메라 어레이(wired/wireless multi-camera array)나 무선 라이트 필드 카메라(wireless light-field camera)를 사용하는 경우에 각각의 카메라에서 촬영된 이미지들을 기지국 또는 허브 단말, 서버 컴퓨터 등 상위 시스템으로 전송하는 데에 있어서 야기되는 전송 오버헤드를 줄이는 동시에 원본 3D 영상의 품질을 최대한 보장할 수 있는 영상 처리 및 전송 기술에 관한 것이다.
도 1은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경에서 3D 영상을 제공하는 3D 영상 서비스의 일 예를 설명하기 위한 예시 도면이다.
도 1을 참조하면, 다수의 카메라(10)가 공통된 피사체(20)를 찍어 해당 피사체(20)에 대한 2D 이미지를 3D 영상 서비스를 제공하는 서비스 서버(미도시)로 전송할 수 있고, 서비스 서버에서는 다수의 카메라(10)로부터 수신된 2D 이미지를 이용하여 홀로그램(hologram) 형태와 같은 3D 이미지(30)를 생성하여 사용자들에게 제공할 수 있다. 이때, 카메라 각각은 서비스 서버에서의 3D 이미지(30) 생성을 위해 2D 이미지의 깊이 정보(depthmap information)를 함께 제공하고, 이에 서비스 서버는 다수의 카메라(10)로부터 수신된 깊이 정보를 활용하여 2D 이미지에 대한 3D 이미지(30)를 생성할 수 있다.
도 2는 네트워크 기반 다중 카메라 환경에서의 기존 데이터 전송 방식을 도시한 예시 도면이다.
기존의 경우, 도 2에 도시한 바와 같이 N개의 카메라(10)는 각각 2D 이미지를 생성한 후 각 카메라(10)가 개별적으로 서비스 서버(1)에 2D 이미지를 전송하게 된다. 기존 방식의 경우 서비스 서버(1)는 카메라(10) 각각으로부터 2D 이미지를 수신하기 때문에 카메라(10)의 개수에 대응하여 N개의 2D 이미지와 깊이 정보를 수신하게 된다. 이때, 각 카메라(10)는 피사체에 대한 2D 이미지를 생성하는 것 이외에 카메라(10) 간 사전 프로세싱이 전혀 없다.
기존에는 네트워크 기반 다중 카메라 환경에서 3D 이미지를 생성하기 위해 각 카메라(10)가 개별적으로 데이터를 전송하는 형태로 카메라(10)의 개수(N개) 만큼의 2D 이미지와 깊이 정보를 전송하기 때문에 많은 양의 통신 자원이 필요하다.
본 발명에서는 통신 자원의 양을 줄이고 망의 효율 향상 및 성능 개선을 위해서 공통의 대상에 대하여 서로 다른 카메라들이 찍은 이미지들 간의 공간 상에서의 상관 관계(correlation)를 이용할 수 있다.
도 3은 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 환경 및 데이터 전송 방식의 예를 도시한 예시 도면이다.
도 3의 네트워크 환경은 복수의 전자 기기들(110)과 서비스 서버(100)를 포함하는 예를 나타내고 있다. 이러한 도 3은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 3과 같이 한정되는 것은 아니다.
복수의 전자 기기들(110)은 카메라 기능을 포함하는 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110)의 예를 들면, 카메라, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일 예로, 복수의 전자 기기들(110)은 무선 또는 유선 통신 방식을 이용하여 네트워크(미도시)를 통해 서비스 서버(100)와 통신할 수 있다.
복수의 전자 기기들(110)과 서비스 서버(100) 간의 통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서비스 서버(100)는 복수의 전자 기기들(110)과 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.
복수의 전자 기기들(110)은 2D 이미지를 생성하고 전송하는 카메라 기능을 포함하는 컴퓨터 장치로, 이하에서는 '카메라'로 통칭하기로 한다. 도 3에 도시한 바와 같이, 복수의 카메라들(110)은 인-네크워크 컴퓨테이션(In-Network Computation) 개념으로 각 카메라 간에 2D 이미지 송수신 및 처리 과정을 수행할 수 있다. 다시 말해, 각 카메라(110) 간 사전 프로세싱으로서 데이터 전송 및 사전 처리가 존재한다.
본 발명에서는 복수의 카메라(110) 중 하나의 카메라에서 처리된 2D 이미지 및 제어 정보를 서비스 서버(100)로 전송할 수 있다. 다시 말해, N개의 카메라(110)에 대하여 하나의 카메라에서 사전 처리를 통해 x개의 2D 이미지와 제어 정보를 전송할 수 있다. 이때, x는 고려하는 뎁스 레벨의 개수, 또는 상관 이미지의 개수를 의미할 수 있다. 그리고, 제어 정보는 이미지들 간의 공간 상에서의 상관 관계를 나타내는 정보를 포함할 수 있다.
복수의 카메라(110) 중 하나의 카메라가 다른 카메라의 2D 이미지와 깊이 정보를 모두 수신하여 한번에 사전 처리를 수행하거나, 여러 카메라에서 분산적으로 사전 처리를 수행하는 것 또한 가능하다.
복수의 카메라(110)에 포함된 모든 카메라가 x개의 2D 이미지와 제어 정보를 전송하는 레퍼런스 카메라(reference camera)가 될 수 있다. 레퍼런스 카메라는 통신 환경이나 에너지 효율 등 다양한 인자를 고려하여 결정될 수 있으며, 예를 들어 복수의 카메라(110) 중 통신 링크가 가장 좋은 카메라를 레퍼런스 카메라로 결정할 수 있다.
서비스 서버(100)에서는 N개의 카메라(110)에 대해 레퍼런스 카메라로부터 수신된 x개의 2D 이미지와 제어 정보를 디코딩 함으로써 N개의 개별 2D 이미지를 생성할 수 있고 N개의 2D 이미지로부터 3D 이미지를 생성할 수 있다.
따라서, 본 발명에서는 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 카메라 간 사전 처리를 통해 각 카메라에서 찍은 정보를 압축함으로써 3D/홀로그램 이미지의 생성을 위해 전송해야 할 정보량을 현저히 줄일 수 있다.
도 4에 도시한 바와 같이, 하나의 공통된 대상에 대해서 각 카메라(camera1, camera2)가 찍은 2D 이미지들(401, 402) 간에는 공간 상에서의 상관 관계가 존재한다. 이때, 2D 이미지들(401, 402)은 이미지에 포함된 각 객체에 대해 뎁스 레벨(depth level) 별로 공간 상에서의 상관 관계가 높게 나타난다.
본 발명에서는 각 카메라에서 생성된 2D 이미지를 개별적으로 전송하는 방식이 아닌, 상관 관계가 높은 이미지 그룹 별로(예컨대, 뎁스 레벨 별로) 압축 연산을 통하여 하나의 대표 값을 결정하고 이를 전송하는 방식을 적용한다. 압축 연산의 예로는 여러 값 중 최소 값을 대표 값으로 선택하는 min 연산, 여러 값 중 최대 값을 대표 값으로 선택하는 max 연산, 여러 값의 평균 값을 대표 값으로 선택하는 average 연산(평균을 내는 요소들의 각각의 비율을 같게 해서 평균을 내는 방식, 평균을 내는 요소들의 각각의 비율을 다르게 해서 평균을 내는 방식 등) 등을 이용할 수 있으며, 이러한 연산으로만 한정되는 것은 아니며, 여러 값을 기반으로 하나의 대표 값을 결정하는 연산이라면 어떠한 것도 모두 적용 가능하다.
도 5는 본 발명의 일 실시예에 있어서 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법을 도시한 순서도이다. 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법은 카메라 기능을 포함하는 전자 기기(이하, '카메라'라 칭함)에 의해 각각의 단계가 수행될 수 있다. 이때, 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법은 카메라 간 사전 처리 과정에 해당되며, 공통된 대상을 촬영함으로써 공간 상에서의 상관 관계를 가진 이미지들을 대상으로 한다. 그리고, 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법은 레퍼런스 카메라로 지정된 카메라에서 수행되는 것으로 설명하나, 이에 한정되는 것은 아니며 둘 이상의 카메라에서 분산적으로 수행되는 것 또한 가능하다.
단계(S1)에서 카메라는 카메라에서 촬영되거나 다른 카메라에서 수신된 2D 이미지를 뎁스 별 영역으로 각각 분할하여 추출할 수 있다. 도 6에 도시한 바와 같이, 2D 이미지에 대해 2D 이미지에 포함된 객체를 추출함으로써 객체 별 이미지(602~605)를 분할할 수 있다.
단계(S2)에서 카메라는 2D 이미지에서 추출된 이미지들을 뎁스 별로 분류할 수 있다.
단계(S3)에서 카메라는 뎁스 별로 분류된 이미지들 간 상관관계를 기반으로 해당 뎁스의 각 이미지 별로 레퍼런스 이미지(즉, 레퍼런스 카메라에서 촬영된 이미지)와 대비한 쉬프팅 픽셀 값을 계산할 수 있다. 이때, 이미지 간 객체 위치를 비교함으로써 쉬프팅 픽셀 값을 계산할 수 있다. 다시 말해, 객체 각각에 대해 레퍼런스 카메라를 기준으로 모든 카메라들의 쉬프팅 픽셀 값을 계산할 수 있다.
쉬프팅 픽셀 값 {x,y}는 {수직 쉬프팅 픽셀 수(the number of vertically shifting pixels), 수평 쉬프팅 픽셀 수(the number of horizontally shifting pixels)}와 같이 나타낼 수 있다. 이때, 쉬프팅 픽셀 수는 {(영상의 x축 해상도 × 카메라 초점 길이 × 카메라 간의 간격) / (카메라의 이미지 센서 x축 크기 × 카메라의 이미지 센서 깊이)}와 같이 정의될 수 있다.
단계(S4)에서 카메라는 단계(S3)에서 계산된 쉬프팅 픽셀 값을 기반으로 해당 이미지의 쉬프팅을 수행한 후 해당 뎁스의 이미지들에 대해 정해진 압축 연산을 수행하여 하나의 대표 이미지를 결정할 수 있다. 이는 카메라들 간에 상관 관계가 큰 이미지 정보를 연산하여 압축하기 위한 것으로, 카메라들 간에 이미지 정보를 일정 경로를 따라 취합하게 된다. 예컨대, 상관 관계가 높은 이미지들에 대해 min 함수, max 함수, average 함수, weighted average 함수 중 하나가 적용된 압축 연산을 이용하여 하나의 대표 값으로 취합할 수 있다. 이때, 상관 관계가 높은 이미지들을 취합 시 사용하는 연산 방식에 따라 취합 경로가 결정될 수 있다.
단계(S5)에서 카메라는 뎁스 각각에 대하여 상기한 과정(S3~S4)을 반복 수행할 수 있다. 상기한 과정(S3~S4)은 각 뎁스 별로 독립적으로 수행될 수 있으며, 이를 통해 각각의 뎁스에 대하여 하나의 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값들이 도출될 수 있다. 카메라 어레이 환경에서 객체 쉬프팅을 수행한 후 이미지 취합을 위한 연산을 반복적으로 계속 적용할 수 있다. 즉, 모든 이미지가 하나의 이미지로 계산될 때까지 객체 쉬프팅과 취합 연산을 반복 수행할 수 있다. 다만, RGB에 대해서 객체 쉬프팅과 취합 연산을 각각 적용할 수 있다. 각 카메라 센서들의 CCD(charged coupled device) 내의 픽셀 별로 생성되는 정보를 정의할 수 있으며, 이때 RGB 각각을 8bits로 하면 1픽셀 당 24bits의 정보가 생성될 수 있고(예를 들어, (255,255,255) 또는 #FF00F0 (hexadecimal) 등), RGB 각각을 16bits로 하면 1픽셀 당 48bits의 정보가 생성될 수 있다.
단계(S6)에서 카메라는 뎁스 별로 상기한 과정(S3~S4)이 반복됨에 따라 도출된 각 뎁스 별 하나의 대표 이미지와 각 뎁스에 해당되는 이미지 별 쉬프팅 픽셀 값을 서비스 서버(100) 측 수신단으로 전송할 수 있다. 다시 말해, 카메라는 상관 관계가 높은 이미지들(뎁스 레벨 별 이미지들) 중에서 대표 값 연산(즉, 취합 연산)을 통해 결정된 대표 이미지(2D 이미지)와 모든 카메라의 쉬프팅 픽셀 수를 서비스 서버(100) 측 수신단으로 전송할 수 있다. 이때, 대표 이미지는 N개의 카메라에 대하여 객체 추출을 통해 고려하는 뎁스 레벨의 개수에 해당되는 x개의 2D 이미지를 포함할 수 있다. 일 예로, 카메라는 뎁스 레벨 별 대표 이미지와 모든 카메라의 쉬프팅 픽셀 수(# of shifting pixels for all cameras)에 대한 정보를 카메라들 간 데이터 전달에 필요한 자원 오버헤드에 대한 정보와 함께 서비스 서버(100)의 수신단으로 전송할 수 있다. 카메라들 간 데이터 전달에 필요한 자원 오버헤드에 대한 정보는 유선 카메라 어레이의 경우 존재하지 않고 무선인 경우에만 존재한다. 다른 예로, 카메라는 뎁스 레벨 별 대표 이미지와 모든 카메라의 쉬프팅 픽셀 수에 대한 평균 값(average # of shifting pixels for all cameras)을 카메라들 간 데이터 전달에 필요한 자원 오버헤드에 대한 정보와 함께 서비스 서버(100)의 수신단으로 전송할 수 있다.
도 7을 참조하면, 공통된 대상에 대해 2D 이미지를 생성하는 N개의 카메라(camera1, .. cameraN)에 대해 상관 관계가 높은 객체 이미지들(702~705) 중에서 min 연산, max 연산, average 연산, weighted average 연산 등을 통해 뎁스 별로 하나의 대표 이미지(702'~705')를 결정하고 뎁스 별 각 대표 이미지(702'~705')와 함께 모든 카메라에 대한 이미지 별 쉬프팅 픽셀 값을 서비스 서버(100)로 전송할 수 있다.
일 예로, 10개의 카메라를 통해 촬영된 10개의 2D 이미지에 대해 레퍼런스 카메라에서 처리된 2D 이미지의 뎁스 별 쉬프팅 픽셀 값이 도 8과 같다고 할 때 객체 'H'에 대한 쉬프팅 픽셀 수의 평균 값 10.11, 객체 'K'에 대한 쉬프팅 픽셀 수의 평균 값 7.89, 객체 'N'에 대한 쉬프팅 픽셀 수의 평균 값 6.44, 객체 'U'에 대한 쉬프팅 픽셀 수의 평균 값 5.44를 10개의 2D 이미지에 대한 관련 제어 정보로서 서비스 서버(100)로 전송될 수 있다.
요컨대, 본 발명에서 뎁스 별로 하나의 대표 이미지를 생성(결정)하는 방식에는 크게 두 가지 방식이 있을 수 있다.
하나는, 복수의 카메라 중 하나의 카메라를 레퍼런스 카메라로 고정하고 레퍼런스 카메라에서 촬영된 이미지를 기준으로 나머지 모든 카메라에서 촬영된 이미지의 쉬프팅 픽셀 값을 찾아서 연산을 수행하는 방식이다.
다른 하나는, 복수의 카메라 중 인접한 두 카메라 간에 계속적으로 연산을 수행해 나가는 방식이다. 이 경우, 레퍼런스 카메라가 계속 바뀌게 된다. 예를 들어, 1번 카메라와 2번 카메라를 대상으로 연산을 하고 2번 카메라가 레퍼런스 카메라라고 할 때, 1번 카메라에서 촬영된 이미지 1과 2번 카메라에서 촬영된 이미지 2에서 뎁스 별 영역을 추출하고 2번 카메라를 기준으로 1번 카메라의 이미지 영역들의 쉬프팅 픽셀을 계산한다. 이때 계산된 결과를 기반으로 1번 카메라와 2번 카메라에 대한 연산 결과에 해당되는 이미지 2'를 얻는다. 다음으로, 이미지 2'와 3번 카메라에서 촬영된 이미지 3을 연산하는 경우 3번 카메라가 레퍼런스 카메라가 되고, 이에 이미지 3'가 생성될 수 있다. 이후, 이미지 3'는 4번 카메라와 연산을 수행하는데 이용된다. 이미지에서 추출된 뎁스 영역이 x개라면 상기한 과정이 x번 수행되고, 이를 통해 총 x개의 이미지를 얻게 되는 것이다.
도 9는 본 발명의 일 실시예에 있어서 3D 이미지를 생성하는 과정의 일례를 도시한 순서도이다. 도 9의 3D 이미지 생성 방법은 서비스 서버(100)에 의해 각각의 단계가 수행될 수 있다.
단계(S7)에서 서비스 서버(100)는 복수의 카메라를 통해 촬영된 2D 이미지에 대한 3D 이미지 요청으로서 레퍼런스 카메라로부터 각 뎁스 별 하나의 대표 이미지와 각 뎁스에 해당되는 이미지 별 쉬프팅 픽셀 값을 수신할 수 있다.
단계(S8)에서 서비스 서버(100)는 뎁스 각각의 대표 이미지와 각 이미지 별 쉬프팅 픽셀 값을 기반으로 역쉬프팅(unshifting)을 수행하여 복수의 카메라에서 촬영된 원본 이미지와 동일한 개수의 이미지를 생성할 수 있다. 다시 말해, 서비스 서버(100)는 뎁스 각각에 대해 대표 이미지에 이미지 별 쉬프팅 픽셀 값을 각각 적용함으로써 원본과 동일한 개수의 이미지를 생성할 수 있다. 따라서, 서비스 서버(100)는 복수의 카메라에 대해 레퍼런스 카메라로부터 수신된 x개의 대표 이미지와 제어 정보(모든 카메라의 쉬프팅 픽셀 수)를 이용하여 카메라 개수에 대응되는 N개의 원래 2D 이미지로 디코딩 할 수 있다.
단계(S9)에서 서비스 서버(100)는 단계(S8)에서 생성된 이미지들, 즉 N개의 2D 이미지를 이용하여 홀로그램 이미지와 같은 3D 이미지를 생성할 수 있다. 이때, 서비스 서버(100)는 대표 이미지에 대하여 각 카메라의 쉬프팅 픽셀 수에 따라 언쉬프트 하는 방식을 적용하여 원래 이미지로 디코딩 한 후 이들 이미지들을 기반으로 3D 이미지를 생성할 수 있고, 이를 3D 이미지 요청에 대한 응답으로 제공할 수 있다.
이와 같이, 다수의 카메라가 협력하여 카메라들 간의 프로세싱을 통하여 서비스 서버(100)로 전송해야 할 정보량을 현저히 줄이면서 원본 이미지의 품질을 최대한 보장할 수 있다.
도 10은 본 발명의 일 실시예에 있어서, 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.
도 10을 참조하면, 컴퓨터 시스템(1000)은 적어도 하나의 프로세서(processor)(1010), 메모리(memory)(1020), 주변장치 인터페이스(peripheral interface)(1030), 입/출력 서브시스템(I/O subsystem)(1040), 전력 회로(1050) 및 통신 회로(1060)를 포함할 수 있다. 이때, 컴퓨터 시스템(1000)은 도 1을 통해 설명한 카메라 기능을 포함하는 전자 기기, 혹은 서비스 서버에 해당될 수 있다.
메모리(1020)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(1020)는 컴퓨터 시스템(1000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다. 이때, 프로세서(1010)나 주변장치 인터페이스(1030) 등의 다른 컴포넌트에서 메모리(1020)에 액세스하는 것은 프로세서(1010)에 의해 제어될 수 있다.
주변장치 인터페이스(1030)는 컴퓨터 시스템(1000)의 입력 및/또는 출력 주변장치를 프로세서(1010) 및 메모리(1020)에 결합시킬 수 있다. 프로세서(1010)는 메모리(1020)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨터 시스템(1000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(1040)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(1030)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(1040)은 카메라, 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(1030)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(1040)을 거치지 않고 주변장치 인터페이스(1030)에 결합될 수도 있다.
전력 회로(1050)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(1050)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(1060)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨터 시스템과 통신을 가능하게 할 수 있다. 또는 상술한 바와 같이 필요에 따라 통신 회로(1060)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨터 시스템과 통신을 가능하게 할 수도 있다.
이러한 도 10의 실시예는, 컴퓨터 시스템(1000)의 일례일 뿐이고, 컴퓨터 시스템(1000)은 도 10에 도시된 일부 컴포넌트가 생략되거나, 도 10에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨터 시스템은 도 10에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1060)에 다양한 통신 방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨터 시스템(1000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
이와 같이, 본 발명의 실시예들에 따르면, 다수의 카메라가 협력하여 3D/홀로그램 이미지를 만들 때 각 카메라가 찍은 정보를 효율적으로 처리 및 전송함으로써 각각의 카메라에서 촬영된 이미지들을 기지국 또는 허브 단말로 전송하는데 있어서 야기되는 전송 오버헤드(transmission overhead)를 줄이는 동시에 사용자에게 제공되는 최종 영상의 품질을 최대한 보장할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (9)

  1. 컴퓨터로 구현되는 방법에 있어서,
    공통된 대상에 대하여 2D 이미지를 생성하는 N개의 카메라 중 적어도 하나의 카메라에서, 상기 N개의 카메라에서 생성된 N개의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 N개의 2D 이미지에 대한 이미지 정보를 압축하는 단계; 및
    상기 적어도 하나의 카메라에서, 상기 이미지 정보를 상위 시스템인 서비스 서버로 전송하는 단계
    를 포함하고,
    상기 N개의 카메라를 포함하는 네트워크 기반 다중 카메라 환경에서 상기 N개의 카메라 중 상기 적어도 하나의 카메라가 레퍼런스 카메라(reference camera)가 되고,
    상기 전송하는 단계는,
    상기 레퍼런스 카메라에 해당되는 상기 적어도 하나의 카메라에서, 상기 N개의 카메라로부터 수신된 상기 N개의 2D 이미지 중 일부인 x개의 대표 이미지와 제어 정보를 상기 이미지 정보로서 상기 서비스 서버로 전송하고,
    상기 제어 정보는 이미지 간의 공간 상에서의 상관 관계를 나타내는 정보를 포함하고,
    상기 서비스 서버에서는 상기 N개의 카메라에 대해 상기 레퍼런스 카메라에 해당되는 상기 적어도 하나의 카메라로부터 수신된 상기 x개의 대표 이미지와 상기 제어 정보를 디코딩 하여 상기 N개의 2D 이미지를 생성하고 상기 생성된 N개의 2D 이미지로부터 3D 이미지를 생성하는 것
    을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 압축하는 단계는,
    상기 공간 상에서의 상관 관계를 가진 2D 이미지를 대상으로 여러 값을 기반으로 하나의 대표 값을 결정하는 압축 연산을 사용하여 적어도 하나의 대표 이미지를 결정하는 단계
    를 포함하는 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 압축하는 단계는,
    상기 2D 이미지를 뎁스(depth) 별 영역으로 분할하는 단계;
    상기 분할된 이미지들을 상기 뎁스 별로 분류하는 단계;
    상기 뎁스 별로 분류된 이미지들 간 상관관계를 기반으로 각 이미지 별로 레퍼런스 이미지와 대비한 쉬프팅 픽셀 값을 계산하는 단계;
    상기 쉬프팅 픽셀 값을 기반으로 해당 이미지의 쉬프팅을 수행한 후 해당 뎁스의 이미지들에 대해 압축 연산을 수행하여 하나의 대표 이미지를 결정하는 단계; 및
    상기 뎁스 각각에 대하여 상기 대표 이미지를 결정하기 위해 상기 계산하는 단계와 상기 결정하는 단계를 상기 뎁스 별로 반복 수행하는 단계
    를 포함하고,
    상기 전송하는 단계는,
    상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 상위 시스템인 상기 서비스 서버로 전송하는 것
    을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 서비스 서버에서는 상기 뎁스 별 대표 이미지와 각 뎁스에 해당되는 모든 이미지의 쉬프팅 픽셀 값을 이용하여 상기 N개의 2D 이미지로 디코딩 한 후 상기 디코딩된 N개의 2D 이미지로부터 상기 3D 이미지를 생성하는 것
    을 특징으로 하는 방법.
  6. 컴퓨터로 구현되는 시스템에 있어서,
    상기 시스템은,
    적어도 하나의 프로그램이 로딩된 메모리; 및
    적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라,
    N개의 카메라에서 생성된 N개의 2D 이미지 간의 공간 상에서의 상관 관계(correlation)를 이용하여 상기 N개의 2D 이미지에 대한 이미지 정보를 압축하는 과정; 및
    상기 이미지 정보를 상위 시스템인 서비스 서버로 전송하는 과정
    을 처리하고,
    상기 N개의 카메라를 포함하는 네트워크 기반 다중 카메라 환경에서 상기 N개의 카메라 중 적어도 하나의 카메라가 레퍼런스 카메라(reference camera)가 되고,
    상기 시스템은 상기 레퍼런스 카메라에 해당되는 상기 적어도 하나의 카메라에 해당되고,
    상기 전송하는 과정은,
    상기 레퍼런스 카메라에 해당되는 상기 적어도 하나의 카메라에서, 상기 N개의 카메라로부터 수신된 상기 N개의 2D 이미지 중 일부인 x개의 대표 이미지와 제어 정보를 상기 이미지 정보로서 상기 서비스 서버로 전송하고,
    상기 제어 정보는 이미지 간의 공간 상에서의 상관 관계를 나타내는 정보를 포함하고,
    상기 서비스 서버에서는 상기 N개의 카메라에 대해 상기 레퍼런스 카메라에 해당되는 상기 적어도 하나의 카메라로부터 수신된 상기 x개의 대표 이미지와 상기 제어 정보를 디코딩 하여 상기 N개의 2D 이미지를 생성하고 상기 생성된 N개의 2D 이미지로부터 3D 이미지를 생성하는 것
    을 특징으로 하는 시스템.
  7. 제6항에 있어서,
    상기 이미지 정보는 뎁스 별 대표 이미지와 이미지들 간의 공간 상에서의 상관 관계를 나타내는 제어 정보를 포함하는 것
    을 특징으로 하는 시스템.
  8. 제6항에 있어서,
    상기 압축하는 과정은,
    상기 공간 상에서의 상관 관계를 가진 2D 이미지를 대상으로 여러 값을 기반으로 하나의 대표 값을 결정하는 압축 연산을 사용하여 적어도 하나의 대표 이미지를 결정하는 과정
    을 포함하는 것을 특징으로 하는 시스템.
  9. 삭제
KR1020160024155A 2016-02-29 2016-02-29 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템 Active KR101764531B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160024155A KR101764531B1 (ko) 2016-02-29 2016-02-29 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
US15/445,544 US10564601B2 (en) 2016-02-29 2017-02-28 Method and system for image processing and data transmission in network-based multi-camera environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160024155A KR101764531B1 (ko) 2016-02-29 2016-02-29 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020170094633A Division KR101779749B1 (ko) 2017-07-26 2017-07-26 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템

Publications (1)

Publication Number Publication Date
KR101764531B1 true KR101764531B1 (ko) 2017-08-04

Family

ID=59654557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160024155A Active KR101764531B1 (ko) 2016-02-29 2016-02-29 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템

Country Status (2)

Country Link
US (1) US10564601B2 (ko)
KR (1) KR101764531B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108769646B (zh) * 2018-05-06 2020-02-18 Oppo广东移动通信有限公司 三维视频通信方法及系统、电子装置、服务器和可读存储介质
JP7668159B2 (ja) * 2021-05-27 2025-04-24 株式会社日立製作所 人特定システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
US8270472B2 (en) * 2007-11-09 2012-09-18 Thomson Licensing Methods and apparatus for adaptive reference filtering (ARF) of bi-predictive pictures in multi-view coded video
TWI517674B (zh) 2009-02-23 2016-01-11 日本電信電話股份有限公司 多視點圖像編碼方法及多視點圖像解碼方法
KR101118536B1 (ko) 2009-10-23 2012-03-12 세종대학교산학협력단 상호 작용이 가능한 콘텐츠 저작 수단을 제공하는 방법
JP5413263B2 (ja) * 2010-03-17 2014-02-12 富士通株式会社 画像生成方法
CA2844602A1 (en) * 2011-08-09 2013-02-14 Samsung Electronics Co., Ltd. Method and device for encoding a depth map of multi viewpoint video data, and method and device for decoding the encoded depth map
US20130250040A1 (en) * 2012-03-23 2013-09-26 Broadcom Corporation Capturing and Displaying Stereoscopic Panoramic Images
US20150350678A1 (en) * 2012-12-27 2015-12-03 Nippon Telegraph And Telephone Corporation Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, image decoding program, and recording media
WO2016124711A1 (en) * 2015-02-05 2016-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-video codec supporting inter-component prediction
US10158840B2 (en) * 2015-06-19 2018-12-18 Amazon Technologies, Inc. Steganographic depth images

Also Published As

Publication number Publication date
US20170248916A1 (en) 2017-08-31
US10564601B2 (en) 2020-02-18

Similar Documents

Publication Publication Date Title
US11050810B2 (en) Method and apparatus for transmitting and receiving image data for virtual-reality streaming service
KR20200100558A (ko) 이미지 처리 방법 및 장치, 전자 디바이스 및 컴퓨터 판독 가능 저장 매체
Younis et al. Latency-aware hybrid edge cloud framework for mobile augmented reality applications
Hsu et al. FallCare+: An IoT surveillance system for fall detection
Perala et al. Fog computing and efficient resource management in the era of Internet-of-Video Things (IoVT)
Dey et al. Partitioning of cnn models for execution on fog devices
US20210182595A1 (en) Methods, systems and apparatus to improve image classification with boundary-bitmaps
CN116134474A (zh) 在支持混合现实/增强现实的通信系统中相对于三维媒体数据使用延迟补偿姿势预测来执行渲染的方法和装置
WO2024056030A1 (zh) 一种图像深度估计方法、装置、电子设备及存储介质
KR20220080696A (ko) 깊이 추정 방법, 디바이스, 전자 장비 및 컴퓨터 판독가능 저장 매체
KR101764531B1 (ko) 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
CN113168706B (zh) 视频流的帧中的对象位置确定
Wu et al. Hybrid mobile vision for emerging applications
US10212291B2 (en) System, method, and non-transitory computer readable storage medium for image recognition based on convolutional neural networks
KR101779749B1 (ko) 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
Pandey et al. Real-time in-network image compression via distributed dictionary learning
CN114449346B (zh) 视频处理方法、装置、设备以及存储介质
WO2023207360A1 (zh) 图像分割方法、装置、电子设备及存储介质
Galanis et al. Edge computing and efficient resource management for integration of video devices in smart grid deployments
CN110084835B (zh) 用于处理视频的方法和装置
CN114745516A (zh) 全景视频的生成方法、装置、存储介质及电子设备
CN116597098B (zh) 三维重建方法、装置、电子设备和计算机可读存储介质
US20250045971A1 (en) Hybrid framework for point cloud compression
KR101323886B1 (ko) 분산처리 기반의 물체 추적장치 및 추적방법
EP4427195A1 (en) State summarization for binary voxel grid coding

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20160229

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20170118

Patent event code: PE09021S01D

PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170501

A107 Divisional application of patent
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20170726

Patent event code: PA01071R01D

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170727

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170727

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20200723

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210512

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20240623

Start annual number: 8

End annual number: 8