[go: up one dir, main page]

KR101683634B1 - Digital imaging apparatus with plenoptic camera scheme - Google Patents

Digital imaging apparatus with plenoptic camera scheme Download PDF

Info

Publication number
KR101683634B1
KR101683634B1 KR1020150060666A KR20150060666A KR101683634B1 KR 101683634 B1 KR101683634 B1 KR 101683634B1 KR 1020150060666 A KR1020150060666 A KR 1020150060666A KR 20150060666 A KR20150060666 A KR 20150060666A KR 101683634 B1 KR101683634 B1 KR 101683634B1
Authority
KR
South Korea
Prior art keywords
image
refocusing
captured image
recognition algorithm
optical field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020150060666A
Other languages
Korean (ko)
Other versions
KR20160128772A (en
Inventor
안도열
Original Assignee
주식회사 큐티아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 큐티아이 filed Critical 주식회사 큐티아이
Priority to KR1020150060666A priority Critical patent/KR101683634B1/en
Priority to PCT/KR2016/004433 priority patent/WO2016175568A1/en
Publication of KR20160128772A publication Critical patent/KR20160128772A/en
Application granted granted Critical
Publication of KR101683634B1 publication Critical patent/KR101683634B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • H04N5/23212
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N5/225
    • H04N5/2253
    • H04N5/232

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치에 관한 기술로, 보다 상세하게는 영상 인식 결과를 반영하여 리포커싱하는 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치에 관한 것이다.
본 발명은 플레놉틱 카메라를 통한 광 필드 이미징으로서 비이상적인 환경 조건에 대한 대응성을 높이고, 계산 방식을 단순화한 인공 시각 알고리즘을 제안하는 것을 목적으로 한다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital imaging apparatus using a principle of a planop camera, and more particularly, to a digital imaging apparatus using a principle of a planop camera that reflects an image recognition result.
It is an object of the present invention to provide an artificial vision algorithm that improves responsiveness to non-ideal environmental conditions and simplifies a calculation method as optical field imaging through a plenoptic camera.

Description

플레놉틱 카메라 원리를 이용한 디지털 촬상 장치 {DIGITAL IMAGING APPARATUS WITH PLENOPTIC CAMERA SCHEME}[0001] DIGITAL IMAGING APPARATUS WITH PLENOPTIC CAMERA SCHEME [0002]

본 발명은 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치에 관한 기술로, 보다 상세하게는 플레놉틱 카메라 원리를 이용한 리포커싱을 고도화하여 촬영 시의 공간적 제약을 최소화하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital imaging apparatus using a principle of a planop camera, and more particularly, to a technique for refining a refocusing using a principle of a planop camera to minimize a spatial restriction at the time of photographing.

인공 시각(머신 비전, machine vision)과 같은 어플리케이션에서는 빠르게 변화하는 조명 조건, 특히 어두운 조명과 흐릿한(blurry) 환경, 연기, 안개, 눈부심 및 수중 조건 등 다양한 악조건들로 인하여 현재 개발된 가장 복잡한 인공 시각 알고리즘을 이용하더라도 제대로 된 영상 인식 결과값을 얻어내지 못할 수 있다.In applications such as artificial vision (machine vision), the most complex artificial visuals currently being developed due to a variety of adverse conditions, such as rapidly changing lighting conditions, especially dark lighting and blurry environments, smoke, fog, glare and underwater conditions It may not be possible to obtain a proper image recognition result even if an algorithm is used.

이상적인 조건 하에서도, 복잡하고 비구조적인 환경, 예를 들어 곧은 엣지, 엣지가 없는 물체 또는 부드러운 물체도 일반적인 환경을 위하여 개발된 인공 시각 알고리즘의 연산을 방해할 수 있다.Even under ideal conditions, complex and unstructured environments, such as straight edges, non-edge or soft objects, can interfere with the operation of artificial vision algorithms developed for the general environment.

일반적인 카메라는 인공 시각을 처리하기 위해서는 꼭 필요한 장치이지만 비이상적 환경 조건에서의 인공 시각 알고리즘은 굉장히 복잡하여 알고리즘을 단순화하는 기술이 필요한 실정이다.Although a general camera is a necessary device for processing artificial vision, artificial vision algorithm in a non-ideal environment condition is very complicated and a technique for simplifying the algorithm is needed.

최근에 플레놉틱(plenoptic) 카메라라는 새로운 개념의 카메라가 연구되고 있다. 플레놉틱 카메라는 광 필드(light field) 카메라로 불려지기도 하며, 마이크로 렌즈 어레이(통상적으로 렌티큘러 렌즈 어레이) 또는 광 부호화 마스크(light coded mask)를 이용하여 장면에 대한 4D 광 필드 정보를 캡처한다.Recently, a new concept camera called a plenoptic camera is being studied. Plenoptik cameras are often referred to as light field cameras and capture 4D optical field information for a scene using a microlens array (typically a lenticular lens array) or a light coded mask.

플레놉틱 카메라는 카메라 렌즈와 영상 센서 사이에 마이크로 렌즈 어레이를 두고, 마이크로 렌즈 어레이가 약간 다른 시점으로부터 찍은 다수의 많은 영상들이 생기도록 영상 센서에 빛의 초점을 재조정한 다음, 다수의 많은 영상들을 이용하여 초점이나 시점을 조정한 영상을 제공할 수 있다.The plenoptic camera has a microlens array between the camera lens and the image sensor, re-focuses the light on the image sensor so that the microlens array produces a number of images from a slightly different point in time, Thereby providing an image in which the focus or viewpoint is adjusted.

이러한 플레놉틱 카메라를 이용한 기술에 대한 일 예가 한국등록특허 제10-1483714호 "디지털 촬상 장치 및 방법"에 기술되어 있다.An example of such a technology using a plenoptic camera is described in Korean Patent No. 10-1483714 entitled " Digital Imaging Apparatus and Method ".

상기 선행기술은 영상 리포커싱을 위한 광 필드 데이터 형성 시 발생하는 공간 분해능이 저하되는 문제점을 극복할 수 있는 디지털 촬상 장치에 대한 내용이다. 상기 선행기술은 CDMA 등의 통신 기술에서 이용되는 부호화 기술을 플레놉틱 카메라 기술에 접목하여 광 필더 데이터의 형성 및 그 처리 효율을 높이고자 하는 기술이다.The prior art is directed to a digital imaging device capable of overcoming the problem of a decrease in spatial resolution caused in the formation of optical field data for image re-focusing. The prior art is a technique for enhancing the formation and processing efficiency of optical filter data by combining a coding technique used in communication technology such as CDMA with a plenoptic camera technology.

그러나 위의 선행기술에 의하더라도 광 필드 데이터를 이용한 리포커싱의 결과가 마이크로 렌즈 어레이, 영상 센서 등의 배치에 따른 위치에 의하여 제한되며, 따라서 리포커싱의 성능에도 한계가 있다.However, according to the above prior art, the result of the refocusing using the optical field data is limited by the position of the microlens array, the image sensor, and the like, and therefore, the refocusing performance is also limited.

한국등록특허 제10-1483714호 (등록일 2015.01.12)Korean Registered Patent No. 10-1483714 (Registration date 2015.01.12)

본 발명은 인공 시각 알고리즘을 이용하여 이미 측정된 영상을 리포커싱하여 임의의 어느 포인트를 기준으로 피사계 심도(DOF, Depth of Field) 를 조정할 수 있는 디지털 촬상 장치를 제안하는 것을 목적으로 한다.An object of the present invention is to propose a digital imaging device capable of adjusting a depth of field (DOF) based on an arbitrary point by refocusing an image already measured using an artificial vision algorithm.

또한 본 발명은 플레놉틱 카메라를 통한 광 필드 이미징으로서 비이상적인 환경 조건에 대한 대응성을 높이고, 계산 방식을 단순화한 인공 시각 알고리즘을 제안하는 것을 또 다른 목적으로 한다.It is another object of the present invention to provide an artificial vision algorithm that improves responsiveness to non-ideal environmental conditions and simplifies a calculation method as optical field imaging through a plenoptic camera.

본 발명이 제안하는 인공 시각 알고리즘은 센서를 가로지르는 레이(ray) 각각을 따라 진행하는 빛의 양을 측정하는 완전한 4D 광 필드를 이용하여 구현되는 것을 목적으로 한다.The artificial vision algorithm proposed by the present invention is intended to be implemented using a complete 4D optical field that measures the amount of light traveling along each ray traversing the sensor.

본 발명은 광 필드 카메라의 리포커싱 과정에서 영상 인식 알고리즘을 이용한 부가 정보를 제공함으로써, 리포커싱 과정에서 광학계(optical system)의 공간적 제약을 벗어나 보다 자유도 높은 리포커싱 결과를 얻는 것을 목적으로 한다.An object of the present invention is to provide a more refocusing result which is free from the spatial limitation of an optical system in a re-focusing process by providing additional information using an image recognition algorithm in the re-focusing process of an optical field camera.

본 발명은 메인 렌즈의 물리적인 개구 폭을 현실에서 허용하는 범위 내로 유지하면서도, 리포커싱의 결과로 필요한 피사계 심도(DOF, Depth of Field) 값을 얻기 위하여 광학계(Optical System) 상의 위치로 한정되지 않는 임의의 위치를 탐색하는 것을 목적으로 한다.The present invention is not limited to the position on the optical system in order to obtain the depth of field (DOF) value required as a result of the refocusing, while keeping the physical aperture width of the main lens within a permissible range in reality It is aimed to search for an arbitrary position.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 디지털 촬상 장치는 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 촬상부 및 상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 프로세서를 포함하고, 상기 프로세서는 상기 캡처된 영상에 영상인식 알고리즘을 적용하는 영상 인식부 및 상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 리포커싱부를 포함한다.According to an aspect of the present invention, there is provided a digital imaging apparatus including an image pickup unit for obtaining light field data for refocusing a captured image of an object, And a processor for obtaining a refocused image of the object, the processor including an image recognition unit for applying an image recognition algorithm to the captured image, and a processor for processing the obtained optical field data by reflecting a result of applying the image recognition algorithm And a refocusing unit for refocusing the captured image.

이 때, 촬상부는 메인 렌즈, 광선들을 캡처하는 포토 센서 어레이 및 상기 메인 렌즈와 상기 포토 센서 어레이 사이에 위치하는 마이크로 렌즈 어레이를 포함하고, 상기 마이크로 렌즈 어레이는 상기 광선들을 물리적으로 상기 메인 렌즈로부터 상기 마이크로 렌즈 어레이를 통해 상기 포토 센서 어레이로 향하게 하는 것을 특징으로 한다.Wherein the imaging unit includes a main lens, a photosensor array for capturing rays of light, and a microlens array positioned between the main lens and the photosensor array, the microlens array physically transferring the rays from the main lens And is directed to the photosensor array through a microlens array.

또한, 리포커싱부는 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하며, 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.The re-focusing unit adjusts a re-focusing parameter for refocusing the captured image, if the similarity between the captured image and the reference image is less than a preset reference value, based on a result of applying the image recognition algorithm, And adjusting a re-focusing parameter for refocusing the captured image if the deterioration factor of the image displayed on the captured image is equal to or greater than a preset reference value, based on a result of applying the image recognition algorithm, And re-focusing the captured image.

또한, 상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Further, the captured image is refocused using an optical field calculation based on the obtained optical field data.

상기 영상 인식부는 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고, 이 때, 리포커싱부는 상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정하는 것을 특징으로 한다.Wherein the image recognition unit re-applies the image recognition algorithm to the re-focussed image, wherein the re-focussing unit determines whether the image to which the image recognition algorithm is applied again satisfies a predetermined re-focussing criterion, And the image recognition algorithm determines whether to re-focus the re-applied image again.

또한, 리포커싱부는 광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하며, 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Also, the re-focusing section may use a light field operation to refocus the captured image to adjust the re-focussing parameters such that the composite aperture plane and the composite sensor plane are positioned independently of the physical main lens and the position of the physical microlens array And refocusing the captured image by adjusting a refocusing parameter such that the synthetic aperture plane and the synthesized sensor plane are positioned between the physical main lens and the microlens array.

이 때, 합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.In this case, the captured image is refocused by adjusting the refocusing parameters so that the distance between the synthetic aperture plane and the synthesized sensor plane is equal to or greater than the lower limit reference value.

본 발명의 일 실시예에 따른 디지털 촬상 방법은 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 단계, 상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 단계, 상기 캡처된 영상에 영상인식 알고리즘을 적용하는 단계 및 상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 단계를 포함한다.A digital imaging method according to an embodiment of the present invention includes acquiring optical field data for refocusing a captured image of an object, processing the obtained optical field data to obtain a refocused image of the object Applying the image recognition algorithm to the captured image, and refocusing the captured image by processing the obtained optical field data reflecting the result of applying the image recognition algorithm.

상기 리포커싱하는 단계는 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하며, 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Wherein the refocusing step adjusts a refocusing parameter for refocusing the captured image when the degree of similarity between the captured image and the reference image is less than a preset reference value based on a result of applying the image recognition algorithm, And adjusting the re-focusing parameters for re-focusing the captured image when the image deterioration factors appearing on the captured image are equal to or greater than a preset reference value, based on the result of applying the image recognition algorithm. And refocusing the captured image.

또한, 상기 리포커싱하는 단계는 상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.The refocusing may further include refocusing the captured image using an optical field operation based on the obtained optical field data.

또한, 상기 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하는 단계를 더 포함하고, 상기 리포커싱하는 단계는 상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱 할 지를 결정하는 것을 특징으로 한다.The method of claim 1, further comprising: re-applying an image recognition algorithm to the refocused image, wherein the refocusing step determines whether the image re-applied to the image recognition algorithm meets a predetermined refocusing criterion, And based on the result, the image recognition algorithm determines whether to re-focus the re-applied image again.

상기 리포커싱하는 단계는 광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하며, 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Wherein the refocusing is performed using an optical field operation to refocus the captured image so that the composite aperture plane and the composite sensor plane are positioned independent of the position of the physical main lens and the physical microlens array, And refocusing the captured image by adjusting the refocusing parameters so that the synthetic aperture plane and the synthesized sensor plane are positioned between the physical main lens and the microlens array.

또한, 상기 리포커싱하는 단계는 합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.The refocusing may further include refocusing the captured image by adjusting the refocusing parameter such that a distance between a synthetic aperture plane and a synthesized sensor plane is equal to or greater than a lower limit reference value.

본 발명에 따르면 인공 시각 알고리즘을 이용하여 이미 측정된 영상을 리포커싱하여 임의의 어느 포인트를 기준으로 피사계 심도(DOF, Depth of Field) 를 조정할 수 있는 디지털 촬상 장치를 구현할 수 있다.According to the present invention, it is possible to implement a digital imaging device capable of adjusting the depth of field (DOF) based on any point by refocusing an image already measured using an artificial vision algorithm.

또한, 본 발명에 따르면 인공 시각 알고리즘을 이용하여 플레놉틱 카메라를 통한 광 필드 이미징으로서 비이상적인 환경 조건에 대한 대응성을 높이고, 계산 방식을 단순화할 수 있다. 이 때, 본 발명이 제안하는 인공 시각 알고리즘은 센서를 가로지르는 레이(ray) 각각을 따라 진행하는 빛의 양을 측정하는 완전한 4D 광 필드를 이용하여 구현될 수 있다.In addition, according to the present invention, as an optical field imaging through a plenoptic camera using an artificial vision algorithm, it is possible to improve responsiveness to non-ideal environmental conditions and to simplify a calculation method. At this time, the artificial vision algorithm proposed by the present invention can be implemented by using a complete 4D optical field for measuring the amount of light traveling along each ray traversing the sensor.

본 발명에 따르면 광 필드 카메라의 리포커싱 과정에서 영상 인식 알고리즘을 이용한 부가 정보를 제공함으로써, 리포커싱 과정에서 광학계(optical system)의 공간적 제약을 벗어나 보다 자유도 높은 리포커싱 결과를 얻을 수 있다.According to the present invention, by providing the additional information using the image recognition algorithm in the refocusing process of the optical field camera, it is possible to obtain a higher degree of freedom of refocusing out of the spatial restriction of the optical system in the refocusing process.

본 발명에 따르면 메인 렌즈의 물리적인 개구 폭을 현실에서 허용하는 범위 내로 유지하면서도, 리포커싱의 결과로 필요한 피사계 심도(DOF, Depth of Field) 값을 얻기 위하여 광학계(Optical System) 상의 위치로 한정되지 않는 임의의 위치를 기준으로 한 피사계 심도 값을 얻을 수 있다. 즉, 영상 센서 평면의 위치를 가상의 합성 센서 평면으로 가정하고, 가상의 합성 센서 평면 위치를 기준으로 하여 피사계 심도 값을 구함으로써 원하는 피사계 심도를 가진 디지털 영상을 얻을 수 있다. 이 때 본 발명에 따르면 가상의 합성 센서 평면 위치를 탐색하기 위하여 영상 인식 알고리즘을 이용할 수 있으며, 영상 인식 알고리즘의 판정 기준에 따라, 리포커싱 알고리즘에 의하여 가상의 합성 센서 평면 위치를 부가적으로 조정할 수 있다.According to the present invention, while maintaining the physical aperture width of the main lens within a permissible range in reality, it is not limited to a position on the optical system in order to obtain a Depth of Field (DOF) value required as a result of refocusing You can get depth of field values based on an arbitrary position that does not exist. That is, a digital image having a desired depth of field can be obtained by assuming the position of an image sensor plane as a virtual synthetic sensor plane and obtaining a depth of field depth based on a virtual synthesized sensor plane position. According to the present invention, an image recognition algorithm can be used to search for a virtual synthetic sensor plane position, and a virtual synthetic sensor plane position can be additionally adjusted by a re-focusing algorithm according to a determination criterion of an image recognition algorithm have.

도 1은 광 필드 파라미터의 개념을 도시하기 위하여 서로 분리된 두 개의 평행한 평면의 광 필드 파라미터를 나타낸 도면이다.
도 2는 일반적인 광 필드 플레놉틱 카메라의 구조를 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 광 필드를 이용한 인공 시각 처리 시스템을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 합성 이미지 형성을 위한 개념적 모델을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 디지털 촬상 장치를 개념적으로 나타낸 도면이다.
도 6은 도 5의 촬상부의 일 실시예를 상세하게 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 영상인식 알고리즘을 이용하여 리포커싱 효율을 향상시키는 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 영상인식 알고리즘을 이용하여 캡처된 영상에 나타나는 화질 열화 요인 여부를 판단하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 리포커싱 기준을 충족하는지 여부에 따라 리포커싱 과정을 반복하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 단말기에 광 필드 플레놉틱 카메라 모듈을 적용한 도면이다.
도 12는 도 11의 단말기에 적용된 광 필드 플레놉틱 카메라 모듈을 상세하게 나타낸 도면이다.
1 is a diagram illustrating optical field parameters of two parallel planes separated from each other to illustrate the concept of optical field parameters.
2 is a view showing a structure of a general optical field plenoptic camera.
3 is a diagram illustrating an artificial visual processing system using an optical field according to an embodiment of the present invention.
4 is a diagram illustrating a conceptual model for composite image formation according to an embodiment of the present invention.
5 is a conceptual view of a digital imaging device according to an embodiment of the present invention.
FIG. 6 is a detailed view of an embodiment of the imaging unit of FIG. 5;
7 is an operational flowchart showing a digital imaging method according to an embodiment of the present invention.
8 is a flowchart illustrating a digital imaging method for improving re-focusing efficiency using an image recognition algorithm according to an embodiment of the present invention.
9 is a flowchart illustrating a digital imaging method for determining whether an image quality deterioration factor appears on an image captured using an image recognition algorithm according to an embodiment of the present invention.
10 is an operational flowchart illustrating a digital imaging method of repeating a re-focusing process according to whether or not a re-focusing criterion according to an embodiment of the present invention is satisfied.
11 is a diagram illustrating an optical field plenoptic camera module applied to a terminal according to an exemplary embodiment of the present invention.
12 is a detailed view of the optical field plenoptic camera module applied to the terminal of FIG.

상기 목적 외에 본 발명의 다른 목적 및 특징들은 첨부 도면을 참조한 실시 예에 대한 설명을 통하여 명백히 드러나게 될 것이다.Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the accompanying drawings.

본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 광 필드 파라미터의 개념을 도시하기 위하여 서로 분리된 두 개의 평행한 평면의 광 필드 파라미터를 나타낸 도면이다. 본 발명의 일 실시예는 본 발명의 구성의 전부 또는 일부를 구현하기 위하여 도 1의 구성을 차용할 수 있다.1 is a diagram illustrating optical field parameters of two parallel planes separated from each other to illustrate the concept of optical field parameters. One embodiment of the present invention may employ the configuration of FIG. 1 to implement all or part of the configuration of the present invention.

광 필드 카메라가 아닌 일반적인 카메라는 외부로부터 입력되는 광 분포(light distribution)의 대부분의 정보를 기록하지는 않는다. 이 때 발생하는 손실 정보는 포토 센서의 각 지점에서 광의 총량의 2차원 영상만을 얻는 것이 아니라, 센서를 교차하는 각각의 레이(ray)를 따라 이동하는 빛의 양을 측정하는 4D 광 필드 데이터를 측정함으로써, 다시 캡처될 수 있다. 일반적으로 센서 상의 각 위치에 도달하는 방향을 가진 광 분포를 광 필드 데이터로 인식할 수 있다.A general camera, not a light field camera, does not record most of the light distribution input from the outside. The loss information generated at this time is obtained not by obtaining only a two-dimensional image of the total amount of light at each point of the photosensor but by measuring 4D optical field data measuring the amount of light moving along each ray crossing the sensor , And can be captured again. In general, a light distribution having a direction reaching each position on the sensor can be recognized as optical field data.

도 1은 거리 D에 의해 분리된 두 개의 평행한 평면과 광 필드(light-field) 파라미터를 도시한 도면으로, 여기서 L(u, v, s, t)은 점(s,t)와 점(u,v)를 통과하는 모든 레이(ray)를 포함하는 연속적인 광 필드 신호이다. 방향성을 가진 라인(Oriented Line)은 uv 평면 상의 점을 st 평면 상의 점과 연결함으로써 정의될 수 있다. 두 평면을 이용한 시스템은 레이(ray)를 위치(position)와 방향(direction)의 관점에서 기술할 수 있다. 이와 같은 두 평면을 이용한 시스템의 장점 중 하나는 카메라의 초점 거리와 동일하게 거리 D를 선택할 수 있다는 점이다.Figure 1 shows two parallel planes and light-field parameters separated by a distance D, where L (u, v, s, t) u, v) of the light beam. Oriented lines can be defined by connecting points on the uv plane with points on the st plane. A system using two planes can describe a ray in terms of position and direction. One of the advantages of the system using these two planes is that the distance D can be selected equal to the focal length of the camera.

도 2는 일반적인 광 필드 플레놉틱 카메라의 구조를 나타낸 도면이다.2 is a view showing a structure of a general optical field plenoptic camera.

일반적인 광 필드 플레놉틱 카메라는 메인 렌즈(main lens), 마이크로렌즈 어레이(Microlens array) 및 이미지 센서(Image Sensor)를 포함한다.A typical optical field plenoptic camera includes a main lens, a microlens array, and an image sensor.

메인 렌즈(main lens)는 관심 있는 객체(subject of interest)의 초점(focus)을 원하는 깊이(desired depth)에 맞추기 위하여 광축(optical axis)을 따라 이동할 수 있다.The main lens may move along the optical axis to match the focus of the subject of interest to a desired depth.

객체의 단일 지점에서 시작된 레이(ray)는 마이크로 렌즈 어레이(Microlens array)의 초점면(focal plane)에 단일 지점으로 수렴하게 된다. 그 수렴 위치에서 마이크로 렌즈는 수렴한 레이(ray)들을 방향에 기초하여 분리한다. 이로 인하여 메인 렌즈의 개구부의 영상이 마이크로렌즈 뒤의 픽셀 어레이에 초점이 맞춰져 형성된다. 마이크로렌즈 뒤의 영상은 이미지 센서의 위치에 따른 시스템 내의 방향 분해능(directional resolution)에 대응한다. 방향 분해능을 최대화하기 위하여 마이크로렌즈 영상은 선명할수록(sharp) 바람직하다. 이를 위하여 마이크로렌즈의 초점이 메인 렌즈의 주 평면(principal plane)에 형성되는 것이 바람직하다.A ray originating at a single point in the object converges to a single point in the focal plane of the microlens array. In the convergence position, the microlenses separate the converged rays based on the directions. As a result, the image of the opening of the main lens is formed by focusing on the pixel array behind the microlens. The image behind the microlens corresponds to the directional resolution in the system depending on the position of the image sensor. In order to maximize the directional resolution, the microlens image is preferably sharp. For this purpose, it is preferable that the focal point of the microlens is formed on the principal plane of the main lens.

도 3은 본 발명의 일 실시예에 따른 광 필드를 이용한 인공 시각 처리 시스템을 나타낸 도면이다.3 is a diagram illustrating an artificial visual processing system using an optical field according to an embodiment of the present invention.

본 발명의 광 필드 인공 시각 처리 시스템의 가장 큰 장점은 메인 렌즈의 물리적인 개구(조리개) 폭을 유지하면서도 이미지 센서 평면 상의 임의의 위치를 기준으로 한, 필요한 피사계 심도(DOF, Depth of Field)를 얻을 수 있다는 것이다.The greatest advantage of the optical field artificial vision system of the present invention is that the necessary depth of field (DOF), which is based on an arbitrary position on the image sensor plane, can be maintained while maintaining the physical aperture of the main lens I can get it.

넓은 개구는 더 많은 빛을 모을 수 있고, 이로 인하여 광 필드(light-field) 데이터가 풍부해지므로 잡음비 낮은 신호라 하더라도 상대적으로 선명한 영상을 얻을 수 있다.The wide aperture allows more light to be gathered, which makes the light-field data richer so that a relatively clear image can be obtained even if the signal has a low noise ratio.

디코딩부(320)는 디코딩 알고리즘을 이용하여 광 필드 카메라(310)로부터 획득한 이미 저장된 영상 센서 데이터를 광 필드 데이터 L(u, v, s, t)로 변환한다.The decoding unit 320 converts the already stored image sensor data acquired from the optical field camera 310 into optical field data L (u, v, s, t) using a decoding algorithm.

리포커싱부(340)는 리포커싱 알고리즘을 이용하여 디코딩부(320)에 의하여 변환된 광 필드 데이터 L(u, v, s, t)를 변환하여 합성 광 필드 L'(u', v', s', t')를 얻을 수 있다. 합성 광 필드 L'(u', v', s', t')의 의미에 대해서는 도 4를 통하여 후술하기로 한다.The refocusing unit 340 transforms the optical field data L (u, v, s, t) converted by the decoding unit 320 using the re-focusing algorithm to generate a composite optical field L '(u', v ' s ', t') can be obtained. The meaning of the composite light field L '(u', v ', s', t') will be described later with reference to FIG.

리포커싱부(340)는 디코딩부(320)에 의하여 변환된 광 필드 데이터 L(u, v, s, t)에 대하여 가상의 합성 개구부(synthetic aperture)와 가상의 합성 센서 평면(synthetic sensor plane)을 가정하고 초점 위치를 가상의 합성 센서 평면 상에 배치함으로써 최초의 광 필드 데이터 L(u, v, s, t)에 의한 디지털 영상보다 피사계 심도(DOF)가 높은 합성 영상을 얻을 수 있다.The re-focusing unit 340 generates a virtual synthetic aperture and a synthetic synthetic sensor plane for the light field data L (u, v, s, t) transformed by the decoding unit 320, , A synthetic image having a depth of field (DOF) higher than that of the digital image by the first optical field data L (u, v, s, t) can be obtained by arranging the focal point position on the virtual synthesized sensor plane.

영상 인식부(360)는 영상 인식 알고리즘을 이용하여 합성 영상에 대한 영상 인식을 수행하고, 영상 인식에 의한 결과를 피드백부(350)로 전달한다. 이 때 영상 인식의 결과는 현재의 피사계 심도(DOF)가 만족스러운지, 현재의 영상 촬영 환경이 인식 가능한 영상을 얻기에 충분한지 등의 조건을 판정할 수 있다.The image recognition unit 360 performs image recognition on the composite image using the image recognition algorithm and transmits the result of the image recognition to the feedback unit 350. [ At this time, the result of the image recognition can determine conditions such as whether the current depth of field (DOF) is satisfactory, whether the current image capturing environment is sufficient to obtain a recognizable image, and the like.

피드백부(350)는 조명 및 촬상의 조건이 만족스러운지, 현재의 피사계 심도(DOF)가 재조정이 필요한지에 대한 정보를 생성하여 리포커싱부(340) 또는 재교정부(330)에 전달할 수 있다. 피드백부(350)가 체크할 수 있는 조명(illumination) 및 촬상(imaging)의 조건은 예를 들어 어두운 조명(poor lighting), 수중 환경(underwater), 빛이 감쇠가 큰 매질을 통과하는지(attenuating media) 등일 수 있다. 여기서 감쇠가 큰 매질의 예로는 연기(smoke), 안개(fog) 등을 들 수 있다.The feedback unit 350 may generate information on whether the conditions of the illumination and the imaging are satisfactory and whether the current depth of field (DOF) needs to be re-adjusted and transmit the information to the refocusing unit 340 or the refocusing unit 330. The conditions of illumination and imaging that the feedback unit 350 can check include, for example, poor lighting, underwater, whether the light is attenuating media ) And the like. Here, smoke, fog, and the like are examples of a medium having a large attenuation.

재교정부(330)는 현재 리포커싱된 영상의 피사계 심도(DOF)가 만족스럽지 못한 경우, 리포커싱 과정 및 영상 처리 알고리즘을 추가 적용하여 피사계 심도를 재조정할 수 있다.If the depth of field (DOF) of the currently refocused image is unsatisfactory, the refocusing unit 330 may further re-adjust the depth of field by further applying a refocusing process and an image processing algorithm.

재교정부(330)는 현재 재구성된 영상에 대한 소프트웨어 처리를 이용하여 현재 재구성된 영상에 대한 확대 또는 축소 연산을 수행할 수 있다. 이러한 확대 또는 축소 연산은 재구성된 영상의 피사계 심도(DOF) 또는 선명도에 기반하여 결정되고 실행될 수 있다. 예를 들어 현재 재구성된 영상이 충분히 선명한 경우 재교정부(330)는 현재 재구성된 영상을 확대하여 높은 해상도 버전의 영상을 얻을 수 있다. 또는 현재 재구성된 영상이 리포커싱 처리에도 불구하고 여전히 선명하지 못한 경우 재교정부(330)는 현재 재구성된 영상을 축소하여 낮은 해상도 버전의 영상을 얻을 수도 있다.The re-ordering unit 330 may perform an enlargement or reduction operation on the currently reconstructed image using software processing on the reconstructed image. This magnification or reduction operation can be determined and executed based on the depth of field (DOF) or sharpness of the reconstructed image. For example, if the current reconstructed image is sufficiently clear, the re-ordering unit 330 may enlarge the currently reconstructed image to obtain a high resolution version of the image. Or if the current reconstructed image is still not clear despite the re-focusing process, the re-ordering unit 330 may reduce the currently reconstructed image to obtain a lower resolution version of the image.

영상 인식부(360)는 비이상적인 조명과 비이상적인 조명 조건 또는 영상 조건에 대한 이미지를 체크할 수 있으며, 비이상적인 조건의 예로는 연기(smoke) 또는 안개(fog) 등과 같이 이미지에 리포커싱이 필요한 경우, 피드백부(350)를 통하여 리포커싱부(340) 또는 재교정부(330)에서 이를 활용할 수 있다. The image recognition unit 360 may check non-ideal illumination and non-ideal illumination conditions or images for image conditions, and examples of non-ideal conditions include refocusing the image such as smoke or fog The refocusing unit 340 or the refocusing unit 330 may utilize this through the feedback unit 350. FIG.

도 4는 본 발명의 일 실시예에 따른 합성 이미지 형성을 위한 개념적 모델을 나타낸 도면이다.4 is a diagram illustrating a conceptual model for composite image formation according to an embodiment of the present invention.

도 4를 참조하면, 실제로 얻어진 영상과 다르게 위치되고 리포커싱된 합성 카메라(synthetic camera)의 개념이 도시된다. 여기서 소개되는 합성 카메라는 가상의 카메라로서, 그 가상적인 구성은 일반적인 카메라(conventional camera)와 같다. 즉, 합성 카메라는 합성 개구(synthetic aperture)와 합성 센서 평면(synthetic sensor plane)을 가질 것이다. 합성 센서 평면은, 실시예에 따라서는 합성 필름 평면(synthetic film plane)으로 가정해도 무방하다.Referring to FIG. 4, there is shown a concept of a synthetic camera that is positioned and refocused differently from the image actually obtained. The synthetic camera introduced here is a virtual camera, and its virtual configuration is the same as a conventional camera. That is, the composite camera will have a synthetic aperture and a synthetic sensor plane. The synthetic sensor plane may be assumed to be a synthetic film plane depending on the embodiment.

합성 카메라는 다음의 네 가지 파라미터를 이용하여 모델링될 수 있다. 네 가지 파라미터는 개구 크기(aperture size), 개구 위치(aperture location), 렌즈의 심도(depth of lens) 및 센서 평면의 심도(depth of sensor plane)를 의미한다.The composite camera can be modeled using the following four parameters. The four parameters are the aperture size, the aperture location, the depth of lens, and the depth of the sensor plane.

도 4에서는 합성 카메라의 합성 개구(렌즈)와 합성 센서 평면이 평행한 실시예가 도시되었으나, 본 발명의 사상은 이에 국한되지 않고, 합성 개구와 합성 센서 평면이 평행하지 않은 경우에도 적용될 수 있다. 합성 개구와 합성 센서 평면이 평행하지 않은 경우에는 획득된 광 필드 데이터에 기초하여 레이 트레이싱(ray tracing) 기법을 적용하여 광 필드를 추적할 수 있을 것이다.4 shows an embodiment in which the synthetic aperture (lens) of the synthetic camera is parallel to the synthesized sensor plane, but the spirit of the present invention is not limited to this, and can also be applied to a case in which the synthesized aperture and synthetic sensor plane are not parallel. If the composite aperture and the synthesized sensor plane are not parallel, the ray tracing technique may be applied to track the optical field based on the acquired optical field data.

합성 광 필드 데이터

Figure 112015041937486-pat00001
는 합성 센서 평면 (s', t')과 합성 개구 평면(u', v') 사이를 이동하는 빛(광 필드 데이터)를 나타낸 것이다. 이에 따라, 합성 센서 평면에 나타난 조도 화상 값은 수학식 1로 나타낼 수 있다.Composite light field data
Figure 112015041937486-pat00001
(Light field data) moving between the synthetic sensor plane s ', t' and the synthetic aperture plane u ', v'. Accordingly, the illuminance image value displayed on the synthesized sensor plane can be expressed by Equation (1).

[수학식 1][Equation 1]

Figure 112015041937486-pat00002
Figure 112015041937486-pat00002

실제로 얻어진 광 필드 L과 합성 광 필드 L'의 관계는 하기 수학식 2와 같은 좌표 변환 식으로 나타낼 수 있다.The relation between the optical field L actually obtained and the synthetic optical field L 'can be expressed by a coordinate transformation formula as shown in the following equation (2).

[수학식 2]&Quot; (2) "

Figure 112015041937486-pat00003
Figure 112015041937486-pat00003

상기 수학식 1과 수학식 2를 결합하면, 수학식 1의 조도 화상 값을 하기 수학식 3과 같이 다시 쓸 수 있다.Combining Equations (1) and (2), the illuminance image value of Equation (1) can be rewritten as Equation (3).

[수학식 3]&Quot; (3) "

Figure 112015041937486-pat00004
Figure 112015041937486-pat00004

이 때,

Figure 112015041937486-pat00005
는 합성 카메라의 합성 개구의 면적 값을 나타내며, 수학식 3을 이용하여 스테레오 비전을 포함한 합성 카메라의 이미지를 연산할 수 있다.At this time,
Figure 112015041937486-pat00005
Represents the area value of the synthetic aperture of the synthetic camera, and the image of the synthetic camera including the stereo vision can be calculated using Equation (3).

다시 도 3을 참조하면, 리포커싱부(340)는 스테레오 비전을 포함한 합성 센서 평면을 임의의 위치로 이동하여 리포커싱된 합성 영상을 생성할 수 있다. 일반적인 리포커싱 알고리즘을 적용하였을 때, 일차적인 리포커싱 영상을 얻을 수 있으며, 본 발명에서는 영상 인식부(360)의 영상 인식 결과 및 피드백부(350)의 환경 조건 판정 결과에 따라 재교정부(330)가 추가적인 리포커싱 알고리즘을 수행할 수 있음은 앞에서 설명한 바와 같다. 이 때, 리포커싱부(340) 또는 재교정부(330)에서 수행되는 리포커싱 알고리즘에서는 파라미터

Figure 112015041937486-pat00006
를 조정하여 최종적으로 원하는 리포커싱 영상, 즉, 합성 영상을 얻을 수 있다.Referring again to FIG. 3, the refocusing unit 340 may generate a refocused composite image by moving the synthesized sensor plane including the stereo vision to an arbitrary position. In the present invention, the re-smoothing unit 330 may perform a re-focusing operation based on the image recognition result of the image recognizing unit 360 and the environmental condition determination result of the feedback unit 350, Lt; / RTI > can perform additional refocusing algorithms as described above. At this time, in the refocusing algorithm performed in the refocusing unit 340 or the refocusing unit 330,
Figure 112015041937486-pat00006
And finally, a desired refocusing image, that is, a composite image can be obtained.

합성 개구가 좁아지면 피사계 심도(DOF)를 향상시킬 수 있다. 따라서 영상 인식부(340) 또는 피드백부(350)의 판정 결과, 조명이나 촬상의 조건이 열악하거나, 또는 영상 자체의 선명도(sharpness)가 떨어지는 경우 리포커싱부(340) 또는 재교정부(330)는 피사계 심도를 높이기 위하여 합성 개구를 더욱 좁히는 방향으로 리포커싱을 수행할 수 있다.Narrowing the synthetic aperture can improve depth of field (DOF). The refocusing unit 340 or the re-sharpening unit 330 may not be able to detect the sharpness of the image itself if the conditions of illumination or image pickup are poor or the sharpness of the image itself is low as a result of the judgment by the image recognizing unit 340 or the feedback unit 350 Refocusing can be performed in a direction in which the synthetic aperture is further narrowed to increase the depth of field.

미시적인 객체(microscopic object)의 거시적인 효과(macro effect)도 동일한 원리에 의하여 얻어질 수 있으며, 부드러운 엣지(soft edge) 또는 엣지(edge)를 가진 객체의 경우 리포커싱을 통하여 영상의 해상도(resolution)를 개선할 수 있는 효과가 있다.The macroscopic effect of a microscopic object can be obtained by the same principle and for an object with a soft edge or an edge, ) Can be improved.

도 5는 본 발명의 일 실시예에 따른 디지털 촬상 장치(500)를 상세하게 나타낸 도면이다.5 is a detailed view of a digital imaging device 500 according to an embodiment of the present invention.

본 발명의 기존의 광 필드 카메라 기법에 영상 인식 과정을 추가하고, 영상 인식 결과를 반영하여 리포커싱 파라미터(합성 센싱 평면 등의 위치 조정을 포함하는 개념)를 조정하는 디지털 촬상 장치(500)는 촬상부(510) 및 프로세서(520)를 포함하고, 프로세서(520)는 영상 인식부(521) 및 리포커싱부(522)를 포함한다.The digital imaging device 500, which adds an image recognition process to the existing optical field camera technique of the present invention and adjusts a re-focusing parameter (a concept including position adjustment such as a synthetic sensing plane) by reflecting an image recognition result, And a processor 520. The processor 520 includes an image recognition unit 521 and a re-focusing unit 522. The image recognition unit 521 and the re-

촬상부(510)는 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득한다. 이 때, 객체(object)는 피사체(객체) 또는 장면(scene)을 의미하며, 캡처된 영상은 실제의 피지컬 센서(physical sensor)의 픽셀(pixel)값에 의해 인식되는 영상을 의미한다.The imaging unit 510 acquires the light field data for refocusing the captured image of the object. In this case, the object means an object or a scene, and the captured image means an image recognized by a pixel value of an actual physical sensor.

프로세서(520)는 획득 된 광 필드 데이터를 처리하여 객체의 리포커싱된 영상을 획득하는 역할을 한다.The processor 520 processes the acquired optical field data to obtain a refocused image of the object.

영상 인식부(521)는 캡처된 영상에 영상인식 알고리즘을 적용하고, 리포커싱부(522)는 영상인식 알고리즘이 적용된 결과를 반영하여 획득된 광 필드 데이터를 처리함으로써 캡처된 영상을 리포커싱할 수 있다.The image recognition unit 521 applies an image recognition algorithm to the captured image, and the refocusing unit 522 processes the acquired optical field data reflecting the result of applying the image recognition algorithm to refocus the captured image have.

이 때, 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 캡처된 영상을 리포커싱할 수도 있다.At this time, the captured image may be refocused using an optical field operation based on the obtained optical field data.

또한, 영상인식 알고리즘은 영상인식의 복잡한 연산과정을 해결하기 위하여 양자 컴퓨팅을 이용한 영상인식 알고리즘을 이용할 수도 있으며 예를 들어, 캡처된 영상의 관심점을 설정하고, 관심점 간의 관계 벡터를 생성하여 관계 벡터 간의 상호작용으로 모델링하고, 벡터 간의 상호작용을 물리학 모델 중 쌍극자 간의 상호작용(이징 모델, Ising model)에 투영할 수도 있다. 이에 따라, 이징 모델에 기반한 양자 컴퓨팅 하드웨어를 이용하여 영상 인식의 복잡한 문제를 쉽게 해결할 수도 있다.In addition, the image recognition algorithm may use an image recognition algorithm using quantum computing to solve a complicated calculation process of image recognition. For example, a point of interest of a captured image is set, a relation vector between points of interest is generated, And the interaction between the vectors can be projected to the interaction between the dipoles in the physics model (Ising model). Accordingly, complex problems of image recognition can easily be solved by using quantum computing hardware based on the eigenzone model.

이 때, 이징 모델을 이용한 양자 컴퓨팅 하드웨어 중 해밀토니안의 단열적 변화를 일으켜 목표 상태에서의 솔루션을 구하는 단열적 양자 컴퓨팅(AQC) 기법을 이용할 수도 있으며, 이징 모델 중에서 특히 트랩된 이온(Trapped Ion) 기반의 스핀-포논 커플링(spin-phonon coupling)을 이용한 양자 컴퓨팅 하드웨어를 구성하고, 양자 컴퓨팅 하드웨어를 풀 수 있는 물리학적 모델에 기반하여 영상인식의 복잡한 연산과정을 해결할 수도 있다.In this case, it is possible to use adiabatic quantum computing (AQC) technique which obtains a solution in a target state by causing an adiabatic change of Hamiltonian among quantum computing hardware using an eigenmodeling model. In particular, among trapping ions, Based spin-phonon coupling and solve the complex computation process of image recognition based on a physical model that can solve quantum computing hardware.

본 발명의 일 실시예로 리포커싱부(522)는 영상인식 알고리즘이 적용된 결과에 기반하여 캡처된 영상과 레퍼런스 영상 간의 유사도가 미리 설정된 기준치 미만인 경우, 즉, 사람의 눈으로 인식하기에 캡처된 영상의 초점이 흐릿하거나 주변 환경에 의하여 캡처된 영상이 뿌옇게 보이는 경우에 캡처된 영상을 리포커싱 즉, 초점을 다시 맞추기 위하여 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수 있다.In an exemplary embodiment of the present invention, the re-focusing unit 522 may be configured such that when the similarity between the captured image and the reference image is less than a preset reference value, that is, It is possible to refocus the captured image by adjusting the re-focusing parameters in order to refocus the captured image when the focus of the captured image is blurry or the captured image is blurry.

이 때, 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다. 피사계 심도는 사진술에서 한 사진의 초점이 맞는 것으로 인식되는 범위를 의미한다.At this time, the re-focusing parameter is adjusted to increase the depth of field (DOF). Depth of field means the extent to which a picture in photography is perceived as being in focus.

본 발명의 또 다른 일 실시예로 리포커싱부(522)는 영상인식 알고리즘이 적용된 결과에 기반하여 캡처된 영상에 나타나는 화질 열화 요인이 미리 설정된 기준치 이상인 경우, 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.According to another embodiment of the present invention, the re-focusing unit 522 may perform the re-focusing for re-focusing the captured image when the image deterioration factor appearing in the captured image is equal to or greater than a preset reference value, You can adjust the parameters to refocus the captured image.

이 때, 화질 열화 요인은 영상 왜곡, 어두운 조명(poor lighting), 수중 환경, 안개, 연기 등을 포함할 수 있으며, 화질 열화 요인이 있을 때에는 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다.In this case, the image deterioration factor may include image distortion, poor lighting, underwater environment, fog, smoke, and the like. When there is a deterioration factor of image quality, the refocusing parameter is the depth of field (DOF) Adjust in the increasing direction.

본 발명의 또 다른 일 실시예로 리포커싱된 영상을 다시 영상 인식할 수도 있으며, 이 때, 영상 인식을 한 결과가 일정한 기준치에 못 미치는 경우, 즉, 흐릿하거나 화질이 떨어지는 경우에 리포커싱된 영상에 다시 피사계 심도(DOF)를 증가하는 방향으로 조정하여 리포커싱 할 수도 있다.According to another embodiment of the present invention, the re-focused image may be re-image-recognized. In this case, when the result of the image recognition is less than a predetermined reference value, that is, To adjust the depth of field DOF again to increase the depth of field.

이 때에는 영상 인식부(521)에서 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고, 리포커싱부(522)는 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수 있다.In this case, the image recognition unit 521 re-applies the image recognition algorithm to the refocused image, and the re-focusing unit 522 determines whether the image to which the image recognition algorithm is applied again satisfies a preset re- Based on the result, the image recognition algorithm can decide whether to re-focus the re-applied image again.

또 다른 일 실시예로, 캡처된 영상에서 사용자가 원하는 부분을 선택할 수도 있으며, 이에 따라 사용자 선택을 입력 받아 사용자가 선택한 부분의 초점을 다시 영상 인식하여, 영상인식 알고리즘을 적용하고, 적용된 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수도 있다.In another embodiment, the user may select a desired portion of the captured image. Accordingly, the user's selection is input, and the user recognizes the focus of the selected portion again to apply the image recognition algorithm, Determines whether the reapplied image meets a predetermined refocusing criterion, and based on the determination result, the image recognition algorithm may decide to re-focus the reapplied image again.

본 발명의 일 실시예로 리포커싱부(522)는 합성 개구부 평면 및 합성 센서 평면의 위치를 결정할 수도 있다. In one embodiment of the present invention, the refocusing portion 522 may determine the position of the composite aperture plane and the composite sensor plane.

예를 들어, 광 필드 연산을 이용하여 합성 개구부 평면(synthetic aperture plane) 및 합성 센서 평면(synthetic film/sensor plane)이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 또는 제한되지 않고 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수 있다.For example, optical field calculations can be used to determine whether a synthetic aperture plane and a synthetic film / sensor plane are located at any position, regardless of the position of the physical main lens and physical microlens array, The captured image can be refocused by adjusting the re-focusing parameters.

또 다른 일 실시예로는 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.Another embodiment may refocus the captured image by adjusting the refocusing parameters such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.

이 때, 합성 개구부 평면 및 합성 센서 평면 간의 거리에 하한 기준값을 설정하여 합성 개구부 평면 및 합성 센서 평면이 서로 일치하거나 겹치지 않도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수도 있다.At this time, it is also possible to refocus the captured image by adjusting the refocusing parameter so that the synthetic aperture plane and the synthetic sensor plane do not coincide or overlap with each other by setting a lower limit reference value in the distance between the synthetic aperture plane and the synthesized sensor plane.

도 6은 본 발명의 일 실시예에 따른 촬상부를 상세하게 나타낸 도면이다.6 is a detailed view of an imaging unit according to an embodiment of the present invention.

본 발명의 디지털 촬상 장치(500)에 포함되는 촬상부(510)는 메인 렌즈(511), 포토 센서 어레이(513), 마이크로 렌즈 어레이(512)를 포함한다.The imaging unit 510 included in the digital imaging apparatus 500 of the present invention includes a main lens 511, a photosensor array 513, and a microlens array 512.

이 때, 마이크로 렌즈 어레이(512) 및 포토센서 어레이(513)는 이미지 센서를 구현 한다. 이와 같은 디지털 촬상 장치(500)를 이용하여 리포커싱된 영상이나 여러 각도에서 보이는 영상을 획득(즉, 영상의 뷰 조정)할 수 있다.At this time, the microlens array 512 and the photosensor array 513 implement an image sensor. By using the digital imaging device 500, it is possible to acquire a refocused image or an image viewed from various angles (i.e., adjust the view of an image).

이미지화된 장면 내의 피사체(객체)(514)상의 단일점으로부터의 광선들은 마이크로 렌즈 어레이(512)의 초점 평면 상의 단일 수렴점으로 도달된다. 이 수렴점에서의 마이크로 렌즈(512)는 이들 광선들을 광의 방향에 기초하여 분리시켜, 마이크로 렌즈 아래의 포토센서 상에 메인 렌즈(511)의 구경의 포커싱된 이미지를 생성한다.The rays from a single point on the object (object) 514 in the imaged scene reach a single convergent point on the focal plane of the microlens array 512. [ The microlens 512 at this convergence point separates these light beams based on the direction of light, and produces a focused image of the aperture of the main lens 511 on the photosensor below the microlens.

포토센서 어레이(513)는 그 위에 입사되는 광을 검출하고, 여러가지 성분의 하나 이상을 사용하여 처리되는 출력을 생성한다. 출력 광 데이터는 예를 들어, 피사체(514)를 포함하는 장면의 이미지를 생성할 때 데이터를 제공하는 각 포토센서에 대한 위치정보와 함께 데이터를 사용하는 프로세서(520)로 전송된다.The photosensor array 513 detects the light incident thereon and produces an output that is processed using one or more of the various components. The output optical data is transmitted to the processor 520 using the data together with positional information for each photosensor that provides the data when generating an image of the scene including, for example, the subject 514.

프로세서(520)는, 예를 들어, 공통 부품(예를 들어, 한 칩) 또는 상이한 부품에 선택적으로 구현된 컴퓨터 또는 기타 처리 회로로 구현될 수 있다. 실시예에 따라서는 프로세서(520)의 일부는 촬상부(510) 내에 구현되고, 다른 부분은 외부 컴퓨터에 구현될 수도 있다. 프로세서(520)는 이미지 데이터를 처리하고 피사체(514)를 포함하는 장면의 이미지를 리포커싱 하도록 구현된다.The processor 520 may be implemented, for example, with a computer or other processing circuitry optionally implemented on a common component (e.g., a chip) or on a different component. Depending on the embodiment, a portion of the processor 520 may be implemented within the imaging section 510, while the other portion may be implemented in an external computer. The processor 520 is configured to process the image data and refocus the image of the scene including the subject 514.

프로세서(520)는 광이 마이크로 렌즈 어레이(512)에 도달한 공지된 방향(각 포토센서의 공지된 위치를 사용하여 계산됨)과 함께 검출된 광 또는 검출된 광의 특성을 사용하여 리포커싱(refocusing)이 교정될 수 있는 이미지를 형성할 때 데이터를 선택적으로 리포커싱 및/또는 교정한다.The processor 520 may perform refocusing using the detected light or the characteristics of the detected light in conjunction with the known direction in which light has reached the microlens array 512 (calculated using the known location of each photo sensor) ≪ / RTI > selectively refocus and / or correct the data as it forms an image that can be corrected.

디지털 촬상 장치(500)는 어플리케이션에 따라 다르게 여러가지 방식으로 구현된다. 예를 들어, 마이크로 렌즈는 일예로서 몇 개의 구별 가능한 마이크로 렌즈로 도시되지만, 어레이는 일반적으로 다수의(예를 들어, 수천 또는 수백만) 마이크로 렌즈로 구현된다. 포토센서 어레이(513)는 일반적으로, 마이크로 렌즈 어레이(512) 내의 각각의 마이크로 렌즈마다 몇 개의 포토센서를 갖는다.The digital imaging device 500 is implemented in various ways depending on the application. For example, although a microlens is shown as an example and some distinguishable microlenses, the array is typically implemented with multiple (e.g., thousands or millions) microlenses. The photosensor array 513 generally has several photosensors for each microlens in the microlens array 512.

포토센서 어레이(513)의 각 픽셀의 크기 즉, 피치(pitch)는 마이크로 렌즈 어레이(512)보다 상대적으로 미세하다. 또한, 마이크로 렌즈 어레이(512)내의 마이크로 렌즈 및 포토센서 어레이(513) 내의 포토센서는 일반적으로 각각의 마이크로 렌즈를 통해 포토센서 어레이로 나아가는 광이 인접한 마이크로 렌즈를 통해 나아간 광과 겹치지 않도록 위치가 설정된다.The size, or pitch, of each pixel of the photosensor array 513 is relatively finer than the microlens array 512. In addition, the micro-lenses in the microlens array 512 and the photosensors in the photosensor array 513 are generally positioned such that light traveling through the respective microlenses to the photosensor array does not overlap with light traveling through the adjacent microlenses do.

메인 렌즈(511)는 메인 렌즈(511)와 예시적인 촬상 피사체(514) 사이에 예시된 바와 같은 원하는 심도 "d"에서 관심있는 피사체 상에 포커싱하기 위해 광축을 따라 수평방향으로 이동되는 것과 같은 성능을 가진다. 따라서, 획득된 광 필드 데이터 기반으로 각 관심 위치에 리포커싱을 할 수 있다.The main lens 511 has the same performance as being moved horizontally along the optical axis to focus on a subject of interest at the desired depth "d" as illustrated between the main lens 511 and the exemplary imaging subject 514 . Thus, it is possible to perform refocusing at each position of interest based on the obtained optical field data.

예를 들어, 피사체(514)의 단일점으로부터의 광선들은 이러한 설명을 위해 도시된다. 이들 광선들은 마이크로 렌즈 어레이(512)의 초점 평면상의 마이크로 렌즈에서 단일 수렴점으로 도달한다. 마이크로 렌즈는 이들 광선들의 방향에 기초하여 분리해서, 마이크로 렌즈 아래의 픽셀 어레이 내의 픽셀 세트 상에서 메인 렌즈(511)의 구경의 포커싱된 이미지 및 광 필드 데이터를 생성한다.For example, rays from a single point of the subject 514 are shown for this illustration. These rays reach a single convergence point in the microlens on the focal plane of the microlens array 512. The microlenses are separated based on the direction of these rays to produce focused image and light field data of the aperture of the main lens 511 on the set of pixels in the pixel array below the microlenses.

디지털 촬상 장치(500) 내부의 2-평면 광 필드 "L"을 고려하면, 광 필드 데이터 L(u,v,s,t)는 (u,v)에서 메인 렌즈(511)와 교차하고, (s,t)에서 마이크로 렌즈 어레이(512)의 평면과 교차하는 광선을 따라 이동하는 광을 나타낸다. 예를 들어, 각 마이크로 렌즈 (s,t)에서, 메인 렌즈(511)의 각 서브-어퍼쳐(sub-aperture)의 위치 (u,v)를 통과하는 인텐서티 값들을 나타낸다. 여기에서, 서브-어퍼쳐는 메인 렌즈(511)의 방향 분해능의 개수를 의미한다. 예를 들어, 서브-어퍼쳐의 개수가 196개인 경우, 각 마이크로 렌즈 어레이(512)는 196개의 픽셀로 구성 된다.The optical field data L (u, v, s, t) crosses the main lens 511 at (u, v) s, t), the light traveling along a ray intersecting the plane of the microlens array 512. For example, intensity values that pass through the position (u, v) of each sub-aperture of the main lens 511 in each microlens s, t. Here, the sub-aperture means the number of directional resolutions of the main lens 511. For example, when the number of sub-apertures is 196, each microlens array 512 is composed of 196 pixels.

포토센서 어레이(513)내의 각각의 포토센서는 메인 렌즈(511) 및 마이크로 렌즈 어레이(512)를 통해 포토센서로 향한 광선 세트를 나타내는 값을 제공하도록 구현될 수 있다. 즉, 각각의 포토센서는 포토센서상에 입사된 광에 응답하여 출력을 생성하고, 마이크로 렌즈 어레이(512)에 대한 각 포토센서의 위치는 입사광에 대한 방향 정보를 제공하기 위해 이용된다.Each photosensor in the photosensor array 513 may be implemented to provide a value representative of the set of rays directed to the photosensor through the main lens 511 and the microlens array 512. [ That is, each photosensor generates an output in response to light incident on the photosensor, and the position of each photosensor with respect to the microlens array 512 is used to provide direction information about the incident light.

프로세서(520)는 광 필드 데이터 즉, L(u,v,s,t)를 이용하여 리포커싱 영상을 생성할 수 있다. 이때, 프로세서(520)는 마이크로 렌즈에 대한 각 포토센서의 위치를 이용하여 각 포토센서상의 광의 방향을 결정할 수도 있다. \The processor 520 may generate the re-focused image using the optical field data, i.e., L (u, v, s, t). At this time, the processor 520 may determine the direction of light on each photo sensor by using the position of each photo sensor with respect to the microlens. \

또한, 프로세서(520)는 검출된 광이 퍼져 나오는 장면내의 피사체의 시야 심도를 결정하고, 상기 시야 심도 및 검출된 광의 방향을 사용해서, 초점 평면과는 상이한 초점 평면상에서 포커싱되는 합성 영상을 계산할 수 있다.The processor 520 may also determine the depth of field of the subject in the scene in which the detected light is emitted and use the depth of field and the direction of the detected light to calculate a composite image that is focused on a different focal plane than the focal plane have.

한편, 마이크로 렌즈 어레이(512)내의 특정 마이크로 렌즈 아래에 형성되는 이미지는 촬상 평면상의 그 위치에 대한 시스템의 방향 분해능(directional resolution)을 지시한다. 메인 렌즈(511)는 유효하게 마이크로 렌즈의 광학적 무한 거리에 있고 마이크로 렌즈를 포커싱하기 위해, 포토센서 어레이(513)는 마이크로 렌즈의 초점 심도에서 한 평면 내에 위치한다. 메인 렌즈(511)와 마이크로 렌즈 어레이(512) 사이의 분리거리 "s"는 마이크로 렌즈의 시야 심도 내에서 예리한 이미지를 달성하도록 선택된다.On the other hand, the image formed below the particular microlens in the microlens array 512 indicates the directional resolution of the system relative to its position on the imaging plane. The main lens 511 is effectively at an optical infinity of the microlens and the photo sensor array 513 is located in one plane at the focal depth of the microlens in order to focus the microlens. The separation distance "s" between the main lens 511 and the microlens array 512 is selected to achieve a sharp image within the field of view of the microlens.

메인 렌즈(511)의 구경 크기 및 마이크로 렌즈 어레이(512)내의 마이크로 렌즈의 구경 크기(예를 들어, 렌즈 내의 개구부의 유효 크기)는 디지털 촬상 장치(511)가 구현되는 특정 애플리케이션에 부합하도록 선택된다. 이 방법은 메인 렌즈 및 마이크로 렌즈의 f-수(초점비율: 즉, 렌즈의 유효 초점 길이 대 구경의 비)에 맞춤으로써 용이해진다.The aperture size of the main lens 511 and the aperture size of the microlenses in the microlens array 512 (e.g., the effective size of the aperture in the lens) are selected to match the particular application in which the digital imaging device 511 is implemented . This method is facilitated by fitting to the f-number (focal ratio: the effective focal length of the lens to the aperture diameter) of the main lens and the microlens.

예를 들어, 본 발명에서는 메인 렌즈(511)의 크기를 조절하지 않는 커다란 렌즈가 필요한 군용장비, 천문 망원경, 드론, 감시용 카메라, CCTV 등에 활용될 수 있다.For example, the present invention can be applied to military equipment, astronomical telescopes, drones, surveillance cameras, CCTV, etc., which require a large lens that does not control the size of the main lens 511.

도 7은 본 발명의 일 실시예에 따른 디지털 촬상 방법을 나타낸 동작 흐름도이다.7 is an operational flowchart showing a digital imaging method according to an embodiment of the present invention.

본 발명의 기존의 광 필드 카메라 기법에 영상 인식 과정을 추가하고, 영상 인식 결과를 반영하여 리포커싱 파라미터(합성 센싱 평면 등의 위치를 포함하는 개념)를 조정하는 디지털 촬상 방법은 우선, 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득한다(S710). 이 때, 객체(object)는 피사체 또는 장면(scene)을 의미하며, 캡처된 영상은 실제의 피지컬 센서(physical sensor)의 픽셀(pixel)값에 의해 인식되는 영상을 의미한다.A digital imaging method of adding an image recognition process to an existing optical field camera technique of the present invention and adjusting a re-focusing parameter (a concept including a position such as a synthetic sensing plane) by reflecting an image recognition result, And acquires optical field data for re-focusing the image (S710). In this case, the object refers to a subject or a scene, and the captured image means an image recognized by a pixel value of an actual physical sensor.

이후, 획득 된 광 필드 데이터를 처리하여 객체의 리포커싱된 영상을 획득하고(S720), 캡처된 영상에 영상인식 알고리즘을 적용하여(S730), 영상인식 알고리즘이 적용된 결과를 반영하여 획득된 광 필드 데이터를 처리함으로써 캡처된 영상을 리포커싱할 수 있다(S740).Thereafter, the obtained light field data is processed to acquire a refocused image of the object in step S720, an image recognition algorithm is applied to the captured image in step S730, and the light field obtained by reflecting the result of applying the image recognition algorithm The captured image can be refocused by processing the data (S740).

이 때, 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 캡처된 영상을 리포커싱할 수도 있다.At this time, the captured image may be refocused using an optical field operation based on the obtained optical field data.

또한, 영상인식 알고리즘은 영상인식의 복잡한 연산과정을 해결하기 위하여 양자 컴퓨팅을 이용한 영상인식 알고리즘을 이용할 수도 있으며 예를 들어, 캡처된 영상의 관심점을 설정하고, 관심점 간의 관계 벡터를 생성하여 관계 벡터 간의 상호작용으로 모델링하고, 벡터 간의 상호작용을 물리학 모델 중 쌍극자 간의 상호작용(이징 모델)에 투영할 수도 있다. 이에 따라, 이징 모델에 기반한 양자 컴퓨팅 하드웨어를 이용하여 영상 인식의 복잡한 문제를 쉽게 해결할 수도 있다.In addition, the image recognition algorithm may use an image recognition algorithm using quantum computing to solve a complicated calculation process of image recognition. For example, a point of interest of a captured image is set, a relation vector between points of interest is generated, And the interaction between vectors can be projected to the interaction (eigen model) between dipoles in the physics model. Accordingly, complex problems of image recognition can easily be solved by using quantum computing hardware based on the eigenzone model.

이 때, 이징 모델을 이용한 양자 컴퓨팅 하드웨어 중 해밀토니안의 단열적 변화를 일으켜 목표 상태에서의 솔루션을 구하는 단열적 양자 컴퓨팅(AQC) 기법을 이용할 수도 있으며, 이징 모델 중에서 특히 트립된 이온(Trapped Ion) 기반의 스핀-포논 커플링(spin-phonon coupling)을 이용한 양자 컴퓨팅 하드웨어를 구성하고, 양자 컴퓨팅 하드웨어를 풀 수 있는 물리학적 모델에 기반하여 영상인식의 복잡한 연산과정을 해결할 수도 있다.In this case, it is possible to use an adiabatic quantum computing (AQC) technique which obtains a solution in a target state by causing an adiabatic change of Hamiltonian among quantum computing hardware using an eigenmodeling model. In particular, among trapping ions, Based spin-phonon coupling and solve the complex computation process of image recognition based on a physical model that can solve quantum computing hardware.

본 발명의 일 실시예로 합성 개구부 평면 및 합성 센서 평면의 위치를 결정할 수도 있다. The position of the synthetic aperture plane and the composite sensor plane may be determined in one embodiment of the present invention.

예를 들어, 광 필드 연산을 이용하여 합성 개구부 평면(synthetic aperture plane) 및 합성 센서 평면(synthetic film/sensor plane)이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 또는 제한되지 않고 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수 있다.For example, optical field calculations can be used to determine whether a synthetic aperture plane and a synthetic film / sensor plane are located at any position, regardless of the position of the physical main lens and physical microlens array, The captured image can be refocused by adjusting the re-focusing parameters.

또 다른 일 실시예로는 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.Another embodiment may refocus the captured image by adjusting the refocusing parameters such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.

이 때, 합성 개구부 평면 및 합성 센서 평면 간의 거리에 하한 기준값을 설정하여 합성 개구부 평면 및 합성 센서 평면이 서로 일치하거나 겹치지 않도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수도 있다.At this time, it is also possible to refocus the captured image by adjusting the refocusing parameter so that the synthetic aperture plane and the synthetic sensor plane do not coincide or overlap with each other by setting a lower limit reference value in the distance between the synthetic aperture plane and the synthesized sensor plane.

도 8은 본 발명의 일 실시예에 따른 캡처된 영상과 레퍼런스 영상과의 유사도를 비교한 디지털 촬상 방법을 나타낸 동작 흐름도이다.8 is a flowchart illustrating a digital imaging method in which a similarity between a captured image and a reference image is compared according to an exemplary embodiment of the present invention.

본 발명의 일 실시예로 도 7에서 설명된 디지털 촬상 방법에서 캡처된 영상에 영상인식 알고리즘을 적용하고 난 후(S830), 영상인식 알고리즘이 적용된 결과에 기반하여 캡처된 영상과 레퍼런스 영상 간의 유사도가 미리 설정된 기준치 미만인지를 판단하고(S840), 유사도가 미리 설정된 기준치 미만인 경우, 즉, 사람의 눈으로 인식하기에 캡처된 영상의 초점이 흐릿하거나 주변 환경에 의하여 캡처된 영상이 뿌옇게 보이는 경우에 캡처된 영상을 리포커싱 즉, 초점을 다시 맞추기 위하여 리포커싱 파라미터를 조정하고, 캡처된 영상을 리포커싱할 수 있다(S850).In an embodiment of the present invention, after the image recognition algorithm is applied to the captured image in the digital imaging method described in FIG. 7 (S830), the similarity between the captured image and the reference image is calculated based on the result of applying the image recognition algorithm (S840). If the similarity is less than a preset reference value, that is, if the captured image is blurred due to recognition by the human eye or if the captured image by the surrounding environment appears blurry, The refocusing parameter may be adjusted to re-focus the captured image, and the captured image may be refocused (S850).

이 때, 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다. 피사계 심도는 사진술에서 한 사진의 초점이 맞는 것으로 인식되는 범위를 의미한다.At this time, the re-focusing parameter is adjusted to increase the depth of field (DOF). Depth of field means the extent to which a picture in photography is perceived as being in focus.

도 9는 본 발명의 일 실시예에 따른 캡처된 영상에 나타나는 화질 열화 요인 여부를 판단하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.FIG. 9 is a flowchart illustrating a digital imaging method for determining whether an image quality deterioration factor appears in a captured image according to an exemplary embodiment of the present invention.

본 발명의 또 다른 일 실시예로 도 7에서 설명된 캡처된 영상에 영상인식 알고리즘이 적용된 이후(S930) 결과에 기반하여 캡처된 영상에 나타나는 화질 열화 요인이 미리 설정된 기준치 이상인지를 판단하고(S940), 화질 열화 요인이 미리 설정된 기준치 이상인 경우, 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.In yet another embodiment of the present invention, after the image recognition algorithm is applied to the captured image described with reference to FIG. 7 (S930), it is determined whether the image quality deterioration factor appearing in the captured image is equal to or greater than a preset reference value ), And if the image deterioration factor is equal to or greater than a preset reference value, the captured image can be refocused by adjusting the re-focusing parameter for refocusing the captured image.

이 때, 화질 열화 요인은 영상 왜곡, 어두운 조명(poor lighting), 수중 환경, 안개, 연기 등을 포함하는 요인이며, 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다.At this time, the image deterioration factor is a factor including image distortion, poor lighting, underwater environment, fog, smoke and the like, and the re-focusing parameter is adjusted to increase the depth of field (DOF) .

도 10은 본 발명의 일 실시예에 따른 리포커싱 기준을 충족하는지 여부를 판단하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.10 is an operational flowchart illustrating a digital imaging method for determining whether or not a refocusing criterion is met according to an embodiment of the present invention.

본 발명의 또 다른 일 실시예로 리포커싱된 영상을 다시 영상 인식할 수도 있으며, 이 때, 도 7에서 설명된 한번 리포커싱된 캡처된 영상에 다시 영상인식 알고리즘을 적용하고(S1030), 영상인식 알고리즘이 적용된 결과가 리포커싱 기준을 충족하는지를 판단하고(S1040) 만약에 리포커싱 기준을 충족하지 못하는 경우, 즉, 흐릿하거나 화질이 떨어지는 경우에 영상인식 알고리즘이 적용된 영상에 다시 피사계 심도(DOF)를 증가하는 방향으로 조정하여 리포커싱 할 수도 있다(S1050).In another embodiment of the present invention, the re-focussed image may be recognized again. In this case, the image recognition algorithm is applied again to the once-refocused captured image described in Fig. 7 (S1030) It is determined whether the result of applying the algorithm satisfies the refocusing criterion (S1040). If the refocusing criterion is not satisfied, i.e., the image is blurry or the image quality is poor, the depth of field (DOF) It is also possible to perform refocusing in step S1050.

이 때에는 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고, 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수 있다.In this case, the image recognition algorithm is reapplied to the re-focussed image, and the image recognition algorithm judges whether the re-applied image satisfies the preset re-focusing criteria. Then, based on the determination result, It is possible to decide whether to focus or not.

또한, 캡처된 영상에서 사용자가 원하는 부분을 선택할 수도 있으며, 이에 따라 사용자 선택을 입력 받아 사용자가 선택한 부분의 초점을 다시 영상 인식하여, 영상인식 알고리즘을 적용하고, 적용된 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수도 있다.In addition, the user can select a desired portion of the captured image. Accordingly, the user selects the portion of the user's selected focus, re-recognizes the focus of the selected portion, applies the image recognition algorithm, It is determined whether or not the predetermined re-focusing criteria are met, and based on the determination result, the image recognition algorithm may decide to re-focus the re-applied image again.

이상에서는 도 3의 인공 시각(machine vision) 시스템과 도 5의 디지털 촬상 장치를 중심으로 본 발명의 실시예들을 설명하였다. 본 발명의 사상은 다양한 실시예에 미칠 수 있다. 예를 들어, 도 11은 본 발명의 일 실시예에 따른 단말기에 광 필드 플레놉틱 카메라 모듈을 적용한 도면이다.The embodiments of the present invention have been described above with reference to the machine vision system of FIG. 3 and the digital imaging device of FIG. The spirit of the invention may be varied in various embodiments. For example, FIG. 11 illustrates an optical field plenoptic camera module applied to a terminal according to an exemplary embodiment of the present invention.

도 11은 본 발명의 디지털 촬상 장치(1130)가 적용된 단말기의 일 예로 단말기의 후면부(1110)에 장착될 수 있으며, 또는 단말기의 내부(1120)에 장착 될 수도 있다.11 is an example of a terminal to which the digital image pickup apparatus 1130 of the present invention is applied. The terminal may be mounted on the rear portion 1110 of the terminal or may be mounted on the inside 1120 of the terminal.

단말기는 스마트폰, 이동 통신용 단말기, 무선 통신용 단말기, 또는 휴대용 카메라의 형태로 구현될 수 있다. 또한 도 11에 도시되지는 않았지만, 본 발명의 또 다른 실시예에 따라서는 핸드헬드 카메라(handheld camera), 영화 카메라(movie camera), 동사진 카메라(motion picture camera)등 DOF를 조절하여 특수효과를 이용하는 영화, 방송용 영상을 편집하는 장치에까지도 본 발명이 이용될 수 있다. 본 발명의 일 실시예로 디지털 촬상 장치(1130)는 단말기의 후면부(1110)의 기존의 카메라 렌즈 위에 탈착이 가능하다. 이에 따라 후면부에 카메라 렌즈가 장착되어 있는 일반적인 단말기에 모두 적용될 수 있으며, 디지털 촬상 장치(1130)에서 촬상된 이미지를 단말기에서 영상 인식을 이용하여 리포커싱이 가능하다.The terminal may be implemented in the form of a smart phone, a mobile communication terminal, a wireless communication terminal, or a portable camera. Although not shown in FIG. 11, according to another embodiment of the present invention, a DOF is adjusted by a handheld camera, a movie camera, a motion picture camera, The present invention can be applied to an apparatus for editing a movie or broadcast image to be used. In one embodiment of the present invention, the digital imaging device 1130 is detachable onto an existing camera lens of the rear portion 1110 of the terminal. Accordingly, the present invention can be applied to a general terminal having a camera lens mounted on the rear surface thereof, and it is possible to refocus an image photographed by the digital imaging device 1130 using image recognition in a terminal.

본 발명의 또 다른 일 실시예로 디지털 촬상 장치(1130)가 단말기의 카메라 대신 내부(1120)에 장착될 수도 있다. 이에 따라, 디지털 촬상 장치(1130)에서 촬상된 이미지를 단말기에서 영상 인식을 이용하여 리포커싱이 가능하다.In another embodiment of the present invention, the digital imaging device 1130 may be mounted in the interior 1120 instead of the camera of the terminal. Accordingly, it is possible to refocus the image photographed by the digital imaging device 1130 using the image recognition in the terminal.

도 12는 도 11에 도시한 단말기에 적용된 광 필드 플레놉틱 카메라 모듈을 상세하게 나타낸 도면이다.FIG. 12 is a detailed view of an optical field plenoptic camera module applied to the terminal shown in FIG.

본 발명의 광 필드 플레놉틱 카메라 모듈(1130)은 렌즈 그룹(lens group)(1131), 마이크로 렌즈 어레이(Micro lens array)(1132) 및 이미지 센서(Image Sensor)(1133)를 포함한다.The optical field plenoptic camera module 1130 of the present invention includes a lens group 1131, a micro lens array 1132, and an image sensor 1133.

렌즈 그룹(lens group)(1131)은 사용자가 관심 있는 객체(subject)에 초점을 광축에 따라 원하는 깊이로 변화시킬 수 있다.A lens group 1131 may change the focus of the subject of interest to a desired depth along the optical axis.

객체의 단일 지점에서 빛의 광선은 마이크로 렌즈 어레이(Micro lens array)(1132)의 초점면에 단일 지점으로 수렴하게 된다. 그 위치에서 마이크로 렌즈 아래의 픽셀 어레이에서 메인 렌즈의 개구에 포커싱된 이미지의 방향에 기초하여 빛의 광선을 분리한다.The light rays of light at a single point of the object converge to a single point on the focal plane of the micro lens array 1132. [ Which separates the light rays of light based on the direction of the focused image in the aperture of the main lens in the pixel array below the microlenses.

또한, 마이크로 렌즈 아래의 화상이 이미지 센서(1133)에 해당 위치에 대한 시스템의 방향의 해상도를 지시하고, 방향 분해능을 극대화하기 위해서는, 선명한 마이크로 렌즈 이미지를 통해서 가능하다. 이에 따라 본 발명은 광 필드 플레놉틱 카메라 모듈(113)을 통하여 촬상된 이미지를 영상 인식을 이용하여 리포커싱하는 기술에 포커스를 맞추고 있다.Further, an image under the microlens indicates the resolution of the direction of the system with respect to the position in the image sensor 1133, and it is possible through the clear microlens image in order to maximize the direction resolution. Accordingly, the present invention focuses on a technique of refocusing an image captured through an optical field plenoptic camera module 113 using image recognition.

본 발명의 일 실시 예에 따른 디지털 촬상 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The digital imaging method according to an exemplary embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

310: 광 필드 카메라
320: 디코딩부
330: 재교정부
340: 리포커싱부
350: 피드백부
360: 영상 인식부
310: Optical Field Camera
320:
330: Reissue Government
340: Re-
350:
360:

Claims (20)

객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 촬상부 및
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 프로세서;
를 포함하고,
상기 프로세서는
상기 캡처된 영상에 관심점을 설정하고, 관심점 간의 관계를 모델링하는 영상인식 알고리즘을 적용하는 영상 인식부; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 리포커싱부
를 포함하는 디지털 촬상 장치.
An image pickup section for obtaining light field data for re-focusing the captured image of the object;
Processing the acquired optical field data to obtain a refocused image of the object;
Lt; / RTI >
The processor
An image recognition unit for applying an image recognition algorithm for setting a point of interest on the captured image and modeling a relationship between points of interest; And
A refocusing unit for refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm,
And a digital camera.
제1항에 있어서,
상기 촬상부는
메인 렌즈;
광선들을 캡처하는 포토 센서 어레이; 및
상기 메인 렌즈와 상기 포토 센서 어레이 사이에 위치하는 마이크로 렌즈 어레이;
를 포함하고,
상기 마이크로렌즈 어레이는 상기 광선들을 물리적으로 상기 메인 렌즈로부터 상기 마이크로 렌즈 어레이를 통해 상기 포토 센서 어레이로 향하게 하는 것을 특징으로 하는 디지털 촬상 장치.
The method according to claim 1,
The imaging unit
A main lens;
A photosensor array for capturing light rays; And
A micro lens array positioned between the main lens and the photosensor array;
Lt; / RTI >
Wherein the microlens array directs the rays physically from the main lens to the photosensor array through the microlens array.
제1항에 있어서,
상기 리포커싱부는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치
The method according to claim 1,
The re-
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when the similarity degree between the captured image and the reference image is less than a preset reference value based on a result of applying the image recognition algorithm The digital imaging device
제1항에 있어서,
상기 리포커싱부는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치
The method according to claim 1,
The re-
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when an image quality deterioration factor appearing in the captured image is equal to or greater than a preset reference value based on a result of applying the image recognition algorithm The digital imaging device
제1항에 있어서,
상기 리포커싱부는
상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.
The method according to claim 1,
The re-
And refocusing the captured image using an optical field calculation based on the obtained optical field data.
제1항에 있어서,
상기 영상 인식부는
상기 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고,
상기 리포커싱부는
상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정하는 것을 특징으로 하는 디지털 촬상 장치.
The method according to claim 1,
The image recognition unit
Applying the image recognition algorithm to the re-focused image again,
The re-
Wherein the image recognition algorithm determines whether the re-applied image satisfies a predetermined re-focusing criterion and determines whether to re-focus the re-applied image based on the determination result, .
제1항에 있어서,
상기 리포커싱부는
광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.
The method according to claim 1,
The re-
Adjusting the re-focusing parameters to refocus the captured image so that the synthetic aperture plane and the synthesized sensor plane are positioned irrespective of the position of the physical main lens and the physical microlens array using optical field computation. .
제1항에 있어서,
상기 리포커싱부는
합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.
The method according to claim 1,
The re-
And refocusing the captured image by adjusting a refocusing parameter such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.
객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 촬상부 및
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 프로세서;
를 포함하고,
상기 프로세서는
상기 캡처된 영상에 영상인식 알고리즘을 적용하는 영상 인식부; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 리포커싱부
를 포함하고,
상기 리포커싱부는
합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 피사계 심도(Depth of Field)를 포함하는 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.
An image pickup section for obtaining light field data for re-focusing the captured image of the object;
Processing the acquired optical field data to obtain a refocused image of the object;
Lt; / RTI >
The processor
An image recognition unit for applying an image recognition algorithm to the captured image; And
A refocusing unit for refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm,
Lt; / RTI >
The re-
And refocusing the captured image by adjusting the refocusing parameter including a depth of field such that the distance between the synthetic aperture plane and the synthesized sensor plane is equal to or greater than a lower limit reference value.
제1항에 있어서,
상기 프로세서는
상기 객체의 리포커싱된 영상에 대한 소프트웨어 처리를 통하여 상기 객체의 리포커싱된 영상을 확대 또는 축소하는 영상 처리부
를 더 포함하는 것을 특징으로 하는 디지털 촬상 장치.
The method according to claim 1,
The processor
An image processor for enlarging or reducing the refocused image of the object through software processing of the refocused image of the object,
Further comprising: an image pickup device for picking up the digital image data.
객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 단계;
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 단계;
상기 캡처된 영상에 관심점을 설정하고, 관심점 간의 관계를 모델링하는 영상인식 알고리즘을 적용하는 단계; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 단계;
를 포함하는 디지털 촬상 방법.
Obtaining light field data for refocusing a captured image of an object;
Processing the acquired optical field data to obtain a refocused image of the object;
Applying an image recognition algorithm for setting a point of interest on the captured image and modeling a relationship between points of interest; And
Refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm;
And outputting the digital image signal.
제11항에 있어서,
상기 리포커싱하는 단계는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.
12. The method of claim 11,
The step of refocusing
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when the similarity degree between the captured image and the reference image is less than a preset reference value based on a result of applying the image recognition algorithm Wherein said digital imaging method comprises the steps of:
제11항에 있어서,
상기 리포커싱하는 단계는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.
12. The method of claim 11,
The step of refocusing
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when an image quality deterioration factor appearing in the captured image is equal to or greater than a preset reference value based on a result of applying the image recognition algorithm Wherein said digital imaging method comprises the steps of:
제11항에 있어서,
상기 리포커싱하는 단계는
상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.
12. The method of claim 11,
The step of refocusing
And refocusing the captured image using an optical field calculation based on the obtained optical field data.
제11항에 있어서,
상기 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하는 단계
를 더 포함하고,
상기 리포커싱하는 단계는
상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정하는 것을 특징으로 하는 디지털 촬상 방법.
12. The method of claim 11,
Applying the image recognition algorithm to the refocused image again
Further comprising:
The step of refocusing
Wherein the image recognition algorithm determines whether the re-applied image meets a predetermined re-focusing criterion and determines whether to re-focus the re-applied image based on the determination result, .
제11항에 있어서,
상기 리포커싱하는 단계는
광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.
12. The method of claim 11,
The step of refocusing
Adjusting the re-focusing parameters to refocus the captured image so that the synthetic aperture plane and the synthesized sensor plane are positioned irrespective of the position of the physical main lens and the physical microlens array using optical field computation. / RTI >
제11항에 있어서,
상기 리포커싱하는 단계는
합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.
12. The method of claim 11,
The step of refocusing
Refocusing the captured image by adjusting a refocusing parameter such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.
객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 단계;
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 단계;
상기 캡처된 영상에 영상인식 알고리즘을 적용하는 단계; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 단계;
를 포함하고,
상기 리포커싱하는 단계는
합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 피사계 심도(Depth of Field)를 포함하는 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.
Obtaining light field data for refocusing a captured image of an object;
Processing the acquired optical field data to obtain a refocused image of the object;
Applying an image recognition algorithm to the captured image; And
Refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm;
Lt; / RTI >
The step of refocusing
And refocusing the captured image by adjusting the refocusing parameter including a Depth of Field such that a distance between a synthetic aperture plane and a synthesized sensor plane is equal to or greater than a lower limit reference value.
제11항에 있어서,
상기 객체의 리포커싱된 영상에 대한 소프트웨어 처리를 통하여 상기 객체의 리포커싱된 영상을 확대 또는 축소하는 단계
를 더 포함하는 것을 특징으로 하는 디지털 촬상 방법.
12. The method of claim 11,
Enlarging or reducing the refocused image of the object through software processing of the refocused image of the object
Further comprising the steps of:
제11항 내지 제19항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method according to any one of claims 11 to 19.
KR1020150060666A 2015-04-29 2015-04-29 Digital imaging apparatus with plenoptic camera scheme Active KR101683634B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150060666A KR101683634B1 (en) 2015-04-29 2015-04-29 Digital imaging apparatus with plenoptic camera scheme
PCT/KR2016/004433 WO2016175568A1 (en) 2015-04-29 2016-04-29 Digital imaging device using plenoptic camera principle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150060666A KR101683634B1 (en) 2015-04-29 2015-04-29 Digital imaging apparatus with plenoptic camera scheme

Publications (2)

Publication Number Publication Date
KR20160128772A KR20160128772A (en) 2016-11-08
KR101683634B1 true KR101683634B1 (en) 2016-12-29

Family

ID=57198622

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150060666A Active KR101683634B1 (en) 2015-04-29 2015-04-29 Digital imaging apparatus with plenoptic camera scheme

Country Status (2)

Country Link
KR (1) KR101683634B1 (en)
WO (1) WO2016175568A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115190257A (en) * 2022-05-30 2022-10-14 元潼(北京)技术有限公司 CIS systems for meta-imaging

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101483714B1 (en) 2008-06-18 2015-01-16 삼성전자 주식회사 Apparatus and method for capturing digital image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101441586B1 (en) * 2008-10-06 2014-09-23 삼성전자 주식회사 Apparatus and method for capturing image
JP5493470B2 (en) * 2009-05-26 2014-05-14 株式会社ニコン Focus adjustment device and imaging device provided with the same
KR101608970B1 (en) * 2009-11-27 2016-04-05 삼성전자주식회사 Apparatus and method for processing image using light field data
JP6080417B2 (en) * 2011-08-19 2017-02-15 キヤノン株式会社 Image processing apparatus and image processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101483714B1 (en) 2008-06-18 2015-01-16 삼성전자 주식회사 Apparatus and method for capturing digital image

Also Published As

Publication number Publication date
WO2016175568A1 (en) 2016-11-03
KR20160128772A (en) 2016-11-08

Similar Documents

Publication Publication Date Title
US8947578B2 (en) Apparatus and method of capturing image
JP4969474B2 (en) Decoding method, decoding device, and decoding program
JP7178435B2 (en) Method and audio-based refocusing image system for refocusing images captured by a plenoptic camera
JP2008294741A (en) Imaging system
US8836765B2 (en) Apparatus and method for generating a fully focused image by using a camera equipped with a multi-color filter aperture
KR20170042226A (en) Application programming interface for multi-aperture imaging systems
CN105282443A (en) Method for imaging full-field-depth panoramic image
JP6003578B2 (en) Image generation method and apparatus
US11962901B2 (en) Systems and methods for obtaining a super macro image
JP2014010783A (en) Image processing apparatus, image processing method, and program
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
CN106663312B (en) Systems and methods for improving computational imaging
KR101683634B1 (en) Digital imaging apparatus with plenoptic camera scheme
JP6168220B2 (en) Image generation apparatus, image processing apparatus, image generation method, and image processing program
JP6569769B2 (en) Arbitrary viewpoint image composition method and image processing apparatus
US8994846B2 (en) Image processing apparatus and image processing method for detecting displacement between images having different in-focus positions
JP6330955B2 (en) Imaging apparatus and imaging method
KR20110042936A (en) Image processing apparatus and method using optical field data
JP6071173B2 (en) Imaging apparatus, control method thereof, and program
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium
JP4200778B2 (en) Imaging device
JP7191680B2 (en) Image processing device and imaging device

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150429

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160215

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20160923

PG1501 Laying open of application
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20161201

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20161202

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20191129

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20201130

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20211123

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20221130

Start annual number: 7

End annual number: 7