KR101683634B1 - Digital imaging apparatus with plenoptic camera scheme - Google Patents
Digital imaging apparatus with plenoptic camera scheme Download PDFInfo
- Publication number
- KR101683634B1 KR101683634B1 KR1020150060666A KR20150060666A KR101683634B1 KR 101683634 B1 KR101683634 B1 KR 101683634B1 KR 1020150060666 A KR1020150060666 A KR 1020150060666A KR 20150060666 A KR20150060666 A KR 20150060666A KR 101683634 B1 KR101683634 B1 KR 101683634B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- refocusing
- captured image
- recognition algorithm
- optical field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 description 71
- 238000003384 imaging method Methods 0.000 description 42
- 238000000034 method Methods 0.000 description 29
- 239000002131 composite material Substances 0.000 description 23
- 230000008569 process Effects 0.000 description 16
- 230000004438 eyesight Effects 0.000 description 13
- 230000006866 deterioration Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 5
- 239000000779 smoke Substances 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 150000002500 ions Chemical class 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 230000005366 Ising model Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H04N5/23212—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H04N5/225—
-
- H04N5/2253—
-
- H04N5/232—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치에 관한 기술로, 보다 상세하게는 영상 인식 결과를 반영하여 리포커싱하는 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치에 관한 것이다.
본 발명은 플레놉틱 카메라를 통한 광 필드 이미징으로서 비이상적인 환경 조건에 대한 대응성을 높이고, 계산 방식을 단순화한 인공 시각 알고리즘을 제안하는 것을 목적으로 한다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital imaging apparatus using a principle of a planop camera, and more particularly, to a digital imaging apparatus using a principle of a planop camera that reflects an image recognition result.
It is an object of the present invention to provide an artificial vision algorithm that improves responsiveness to non-ideal environmental conditions and simplifies a calculation method as optical field imaging through a plenoptic camera.
Description
본 발명은 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치에 관한 기술로, 보다 상세하게는 플레놉틱 카메라 원리를 이용한 리포커싱을 고도화하여 촬영 시의 공간적 제약을 최소화하는 기술에 관한 것이다.BACKGROUND OF THE
인공 시각(머신 비전, machine vision)과 같은 어플리케이션에서는 빠르게 변화하는 조명 조건, 특히 어두운 조명과 흐릿한(blurry) 환경, 연기, 안개, 눈부심 및 수중 조건 등 다양한 악조건들로 인하여 현재 개발된 가장 복잡한 인공 시각 알고리즘을 이용하더라도 제대로 된 영상 인식 결과값을 얻어내지 못할 수 있다.In applications such as artificial vision (machine vision), the most complex artificial visuals currently being developed due to a variety of adverse conditions, such as rapidly changing lighting conditions, especially dark lighting and blurry environments, smoke, fog, glare and underwater conditions It may not be possible to obtain a proper image recognition result even if an algorithm is used.
이상적인 조건 하에서도, 복잡하고 비구조적인 환경, 예를 들어 곧은 엣지, 엣지가 없는 물체 또는 부드러운 물체도 일반적인 환경을 위하여 개발된 인공 시각 알고리즘의 연산을 방해할 수 있다.Even under ideal conditions, complex and unstructured environments, such as straight edges, non-edge or soft objects, can interfere with the operation of artificial vision algorithms developed for the general environment.
일반적인 카메라는 인공 시각을 처리하기 위해서는 꼭 필요한 장치이지만 비이상적 환경 조건에서의 인공 시각 알고리즘은 굉장히 복잡하여 알고리즘을 단순화하는 기술이 필요한 실정이다.Although a general camera is a necessary device for processing artificial vision, artificial vision algorithm in a non-ideal environment condition is very complicated and a technique for simplifying the algorithm is needed.
최근에 플레놉틱(plenoptic) 카메라라는 새로운 개념의 카메라가 연구되고 있다. 플레놉틱 카메라는 광 필드(light field) 카메라로 불려지기도 하며, 마이크로 렌즈 어레이(통상적으로 렌티큘러 렌즈 어레이) 또는 광 부호화 마스크(light coded mask)를 이용하여 장면에 대한 4D 광 필드 정보를 캡처한다.Recently, a new concept camera called a plenoptic camera is being studied. Plenoptik cameras are often referred to as light field cameras and capture 4D optical field information for a scene using a microlens array (typically a lenticular lens array) or a light coded mask.
플레놉틱 카메라는 카메라 렌즈와 영상 센서 사이에 마이크로 렌즈 어레이를 두고, 마이크로 렌즈 어레이가 약간 다른 시점으로부터 찍은 다수의 많은 영상들이 생기도록 영상 센서에 빛의 초점을 재조정한 다음, 다수의 많은 영상들을 이용하여 초점이나 시점을 조정한 영상을 제공할 수 있다.The plenoptic camera has a microlens array between the camera lens and the image sensor, re-focuses the light on the image sensor so that the microlens array produces a number of images from a slightly different point in time, Thereby providing an image in which the focus or viewpoint is adjusted.
이러한 플레놉틱 카메라를 이용한 기술에 대한 일 예가 한국등록특허 제10-1483714호 "디지털 촬상 장치 및 방법"에 기술되어 있다.An example of such a technology using a plenoptic camera is described in Korean Patent No. 10-1483714 entitled " Digital Imaging Apparatus and Method ".
상기 선행기술은 영상 리포커싱을 위한 광 필드 데이터 형성 시 발생하는 공간 분해능이 저하되는 문제점을 극복할 수 있는 디지털 촬상 장치에 대한 내용이다. 상기 선행기술은 CDMA 등의 통신 기술에서 이용되는 부호화 기술을 플레놉틱 카메라 기술에 접목하여 광 필더 데이터의 형성 및 그 처리 효율을 높이고자 하는 기술이다.The prior art is directed to a digital imaging device capable of overcoming the problem of a decrease in spatial resolution caused in the formation of optical field data for image re-focusing. The prior art is a technique for enhancing the formation and processing efficiency of optical filter data by combining a coding technique used in communication technology such as CDMA with a plenoptic camera technology.
그러나 위의 선행기술에 의하더라도 광 필드 데이터를 이용한 리포커싱의 결과가 마이크로 렌즈 어레이, 영상 센서 등의 배치에 따른 위치에 의하여 제한되며, 따라서 리포커싱의 성능에도 한계가 있다.However, according to the above prior art, the result of the refocusing using the optical field data is limited by the position of the microlens array, the image sensor, and the like, and therefore, the refocusing performance is also limited.
본 발명은 인공 시각 알고리즘을 이용하여 이미 측정된 영상을 리포커싱하여 임의의 어느 포인트를 기준으로 피사계 심도(DOF, Depth of Field) 를 조정할 수 있는 디지털 촬상 장치를 제안하는 것을 목적으로 한다.An object of the present invention is to propose a digital imaging device capable of adjusting a depth of field (DOF) based on an arbitrary point by refocusing an image already measured using an artificial vision algorithm.
또한 본 발명은 플레놉틱 카메라를 통한 광 필드 이미징으로서 비이상적인 환경 조건에 대한 대응성을 높이고, 계산 방식을 단순화한 인공 시각 알고리즘을 제안하는 것을 또 다른 목적으로 한다.It is another object of the present invention to provide an artificial vision algorithm that improves responsiveness to non-ideal environmental conditions and simplifies a calculation method as optical field imaging through a plenoptic camera.
본 발명이 제안하는 인공 시각 알고리즘은 센서를 가로지르는 레이(ray) 각각을 따라 진행하는 빛의 양을 측정하는 완전한 4D 광 필드를 이용하여 구현되는 것을 목적으로 한다.The artificial vision algorithm proposed by the present invention is intended to be implemented using a complete 4D optical field that measures the amount of light traveling along each ray traversing the sensor.
본 발명은 광 필드 카메라의 리포커싱 과정에서 영상 인식 알고리즘을 이용한 부가 정보를 제공함으로써, 리포커싱 과정에서 광학계(optical system)의 공간적 제약을 벗어나 보다 자유도 높은 리포커싱 결과를 얻는 것을 목적으로 한다.An object of the present invention is to provide a more refocusing result which is free from the spatial limitation of an optical system in a re-focusing process by providing additional information using an image recognition algorithm in the re-focusing process of an optical field camera.
본 발명은 메인 렌즈의 물리적인 개구 폭을 현실에서 허용하는 범위 내로 유지하면서도, 리포커싱의 결과로 필요한 피사계 심도(DOF, Depth of Field) 값을 얻기 위하여 광학계(Optical System) 상의 위치로 한정되지 않는 임의의 위치를 탐색하는 것을 목적으로 한다.The present invention is not limited to the position on the optical system in order to obtain the depth of field (DOF) value required as a result of the refocusing, while keeping the physical aperture width of the main lens within a permissible range in reality It is aimed to search for an arbitrary position.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 디지털 촬상 장치는 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 촬상부 및 상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 프로세서를 포함하고, 상기 프로세서는 상기 캡처된 영상에 영상인식 알고리즘을 적용하는 영상 인식부 및 상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 리포커싱부를 포함한다.According to an aspect of the present invention, there is provided a digital imaging apparatus including an image pickup unit for obtaining light field data for refocusing a captured image of an object, And a processor for obtaining a refocused image of the object, the processor including an image recognition unit for applying an image recognition algorithm to the captured image, and a processor for processing the obtained optical field data by reflecting a result of applying the image recognition algorithm And a refocusing unit for refocusing the captured image.
이 때, 촬상부는 메인 렌즈, 광선들을 캡처하는 포토 센서 어레이 및 상기 메인 렌즈와 상기 포토 센서 어레이 사이에 위치하는 마이크로 렌즈 어레이를 포함하고, 상기 마이크로 렌즈 어레이는 상기 광선들을 물리적으로 상기 메인 렌즈로부터 상기 마이크로 렌즈 어레이를 통해 상기 포토 센서 어레이로 향하게 하는 것을 특징으로 한다.Wherein the imaging unit includes a main lens, a photosensor array for capturing rays of light, and a microlens array positioned between the main lens and the photosensor array, the microlens array physically transferring the rays from the main lens And is directed to the photosensor array through a microlens array.
또한, 리포커싱부는 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하며, 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.The re-focusing unit adjusts a re-focusing parameter for refocusing the captured image, if the similarity between the captured image and the reference image is less than a preset reference value, based on a result of applying the image recognition algorithm, And adjusting a re-focusing parameter for refocusing the captured image if the deterioration factor of the image displayed on the captured image is equal to or greater than a preset reference value, based on a result of applying the image recognition algorithm, And re-focusing the captured image.
또한, 상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Further, the captured image is refocused using an optical field calculation based on the obtained optical field data.
상기 영상 인식부는 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고, 이 때, 리포커싱부는 상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정하는 것을 특징으로 한다.Wherein the image recognition unit re-applies the image recognition algorithm to the re-focussed image, wherein the re-focussing unit determines whether the image to which the image recognition algorithm is applied again satisfies a predetermined re-focussing criterion, And the image recognition algorithm determines whether to re-focus the re-applied image again.
또한, 리포커싱부는 광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하며, 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Also, the re-focusing section may use a light field operation to refocus the captured image to adjust the re-focussing parameters such that the composite aperture plane and the composite sensor plane are positioned independently of the physical main lens and the position of the physical microlens array And refocusing the captured image by adjusting a refocusing parameter such that the synthetic aperture plane and the synthesized sensor plane are positioned between the physical main lens and the microlens array.
이 때, 합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.In this case, the captured image is refocused by adjusting the refocusing parameters so that the distance between the synthetic aperture plane and the synthesized sensor plane is equal to or greater than the lower limit reference value.
본 발명의 일 실시예에 따른 디지털 촬상 방법은 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득하는 단계, 상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 단계, 상기 캡처된 영상에 영상인식 알고리즘을 적용하는 단계 및 상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 단계를 포함한다.A digital imaging method according to an embodiment of the present invention includes acquiring optical field data for refocusing a captured image of an object, processing the obtained optical field data to obtain a refocused image of the object Applying the image recognition algorithm to the captured image, and refocusing the captured image by processing the obtained optical field data reflecting the result of applying the image recognition algorithm.
상기 리포커싱하는 단계는 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하며, 상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Wherein the refocusing step adjusts a refocusing parameter for refocusing the captured image when the degree of similarity between the captured image and the reference image is less than a preset reference value based on a result of applying the image recognition algorithm, And adjusting the re-focusing parameters for re-focusing the captured image when the image deterioration factors appearing on the captured image are equal to or greater than a preset reference value, based on the result of applying the image recognition algorithm. And refocusing the captured image.
또한, 상기 리포커싱하는 단계는 상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.The refocusing may further include refocusing the captured image using an optical field operation based on the obtained optical field data.
또한, 상기 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하는 단계를 더 포함하고, 상기 리포커싱하는 단계는 상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱 할 지를 결정하는 것을 특징으로 한다.The method of
상기 리포커싱하는 단계는 광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하며, 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.Wherein the refocusing is performed using an optical field operation to refocus the captured image so that the composite aperture plane and the composite sensor plane are positioned independent of the position of the physical main lens and the physical microlens array, And refocusing the captured image by adjusting the refocusing parameters so that the synthetic aperture plane and the synthesized sensor plane are positioned between the physical main lens and the microlens array.
또한, 상기 리포커싱하는 단계는 합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 한다.The refocusing may further include refocusing the captured image by adjusting the refocusing parameter such that a distance between a synthetic aperture plane and a synthesized sensor plane is equal to or greater than a lower limit reference value.
본 발명에 따르면 인공 시각 알고리즘을 이용하여 이미 측정된 영상을 리포커싱하여 임의의 어느 포인트를 기준으로 피사계 심도(DOF, Depth of Field) 를 조정할 수 있는 디지털 촬상 장치를 구현할 수 있다.According to the present invention, it is possible to implement a digital imaging device capable of adjusting the depth of field (DOF) based on any point by refocusing an image already measured using an artificial vision algorithm.
또한, 본 발명에 따르면 인공 시각 알고리즘을 이용하여 플레놉틱 카메라를 통한 광 필드 이미징으로서 비이상적인 환경 조건에 대한 대응성을 높이고, 계산 방식을 단순화할 수 있다. 이 때, 본 발명이 제안하는 인공 시각 알고리즘은 센서를 가로지르는 레이(ray) 각각을 따라 진행하는 빛의 양을 측정하는 완전한 4D 광 필드를 이용하여 구현될 수 있다.In addition, according to the present invention, as an optical field imaging through a plenoptic camera using an artificial vision algorithm, it is possible to improve responsiveness to non-ideal environmental conditions and to simplify a calculation method. At this time, the artificial vision algorithm proposed by the present invention can be implemented by using a complete 4D optical field for measuring the amount of light traveling along each ray traversing the sensor.
본 발명에 따르면 광 필드 카메라의 리포커싱 과정에서 영상 인식 알고리즘을 이용한 부가 정보를 제공함으로써, 리포커싱 과정에서 광학계(optical system)의 공간적 제약을 벗어나 보다 자유도 높은 리포커싱 결과를 얻을 수 있다.According to the present invention, by providing the additional information using the image recognition algorithm in the refocusing process of the optical field camera, it is possible to obtain a higher degree of freedom of refocusing out of the spatial restriction of the optical system in the refocusing process.
본 발명에 따르면 메인 렌즈의 물리적인 개구 폭을 현실에서 허용하는 범위 내로 유지하면서도, 리포커싱의 결과로 필요한 피사계 심도(DOF, Depth of Field) 값을 얻기 위하여 광학계(Optical System) 상의 위치로 한정되지 않는 임의의 위치를 기준으로 한 피사계 심도 값을 얻을 수 있다. 즉, 영상 센서 평면의 위치를 가상의 합성 센서 평면으로 가정하고, 가상의 합성 센서 평면 위치를 기준으로 하여 피사계 심도 값을 구함으로써 원하는 피사계 심도를 가진 디지털 영상을 얻을 수 있다. 이 때 본 발명에 따르면 가상의 합성 센서 평면 위치를 탐색하기 위하여 영상 인식 알고리즘을 이용할 수 있으며, 영상 인식 알고리즘의 판정 기준에 따라, 리포커싱 알고리즘에 의하여 가상의 합성 센서 평면 위치를 부가적으로 조정할 수 있다.According to the present invention, while maintaining the physical aperture width of the main lens within a permissible range in reality, it is not limited to a position on the optical system in order to obtain a Depth of Field (DOF) value required as a result of refocusing You can get depth of field values based on an arbitrary position that does not exist. That is, a digital image having a desired depth of field can be obtained by assuming the position of an image sensor plane as a virtual synthetic sensor plane and obtaining a depth of field depth based on a virtual synthesized sensor plane position. According to the present invention, an image recognition algorithm can be used to search for a virtual synthetic sensor plane position, and a virtual synthetic sensor plane position can be additionally adjusted by a re-focusing algorithm according to a determination criterion of an image recognition algorithm have.
도 1은 광 필드 파라미터의 개념을 도시하기 위하여 서로 분리된 두 개의 평행한 평면의 광 필드 파라미터를 나타낸 도면이다.
도 2는 일반적인 광 필드 플레놉틱 카메라의 구조를 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 광 필드를 이용한 인공 시각 처리 시스템을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 합성 이미지 형성을 위한 개념적 모델을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 디지털 촬상 장치를 개념적으로 나타낸 도면이다.
도 6은 도 5의 촬상부의 일 실시예를 상세하게 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 영상인식 알고리즘을 이용하여 리포커싱 효율을 향상시키는 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 영상인식 알고리즘을 이용하여 캡처된 영상에 나타나는 화질 열화 요인 여부를 판단하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 리포커싱 기준을 충족하는지 여부에 따라 리포커싱 과정을 반복하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 단말기에 광 필드 플레놉틱 카메라 모듈을 적용한 도면이다.
도 12는 도 11의 단말기에 적용된 광 필드 플레놉틱 카메라 모듈을 상세하게 나타낸 도면이다.1 is a diagram illustrating optical field parameters of two parallel planes separated from each other to illustrate the concept of optical field parameters.
2 is a view showing a structure of a general optical field plenoptic camera.
3 is a diagram illustrating an artificial visual processing system using an optical field according to an embodiment of the present invention.
4 is a diagram illustrating a conceptual model for composite image formation according to an embodiment of the present invention.
5 is a conceptual view of a digital imaging device according to an embodiment of the present invention.
FIG. 6 is a detailed view of an embodiment of the imaging unit of FIG. 5;
7 is an operational flowchart showing a digital imaging method according to an embodiment of the present invention.
8 is a flowchart illustrating a digital imaging method for improving re-focusing efficiency using an image recognition algorithm according to an embodiment of the present invention.
9 is a flowchart illustrating a digital imaging method for determining whether an image quality deterioration factor appears on an image captured using an image recognition algorithm according to an embodiment of the present invention.
10 is an operational flowchart illustrating a digital imaging method of repeating a re-focusing process according to whether or not a re-focusing criterion according to an embodiment of the present invention is satisfied.
11 is a diagram illustrating an optical field plenoptic camera module applied to a terminal according to an exemplary embodiment of the present invention.
12 is a detailed view of the optical field plenoptic camera module applied to the terminal of FIG.
상기 목적 외에 본 발명의 다른 목적 및 특징들은 첨부 도면을 참조한 실시 예에 대한 설명을 통하여 명백히 드러나게 될 것이다.Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the accompanying drawings.
본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.
도 1은 광 필드 파라미터의 개념을 도시하기 위하여 서로 분리된 두 개의 평행한 평면의 광 필드 파라미터를 나타낸 도면이다. 본 발명의 일 실시예는 본 발명의 구성의 전부 또는 일부를 구현하기 위하여 도 1의 구성을 차용할 수 있다.1 is a diagram illustrating optical field parameters of two parallel planes separated from each other to illustrate the concept of optical field parameters. One embodiment of the present invention may employ the configuration of FIG. 1 to implement all or part of the configuration of the present invention.
광 필드 카메라가 아닌 일반적인 카메라는 외부로부터 입력되는 광 분포(light distribution)의 대부분의 정보를 기록하지는 않는다. 이 때 발생하는 손실 정보는 포토 센서의 각 지점에서 광의 총량의 2차원 영상만을 얻는 것이 아니라, 센서를 교차하는 각각의 레이(ray)를 따라 이동하는 빛의 양을 측정하는 4D 광 필드 데이터를 측정함으로써, 다시 캡처될 수 있다. 일반적으로 센서 상의 각 위치에 도달하는 방향을 가진 광 분포를 광 필드 데이터로 인식할 수 있다.A general camera, not a light field camera, does not record most of the light distribution input from the outside. The loss information generated at this time is obtained not by obtaining only a two-dimensional image of the total amount of light at each point of the photosensor but by measuring 4D optical field data measuring the amount of light moving along each ray crossing the sensor , And can be captured again. In general, a light distribution having a direction reaching each position on the sensor can be recognized as optical field data.
도 1은 거리 D에 의해 분리된 두 개의 평행한 평면과 광 필드(light-field) 파라미터를 도시한 도면으로, 여기서 L(u, v, s, t)은 점(s,t)와 점(u,v)를 통과하는 모든 레이(ray)를 포함하는 연속적인 광 필드 신호이다. 방향성을 가진 라인(Oriented Line)은 uv 평면 상의 점을 st 평면 상의 점과 연결함으로써 정의될 수 있다. 두 평면을 이용한 시스템은 레이(ray)를 위치(position)와 방향(direction)의 관점에서 기술할 수 있다. 이와 같은 두 평면을 이용한 시스템의 장점 중 하나는 카메라의 초점 거리와 동일하게 거리 D를 선택할 수 있다는 점이다.Figure 1 shows two parallel planes and light-field parameters separated by a distance D, where L (u, v, s, t) u, v) of the light beam. Oriented lines can be defined by connecting points on the uv plane with points on the st plane. A system using two planes can describe a ray in terms of position and direction. One of the advantages of the system using these two planes is that the distance D can be selected equal to the focal length of the camera.
도 2는 일반적인 광 필드 플레놉틱 카메라의 구조를 나타낸 도면이다.2 is a view showing a structure of a general optical field plenoptic camera.
일반적인 광 필드 플레놉틱 카메라는 메인 렌즈(main lens), 마이크로렌즈 어레이(Microlens array) 및 이미지 센서(Image Sensor)를 포함한다.A typical optical field plenoptic camera includes a main lens, a microlens array, and an image sensor.
메인 렌즈(main lens)는 관심 있는 객체(subject of interest)의 초점(focus)을 원하는 깊이(desired depth)에 맞추기 위하여 광축(optical axis)을 따라 이동할 수 있다.The main lens may move along the optical axis to match the focus of the subject of interest to a desired depth.
객체의 단일 지점에서 시작된 레이(ray)는 마이크로 렌즈 어레이(Microlens array)의 초점면(focal plane)에 단일 지점으로 수렴하게 된다. 그 수렴 위치에서 마이크로 렌즈는 수렴한 레이(ray)들을 방향에 기초하여 분리한다. 이로 인하여 메인 렌즈의 개구부의 영상이 마이크로렌즈 뒤의 픽셀 어레이에 초점이 맞춰져 형성된다. 마이크로렌즈 뒤의 영상은 이미지 센서의 위치에 따른 시스템 내의 방향 분해능(directional resolution)에 대응한다. 방향 분해능을 최대화하기 위하여 마이크로렌즈 영상은 선명할수록(sharp) 바람직하다. 이를 위하여 마이크로렌즈의 초점이 메인 렌즈의 주 평면(principal plane)에 형성되는 것이 바람직하다.A ray originating at a single point in the object converges to a single point in the focal plane of the microlens array. In the convergence position, the microlenses separate the converged rays based on the directions. As a result, the image of the opening of the main lens is formed by focusing on the pixel array behind the microlens. The image behind the microlens corresponds to the directional resolution in the system depending on the position of the image sensor. In order to maximize the directional resolution, the microlens image is preferably sharp. For this purpose, it is preferable that the focal point of the microlens is formed on the principal plane of the main lens.
도 3은 본 발명의 일 실시예에 따른 광 필드를 이용한 인공 시각 처리 시스템을 나타낸 도면이다.3 is a diagram illustrating an artificial visual processing system using an optical field according to an embodiment of the present invention.
본 발명의 광 필드 인공 시각 처리 시스템의 가장 큰 장점은 메인 렌즈의 물리적인 개구(조리개) 폭을 유지하면서도 이미지 센서 평면 상의 임의의 위치를 기준으로 한, 필요한 피사계 심도(DOF, Depth of Field)를 얻을 수 있다는 것이다.The greatest advantage of the optical field artificial vision system of the present invention is that the necessary depth of field (DOF), which is based on an arbitrary position on the image sensor plane, can be maintained while maintaining the physical aperture of the main lens I can get it.
넓은 개구는 더 많은 빛을 모을 수 있고, 이로 인하여 광 필드(light-field) 데이터가 풍부해지므로 잡음비 낮은 신호라 하더라도 상대적으로 선명한 영상을 얻을 수 있다.The wide aperture allows more light to be gathered, which makes the light-field data richer so that a relatively clear image can be obtained even if the signal has a low noise ratio.
디코딩부(320)는 디코딩 알고리즘을 이용하여 광 필드 카메라(310)로부터 획득한 이미 저장된 영상 센서 데이터를 광 필드 데이터 L(u, v, s, t)로 변환한다.The
리포커싱부(340)는 리포커싱 알고리즘을 이용하여 디코딩부(320)에 의하여 변환된 광 필드 데이터 L(u, v, s, t)를 변환하여 합성 광 필드 L'(u', v', s', t')를 얻을 수 있다. 합성 광 필드 L'(u', v', s', t')의 의미에 대해서는 도 4를 통하여 후술하기로 한다.The refocusing
리포커싱부(340)는 디코딩부(320)에 의하여 변환된 광 필드 데이터 L(u, v, s, t)에 대하여 가상의 합성 개구부(synthetic aperture)와 가상의 합성 센서 평면(synthetic sensor plane)을 가정하고 초점 위치를 가상의 합성 센서 평면 상에 배치함으로써 최초의 광 필드 데이터 L(u, v, s, t)에 의한 디지털 영상보다 피사계 심도(DOF)가 높은 합성 영상을 얻을 수 있다.The
영상 인식부(360)는 영상 인식 알고리즘을 이용하여 합성 영상에 대한 영상 인식을 수행하고, 영상 인식에 의한 결과를 피드백부(350)로 전달한다. 이 때 영상 인식의 결과는 현재의 피사계 심도(DOF)가 만족스러운지, 현재의 영상 촬영 환경이 인식 가능한 영상을 얻기에 충분한지 등의 조건을 판정할 수 있다.The
피드백부(350)는 조명 및 촬상의 조건이 만족스러운지, 현재의 피사계 심도(DOF)가 재조정이 필요한지에 대한 정보를 생성하여 리포커싱부(340) 또는 재교정부(330)에 전달할 수 있다. 피드백부(350)가 체크할 수 있는 조명(illumination) 및 촬상(imaging)의 조건은 예를 들어 어두운 조명(poor lighting), 수중 환경(underwater), 빛이 감쇠가 큰 매질을 통과하는지(attenuating media) 등일 수 있다. 여기서 감쇠가 큰 매질의 예로는 연기(smoke), 안개(fog) 등을 들 수 있다.The
재교정부(330)는 현재 리포커싱된 영상의 피사계 심도(DOF)가 만족스럽지 못한 경우, 리포커싱 과정 및 영상 처리 알고리즘을 추가 적용하여 피사계 심도를 재조정할 수 있다.If the depth of field (DOF) of the currently refocused image is unsatisfactory, the refocusing
재교정부(330)는 현재 재구성된 영상에 대한 소프트웨어 처리를 이용하여 현재 재구성된 영상에 대한 확대 또는 축소 연산을 수행할 수 있다. 이러한 확대 또는 축소 연산은 재구성된 영상의 피사계 심도(DOF) 또는 선명도에 기반하여 결정되고 실행될 수 있다. 예를 들어 현재 재구성된 영상이 충분히 선명한 경우 재교정부(330)는 현재 재구성된 영상을 확대하여 높은 해상도 버전의 영상을 얻을 수 있다. 또는 현재 재구성된 영상이 리포커싱 처리에도 불구하고 여전히 선명하지 못한 경우 재교정부(330)는 현재 재구성된 영상을 축소하여 낮은 해상도 버전의 영상을 얻을 수도 있다.The
영상 인식부(360)는 비이상적인 조명과 비이상적인 조명 조건 또는 영상 조건에 대한 이미지를 체크할 수 있으며, 비이상적인 조건의 예로는 연기(smoke) 또는 안개(fog) 등과 같이 이미지에 리포커싱이 필요한 경우, 피드백부(350)를 통하여 리포커싱부(340) 또는 재교정부(330)에서 이를 활용할 수 있다. The
도 4는 본 발명의 일 실시예에 따른 합성 이미지 형성을 위한 개념적 모델을 나타낸 도면이다.4 is a diagram illustrating a conceptual model for composite image formation according to an embodiment of the present invention.
도 4를 참조하면, 실제로 얻어진 영상과 다르게 위치되고 리포커싱된 합성 카메라(synthetic camera)의 개념이 도시된다. 여기서 소개되는 합성 카메라는 가상의 카메라로서, 그 가상적인 구성은 일반적인 카메라(conventional camera)와 같다. 즉, 합성 카메라는 합성 개구(synthetic aperture)와 합성 센서 평면(synthetic sensor plane)을 가질 것이다. 합성 센서 평면은, 실시예에 따라서는 합성 필름 평면(synthetic film plane)으로 가정해도 무방하다.Referring to FIG. 4, there is shown a concept of a synthetic camera that is positioned and refocused differently from the image actually obtained. The synthetic camera introduced here is a virtual camera, and its virtual configuration is the same as a conventional camera. That is, the composite camera will have a synthetic aperture and a synthetic sensor plane. The synthetic sensor plane may be assumed to be a synthetic film plane depending on the embodiment.
합성 카메라는 다음의 네 가지 파라미터를 이용하여 모델링될 수 있다. 네 가지 파라미터는 개구 크기(aperture size), 개구 위치(aperture location), 렌즈의 심도(depth of lens) 및 센서 평면의 심도(depth of sensor plane)를 의미한다.The composite camera can be modeled using the following four parameters. The four parameters are the aperture size, the aperture location, the depth of lens, and the depth of the sensor plane.
도 4에서는 합성 카메라의 합성 개구(렌즈)와 합성 센서 평면이 평행한 실시예가 도시되었으나, 본 발명의 사상은 이에 국한되지 않고, 합성 개구와 합성 센서 평면이 평행하지 않은 경우에도 적용될 수 있다. 합성 개구와 합성 센서 평면이 평행하지 않은 경우에는 획득된 광 필드 데이터에 기초하여 레이 트레이싱(ray tracing) 기법을 적용하여 광 필드를 추적할 수 있을 것이다.4 shows an embodiment in which the synthetic aperture (lens) of the synthetic camera is parallel to the synthesized sensor plane, but the spirit of the present invention is not limited to this, and can also be applied to a case in which the synthesized aperture and synthetic sensor plane are not parallel. If the composite aperture and the synthesized sensor plane are not parallel, the ray tracing technique may be applied to track the optical field based on the acquired optical field data.
합성 광 필드 데이터 는 합성 센서 평면 (s', t')과 합성 개구 평면(u', v') 사이를 이동하는 빛(광 필드 데이터)를 나타낸 것이다. 이에 따라, 합성 센서 평면에 나타난 조도 화상 값은 수학식 1로 나타낼 수 있다.Composite light field data (Light field data) moving between the synthetic sensor plane s ', t' and the synthetic aperture plane u ', v'. Accordingly, the illuminance image value displayed on the synthesized sensor plane can be expressed by Equation (1).
[수학식 1][Equation 1]
실제로 얻어진 광 필드 L과 합성 광 필드 L'의 관계는 하기 수학식 2와 같은 좌표 변환 식으로 나타낼 수 있다.The relation between the optical field L actually obtained and the synthetic optical field L 'can be expressed by a coordinate transformation formula as shown in the following equation (2).
[수학식 2]&Quot; (2) "
상기 수학식 1과 수학식 2를 결합하면, 수학식 1의 조도 화상 값을 하기 수학식 3과 같이 다시 쓸 수 있다.Combining Equations (1) and (2), the illuminance image value of Equation (1) can be rewritten as Equation (3).
[수학식 3]&Quot; (3) "
이 때, 는 합성 카메라의 합성 개구의 면적 값을 나타내며, 수학식 3을 이용하여 스테레오 비전을 포함한 합성 카메라의 이미지를 연산할 수 있다.At this time, Represents the area value of the synthetic aperture of the synthetic camera, and the image of the synthetic camera including the stereo vision can be calculated using Equation (3).
다시 도 3을 참조하면, 리포커싱부(340)는 스테레오 비전을 포함한 합성 센서 평면을 임의의 위치로 이동하여 리포커싱된 합성 영상을 생성할 수 있다. 일반적인 리포커싱 알고리즘을 적용하였을 때, 일차적인 리포커싱 영상을 얻을 수 있으며, 본 발명에서는 영상 인식부(360)의 영상 인식 결과 및 피드백부(350)의 환경 조건 판정 결과에 따라 재교정부(330)가 추가적인 리포커싱 알고리즘을 수행할 수 있음은 앞에서 설명한 바와 같다. 이 때, 리포커싱부(340) 또는 재교정부(330)에서 수행되는 리포커싱 알고리즘에서는 파라미터 를 조정하여 최종적으로 원하는 리포커싱 영상, 즉, 합성 영상을 얻을 수 있다.Referring again to FIG. 3, the refocusing
합성 개구가 좁아지면 피사계 심도(DOF)를 향상시킬 수 있다. 따라서 영상 인식부(340) 또는 피드백부(350)의 판정 결과, 조명이나 촬상의 조건이 열악하거나, 또는 영상 자체의 선명도(sharpness)가 떨어지는 경우 리포커싱부(340) 또는 재교정부(330)는 피사계 심도를 높이기 위하여 합성 개구를 더욱 좁히는 방향으로 리포커싱을 수행할 수 있다.Narrowing the synthetic aperture can improve depth of field (DOF). The refocusing
미시적인 객체(microscopic object)의 거시적인 효과(macro effect)도 동일한 원리에 의하여 얻어질 수 있으며, 부드러운 엣지(soft edge) 또는 엣지(edge)를 가진 객체의 경우 리포커싱을 통하여 영상의 해상도(resolution)를 개선할 수 있는 효과가 있다.The macroscopic effect of a microscopic object can be obtained by the same principle and for an object with a soft edge or an edge, ) Can be improved.
도 5는 본 발명의 일 실시예에 따른 디지털 촬상 장치(500)를 상세하게 나타낸 도면이다.5 is a detailed view of a
본 발명의 기존의 광 필드 카메라 기법에 영상 인식 과정을 추가하고, 영상 인식 결과를 반영하여 리포커싱 파라미터(합성 센싱 평면 등의 위치 조정을 포함하는 개념)를 조정하는 디지털 촬상 장치(500)는 촬상부(510) 및 프로세서(520)를 포함하고, 프로세서(520)는 영상 인식부(521) 및 리포커싱부(522)를 포함한다.The
촬상부(510)는 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득한다. 이 때, 객체(object)는 피사체(객체) 또는 장면(scene)을 의미하며, 캡처된 영상은 실제의 피지컬 센서(physical sensor)의 픽셀(pixel)값에 의해 인식되는 영상을 의미한다.The
프로세서(520)는 획득 된 광 필드 데이터를 처리하여 객체의 리포커싱된 영상을 획득하는 역할을 한다.The
영상 인식부(521)는 캡처된 영상에 영상인식 알고리즘을 적용하고, 리포커싱부(522)는 영상인식 알고리즘이 적용된 결과를 반영하여 획득된 광 필드 데이터를 처리함으로써 캡처된 영상을 리포커싱할 수 있다.The
이 때, 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 캡처된 영상을 리포커싱할 수도 있다.At this time, the captured image may be refocused using an optical field operation based on the obtained optical field data.
또한, 영상인식 알고리즘은 영상인식의 복잡한 연산과정을 해결하기 위하여 양자 컴퓨팅을 이용한 영상인식 알고리즘을 이용할 수도 있으며 예를 들어, 캡처된 영상의 관심점을 설정하고, 관심점 간의 관계 벡터를 생성하여 관계 벡터 간의 상호작용으로 모델링하고, 벡터 간의 상호작용을 물리학 모델 중 쌍극자 간의 상호작용(이징 모델, Ising model)에 투영할 수도 있다. 이에 따라, 이징 모델에 기반한 양자 컴퓨팅 하드웨어를 이용하여 영상 인식의 복잡한 문제를 쉽게 해결할 수도 있다.In addition, the image recognition algorithm may use an image recognition algorithm using quantum computing to solve a complicated calculation process of image recognition. For example, a point of interest of a captured image is set, a relation vector between points of interest is generated, And the interaction between the vectors can be projected to the interaction between the dipoles in the physics model (Ising model). Accordingly, complex problems of image recognition can easily be solved by using quantum computing hardware based on the eigenzone model.
이 때, 이징 모델을 이용한 양자 컴퓨팅 하드웨어 중 해밀토니안의 단열적 변화를 일으켜 목표 상태에서의 솔루션을 구하는 단열적 양자 컴퓨팅(AQC) 기법을 이용할 수도 있으며, 이징 모델 중에서 특히 트랩된 이온(Trapped Ion) 기반의 스핀-포논 커플링(spin-phonon coupling)을 이용한 양자 컴퓨팅 하드웨어를 구성하고, 양자 컴퓨팅 하드웨어를 풀 수 있는 물리학적 모델에 기반하여 영상인식의 복잡한 연산과정을 해결할 수도 있다.In this case, it is possible to use adiabatic quantum computing (AQC) technique which obtains a solution in a target state by causing an adiabatic change of Hamiltonian among quantum computing hardware using an eigenmodeling model. In particular, among trapping ions, Based spin-phonon coupling and solve the complex computation process of image recognition based on a physical model that can solve quantum computing hardware.
본 발명의 일 실시예로 리포커싱부(522)는 영상인식 알고리즘이 적용된 결과에 기반하여 캡처된 영상과 레퍼런스 영상 간의 유사도가 미리 설정된 기준치 미만인 경우, 즉, 사람의 눈으로 인식하기에 캡처된 영상의 초점이 흐릿하거나 주변 환경에 의하여 캡처된 영상이 뿌옇게 보이는 경우에 캡처된 영상을 리포커싱 즉, 초점을 다시 맞추기 위하여 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수 있다.In an exemplary embodiment of the present invention, the
이 때, 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다. 피사계 심도는 사진술에서 한 사진의 초점이 맞는 것으로 인식되는 범위를 의미한다.At this time, the re-focusing parameter is adjusted to increase the depth of field (DOF). Depth of field means the extent to which a picture in photography is perceived as being in focus.
본 발명의 또 다른 일 실시예로 리포커싱부(522)는 영상인식 알고리즘이 적용된 결과에 기반하여 캡처된 영상에 나타나는 화질 열화 요인이 미리 설정된 기준치 이상인 경우, 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.According to another embodiment of the present invention, the
이 때, 화질 열화 요인은 영상 왜곡, 어두운 조명(poor lighting), 수중 환경, 안개, 연기 등을 포함할 수 있으며, 화질 열화 요인이 있을 때에는 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다.In this case, the image deterioration factor may include image distortion, poor lighting, underwater environment, fog, smoke, and the like. When there is a deterioration factor of image quality, the refocusing parameter is the depth of field (DOF) Adjust in the increasing direction.
본 발명의 또 다른 일 실시예로 리포커싱된 영상을 다시 영상 인식할 수도 있으며, 이 때, 영상 인식을 한 결과가 일정한 기준치에 못 미치는 경우, 즉, 흐릿하거나 화질이 떨어지는 경우에 리포커싱된 영상에 다시 피사계 심도(DOF)를 증가하는 방향으로 조정하여 리포커싱 할 수도 있다.According to another embodiment of the present invention, the re-focused image may be re-image-recognized. In this case, when the result of the image recognition is less than a predetermined reference value, that is, To adjust the depth of field DOF again to increase the depth of field.
이 때에는 영상 인식부(521)에서 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고, 리포커싱부(522)는 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수 있다.In this case, the
또 다른 일 실시예로, 캡처된 영상에서 사용자가 원하는 부분을 선택할 수도 있으며, 이에 따라 사용자 선택을 입력 받아 사용자가 선택한 부분의 초점을 다시 영상 인식하여, 영상인식 알고리즘을 적용하고, 적용된 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수도 있다.In another embodiment, the user may select a desired portion of the captured image. Accordingly, the user's selection is input, and the user recognizes the focus of the selected portion again to apply the image recognition algorithm, Determines whether the reapplied image meets a predetermined refocusing criterion, and based on the determination result, the image recognition algorithm may decide to re-focus the reapplied image again.
본 발명의 일 실시예로 리포커싱부(522)는 합성 개구부 평면 및 합성 센서 평면의 위치를 결정할 수도 있다. In one embodiment of the present invention, the refocusing
예를 들어, 광 필드 연산을 이용하여 합성 개구부 평면(synthetic aperture plane) 및 합성 센서 평면(synthetic film/sensor plane)이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 또는 제한되지 않고 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수 있다.For example, optical field calculations can be used to determine whether a synthetic aperture plane and a synthetic film / sensor plane are located at any position, regardless of the position of the physical main lens and physical microlens array, The captured image can be refocused by adjusting the re-focusing parameters.
또 다른 일 실시예로는 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.Another embodiment may refocus the captured image by adjusting the refocusing parameters such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.
이 때, 합성 개구부 평면 및 합성 센서 평면 간의 거리에 하한 기준값을 설정하여 합성 개구부 평면 및 합성 센서 평면이 서로 일치하거나 겹치지 않도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수도 있다.At this time, it is also possible to refocus the captured image by adjusting the refocusing parameter so that the synthetic aperture plane and the synthetic sensor plane do not coincide or overlap with each other by setting a lower limit reference value in the distance between the synthetic aperture plane and the synthesized sensor plane.
도 6은 본 발명의 일 실시예에 따른 촬상부를 상세하게 나타낸 도면이다.6 is a detailed view of an imaging unit according to an embodiment of the present invention.
본 발명의 디지털 촬상 장치(500)에 포함되는 촬상부(510)는 메인 렌즈(511), 포토 센서 어레이(513), 마이크로 렌즈 어레이(512)를 포함한다.The
이 때, 마이크로 렌즈 어레이(512) 및 포토센서 어레이(513)는 이미지 센서를 구현 한다. 이와 같은 디지털 촬상 장치(500)를 이용하여 리포커싱된 영상이나 여러 각도에서 보이는 영상을 획득(즉, 영상의 뷰 조정)할 수 있다.At this time, the microlens array 512 and the photosensor array 513 implement an image sensor. By using the
이미지화된 장면 내의 피사체(객체)(514)상의 단일점으로부터의 광선들은 마이크로 렌즈 어레이(512)의 초점 평면 상의 단일 수렴점으로 도달된다. 이 수렴점에서의 마이크로 렌즈(512)는 이들 광선들을 광의 방향에 기초하여 분리시켜, 마이크로 렌즈 아래의 포토센서 상에 메인 렌즈(511)의 구경의 포커싱된 이미지를 생성한다.The rays from a single point on the object (object) 514 in the imaged scene reach a single convergent point on the focal plane of the microlens array 512. [ The microlens 512 at this convergence point separates these light beams based on the direction of light, and produces a focused image of the aperture of the main lens 511 on the photosensor below the microlens.
포토센서 어레이(513)는 그 위에 입사되는 광을 검출하고, 여러가지 성분의 하나 이상을 사용하여 처리되는 출력을 생성한다. 출력 광 데이터는 예를 들어, 피사체(514)를 포함하는 장면의 이미지를 생성할 때 데이터를 제공하는 각 포토센서에 대한 위치정보와 함께 데이터를 사용하는 프로세서(520)로 전송된다.The photosensor array 513 detects the light incident thereon and produces an output that is processed using one or more of the various components. The output optical data is transmitted to the
프로세서(520)는, 예를 들어, 공통 부품(예를 들어, 한 칩) 또는 상이한 부품에 선택적으로 구현된 컴퓨터 또는 기타 처리 회로로 구현될 수 있다. 실시예에 따라서는 프로세서(520)의 일부는 촬상부(510) 내에 구현되고, 다른 부분은 외부 컴퓨터에 구현될 수도 있다. 프로세서(520)는 이미지 데이터를 처리하고 피사체(514)를 포함하는 장면의 이미지를 리포커싱 하도록 구현된다.The
프로세서(520)는 광이 마이크로 렌즈 어레이(512)에 도달한 공지된 방향(각 포토센서의 공지된 위치를 사용하여 계산됨)과 함께 검출된 광 또는 검출된 광의 특성을 사용하여 리포커싱(refocusing)이 교정될 수 있는 이미지를 형성할 때 데이터를 선택적으로 리포커싱 및/또는 교정한다.The
디지털 촬상 장치(500)는 어플리케이션에 따라 다르게 여러가지 방식으로 구현된다. 예를 들어, 마이크로 렌즈는 일예로서 몇 개의 구별 가능한 마이크로 렌즈로 도시되지만, 어레이는 일반적으로 다수의(예를 들어, 수천 또는 수백만) 마이크로 렌즈로 구현된다. 포토센서 어레이(513)는 일반적으로, 마이크로 렌즈 어레이(512) 내의 각각의 마이크로 렌즈마다 몇 개의 포토센서를 갖는다.The
포토센서 어레이(513)의 각 픽셀의 크기 즉, 피치(pitch)는 마이크로 렌즈 어레이(512)보다 상대적으로 미세하다. 또한, 마이크로 렌즈 어레이(512)내의 마이크로 렌즈 및 포토센서 어레이(513) 내의 포토센서는 일반적으로 각각의 마이크로 렌즈를 통해 포토센서 어레이로 나아가는 광이 인접한 마이크로 렌즈를 통해 나아간 광과 겹치지 않도록 위치가 설정된다.The size, or pitch, of each pixel of the photosensor array 513 is relatively finer than the microlens array 512. In addition, the micro-lenses in the microlens array 512 and the photosensors in the photosensor array 513 are generally positioned such that light traveling through the respective microlenses to the photosensor array does not overlap with light traveling through the adjacent microlenses do.
메인 렌즈(511)는 메인 렌즈(511)와 예시적인 촬상 피사체(514) 사이에 예시된 바와 같은 원하는 심도 "d"에서 관심있는 피사체 상에 포커싱하기 위해 광축을 따라 수평방향으로 이동되는 것과 같은 성능을 가진다. 따라서, 획득된 광 필드 데이터 기반으로 각 관심 위치에 리포커싱을 할 수 있다.The main lens 511 has the same performance as being moved horizontally along the optical axis to focus on a subject of interest at the desired depth "d" as illustrated between the main lens 511 and the exemplary imaging subject 514 . Thus, it is possible to perform refocusing at each position of interest based on the obtained optical field data.
예를 들어, 피사체(514)의 단일점으로부터의 광선들은 이러한 설명을 위해 도시된다. 이들 광선들은 마이크로 렌즈 어레이(512)의 초점 평면상의 마이크로 렌즈에서 단일 수렴점으로 도달한다. 마이크로 렌즈는 이들 광선들의 방향에 기초하여 분리해서, 마이크로 렌즈 아래의 픽셀 어레이 내의 픽셀 세트 상에서 메인 렌즈(511)의 구경의 포커싱된 이미지 및 광 필드 데이터를 생성한다.For example, rays from a single point of the subject 514 are shown for this illustration. These rays reach a single convergence point in the microlens on the focal plane of the microlens array 512. The microlenses are separated based on the direction of these rays to produce focused image and light field data of the aperture of the main lens 511 on the set of pixels in the pixel array below the microlenses.
디지털 촬상 장치(500) 내부의 2-평면 광 필드 "L"을 고려하면, 광 필드 데이터 L(u,v,s,t)는 (u,v)에서 메인 렌즈(511)와 교차하고, (s,t)에서 마이크로 렌즈 어레이(512)의 평면과 교차하는 광선을 따라 이동하는 광을 나타낸다. 예를 들어, 각 마이크로 렌즈 (s,t)에서, 메인 렌즈(511)의 각 서브-어퍼쳐(sub-aperture)의 위치 (u,v)를 통과하는 인텐서티 값들을 나타낸다. 여기에서, 서브-어퍼쳐는 메인 렌즈(511)의 방향 분해능의 개수를 의미한다. 예를 들어, 서브-어퍼쳐의 개수가 196개인 경우, 각 마이크로 렌즈 어레이(512)는 196개의 픽셀로 구성 된다.The optical field data L (u, v, s, t) crosses the main lens 511 at (u, v) s, t), the light traveling along a ray intersecting the plane of the microlens array 512. For example, intensity values that pass through the position (u, v) of each sub-aperture of the main lens 511 in each microlens s, t. Here, the sub-aperture means the number of directional resolutions of the main lens 511. For example, when the number of sub-apertures is 196, each microlens array 512 is composed of 196 pixels.
포토센서 어레이(513)내의 각각의 포토센서는 메인 렌즈(511) 및 마이크로 렌즈 어레이(512)를 통해 포토센서로 향한 광선 세트를 나타내는 값을 제공하도록 구현될 수 있다. 즉, 각각의 포토센서는 포토센서상에 입사된 광에 응답하여 출력을 생성하고, 마이크로 렌즈 어레이(512)에 대한 각 포토센서의 위치는 입사광에 대한 방향 정보를 제공하기 위해 이용된다.Each photosensor in the photosensor array 513 may be implemented to provide a value representative of the set of rays directed to the photosensor through the main lens 511 and the microlens array 512. [ That is, each photosensor generates an output in response to light incident on the photosensor, and the position of each photosensor with respect to the microlens array 512 is used to provide direction information about the incident light.
프로세서(520)는 광 필드 데이터 즉, L(u,v,s,t)를 이용하여 리포커싱 영상을 생성할 수 있다. 이때, 프로세서(520)는 마이크로 렌즈에 대한 각 포토센서의 위치를 이용하여 각 포토센서상의 광의 방향을 결정할 수도 있다. \The
또한, 프로세서(520)는 검출된 광이 퍼져 나오는 장면내의 피사체의 시야 심도를 결정하고, 상기 시야 심도 및 검출된 광의 방향을 사용해서, 초점 평면과는 상이한 초점 평면상에서 포커싱되는 합성 영상을 계산할 수 있다.The
한편, 마이크로 렌즈 어레이(512)내의 특정 마이크로 렌즈 아래에 형성되는 이미지는 촬상 평면상의 그 위치에 대한 시스템의 방향 분해능(directional resolution)을 지시한다. 메인 렌즈(511)는 유효하게 마이크로 렌즈의 광학적 무한 거리에 있고 마이크로 렌즈를 포커싱하기 위해, 포토센서 어레이(513)는 마이크로 렌즈의 초점 심도에서 한 평면 내에 위치한다. 메인 렌즈(511)와 마이크로 렌즈 어레이(512) 사이의 분리거리 "s"는 마이크로 렌즈의 시야 심도 내에서 예리한 이미지를 달성하도록 선택된다.On the other hand, the image formed below the particular microlens in the microlens array 512 indicates the directional resolution of the system relative to its position on the imaging plane. The main lens 511 is effectively at an optical infinity of the microlens and the photo sensor array 513 is located in one plane at the focal depth of the microlens in order to focus the microlens. The separation distance "s" between the main lens 511 and the microlens array 512 is selected to achieve a sharp image within the field of view of the microlens.
메인 렌즈(511)의 구경 크기 및 마이크로 렌즈 어레이(512)내의 마이크로 렌즈의 구경 크기(예를 들어, 렌즈 내의 개구부의 유효 크기)는 디지털 촬상 장치(511)가 구현되는 특정 애플리케이션에 부합하도록 선택된다. 이 방법은 메인 렌즈 및 마이크로 렌즈의 f-수(초점비율: 즉, 렌즈의 유효 초점 길이 대 구경의 비)에 맞춤으로써 용이해진다.The aperture size of the main lens 511 and the aperture size of the microlenses in the microlens array 512 (e.g., the effective size of the aperture in the lens) are selected to match the particular application in which the digital imaging device 511 is implemented . This method is facilitated by fitting to the f-number (focal ratio: the effective focal length of the lens to the aperture diameter) of the main lens and the microlens.
예를 들어, 본 발명에서는 메인 렌즈(511)의 크기를 조절하지 않는 커다란 렌즈가 필요한 군용장비, 천문 망원경, 드론, 감시용 카메라, CCTV 등에 활용될 수 있다.For example, the present invention can be applied to military equipment, astronomical telescopes, drones, surveillance cameras, CCTV, etc., which require a large lens that does not control the size of the main lens 511.
도 7은 본 발명의 일 실시예에 따른 디지털 촬상 방법을 나타낸 동작 흐름도이다.7 is an operational flowchart showing a digital imaging method according to an embodiment of the present invention.
본 발명의 기존의 광 필드 카메라 기법에 영상 인식 과정을 추가하고, 영상 인식 결과를 반영하여 리포커싱 파라미터(합성 센싱 평면 등의 위치를 포함하는 개념)를 조정하는 디지털 촬상 방법은 우선, 객체의 캡처된 영상의 리포커싱을 위한 광 필드 데이터를 획득한다(S710). 이 때, 객체(object)는 피사체 또는 장면(scene)을 의미하며, 캡처된 영상은 실제의 피지컬 센서(physical sensor)의 픽셀(pixel)값에 의해 인식되는 영상을 의미한다.A digital imaging method of adding an image recognition process to an existing optical field camera technique of the present invention and adjusting a re-focusing parameter (a concept including a position such as a synthetic sensing plane) by reflecting an image recognition result, And acquires optical field data for re-focusing the image (S710). In this case, the object refers to a subject or a scene, and the captured image means an image recognized by a pixel value of an actual physical sensor.
이후, 획득 된 광 필드 데이터를 처리하여 객체의 리포커싱된 영상을 획득하고(S720), 캡처된 영상에 영상인식 알고리즘을 적용하여(S730), 영상인식 알고리즘이 적용된 결과를 반영하여 획득된 광 필드 데이터를 처리함으로써 캡처된 영상을 리포커싱할 수 있다(S740).Thereafter, the obtained light field data is processed to acquire a refocused image of the object in step S720, an image recognition algorithm is applied to the captured image in step S730, and the light field obtained by reflecting the result of applying the image recognition algorithm The captured image can be refocused by processing the data (S740).
이 때, 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 캡처된 영상을 리포커싱할 수도 있다.At this time, the captured image may be refocused using an optical field operation based on the obtained optical field data.
또한, 영상인식 알고리즘은 영상인식의 복잡한 연산과정을 해결하기 위하여 양자 컴퓨팅을 이용한 영상인식 알고리즘을 이용할 수도 있으며 예를 들어, 캡처된 영상의 관심점을 설정하고, 관심점 간의 관계 벡터를 생성하여 관계 벡터 간의 상호작용으로 모델링하고, 벡터 간의 상호작용을 물리학 모델 중 쌍극자 간의 상호작용(이징 모델)에 투영할 수도 있다. 이에 따라, 이징 모델에 기반한 양자 컴퓨팅 하드웨어를 이용하여 영상 인식의 복잡한 문제를 쉽게 해결할 수도 있다.In addition, the image recognition algorithm may use an image recognition algorithm using quantum computing to solve a complicated calculation process of image recognition. For example, a point of interest of a captured image is set, a relation vector between points of interest is generated, And the interaction between vectors can be projected to the interaction (eigen model) between dipoles in the physics model. Accordingly, complex problems of image recognition can easily be solved by using quantum computing hardware based on the eigenzone model.
이 때, 이징 모델을 이용한 양자 컴퓨팅 하드웨어 중 해밀토니안의 단열적 변화를 일으켜 목표 상태에서의 솔루션을 구하는 단열적 양자 컴퓨팅(AQC) 기법을 이용할 수도 있으며, 이징 모델 중에서 특히 트립된 이온(Trapped Ion) 기반의 스핀-포논 커플링(spin-phonon coupling)을 이용한 양자 컴퓨팅 하드웨어를 구성하고, 양자 컴퓨팅 하드웨어를 풀 수 있는 물리학적 모델에 기반하여 영상인식의 복잡한 연산과정을 해결할 수도 있다.In this case, it is possible to use an adiabatic quantum computing (AQC) technique which obtains a solution in a target state by causing an adiabatic change of Hamiltonian among quantum computing hardware using an eigenmodeling model. In particular, among trapping ions, Based spin-phonon coupling and solve the complex computation process of image recognition based on a physical model that can solve quantum computing hardware.
본 발명의 일 실시예로 합성 개구부 평면 및 합성 센서 평면의 위치를 결정할 수도 있다. The position of the synthetic aperture plane and the composite sensor plane may be determined in one embodiment of the present invention.
예를 들어, 광 필드 연산을 이용하여 합성 개구부 평면(synthetic aperture plane) 및 합성 센서 평면(synthetic film/sensor plane)이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 또는 제한되지 않고 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수 있다.For example, optical field calculations can be used to determine whether a synthetic aperture plane and a synthetic film / sensor plane are located at any position, regardless of the position of the physical main lens and physical microlens array, The captured image can be refocused by adjusting the re-focusing parameters.
또 다른 일 실시예로는 합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.Another embodiment may refocus the captured image by adjusting the refocusing parameters such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.
이 때, 합성 개구부 평면 및 합성 센서 평면 간의 거리에 하한 기준값을 설정하여 합성 개구부 평면 및 합성 센서 평면이 서로 일치하거나 겹치지 않도록 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱 할 수도 있다.At this time, it is also possible to refocus the captured image by adjusting the refocusing parameter so that the synthetic aperture plane and the synthetic sensor plane do not coincide or overlap with each other by setting a lower limit reference value in the distance between the synthetic aperture plane and the synthesized sensor plane.
도 8은 본 발명의 일 실시예에 따른 캡처된 영상과 레퍼런스 영상과의 유사도를 비교한 디지털 촬상 방법을 나타낸 동작 흐름도이다.8 is a flowchart illustrating a digital imaging method in which a similarity between a captured image and a reference image is compared according to an exemplary embodiment of the present invention.
본 발명의 일 실시예로 도 7에서 설명된 디지털 촬상 방법에서 캡처된 영상에 영상인식 알고리즘을 적용하고 난 후(S830), 영상인식 알고리즘이 적용된 결과에 기반하여 캡처된 영상과 레퍼런스 영상 간의 유사도가 미리 설정된 기준치 미만인지를 판단하고(S840), 유사도가 미리 설정된 기준치 미만인 경우, 즉, 사람의 눈으로 인식하기에 캡처된 영상의 초점이 흐릿하거나 주변 환경에 의하여 캡처된 영상이 뿌옇게 보이는 경우에 캡처된 영상을 리포커싱 즉, 초점을 다시 맞추기 위하여 리포커싱 파라미터를 조정하고, 캡처된 영상을 리포커싱할 수 있다(S850).In an embodiment of the present invention, after the image recognition algorithm is applied to the captured image in the digital imaging method described in FIG. 7 (S830), the similarity between the captured image and the reference image is calculated based on the result of applying the image recognition algorithm (S840). If the similarity is less than a preset reference value, that is, if the captured image is blurred due to recognition by the human eye or if the captured image by the surrounding environment appears blurry, The refocusing parameter may be adjusted to re-focus the captured image, and the captured image may be refocused (S850).
이 때, 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다. 피사계 심도는 사진술에서 한 사진의 초점이 맞는 것으로 인식되는 범위를 의미한다.At this time, the re-focusing parameter is adjusted to increase the depth of field (DOF). Depth of field means the extent to which a picture in photography is perceived as being in focus.
도 9는 본 발명의 일 실시예에 따른 캡처된 영상에 나타나는 화질 열화 요인 여부를 판단하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.FIG. 9 is a flowchart illustrating a digital imaging method for determining whether an image quality deterioration factor appears in a captured image according to an exemplary embodiment of the present invention.
본 발명의 또 다른 일 실시예로 도 7에서 설명된 캡처된 영상에 영상인식 알고리즘이 적용된 이후(S930) 결과에 기반하여 캡처된 영상에 나타나는 화질 열화 요인이 미리 설정된 기준치 이상인지를 판단하고(S940), 화질 열화 요인이 미리 설정된 기준치 이상인 경우, 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 캡처된 영상을 리포커싱할 수도 있다.In yet another embodiment of the present invention, after the image recognition algorithm is applied to the captured image described with reference to FIG. 7 (S930), it is determined whether the image quality deterioration factor appearing in the captured image is equal to or greater than a preset reference value ), And if the image deterioration factor is equal to or greater than a preset reference value, the captured image can be refocused by adjusting the re-focusing parameter for refocusing the captured image.
이 때, 화질 열화 요인은 영상 왜곡, 어두운 조명(poor lighting), 수중 환경, 안개, 연기 등을 포함하는 요인이며, 리포커싱 파라미터는 피사계 심도(depth of field, DOF)를 증가하는 방향으로 조정한다.At this time, the image deterioration factor is a factor including image distortion, poor lighting, underwater environment, fog, smoke and the like, and the re-focusing parameter is adjusted to increase the depth of field (DOF) .
도 10은 본 발명의 일 실시예에 따른 리포커싱 기준을 충족하는지 여부를 판단하는 디지털 촬상 방법을 나타낸 동작 흐름도이다.10 is an operational flowchart illustrating a digital imaging method for determining whether or not a refocusing criterion is met according to an embodiment of the present invention.
본 발명의 또 다른 일 실시예로 리포커싱된 영상을 다시 영상 인식할 수도 있으며, 이 때, 도 7에서 설명된 한번 리포커싱된 캡처된 영상에 다시 영상인식 알고리즘을 적용하고(S1030), 영상인식 알고리즘이 적용된 결과가 리포커싱 기준을 충족하는지를 판단하고(S1040) 만약에 리포커싱 기준을 충족하지 못하는 경우, 즉, 흐릿하거나 화질이 떨어지는 경우에 영상인식 알고리즘이 적용된 영상에 다시 피사계 심도(DOF)를 증가하는 방향으로 조정하여 리포커싱 할 수도 있다(S1050).In another embodiment of the present invention, the re-focussed image may be recognized again. In this case, the image recognition algorithm is applied again to the once-refocused captured image described in Fig. 7 (S1030) It is determined whether the result of applying the algorithm satisfies the refocusing criterion (S1040). If the refocusing criterion is not satisfied, i.e., the image is blurry or the image quality is poor, the depth of field (DOF) It is also possible to perform refocusing in step S1050.
이 때에는 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고, 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수 있다.In this case, the image recognition algorithm is reapplied to the re-focussed image, and the image recognition algorithm judges whether the re-applied image satisfies the preset re-focusing criteria. Then, based on the determination result, It is possible to decide whether to focus or not.
또한, 캡처된 영상에서 사용자가 원하는 부분을 선택할 수도 있으며, 이에 따라 사용자 선택을 입력 받아 사용자가 선택한 부분의 초점을 다시 영상 인식하여, 영상인식 알고리즘을 적용하고, 적용된 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 판정 결과에 기반하여 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정할 수도 있다.In addition, the user can select a desired portion of the captured image. Accordingly, the user selects the portion of the user's selected focus, re-recognizes the focus of the selected portion, applies the image recognition algorithm, It is determined whether or not the predetermined re-focusing criteria are met, and based on the determination result, the image recognition algorithm may decide to re-focus the re-applied image again.
이상에서는 도 3의 인공 시각(machine vision) 시스템과 도 5의 디지털 촬상 장치를 중심으로 본 발명의 실시예들을 설명하였다. 본 발명의 사상은 다양한 실시예에 미칠 수 있다. 예를 들어, 도 11은 본 발명의 일 실시예에 따른 단말기에 광 필드 플레놉틱 카메라 모듈을 적용한 도면이다.The embodiments of the present invention have been described above with reference to the machine vision system of FIG. 3 and the digital imaging device of FIG. The spirit of the invention may be varied in various embodiments. For example, FIG. 11 illustrates an optical field plenoptic camera module applied to a terminal according to an exemplary embodiment of the present invention.
도 11은 본 발명의 디지털 촬상 장치(1130)가 적용된 단말기의 일 예로 단말기의 후면부(1110)에 장착될 수 있으며, 또는 단말기의 내부(1120)에 장착 될 수도 있다.11 is an example of a terminal to which the digital
단말기는 스마트폰, 이동 통신용 단말기, 무선 통신용 단말기, 또는 휴대용 카메라의 형태로 구현될 수 있다. 또한 도 11에 도시되지는 않았지만, 본 발명의 또 다른 실시예에 따라서는 핸드헬드 카메라(handheld camera), 영화 카메라(movie camera), 동사진 카메라(motion picture camera)등 DOF를 조절하여 특수효과를 이용하는 영화, 방송용 영상을 편집하는 장치에까지도 본 발명이 이용될 수 있다. 본 발명의 일 실시예로 디지털 촬상 장치(1130)는 단말기의 후면부(1110)의 기존의 카메라 렌즈 위에 탈착이 가능하다. 이에 따라 후면부에 카메라 렌즈가 장착되어 있는 일반적인 단말기에 모두 적용될 수 있으며, 디지털 촬상 장치(1130)에서 촬상된 이미지를 단말기에서 영상 인식을 이용하여 리포커싱이 가능하다.The terminal may be implemented in the form of a smart phone, a mobile communication terminal, a wireless communication terminal, or a portable camera. Although not shown in FIG. 11, according to another embodiment of the present invention, a DOF is adjusted by a handheld camera, a movie camera, a motion picture camera, The present invention can be applied to an apparatus for editing a movie or broadcast image to be used. In one embodiment of the present invention, the
본 발명의 또 다른 일 실시예로 디지털 촬상 장치(1130)가 단말기의 카메라 대신 내부(1120)에 장착될 수도 있다. 이에 따라, 디지털 촬상 장치(1130)에서 촬상된 이미지를 단말기에서 영상 인식을 이용하여 리포커싱이 가능하다.In another embodiment of the present invention, the
도 12는 도 11에 도시한 단말기에 적용된 광 필드 플레놉틱 카메라 모듈을 상세하게 나타낸 도면이다.FIG. 12 is a detailed view of an optical field plenoptic camera module applied to the terminal shown in FIG.
본 발명의 광 필드 플레놉틱 카메라 모듈(1130)은 렌즈 그룹(lens group)(1131), 마이크로 렌즈 어레이(Micro lens array)(1132) 및 이미지 센서(Image Sensor)(1133)를 포함한다.The optical field
렌즈 그룹(lens group)(1131)은 사용자가 관심 있는 객체(subject)에 초점을 광축에 따라 원하는 깊이로 변화시킬 수 있다.A
객체의 단일 지점에서 빛의 광선은 마이크로 렌즈 어레이(Micro lens array)(1132)의 초점면에 단일 지점으로 수렴하게 된다. 그 위치에서 마이크로 렌즈 아래의 픽셀 어레이에서 메인 렌즈의 개구에 포커싱된 이미지의 방향에 기초하여 빛의 광선을 분리한다.The light rays of light at a single point of the object converge to a single point on the focal plane of the
또한, 마이크로 렌즈 아래의 화상이 이미지 센서(1133)에 해당 위치에 대한 시스템의 방향의 해상도를 지시하고, 방향 분해능을 극대화하기 위해서는, 선명한 마이크로 렌즈 이미지를 통해서 가능하다. 이에 따라 본 발명은 광 필드 플레놉틱 카메라 모듈(113)을 통하여 촬상된 이미지를 영상 인식을 이용하여 리포커싱하는 기술에 포커스를 맞추고 있다.Further, an image under the microlens indicates the resolution of the direction of the system with respect to the position in the
본 발명의 일 실시 예에 따른 디지털 촬상 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The digital imaging method according to an exemplary embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .
310: 광 필드 카메라
320: 디코딩부
330: 재교정부
340: 리포커싱부
350: 피드백부
360: 영상 인식부310: Optical Field Camera
320:
330: Reissue Government
340: Re-
350:
360:
Claims (20)
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 프로세서;
를 포함하고,
상기 프로세서는
상기 캡처된 영상에 관심점을 설정하고, 관심점 간의 관계를 모델링하는 영상인식 알고리즘을 적용하는 영상 인식부; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 리포커싱부
를 포함하는 디지털 촬상 장치.An image pickup section for obtaining light field data for re-focusing the captured image of the object;
Processing the acquired optical field data to obtain a refocused image of the object;
Lt; / RTI >
The processor
An image recognition unit for applying an image recognition algorithm for setting a point of interest on the captured image and modeling a relationship between points of interest; And
A refocusing unit for refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm,
And a digital camera.
상기 촬상부는
메인 렌즈;
광선들을 캡처하는 포토 센서 어레이; 및
상기 메인 렌즈와 상기 포토 센서 어레이 사이에 위치하는 마이크로 렌즈 어레이;
를 포함하고,
상기 마이크로렌즈 어레이는 상기 광선들을 물리적으로 상기 메인 렌즈로부터 상기 마이크로 렌즈 어레이를 통해 상기 포토 센서 어레이로 향하게 하는 것을 특징으로 하는 디지털 촬상 장치.The method according to claim 1,
The imaging unit
A main lens;
A photosensor array for capturing light rays; And
A micro lens array positioned between the main lens and the photosensor array;
Lt; / RTI >
Wherein the microlens array directs the rays physically from the main lens to the photosensor array through the microlens array.
상기 리포커싱부는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치The method according to claim 1,
The re-
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when the similarity degree between the captured image and the reference image is less than a preset reference value based on a result of applying the image recognition algorithm The digital imaging device
상기 리포커싱부는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치The method according to claim 1,
The re-
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when an image quality deterioration factor appearing in the captured image is equal to or greater than a preset reference value based on a result of applying the image recognition algorithm The digital imaging device
상기 리포커싱부는
상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.The method according to claim 1,
The re-
And refocusing the captured image using an optical field calculation based on the obtained optical field data.
상기 영상 인식부는
상기 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하고,
상기 리포커싱부는
상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정하는 것을 특징으로 하는 디지털 촬상 장치.The method according to claim 1,
The image recognition unit
Applying the image recognition algorithm to the re-focused image again,
The re-
Wherein the image recognition algorithm determines whether the re-applied image satisfies a predetermined re-focusing criterion and determines whether to re-focus the re-applied image based on the determination result, .
상기 리포커싱부는
광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.The method according to claim 1,
The re-
Adjusting the re-focusing parameters to refocus the captured image so that the synthetic aperture plane and the synthesized sensor plane are positioned irrespective of the position of the physical main lens and the physical microlens array using optical field computation. .
상기 리포커싱부는
합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.The method according to claim 1,
The re-
And refocusing the captured image by adjusting a refocusing parameter such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 프로세서;
를 포함하고,
상기 프로세서는
상기 캡처된 영상에 영상인식 알고리즘을 적용하는 영상 인식부; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 리포커싱부
를 포함하고,
상기 리포커싱부는
합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 피사계 심도(Depth of Field)를 포함하는 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 장치.An image pickup section for obtaining light field data for re-focusing the captured image of the object;
Processing the acquired optical field data to obtain a refocused image of the object;
Lt; / RTI >
The processor
An image recognition unit for applying an image recognition algorithm to the captured image; And
A refocusing unit for refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm,
Lt; / RTI >
The re-
And refocusing the captured image by adjusting the refocusing parameter including a depth of field such that the distance between the synthetic aperture plane and the synthesized sensor plane is equal to or greater than a lower limit reference value.
상기 프로세서는
상기 객체의 리포커싱된 영상에 대한 소프트웨어 처리를 통하여 상기 객체의 리포커싱된 영상을 확대 또는 축소하는 영상 처리부
를 더 포함하는 것을 특징으로 하는 디지털 촬상 장치.The method according to claim 1,
The processor
An image processor for enlarging or reducing the refocused image of the object through software processing of the refocused image of the object,
Further comprising: an image pickup device for picking up the digital image data.
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 단계;
상기 캡처된 영상에 관심점을 설정하고, 관심점 간의 관계를 모델링하는 영상인식 알고리즘을 적용하는 단계; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 단계;
를 포함하는 디지털 촬상 방법.Obtaining light field data for refocusing a captured image of an object;
Processing the acquired optical field data to obtain a refocused image of the object;
Applying an image recognition algorithm for setting a point of interest on the captured image and modeling a relationship between points of interest; And
Refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm;
And outputting the digital image signal.
상기 리포커싱하는 단계는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상과 레퍼런스 영상 간의 유사도가 기설정된 기준치 미만인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.12. The method of claim 11,
The step of refocusing
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when the similarity degree between the captured image and the reference image is less than a preset reference value based on a result of applying the image recognition algorithm Wherein said digital imaging method comprises the steps of:
상기 리포커싱하는 단계는
상기 영상인식 알고리즘이 적용된 결과에 기반하여 상기 캡처된 영상에 나타나는 화질 열화 요인이 기설정된 기준치 이상인 경우, 상기 캡처된 영상을 리포커싱하기 위한 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.12. The method of claim 11,
The step of refocusing
And refocusing the captured image by adjusting a refocusing parameter for refocusing the captured image when an image quality deterioration factor appearing in the captured image is equal to or greater than a preset reference value based on a result of applying the image recognition algorithm Wherein said digital imaging method comprises the steps of:
상기 리포커싱하는 단계는
상기 획득된 광 필드 데이터에 기반한 광 필드 연산을 이용하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.12. The method of claim 11,
The step of refocusing
And refocusing the captured image using an optical field calculation based on the obtained optical field data.
상기 리포커싱된 영상에 영상인식 알고리즘을 다시 적용하는 단계
를 더 포함하고,
상기 리포커싱하는 단계는
상기 영상인식 알고리즘이 다시 적용된 영상이 미리 설정된 리포커싱 기준을 충족하는 지 판정하고, 상기 판정 결과에 기반하여 상기 영상인식 알고리즘이 다시 적용된 영상을 다시 리포커싱할 지를 결정하는 것을 특징으로 하는 디지털 촬상 방법.12. The method of claim 11,
Applying the image recognition algorithm to the refocused image again
Further comprising:
The step of refocusing
Wherein the image recognition algorithm determines whether the re-applied image meets a predetermined re-focusing criterion and determines whether to re-focus the re-applied image based on the determination result, .
상기 리포커싱하는 단계는
광 필드 연산을 이용하여 합성 개구부 평면 및 합성 센서 평면이 물리적인 메인 렌즈와 물리적인 마이크로 렌즈 어레이의 위치에 무관하게 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.12. The method of claim 11,
The step of refocusing
Adjusting the re-focusing parameters to refocus the captured image so that the synthetic aperture plane and the synthesized sensor plane are positioned irrespective of the position of the physical main lens and the physical microlens array using optical field computation. / RTI >
상기 리포커싱하는 단계는
합성 개구부 평면 및 합성 센서 평면을 물리적인 메인 렌즈와 마이크로 렌즈 어레이 사이에 위치하도록 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.12. The method of claim 11,
The step of refocusing
Refocusing the captured image by adjusting a refocusing parameter such that the composite aperture plane and the composite sensor plane are positioned between the physical main lens and the microlens array.
상기 획득된 광 필드 데이터를 처리하여 상기 객체의 리포커싱된 영상을 획득하는 단계;
상기 캡처된 영상에 영상인식 알고리즘을 적용하는 단계; 및
상기 영상인식 알고리즘이 적용된 결과를 반영하여 상기 획득된 광 필드 데이터를 처리함으로써 상기 캡처된 영상을 리포커싱하는 단계;
를 포함하고,
상기 리포커싱하는 단계는
합성 개구부 평면과 합성 센서 평면 간의 거리가 하한 기준값 이상이 되도록 피사계 심도(Depth of Field)를 포함하는 상기 리포커싱 파라미터를 조정하여 상기 캡처된 영상을 리포커싱하는 것을 특징으로 하는 디지털 촬상 방법.Obtaining light field data for refocusing a captured image of an object;
Processing the acquired optical field data to obtain a refocused image of the object;
Applying an image recognition algorithm to the captured image; And
Refocusing the captured image by processing the obtained optical field data reflecting a result of applying the image recognition algorithm;
Lt; / RTI >
The step of refocusing
And refocusing the captured image by adjusting the refocusing parameter including a Depth of Field such that a distance between a synthetic aperture plane and a synthesized sensor plane is equal to or greater than a lower limit reference value.
상기 객체의 리포커싱된 영상에 대한 소프트웨어 처리를 통하여 상기 객체의 리포커싱된 영상을 확대 또는 축소하는 단계
를 더 포함하는 것을 특징으로 하는 디지털 촬상 방법.12. The method of claim 11,
Enlarging or reducing the refocused image of the object through software processing of the refocused image of the object
Further comprising the steps of:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150060666A KR101683634B1 (en) | 2015-04-29 | 2015-04-29 | Digital imaging apparatus with plenoptic camera scheme |
PCT/KR2016/004433 WO2016175568A1 (en) | 2015-04-29 | 2016-04-29 | Digital imaging device using plenoptic camera principle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150060666A KR101683634B1 (en) | 2015-04-29 | 2015-04-29 | Digital imaging apparatus with plenoptic camera scheme |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160128772A KR20160128772A (en) | 2016-11-08 |
KR101683634B1 true KR101683634B1 (en) | 2016-12-29 |
Family
ID=57198622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150060666A Active KR101683634B1 (en) | 2015-04-29 | 2015-04-29 | Digital imaging apparatus with plenoptic camera scheme |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101683634B1 (en) |
WO (1) | WO2016175568A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115190257A (en) * | 2022-05-30 | 2022-10-14 | 元潼(北京)技术有限公司 | CIS systems for meta-imaging |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101483714B1 (en) | 2008-06-18 | 2015-01-16 | 삼성전자 주식회사 | Apparatus and method for capturing digital image |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101441586B1 (en) * | 2008-10-06 | 2014-09-23 | 삼성전자 주식회사 | Apparatus and method for capturing image |
JP5493470B2 (en) * | 2009-05-26 | 2014-05-14 | 株式会社ニコン | Focus adjustment device and imaging device provided with the same |
KR101608970B1 (en) * | 2009-11-27 | 2016-04-05 | 삼성전자주식회사 | Apparatus and method for processing image using light field data |
JP6080417B2 (en) * | 2011-08-19 | 2017-02-15 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2015
- 2015-04-29 KR KR1020150060666A patent/KR101683634B1/en active Active
-
2016
- 2016-04-29 WO PCT/KR2016/004433 patent/WO2016175568A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101483714B1 (en) | 2008-06-18 | 2015-01-16 | 삼성전자 주식회사 | Apparatus and method for capturing digital image |
Also Published As
Publication number | Publication date |
---|---|
WO2016175568A1 (en) | 2016-11-03 |
KR20160128772A (en) | 2016-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8947578B2 (en) | Apparatus and method of capturing image | |
JP4969474B2 (en) | Decoding method, decoding device, and decoding program | |
JP7178435B2 (en) | Method and audio-based refocusing image system for refocusing images captured by a plenoptic camera | |
JP2008294741A (en) | Imaging system | |
US8836765B2 (en) | Apparatus and method for generating a fully focused image by using a camera equipped with a multi-color filter aperture | |
KR20170042226A (en) | Application programming interface for multi-aperture imaging systems | |
CN105282443A (en) | Method for imaging full-field-depth panoramic image | |
JP6003578B2 (en) | Image generation method and apparatus | |
US11962901B2 (en) | Systems and methods for obtaining a super macro image | |
JP2014010783A (en) | Image processing apparatus, image processing method, and program | |
JP5889022B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
CN106663312B (en) | Systems and methods for improving computational imaging | |
KR101683634B1 (en) | Digital imaging apparatus with plenoptic camera scheme | |
JP6168220B2 (en) | Image generation apparatus, image processing apparatus, image generation method, and image processing program | |
JP6569769B2 (en) | Arbitrary viewpoint image composition method and image processing apparatus | |
US8994846B2 (en) | Image processing apparatus and image processing method for detecting displacement between images having different in-focus positions | |
JP6330955B2 (en) | Imaging apparatus and imaging method | |
KR20110042936A (en) | Image processing apparatus and method using optical field data | |
JP6071173B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2015084517A (en) | Image processing apparatus, image processing method, program and recording medium | |
JP4200778B2 (en) | Imaging device | |
JP7191680B2 (en) | Image processing device and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150429 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20160215 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20160923 |
|
PG1501 | Laying open of application | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20161201 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20161202 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20191129 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20201130 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20211123 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20221130 Start annual number: 7 End annual number: 7 |