JP6731738B2 - Image generation apparatus for generating depth map using phase detection pixels - Google Patents
Image generation apparatus for generating depth map using phase detection pixels Download PDFInfo
- Publication number
- JP6731738B2 JP6731738B2 JP2016017442A JP2016017442A JP6731738B2 JP 6731738 B2 JP6731738 B2 JP 6731738B2 JP 2016017442 A JP2016017442 A JP 2016017442A JP 2016017442 A JP2016017442 A JP 2016017442A JP 6731738 B2 JP6731738 B2 JP 6731738B2
- Authority
- JP
- Japan
- Prior art keywords
- phase difference
- lens
- image
- depth map
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 79
- 238000004364 calculation method Methods 0.000 claims description 102
- 238000012545 processing Methods 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 18
- 238000012805 post-processing Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 9
- 230000007423 decrease Effects 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 61
- 238000010586 diagram Methods 0.000 description 38
- 238000000034 method Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 19
- 238000012937 correction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 101150047238 PPX1 gene Proteins 0.000 description 2
- 101100353039 Schizosaccharomyces pombe (strain 972 / ATCC 24843) ppe1 gene Proteins 0.000 description 2
- 101100408982 Streptococcus mutans serotype c (strain ATCC 700610 / UA159) ppaC gene Proteins 0.000 description 2
- 238000003705 background correction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/32—Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/229—Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Measurement Of Optical Distance (AREA)
- Focusing (AREA)
Description
本発明は、映像技術に係り、さらに具体的には深さマップ(Depth Map)を生成するための装置に関する。 The present invention relates to a video technology, and more particularly, to an apparatus for generating a depth map (Depth Map).
近来、多様な類型の映像技術が利用されている。多様な種類の電子装置が広く利用されており、大部分の電子装置は、映像を表示するか、或いは生成するために映像処理を遂行する。このために、大部分の電子装置は、表示装置、映像撮影装置、映像生成装置、映像処理装置等を含む。
特に、深さマップは、近来利用されている映像技術の中の1つである。深さマップは、客体と映像生成装置(例えば、イメージセンサを含むカメラ)との間の距離に関する情報を含む。深さマップは、3次元の映像を生成するために利用される。3次元映像は、映画、ビデオゲーム等をさらに興味深くするために利用される。
Recently, various types of video technology are used. Various types of electronic devices are widely used, and most electronic devices perform image processing to display or generate an image. To this end, most electronic devices include a display device, a video capturing device, a video generating device, a video processing device, and the like.
In particular, the depth map is one of the video technologies that has been used recently. The depth map includes information about the distance between the object and the image generation device (for example, a camera including an image sensor). The depth map is used to generate a three-dimensional image. Three-dimensional images are used to make movies, video games, etc. more interesting.
深さマップを生成するために、多様な類型の装置及び方法が利用されている。例として、深さマップは、特定の波形を有する光を客体に照射(Emission)した後、反射された光の波形を観察する方法、客体に照射された光が返ってくるのに掛かる時間を測定する方法、2つ以上のカメラを通じてステレオ(Stereo)情報を取得する方法等のような多様な方法によって取得される。しかし、深さマップを得るための大部分の方法は、追加のセンサ(Sensor)又は装置を要求するか、或いは映像整合(Image Registration)のような追加の映像処理を必要とする。
したがって、高い処理性能を有する電子装置に対する要求が増加するにも拘らず、電子装置の大きさは段々と減少しているため、深さマップを取得するための大部分の方法は、近来利用されている電子装置に採用することが難しい。即ち、小面積又は体積を占める装置又は回路を利用することによって、深さマップを取得するための方法が必要である。
Various types of devices and methods are used to generate depth maps. As an example, the depth map is a method of observing a waveform of reflected light after irradiating an object with a light having a specific waveform (emission), and a time taken for the light irradiated to the object to return. It can be acquired by various methods such as a method of measuring, a method of acquiring stereo information through two or more cameras. However, most methods for obtaining the depth map require additional sensors or devices, or require additional video processing such as image registration.
Therefore, despite the increasing demand for electronic devices with high processing performance, the size of electronic devices is gradually decreasing, and thus most methods for obtaining a depth map are used recently. It is difficult to adopt it in the electronic devices that are used. That is, there is a need for a method for obtaining a depth map by utilizing a device or circuit that occupies a small area or volume.
小面積又は体積を占め、効率的に深さマップを生成することができる映像生成装置が提供される。本発明の実施形態によれば、追加のセンサ又は装置無しで深さマップを生成することができる。本発明の実施形態で、互に異なる位置に移動できるレンズを通じて様々な深さデータを生成することができる。 Provided is an image generation device that occupies a small area or volume and can efficiently generate a depth map. Embodiments of the present invention allow depth maps to be generated without additional sensors or devices. Embodiments of the present invention can generate various depth data through a lens that can move to different positions.
本発明の一実施形態による映像生成装置は、客体に対応する映像信号を生成するように構成される複数のイメージセンサピクセル、及び映像の間の位相差を算出するために利用される第1及び第2位相信号を生成するように構成される複数の位相検出ピクセルを含むイメージセンサ、レンズと客体との間の距離を調節するためにレンズの位置を調節するように構成されるレンズ駆動部、レンズが第1位置にある時、生成された第1位相信号に基づいて第1位相差を算出し、レンズが第1位置と異なる第2位置にある時、生成された第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部、及び第1及び第2位相差の各々に基づいて複数の位相検出ピクセルと客体との間の距離に関する第1及び第2深さデータを生成し、第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部を含むことができる。 An image generating apparatus according to an exemplary embodiment of the present invention may include a plurality of image sensor pixels configured to generate an image signal corresponding to an object, and a first and second image sensor pixels used to calculate a phase difference between the images. An image sensor including a plurality of phase detection pixels configured to generate a second phase signal, a lens driver configured to adjust a position of the lens to adjust a distance between the lens and an object, When the lens is in the first position, the first phase difference is calculated based on the generated first phase signal, and when the lens is in the second position different from the first position, the second phase signal is generated based on the generated second phase signal. A phase difference calculation unit configured to calculate a second phase difference by the first and second phase differences, and a first and a second distance related to the distance between the plurality of phase detection pixels and the object based on each of the first and second phase differences. A depth map generator may be included that is configured to generate two depth data and generate a depth map based on the first and second depth data.
本発明の一実施形態による映像生成装置は、第1位相差に基づいて、第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含むことができる。
本発明の一実施形態で、レンズがレンズ駆動部の制御にしたがって第1位置から第2位置に移動することによって、第1位相差は、第2位相差より先に算出されることができる。本発明の一実施形態で、位相差の予測部は、レンズが第2位置に移動される前、又は移動する時、第2位相差として算出される値を予測するように構成されることができる。
本発明の一実施形態で、位相差の予測部によって予測された値と位相差の算出部によって算出された第2位相差の間の差が基準値より大きい場合、深さマップの生成部は、その差を参照して深さマップを生成するように構成されることができる。
The image generation apparatus according to the exemplary embodiment of the present invention may further include a phase difference prediction unit configured to predict a value calculated as the second phase difference based on the first phase difference.
According to an exemplary embodiment of the present invention, the first phase difference may be calculated before the second phase difference by moving the lens from the first position to the second position according to the control of the lens driving unit. In an embodiment of the present invention, the phase difference predictor may be configured to predict a value calculated as the second phase difference before or when the lens is moved to the second position. it can.
In an embodiment of the present invention, when the difference between the value predicted by the phase difference prediction unit and the second phase difference calculated by the phase difference calculation unit is larger than the reference value, the depth map generation unit determines , And can be configured to generate a depth map with reference to the difference.
本発明の一実施形態で、複数の位相検出ピクセルの各々は、複数のイメージセンサピクセルの中で2つのイメージセンサピクセルに対応するように構成されることができる。
本発明の一実施形態で、複数の位相検出ピクセルは、複数のイメージセンサピクセルと重畳されないように複数のイメージセンサピクセルの位置と異なる位置に配置されることができる。
本発明の一実施形態による映像生成装置は、映像信号を処理することによって、客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含むことができる。
In one embodiment of the present invention, each of the plurality of phase detection pixels may be configured to correspond to two image sensor pixels of the plurality of image sensor pixels.
According to an exemplary embodiment of the present invention, the plurality of phase detection pixels may be disposed at a position different from the positions of the plurality of image sensor pixels so as not to overlap the plurality of image sensor pixels.
The image generating apparatus according to an exemplary embodiment of the present invention further includes a spatial frequency calculator configured to generate spatial frequency information associated with the image of the object by processing the image signal. You can
本発明の一実施形態で、空間周波数の算出部は、レンズが第1位置にある時、第1空間周波数の情報を生成し、レンズが第2位置にある時、第2空間周波数の情報を生成するように構成されることができる。
本発明の一実施形態で、空間周波数の算出部は、第1及び第2空間周波数の情報に基づいて、レンズが第1位置から第2位置に移動される時、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得するようにさらに構成されことができる。本発明の一実施形態で、深さマップの生成部は、空間周波数の値が変わった方向及び量の中で少なくとも1つを参照して深さマップを生成するように構成されることができる。
本発明の一実施形態で、イメージセンサ、レンズ駆動部、位相差の算出部、及び深さマップの生成部は、1つのイメージセンサチップに具現されることができる。
In one embodiment of the present invention, the spatial frequency calculator generates the first spatial frequency information when the lens is at the first position, and the second spatial frequency information when the lens is at the second position. Can be configured to generate.
In one embodiment of the present invention, the spatial frequency calculator changes the value of the spatial frequency when the lens is moved from the first position to the second position based on the information of the first and second spatial frequencies. It can be further configured to obtain at least one of a direction and an amount. In an embodiment of the present invention, the depth map generator may be configured to generate the depth map with reference to at least one of the direction and the amount in which the value of the spatial frequency has changed. ..
According to an exemplary embodiment of the present invention, the image sensor, the lens driver, the phase difference calculator, and the depth map generator may be embodied in one image sensor chip.
本発明の他の実施形態による映像生成装置は、イメージセンサに含まれる複数の位相検出ピクセルによって生成された第1及び第2位相信号を提供され、客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、生成された第1位相信号に基づいて第1位相差を算出し、 レンズが第1位置と異なる第2位置にある時、生成された第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部、第1及び第2位相差の中で少なくとも1つに基づいて客体に対する焦点を合わせるためのレンズの焦点位置を算出し、レンズを焦点の位置に移動させるためにレンズの駆動信号を生成するように構成されるレンズ位置の制御部、及び第1及び第2位相差の各々に基づいて複数の位相検出ピクセルと客体との間の距離に関する第1及び第2深さデータを生成し、第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部を含むことができる。 An image generating apparatus according to another embodiment of the present invention is provided with first and second phase signals generated by a plurality of phase detection pixels included in an image sensor, and increases or decreases a distance from an object. Calculate a first phase difference based on the generated first phase signal when the lens is configured to move to a first position, and generate a second phase difference when the lens is at a second position different from the first position. A phase difference calculator configured to calculate a second phase difference based on the generated second phase signal, and for focusing on the object based on at least one of the first and second phase differences A lens position controller configured to calculate a lens focus position and generate a lens drive signal to move the lens to the focus position, and based on each of the first and second phase differences. Depth map configured to generate first and second depth data relating to a distance between a plurality of phase detection pixels and an object, and to generate a depth map based on the first and second depth data. Can be included.
本発明の他の実施形態で、第1位置及び第2位置の中で1つは、焦点の位置に対応することができる。
本発明の他の実施形態による映像生成装置は、第1位相差に基づいて、第2位相差として算出される値を予測するように構成される位相差の予測部、及びイメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号を処理することによって、客体を撮影した映像と関連された空間周波数の情報を生成するように構成される空間周波数の算出部をさらに含むことができる。
In another embodiment of the present invention, one of the first position and the second position may correspond to the focus position.
An image generation apparatus according to another exemplary embodiment of the present invention includes a phase difference prediction unit configured to predict a value calculated as the second phase difference based on the first phase difference, and an image sensor. The method may further include a spatial frequency calculator configured to generate spatial frequency information associated with the image of the object by processing the image signals generated by the plurality of image sensor pixels.
本発明の他の実施形態による映像生成装置は、位相差の予測部によって予測された値、位相差の算出部によって算出された第2位相差、及びレンズが第1位置から第2位置に移動する時、空間周波数の値が変わった方向の中で少なくとも1つに基づいて、第1位相差に関する第1信頼度水準及び第2位相差に関する第2信頼度水準を算出すように構成される信頼度水準の算出部をさらに含むことができる。
本発明の他の実施形態で、深さマップの生成部は、第1及び第2深さデータに第1及び第2信頼度水準を反映することによって、深さマップを生成するように構成されることができる。
An image generation apparatus according to another exemplary embodiment of the present invention may include a value predicted by the phase difference prediction unit, a second phase difference calculated by the phase difference calculation unit, and a lens moving from the first position to the second position. A first confidence level for the first phase difference and a second confidence level for the second phase difference based on at least one of the directions in which the value of the spatial frequency has changed. A reliability level calculator may be further included.
In another embodiment of the present invention, the depth map generator is configured to generate the depth map by reflecting the first and second confidence levels in the first and second depth data. You can
本発明の他の実施形態による映像生成装置は、イメージセンサに含まれる複数のイメージセンサピクセルによって生成された映像信号に基づいて生成された客体映像、及び深さマップに対して映像整合を遂行することによって深さマップの解像度を変更させるように構成される深さマップの後処理部をさらに含む。
本発明の他の実施形態で、位相差の算出部、レンズ位置の制御部、及び深さマップの生成部は、アプリケーションプロセッサを含む演算処理装置で具現されることができる。
An image generating apparatus according to another embodiment of the present invention performs image matching on an object image generated based on image signals generated by a plurality of image sensor pixels included in an image sensor and a depth map. It further comprises a depth map post-processor configured to change the resolution of the depth map.
In another embodiment of the present invention, the phase difference calculator, the lens position controller, and the depth map generator may be embodied in an arithmetic processing unit including an application processor.
本発明のその他の実施形態にしたがって深さマップを生成するように構成される映像生成装置は、客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、複数の位相検出ピクセルによって生成された第1位相信号及びレンズが第1位置と異なる第2位置にある時、複数の位相検出ピクセルによって生成された第2位相信号の各々に基づいて第1及び第2位相差を算出すように構成される位相差の算出部、及び第1及び第2位相差の各々に基づいて複数の位相検出ピクセルと客体との間の距離に関する第1及び第2深さデータを生成し、第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部を含むことができる。 According to another embodiment of the present invention, an image generating apparatus configured to generate a depth map has a lens configured to move in a direction in which a distance from an object increases or decreases. Based on each of the first phase signal generated by the plurality of phase detection pixels and the second phase signal generated by the plurality of phase detection pixels when the lens is in a second position different from the first position. A phase difference calculator configured to calculate the first and second phase differences, and a first and a second related distances between the plurality of phase detection pixels and the object based on each of the first and second phase differences. A depth map generator may be included that is configured to generate the second depth data and generate the depth map based on the first and second depth data.
本発明のその他の実施形態による映像生成装置は、第1位相差に基づいて、第2位相差として算出される値を予測するように構成される位相差の予測部をさらに含むことができる。本発明のその他の実施形態で、位相差の予測部によって予測された値が位相差の算出部によって算出された第2位相差と異なる場合、位相差の算出部は、レンズが第1及び第2位置と異なる第3位置にある時、複数の位相検出ピクセルによって生成された第3位相信号に基づいて第3位相差を算出するようにさらに構成され、深さマップの生成部は、第3位相差に基づいて複数の位相検出ピクセルと客体との間の距離に関する第3深さデータを生成し、第1乃至第3深さデータに基づいて深さマップを生成するようにさらに構成されることができる。 The image generation device according to another exemplary embodiment of the present invention may further include a phase difference prediction unit configured to predict a value calculated as the second phase difference based on the first phase difference. In another embodiment of the present invention, when the value predicted by the phase difference predicting unit is different from the second phase difference calculated by the phase difference calculating unit, the phase difference calculating unit determines that the lenses are the first and the second. The depth map generator is further configured to calculate a third phase difference based on a third phase signal generated by the plurality of phase detection pixels when the third position is different from the second position. The method is further configured to generate third depth data regarding a distance between the plurality of phase detection pixels and the object based on the phase difference, and generate a depth map based on the first to third depth data. be able to.
本発明のその他の実施形態による映像生成装置は、レンズが第1位置にある時、複数のイメージセンサピクセルによって生成された第1映像信号を処理することによって、客体を撮影した第1映像と関連された第1空間周波数の情報を生成し、レンズが第2位置にある時、複数のイメージセンサピクセルによって生成された第2映像信号を処理することによって、客体を撮影した第2映像と関連された第2空間周波数の情報を生成し、第1及び第2空間周波数の情報に基づいて空間周波数の値が変わった方向を獲得するように構成される空間周波数の算出部、及び空間周波数の値が変わった方向に基づいて、第1位相差に関する第1信頼度水準及び第2位相差に関する第2信頼度水準を算出するように構成される信頼度水準の算出部をさらに含むことができる。本発明のその他の実施形態で、深さマップの生成部は、第1及び第2深さデータに第1及び第2信頼度水準を反映することによって、深さマップを生成するように構成されることができる。 An image generating apparatus according to another embodiment of the present invention relates to a first image of an object by processing a first image signal generated by a plurality of image sensor pixels when the lens is in the first position. The second image signal of the object is generated by processing the second image signal generated by the plurality of image sensor pixels when the lens is in the second position. A spatial frequency calculator configured to generate the second spatial frequency information, and acquire a direction in which the spatial frequency value changes based on the first and second spatial frequency information, and the spatial frequency value. The method may further include a confidence level calculator configured to calculate a first confidence level for the first phase difference and a second confidence level for the second phase difference based on the changed direction. In another embodiment of the present invention, the depth map generator is configured to generate the depth map by reflecting the first and second confidence levels in the first and second depth data. You can
本発明の実施形態によれば、映像生成装置によって占められる面積又は体積が減少することができる。さらに、本発明の実施形態によれば、様々な深さデータを参照して誤差を補正することによって、より高い信頼性を有する深さマップを生成することができる。 According to the embodiments of the present invention, the area or volume occupied by the image generating device can be reduced. Further, according to the embodiments of the present invention, it is possible to generate a depth map having higher reliability by correcting various errors with reference to various depth data.
前述した特性及び以下の詳細な説明は、すべてが本発明の説明及び理解を助けるための例示的な事項である。即ち、本発明はこのような実施形態に限定されず、他の形態に具体化することができる。次の実施形態は、単なる本発明を完全に開示するための例示であり、本発明が属する技術分野の通常の技術者に本発明を伝達するための説明である。したがって、本発明の構成要素を具現するための方法が様々である場合には、これらの方法の中で特定なこと、又はこれと同一性があるものの中のいずれでも本発明の具現が可能であることを明確に理解する必要がある。 The foregoing characteristics and the following detailed description are all exemplary in nature to aid in the description and understanding of the present invention. That is, the present invention is not limited to such an embodiment and can be embodied in other forms. The following embodiments are merely examples for completely disclosing the present invention, and are descriptions for transmitting the present invention to a person skilled in the art to which the present invention belongs. Therefore, when there are various methods for implementing the constituent elements of the present invention, it is possible to implement the present invention by using any of the methods that are specific to or the same as those methods. There is a clear need to understand that.
本明細書で所定の構成が特定の要素を含むと言及されている場合又は所定の過程が特定の段階を含むと言及された場合は、その他の要素又はその他の段階をさらに含むことを意味する。即ち、本明細書で使用される用語は、特定の実施形態を説明するためのものであり、本発明の概念を限定するためのものではない。さらに、発明の理解を助けるために説明した例示は、それの相補的な実施形態も含む。
本明細書で使用される用語は、本発明が属する技術分野の通常の技術者が一般的に理解する意味を有する。普遍的に使用される用語は、本明細書の脈絡にしたがって一貫的な意味として解釈されなければならない。また本明細書で使用される用語は、その意味が明確に定義された場合を除いて、あまりにも理想的であるか、或いは形式的な意味として解釈されてはならない。以下、添付された図面を通じて本発明の実施形態を説明する。
Where a given configuration is referred to herein as comprising a particular element or a particular process is referred to as comprising a particular step, it is meant to further include the other element or other step. .. That is, the terminology used herein is for describing a particular embodiment and not for limiting the concept of the invention. Furthermore, the illustrations provided to aid in understanding the invention also include complementary embodiments thereof.
The terms used in this specification have the meaning commonly understood by one of ordinary skill in the art to which this invention belongs. Universally used terms should be construed as a consistent meaning according to the context of the specification. Also, the terms used herein should not be construed as too ideal or formal meanings, unless the meaning is explicitly defined. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
図1は、本発明の実施形態による映像生成装置を含む映像生成システムの構成を示すブロック図である。図1を参照すれば、映像生成システム1000は、客体1100、及び映像生成装置1300を含む。客体1100は、撮影の対象である。映像生成装置1300の動作によって、客体1100に関する映像IMGが生成される。
実施形態として、映像生成装置1300は、レンズ1310、イメージセンサチップ1330(Image Sensor Chip)、及び映像信号の処理器1350を含む。但し、映像生成装置1300は、図1に示さない他の構成要素をさらに含んでもよい。図1に示した映像生成装置1300は、本発明の理解を助けるための単なる例示である。映像生成装置1300は、客体1100に関する映像IMGを生成する。
FIG. 1 is a block diagram showing a configuration of a video generation system including a video generation device according to an exemplary embodiment of the present invention. Referring to FIG. 1, the
As an exemplary embodiment, the
ここで使用されるプロセッサなる用語は、所望の演算、例えば、プログラムに含まれるコードおよび/又は命令として表われる演算を遂行する物理的に構成された回路を備えた、例えば、ハードウェアで実現されるデータ処理装置であってあってもよい。
上述のハードウェアで実現されるデータ処理装置の一例としては、マイクロプロセッサ、中央演算ユニット(CPU)、プロセッサコア、マルチコアプロセッサ、マルチプロセッサ、特定用途向け集積回路(ASIC)、現場でのプログラム可能なゲートアレイ(FPGA)などが挙げられるが、これに限定されるものではない。プログラムコードを実行するプロセッサとは、プログラム化されたプロセッサであって、特定目的のコンピュータである。
The term processor as used herein is implemented, for example, in hardware, with physically configured circuits that perform the desired operations, such as operations represented as codes and/or instructions contained in a program. It may be a data processing device.
Examples of data processing devices implemented in the above hardware include microprocessors, central processing units (CPUs), processor cores, multicore processors, multiprocessors, application specific integrated circuits (ASICs), field programmable devices. Examples thereof include a gate array (FPGA), but the invention is not limited to this. A processor that executes program code is a programmed processor, which is a special purpose computer.
レンズ1310は、1つ以上の光源から放出された後、客体1100によって反射された光を受信する。実施形態として、映像生成装置1300は、1つ以上のレンズを含む。レンズ1310を通過した光は、イメージセンサチップ1330に提供される。
イメージセンサチップ1330は、レンズ1310から提供された光に基づいて1つ以上の映像信号を生成する。映像信号は、客体1100に関する映像IMGを生成するために利用される情報を含む。映像信号に基づいて、客体1100に関する映像IMGが生成される。映像信号は、映像信号の処理器1350に提供される。
The
The
例として、イメージセンサチップ1330は、イメージセンサピクセルを含む。イメージセンサピクセルは、1つ以上の光通過フィルタ(Light Pass Filter)及び1つ以上の光感知センサ(Photo−Sensitive Sensor)を含む。例として、光通過フィルタの各々は、赤色光、緑色光、及び青色光の中で1つを通過させることができるが、本発明は、この例に限定されない。光感知センサは、光通過フィルタを通過した光の特性(例えば、強さ)に対応する電気特性(例えば、電圧)を有する電気信号(即ち、映像信号)を生成する。例として、1つ以上の光通過フィルタ及び1つ以上の光感知センサは、ピクセル(Pixel)単位に配置される。例として、1つの映像信号が各ピクセルに対応して生成される。
但し、本発明は、この例に限定されない。光通過フィルタの構成、光通過フィルタ及び光感知センサの配置、及び映像信号の生成は、必要によって多様な方式で具現されてもよい。また、例として、イメージセンサチップ1330は、赤外光(Infrared Light)の通過フィルタ、赤外光センサ等のような多様な構成要素をさらに含んでもよい。
As an example,
However, the present invention is not limited to this example. The configuration of the light-pass filter, the arrangement of the light-pass filter and the light-sensitive sensor, and the generation of the image signal may be implemented by various methods as necessary. In addition, as an example, the
さらに、本発明の実施形態で、イメージセンサチップ1330は、位相検出ピクセルをさらに含む。位相検出ピクセルは、位相差の自動焦点合わせ(Phase Difference Auto−focusing)を遂行するために利用される。位相検出ピクセルは、位相信号を生成する。位相信号は、映像の間の位相差が算出されるために利用される。本発明の実施形態で、位相差は、客体に対する焦点合わせ、及び客体とイメージセンサとの間の距離の測定に利用される。位相検出ピクセルは、図2乃至図6に対する説明と共にさらに言及される。
Further, in the embodiment of the present invention, the
映像信号の処理器1350は、イメージセンサチップ1330によって生成された映像信号及び位相信号を受信する。映像信号の処理器1350は、映像信号を処理するための演算を遂行する。客体1100に関する映像IMGは、映像信号に基づいて生成される。しかし、映像信号は、客体1100に関する映像IMGを生成するのに適切ではない。適切な映像IMGを生成するために、映像信号の処理器1350は、映像信号の処理を遂行する。
The
例として、映像信号の処理器1350は、不良ピクセルの補正(Bad Pixel Correction)、ディモザイク(Demosaic)、ノイズ除去(Noise Reduction)、レンズシェーディングの補正(Lens Shading Correction)、ガンマ補正(Gamma Correction)、エッジエンハンスメント(Edge Enhancement)等のような映像信号の処理を遂行する。但し、本発明は、この例に限定されない。映像信号の処理器1350は、他の映像信号の処理をさらに遂行することができる。
As an example, the
映像信号の処理器1350は、位相信号を処理することによって、客体1100に対する焦点を合わせる。さらに、本発明の実施形態で、映像信号の処理器1350は、位相信号を処理することによって、深さマップDM(Depth Map)を生成する。深さマップは、客体1100とイメージセンサとの間の距離に関する情報を示す映像である。位相信号の処理、焦点合わせ、及び深さマップの生成が映像信号の処理器1350によって遂行されることを説明した。しかし、後でさらに言及するが、位相信号の処理、焦点合わせ、及び深さマップの生成の中で少なくとも1つは、イメージセンサチップ1330によって、遂行してもよい。
The
映像信号の処理器1350は、ハードウェアで具現される。例として、映像信号の処理器1350は、映像信号の処理を遂行するためのアナログ回路又は論理回路を含む。または、映像信号の処理器1350は、演算処理装置に具現することができる。例として、映像信号の処理器1350は、アプリケーションプロセッサ(Application Processor)を含む演算処理装置に具現することができる。演算処理装置は、ROM(Read−only Memory)に格納された命令語コード(Instruction Code)又はRAM(Random Access Memory)にロードされたプログラムコードを実行することによって、映像信号の処理を遂行する。但し、この例は、本発明を限定するものではない。
The
実施形態として、図1に示したように、映像信号の処理器1350は、イメージセンサチップ1330と共に同一の装置に含まれる。この実施形態で、例として、映像生成装置1300は、デジタルカメラ、スマートフォン、タブレット、ウェアラブル(Wearable)装置等のようにイメージセンサチップ1330、及び映像信号の処理器1350を含む携帯用の電子装置で具現することができる。
As an embodiment, as shown in FIG. 1, a
他の実施形態として、図1に示したことと異なり、映像信号の処理器1350を含む装置は、イメージセンサチップ1330を含む装置と別個に提供されてもよい。この実施形態で、例として、イメージセンサチップ1330を含む装置は、単純に撮影装置であってもよく、映像信号の処理器1350を含む装置は、1つ以上のプロセッサを含むコンピューティング装置であってもよい。即ち、本発明の実施形態は、多様な方式で具現することができ、図1に示した構成に限定されない。
As another embodiment, unlike the device shown in FIG. 1, the device including the
実施形態として、図1に示したように、映像信号の処理器1350は、イメージセンサチップ1330と別個に提供される映像信号の処理回路、映像信号の処理チップ、又は映像信号の処理装置であってもよい。この実施形態で、映像生成装置1300が携帯用の電子装置である場合、イメージセンサチップ1330は、映像信号の処理器1350と別個に提供され、映像信号の処理器1350は、アプリケーションプロセッサに含まれる。
As an embodiment, as shown in FIG. 1, the
他の実施形態として図1に示したものと異なり、映像信号の処理器1350の一部又はすべては、イメージセンサチップ1330に含まれてもよい。この実施形態で、イメージセンサチップ1330は、映像信号を生成することは勿論、映像信号の処理を遂行することができる。即ち、本発明の実施形態は、多様な構成で具現することができ、図1に示した構成に限定されない。図1は、本発明の理解を助けるための例示的な構成を示す。
Unlike the embodiment shown in FIG. 1 as another embodiment, a part or all of the
下記で言及する本発明の実施形態による“映像生成装置”の構成要素は、イメージセンサチップ1330又は映像信号の処理器1350に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現されてもよい。又は“映像生成装置”の構成要素は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供されてもよい。本発明の実施形態は、多様な構成で具現することができる。本発明の実施形態による構成は、図7乃至図17に対する説明と共に言及される。
The components of the “image generating apparatus” according to the exemplary embodiments of the present invention described below may be implemented in the
図2乃至図4の各々は、本発明の実施形態にしたがった位相検出ピクセルを含むイメージセンサの構成を示す概念図である。本発明の実施形態にしたがった位相検出ピクセルを含むイメージセンサ1331は、図1のイメージセンサチップ1330に含まれる。
図2を参照すれば、イメージセンサ1331は、ピクセルアレイPAを含む。ピクセルアレイPAは、ピクセル単位PXで形成される。イメージセンサ1331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含む。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差を算出するために利用される位相信号を生成する。複数のイメージセンサピクセル及び複数の位相検出ピクセルは、ピクセル単位PXに配置される。複数のイメージセンサピクセル及び複数の位相検出ピクセルの配置は、図3及び図4を参照して説明される。
Each of FIGS. 2 to 4 is a conceptual diagram showing a configuration of an image sensor including a phase detection pixel according to an embodiment of the present invention. An
Referring to FIG. 2, the
実施形態として、複数の位相検出ピクセルの各々は、複数のイメージセンサピクセルの中で2つのイメージセンサピクセルに対応するように構成される。図2及び図3を共に参照すれば、複数のイメージセンサピクセルの各々は、1つのピクセル単位PXに対応する。さらに、複数の位相検出ピクセルPPX1、PPXnの各々は、2つのピクセル単位に対応する。即ち、例として、2つのイメージセンサピクセルは、1つの位相検出ピクセルPPX1として利用される。この実施形態で、1つのピクセル単位PXは、イメージセンサピクセルのみではなく、位相検出ピクセルとして利用される。
上記の実施形態で、すべてのイメージセンサピクセルが位相検出ピクセルとして利用されてもよい。または、複数のイメージセンサピクセルの一部は、位相検出ピクセルで利用されなくともよい。例として、複数のイメージセンサピクセルの個数がp個である場合、複数の位相検出ピクセルの個数は、p/2個以下である(即ち、n≦(p/2))。
In embodiments, each of the plurality of phase detection pixels is configured to correspond to two image sensor pixels of the plurality of image sensor pixels. Referring to FIGS. 2 and 3, each of the plurality of image sensor pixels corresponds to one pixel unit PX. Further, each of the plurality of phase detection pixels PPX1 and PPXn corresponds to two pixel units. That is, as an example, two image sensor pixels are used as one phase detection pixel PPX1. In this embodiment, one pixel unit PX is used not only as an image sensor pixel but as a phase detection pixel.
In the above embodiments, all image sensor pixels may be used as phase detection pixels. Alternatively, some of the plurality of image sensor pixels may not be used in the phase detection pixels. As an example, when the number of the plurality of image sensor pixels is p, the number of the plurality of phase detection pixels is p/2 or less (that is, n≦(p/2)).
他の実施形態として、複数の位相検出ピクセルは、複数のイメージセンサピクセルと重畳されないように配置してもよい。図4を参照すれば、白い四角形は、イメージセンサピクセルIPXを示し、陰影で示された四角形は、位相検出ピクセルPPXを示す。即ち、複数の位相検出ピクセルは、複数のイメージセンサピクセルの位置と異なる位置に配置される。この実施形態で、位相検出ピクセルは、イメージセンサピクセルとして利用されないこともあり得る。例として、位相検出ピクセルは、白色の光センサを含むことができるが、本発明は、この例に限定されない。
上記の実施形態で、ピクセルアレイPAに含まれるピクセルの中で一部は、イメージセンサピクセルとして利用される。さらに、イメージセンサピクセルとして利用されないピクセルは、位相検出ピクセルとして利用することができる。必要によって、ピクセルアレイPAに含まれるすべてのピクセルが位相検出ピクセルとして利用されてもよい。
As another embodiment, the plurality of phase detection pixels may be arranged so as not to overlap the plurality of image sensor pixels. Referring to FIG. 4, a white rectangle indicates an image sensor pixel IPX, and a shaded rectangle indicates a phase detection pixel PPX. That is, the plurality of phase detection pixels are arranged at positions different from the positions of the plurality of image sensor pixels. In this embodiment, the phase detection pixels may not be utilized as image sensor pixels. As an example, the phase detection pixel can include a white light sensor, but the invention is not limited to this example.
In the above embodiment, some of the pixels included in the pixel array PA are used as image sensor pixels. Further, pixels not used as image sensor pixels can be used as phase detection pixels. If necessary, all the pixels included in the pixel array PA may be used as the phase detection pixels.
本発明の実施形態で、位相検出ピクセルの構成、個数、配置、及び位置は、必要によって多様に変更又は修正することができる。図2乃至図4は、複数の位相検出ピクセルを含むイメージセンサ1331の例示的な構成を示しているだけであり、本発明を限定するためのものではない。イメージセンサ1331は、図2乃至図4に示したものと異なって具現してもよい。
In the embodiments of the present invention, the configuration, number, arrangement, and position of the phase detection pixels may be changed or modified in various ways according to need. 2 to 4 only show an exemplary configuration of the
図5及び図6の各々は、位相検出ピクセルが利用される過程を示す概念図である。例として、映像生成装置1300(図1参照)に含まれるレンズ1310は、移動できるように構成される。具体的に、レンズ1310は、客体1100からの距離が増加する方向又は減少する方向に移動する。したがって、レンズ1310と客体1100との間の距離が調節される。レンズ1310の位置によって客体1100に対する焦点が合うか、或いはぼやける。
5 and 6 are conceptual diagrams illustrating a process of using the phase detection pixel. As an example, the
先ず、図5を参照する。第1番目の場合(CASE1)を参照すれば、レンズ1310と客体1100との間の距離が相対的に近い。第1番目の場合(CASE1)で、レンズ1310は、焦点の位置(In−focus Position)から外れている。焦点の位置は、客体1100に対する焦点を合わせるためのレンズ1310の位置で決まる。レンズ1310が焦点の位置から外れて存在するので、イメージセンサチップ1330(図1参照)に含まれるイメージセンサ1331に結ばれた映像の間に位相差D1が発生する。したがって、第1番目の場合(CASE1)で、客体1100に対する焦点がぼやける(Defocused)。
First, refer to FIG. Referring to the first case (CASE1), the distance between the
第2番目の場合(CASE2)を参照すれば、レンズ1310が焦点の位置に置かれている。レンズ1310が焦点の位置に置かれる場合、イメージセンサ1331に結ばれた映像の間の位相差が0である。したがって、第2番目の場合(CASE2)で、客体1100に対する焦点が合う(Focused)。
第3番目の場合(CASE3)を参照すれば、レンズ1310と客体1100との間の距離が相対的に遠い。第3番目の場合(CASE3)で、レンズ1310は、焦点の位置から外れている。レンズ1310が焦点の位置から外れて存在するので、イメージセンサ1331に結ばれた映像の間に位相差D3が発生する。したがって、第3番目の場合(CASE3)で、客体1100に対する焦点がぼやける。
Referring to the second case (CASE2), the
Referring to the third case (CASE3), the distance between the
イメージセンサ1331に含まれる複数の位相検出ピクセルは、客体に対する焦点を合わせるために利用される。上記で言及したように、複数の位相検出ピクセルは、位相信号を生成する。位相信号は、イメージセンサ1331に結ばれた映像の位置に関する情報を含む。したがって、位相信号は、映像の間の位相差を算出するために利用される。算出された位相差に基づいて、レンズ1310の焦点位置が算出される。例として、位相差を0にするレンズ1310の位置が焦点位置である。
The plurality of phase detection pixels included in the
本発明の実施形態で、複数の位相検出ピクセルは、客体に対する焦点を合わせるだけではなく、客体1100とイメージセンサ1331との間の距離の測定にも利用される。例として、客体1100とイメージセンサ1331との間の距離を測定するために、イメージセンサ1331に結ばれた映像の間の位相差、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報が参照される。
In the embodiment of the present invention, the plurality of phase detection pixels are used not only for focusing on an object, but also for measuring a distance between the
例として、特定の焦点位置、特定の位相差等のような特定の条件に対応する客体1100とイメージセンサ1331との間の距離に関する情報を予め準備することができる。映像生成装置1300は、特定の条件及び予め準備された客体1100とイメージセンサ1331との間の距離に関する情報を(例として、ルック−アップテーブル(Look−up Table)として)格納する。進歩性のある少なくとも1つの実施例としては、ルックアップテーブルは映像生成装置中のメモリ内に格納してもよい。ルックアップテーブルは、例えば、特定の条件と予め準備された情報との間の対応関係を示すものである。映像生成装置1300は、焦点の位置、位相差等のような条件を算出し、格納された情報を参照して算出された条件に対応する客体1100とイメージセンサ1331との間の距離を獲得する。
As an example, information about the distance between the
他の例として、映像生成装置1300は、位相差、レンズ1310とイメージセンサ1331との間の距離等のような条件を算出する。映像生成装置1300は、算出された条件に対して数学的な演算(例えば、辺の長さ及び辺の間の角を利用する三角関数演算等)を遂行する。したがって、映像生成装置1300は、客体1100とイメージセンサ1331との間の距離を算出する。
As another example, the
上記の例によれば、客体1100とイメージセンサ1331との間の絶対距離が算出される。一方、追加の情報が十分に準備されない場合、位相差に基づいて客体1100とイメージセンサ1331との間の相対距離を算出することができる。客体1100とイメージセンサ1331との間の距離に関する情報を示す深さマップは、絶対距離又は相対距離に基づいて生成される。
According to the above example, the absolute distance between the
但し、上記の例は、本発明の理解を助けるためのものであり、本発明を限定するためのものではない。客体1100とイメージセンサ1331との間の距離は、多様な処理によって算出される。特に、イメージセンサ1331に結ばれた映像の間の位相差、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報が利用される場合、さらに正確な絶対距離が算出される。
However, the above examples are for the purpose of helping understanding of the present invention, and not for limiting the present invention. The distance between the
次に、図6が参照される。客体1100とイメージセンサ1331との間の距離が算出されれば、映像生成装置1300は、深さマップを生成する。上記で言及したように、イメージセンサ1331のピクセルアレイPAは、複数の位相検出ピクセルPPXを含む。本発明の実施形態で、複数の位相検出ピクセルPPXによって、客体1100のすべての部分に関する深さマップが生成される。即ち、本発明の実施形態で、客体1100のいずれか一地点又は部分とイメージセンサ1331との間の距離が算出されるのではなく、客体1100のすべて部分とイメージセンサ1331との間の距離が算出される。したがって、映像生成装置1300は、客体1100のすべての部分に関する深さマップを生成する。
但し、図6は、本発明の理解を助けるための例示的な概念図であり、本発明を限定するためのものではない。上記で言及したように、位相検出ピクセルは、多様な形態で具現することができる。位相検出ピクセルの構成、個数、配置、及び位置は、必要によって多様に変更又は修正することができる。
Next, please refer to FIG. If the distance between the
However, FIG. 6 is an exemplary conceptual diagram for facilitating understanding of the present invention, and is not for limiting the present invention. As mentioned above, the phase detection pixel may be implemented in various forms. The configuration, the number, the arrangement, and the position of the phase detection pixel can be variously changed or modified according to need.
図7は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図8は、図7の映像生成装置の動作を説明するフローチャートである。図9は、図7の映像生成装置の動作を説明する概念図である。
進歩性のある少なくとも1つの実施例として、映像生成装置100は、映像生成装置100(又はその構成要素)によって遂行されるとして説明したいくつかの又は全ての演算を実行するために特別に構成された1以上の回路(例えば、ハードウエア)により実現されるか、又は含むことができる。また、映像生成装置100は、メモリを備えるか又はメモリによって実現出来る。さらに、メモリ中に格納されたコンピュータ読出し可能コード(例えば、ソフトウェア)を実行する1以上のプロセッサでも実現でき、プロセッサには、映像生成装置100(又はその構成要素)によって遂行されるとして説明された、いくつかの又は全ての演算に対応する命令を備えることができる。
進歩性のある少なくとも1つの実施例として、映像生成装置100は、例えば、上述したハードウェアとコンピュータ読出し可能なコードを実行するプロセッサとの組合せとして実現することもできる。
FIG. 7 is a block diagram showing a configuration of a video generation device according to an exemplary embodiment of the present invention. FIG. 8 is a flowchart illustrating the operation of the video generation device of FIG. FIG. 9 is a conceptual diagram illustrating the operation of the video generation device of FIG.
As at least one inventive step,
In at least one inventive embodiment, the
図7を参照すれば、映像生成装置100は、位相差の算出部103及び深さマップの生成部104を含む。映像生成装置100は、本発明の実施形態にしたがって深さマップDMを生成する。本発明の実施形態を説明するために、図7乃至図9を共に参照する。
S110段階で、レンズ1310が第1位置に移動する。上述したように、レンズ1310は、客体1100からの距離が増加する方向又は減少する方向に移動することができる。したがって、レンズ1310と客体1100との間の距離が調節される。時刻‘t1’で、レンズ1310は、レンズ位置の制御信号に応答して第1位置に移動する。例として、第1位置は、固定された位置であってもよい。または、第1位置は、必要によって調節可能な位置であってもよい。第1位置は、多様に選択又は決定することができる。
Referring to FIG. 7, the
In step S110, the
S120段階で、第1位相信号PS1が生成される。レンズ1310が第1位置にある時、客体1100が撮影される。イメージセンサ1331は、レンズ1310を通じて客体1100から反射された光を受信する。イメージセンサ1331に含まれる複数の位相検出ピクセルは、第1位相信号PS1を生成する。第1位相信号PS1は、レンズ1310が第1位置にある時、イメージセンサ1331に結ばれた映像の位置に関する情報を含む。
S130段階で、第1位相差PD1が算出される。位相差の算出部103は、イメージセンサ1331から第1位相信号PS1を受信する。位相差の算出部103は、第1位相信号PS1に基づいて第1位相差PD1を算出する。第1位相差PD1は、レンズ1310が第1位置にある時、イメージセンサ1331に結ばれた映像に関する位相差である。
At step S120, the first phase signal PS1 is generated. The
In step S130, the first phase difference PD1 is calculated. The phase
S140段階で、第1深さデータDD1が生成される。第1深さデータDD1は、イメージセンサ1331の複数の位相検出ピクセルと客体1100との間の距離に関するデータである。深さマップの生成部104は、位相差の算出部103から第1位相差PD1を受信する。深さマップの生成部104は、第1位相差PD1に基づいて第1深さデータDD1を生成する。例として、深さマップの生成部104は、第1位相差PD1のみではなく、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報をさらに参照して第1深さデータDD1を生成する。
At step S140, the first depth data DD1 is generated. The first depth data DD1 is data regarding the distance between the plurality of phase detection pixels of the
例として、深さマップDMは、第1深さデータDD1のみに基づいて生成される。しかし、客体1100が撮影される環境にしたがって、第1深さデータDD1が不正確な距離データを含む可能性がある。第1深さデータDD1が不正確な距離データを含む場合、深さマップDMが正確に生成されない。したがって、本発明の実施形態で、より高い信頼性を有する深さマップDMを生成するために、他の深さデータがさらに生成される。
S150段階で、レンズ1310が第2位置に移動する。第2位置は、第1位置と異なる位置である。時刻‘t2’で、レンズ1310は、レンズ位置の制御信号に応答して第2位置に移動する。例として、第2位置は、固定された位置であってもよい。または、第2位置は、必要によって調節可能である位置であってもよい。第2位置は、多様に選択又は決定することができる。
As an example, the depth map DM is generated based on only the first depth data DD1. However, the first depth data DD1 may include inaccurate distance data depending on the environment in which the
In step S150, the
実施形態として、第1位置及び第2位置の中で1つは、焦点の位置に対応する。この実施形態によれば、レンズ1310の焦点位置に関する情報が深さデータの生成と共に獲得される。しかし、本発明は、この実施形態に限定されない。第1位置及び第2位置の各々は、焦点の位置ではない任意の位置であってもよい。
図9を参照すれば、レンズ1310が第1位置から第2位置に移動される場合、レンズ1310とイメージセンサ1331との間の距離が近くなる。しかし、本発明は、図9によって限定されない。必要によって、レンズ1310が第1位置から第2位置に移動する場合、レンズ1310とイメージセンサ1331との間の距離が遠くなる。図9は、本発明の理解を助けるための例示である。
In the embodiment, one of the first position and the second position corresponds to the focus position. According to this embodiment, information about the focal position of
Referring to FIG. 9, when the
S160段階で、第2位相信号PS2が生成される。レンズ1310が第2位置にある時、客体1100が撮影される。イメージセンサ1331は、レンズ1310を通じて客体1100から反射された光を受信する。イメージセンサ1331に含まれる複数の位相検出ピクセルは、第2位相信号PS2を生成する。第2位相信号PS2は、レンズ1310が第2位置にある時、イメージセンサ1331に結ばれた映像の位置に関する情報を含む。
S170段階で、第2位相差PD2が算出される。位相差の算出部103は、イメージセンサ1331から第2位相信号PS2を受信する。位相差の算出部103は、第2位相信号PS2に基づいて第2位相差PD2を算出する。第2位相差PD2は、レンズ1310が第2位置にある時、イメージセンサ1331に結ばれた映像に関する位相差である。
The second phase signal PS2 is generated at step S160. The
In step S170, the second phase difference PD2 is calculated. The
S180段階で、第2深さデータDD2が生成される。第2深さデータDD2は、イメージセンサ1331の複数の位相検出ピクセルと客体1100との間の距離に関するデータである。深さマップの生成部104は、位相差の算出部103から第2位相差PD2を受信する。深さマップの生成部104は、第2位相差PD2に基づいて第2深さデータDD2を生成する。例として、深さマップの生成部104は、第2位相差PD2のみではなく、レンズ1310とイメージセンサ1331との間の距離、レンズ1310の寸法、レンズ1310の焦点位置等のような追加の情報をさらに参照して第2深さデータDD2を生成することができる。
S190段階で、深さマップDMが生成される。深さマップDMは、第1深さデータDD1及び第2深さデータDD2に基づいて生成される。深さマップの生成部104は、第1深さデータDD1及び第2深さデータDD2に基づいて深さマップDMを生成する。
At step S180, the second depth data DD2 is generated. The second depth data DD2 is data regarding the distance between the plurality of phase detection pixels of the
In step S190, the depth map DM is generated. The depth map DM is generated based on the first depth data DD1 and the second depth data DD2. The depth
上記で言及したように、第1深さデータDD1が不正確な距離データを含む可能性がある。したがって、本発明の実施形態で、深さマップの生成部104は、第2深さデータDD2をさらに生成する。様々な深さデータDD1、DD2が参照される場合、第1深さデータDD1又は第2深さデータDD2に含まれる不正確な距離データ(即ち、誤差)が補正される。本発明の実施形態による映像生成装置100は、様々な深さデータDD1、DD2を参照してより高い信頼性を有する深さマップDMを生成することができる。第1深さデータDD1及び第2深さデータDD2を参照して深さマップDMを生成する処理は、図13乃至図17に対する説明と共にさらに言及される。
As mentioned above, the first depth data DD1 may include inaccurate distance data. Therefore, in the embodiment of the present invention, the
図7乃至図9に対する説明で、レンズ1310が第1位置及び第2位置に移動し、2つの深さデータDD1、DD2が生成されることに言及した。しかし、必要によって、深さマップDMをさらに正確に生成するために、3つ以上のレンズ位置及び3つ以上の深さデータを利用してもよい。図7乃至図9は、本発明の理解を助けるための例示であり、本発明を限定するためのものではない。
さらに、図7乃至図9に対する説明で、レンズ1310が第1位置にある時、遂行される処理が完了した後、レンズ1310が第2位置に移動すると言及した。しかし、本発明の実施形態による処理の遂行の順序は、映像生成装置100の設計によって変更又は修正してもよい。
In the description of FIGS. 7 to 9, it is mentioned that the
Further, in the description of FIGS. 7 to 9, it is noted that when the
例として、レンズ1310は、第1位相信号PS1、第1位相差PD1、又は第1深さデータDD1が生成される間、又は生成される前に第2位置に移動することができる。例として、位相差の算出部103は、第1位相差PD1及び第2位相差PD2を同時に算出するか、第1位相差PD1より第2位相差PD2を先に算出することができる。例として、深さマップの生成部104は、第1深さデータDD1及び第2深さデータDD2を同時に生成するか、或いは第1深さデータDD1より第2深さデータDD2を先ず生成することができる。
As an example, the
本発明の実施形態で、映像生成装置100は、様々な深さデータDD1、DD2に基づいて深さマップDMを生成することで十分である。図7乃至図9に対する説明で言及された処理順序は、必要によって多様に変更又は修正してもよい。本発明は、図7乃至図9に対する説明によって限定されない。
In the embodiment of the present invention, it is sufficient for the
本発明の実施形態による映像生成装置100は、ToF(Time−of−Flight)センサ、赤外光センサ、ステレオ(Stereo)カメラ等のような追加の装置を要求しない。したがって、本発明の実施形態による映像生成装置100は、少ない面積又は体積を占めながらも深さマップDMを生成することができる。さらに、本発明の実施形態によれば、様々な深さデータDD1、DD2を参照して誤差を補正することによって、より高い信頼性を有する深さマップDMを生成することができる。
The
図10は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図10を参照すれば、映像生成装置2300は、レンズ2310、イメージセンサチップ2330、及び映像信号の処理器2350を含む。さらに、イメージセンサチップ2330は、イメージセンサ2331、レンズ駆動部2332、位相差の算出部2333、及び深さマップの生成部2334を含む。
レンズ2310の構成及び機能は、図1乃至図9に対する説明で言及したレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ2310の構成及び機能に関する重複される説明は省略する。レンズ2310を通過した光は、イメージセンサチップ2330のイメージセンサ2331に提供される。
FIG. 10 is a block diagram showing a configuration of a video generation device according to an exemplary embodiment of the present invention. Referring to FIG. 10, the
The configuration and the function of the
イメージセンサ2331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含む。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差が算出されるために利用される第1位相信号PS1及び第2位相信号PS2を生成する。第1位相信号PS1は、レンズ2310が第1位置にある時、生成され、第2位相信号PS2は、レンズ2310が第2位置にある時、生成される。
イメージセンサ2331の構成及び機能は、図1乃至図9に対する説明で言及されたイメージセンサ1331の構成及び機能を含む。説明を簡単にするため、イメージセンサ2331の構成及び機能に関する重複される説明は省略する。
The
The configuration and function of the
レンズ駆動部2332は、レンズ位置の制御信号LNを生成する。レンズ位置の制御信号LNは、レンズ2310の位置を調節するために利用される信号である。レンズ位置の制御信号LNに応答して、レンズ2310は、客体からの距離が増加する方向又は減少する方向に移動する。したがって、レンズ2310と客体との間の距離を調節することができる。例として、レンズ駆動部2332は、映像信号の処理器2350から提供されたレンズの駆動信号LDに基づいてレンズ位置の制御信号LNを生成する。しかし、図10に示したものと異なり、レンズ駆動部2332は、レンズの駆動信号LD無しで自らレンズ2310の位置を制御するための演算を遂行することによって、レンズ位置の制御信号LNを生成することができる。
The
位相差の算出部2333は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部2334は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部2333及び深さマップの生成部234の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部2333及び深さマップの生成部2334の構成及び機能に関する重複する説明は省略する。
The phase
The configurations and functions of the phase
例として、必要によって、映像信号の処理器2350は、深さマップの生成部2334によって生成された深さマップDMに対して映像信号の処理を遂行することができる。したがって、映像信号の処理器2350は、さらに適切に処理された深さマップDM’を生成することができる。しかし、図10に示したものと異なり、映像信号の処理無しで、深さマップの生成部2334によって生成された深さマップDMが映像生成装置2300から直接的に出力される。
For example, if necessary, the
例として、映像信号の処理器2350は、レンズ駆動部2332を制御するためのレンズの駆動信号LDを生成することができる。しかし、図10に示したものと異なり、レンズ駆動部2332無しで、映像信号の処理器2350が直接的にレンズ2310の位置を制御することができる。即ち、図10は、本発明の理解を助けるための例示的な構成を示し、本発明を限定するためのものではない。本発明の実施形態は、図10に示したものと異なる構成で具現することができる。
映像信号の処理器2350の構成及び機能は、図1の映像信号の処理器1350の構成及び機能を含む。説明を簡単にするため、映像信号の処理器2350の構成及び機能に関する重複する説明は省略する。
As an example, the
The configuration and function of the
図10に示した実施形態によれば、位相差の算出部2333及び深さマップの生成部2334は、イメージセンサチップ2330で具現される。実施形態として、イメージセンサ2331、レンズ駆動部2332、位相差の算出部2333、及び深さマップの生成部2334は、1つのイメージセンサチップ2330で具現される。
但し、本発明は、図10によって限定されない。映像生成装置2300は、図10に示さない他の構成要素をさらに含むか、或いは図10に示した構成要素の中で1つ以上を含まなくともよい。図10は、映像生成装置2300の例示的な構成を示す。
According to the embodiment shown in FIG. 10, the
However, the present invention is not limited to FIG. The
図11は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図11を参照すれば、映像生成装置3300は、レンズ3310、イメージセンサチップ3330、及び映像信号の処理器3350を含む。さらに、映像信号の処理器3350は、位相差の算出部3353、深さマップの生成部3354、及びレンズ位置の制御部3355を含む。
レンズ3310の構成及び機能は、図1乃至図9に対する説明で言及されたレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ3310の構成及び機能に関する重複する説明は省略する。レンズ3310を通過した光は、イメージセンサチップ3330に提供される。
FIG. 11 is a block diagram showing a configuration of a video generation device according to an exemplary embodiment of the present invention. Referring to FIG. 11, the
The configuration and function of the
イメージセンサチップ3330は、イメージセンサ1331(図2乃至図6参照)を含んでもよい。イメージセンサ1331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含むことができる。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差を算出するために利用される第1位相信号PS1及び第2位相信号PS2を生成する。第1位相信号PS1は、レンズ3310が第1位置にある時、生成され、第2位相信号PS2は、レンズ3310が第2位置にある時、生成される。イメージセンサ1331の構成及び機能は、図1乃至図9に対する説明で言及した。
The
位相差の算出部3353は、イメージセンサチップ3330から第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部3353は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部3354は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部3353及び深さマップの生成部3354の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部3353及び深さマップの生成部3354の構成及び機能に関する重複する説明は省略する。
The
The configurations and functions of the phase
レンズの位置制御部3355は、レンズの駆動信号LDを生成する。レンズの駆動信号LDは、レンズ3310を移動させるために利用される信号である。レンズの駆動信号LDに応答して、レンズ3310は、客体からの距離が増加する方向又は減少する方向に移動される。したがって、レンズ3310と客体との間の距離を調節することができる。しかし、図11に示したのと異なり、レンズの位置制御部3355は、レンズ3310の位置を直接的に制御しなくともよい。例として、レンズの位置制御部3355は、他の構成要素(例えば、図10のレンズ駆動部2332)を制御することによって、レンズ3310の位置を間接的に制御する。
The
例として、レンズの位置制御部3355は、レンズ3310の焦点位置を算出する。上記で言及したように、焦点の位置は、客体に対する焦点を合わせるためのレンズ3310の位置である。レンズの位置制御部3355は、第1位相差PD1及び第2位相差PD2の中で少なくとも1つに基づいて焦点の位置を算出する。例として、レンズの位置制御部3355は、位相差を0にするレンズ3310の位置が焦点の位置として算出する。レンズ3310が焦点の位置に移動する必要がある場合、レンズの位置制御部3355は、レンズ3310を焦点の位置に移動させるためのレンズの駆動信号LDを生成する。
但し、上記で言及したのと異なり、焦点の位置は、イメージセンサチップ3330で算出してもよい。イメージセンサチップ3330が他のレンズ位置の制御部を含む場合、イメージセンサチップ3330は、算出された焦点の位置にレンズ3310を移動させるためにレンズの駆動信号を生成する。本発明の実施形態は、図11に示したものと異なる構成に変更又は修正されてもよい。
As an example, the lens
However, unlike the above, the focus position may be calculated by the
例として、図11に示したことと異なり、必要によって、映像信号の処理器3350は、深さマップの生成部3354によって生成された深さマップDMに対して多様な種類の映像信号の処理を遂行することができる。したがって、さらに適切に処理された深さマップDMが生成される。即ち、図11は、本発明の理解を助けるための例示的な構成を示し、本発明を制限するためのものではない。本発明の実施形態は、図11に示したのと異なる構成で具現されてもよい。
For example, unlike the case illustrated in FIG. 11, the
図11に示した実施形態によれば、位相差の算出部3353及び深さマップの生成部3354は、映像信号の処理器3350で具現される。例として、映像信号の処理器3350は、アプリケーションプロセッサを含む演算処理装置として具現される。実施形態として、位相差の算出部3353、深さマップの生成部3354、及びレンズの位置制御部3355は、アプリケーションプロセッサを含む演算処理装置として具現される。
但し、本発明は、図11の構成に限定されない。映像生成装置3300は、図11に示さない他の構成要素をさらに含むか、或いは図11に示した構成要素の中で1つ以上を含まなくともよい。図11は、映像生成装置3300の例示的な構成を示す。
According to the embodiment shown in FIG. 11, the
However, the present invention is not limited to the configuration of FIG. The
図12は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図12を参照すれば、映像生成装置4300は、レンズ4310、イメージセンサチップ4330、映像信号の処理器4350、位相差の算出部4373、及び深さマップの生成部4374を含む。
レンズ4310の構成及び機能は、図1乃至図9に対する説明で言及したレンズ1310の構成及び機能を含む。説明を簡単にするため、レンズ4310の構成及び機能に関する重複する説明は省略する。レンズ4310を通過した光は、イメージセンサチップ4330に提供される。
FIG. 12 is a block diagram showing a configuration of a video generation device according to an exemplary embodiment of the present invention. Referring to FIG. 12, the
The configuration and function of the
イメージセンサチップ4330は、イメージセンサ1331(図2乃至図6参照)を含む。イメージセンサ1331は、複数のイメージセンサピクセル及び複数の位相検出ピクセルを含む。複数のイメージセンサピクセルは、客体に対応する映像信号を生成する。複数の位相検出ピクセルは、映像の間の位相差が算出されるために利用される第1位相信号PS1及び第2位相信号PS2を生成する。第1位相信号PS1は、レンズ4310が第1位置にある時、生成され、第2位相信号PS2は、レンズ4310が第2位置にある時、生成される。イメージセンサ1331の構成及び機能は、図1乃至図9に対する説明で言及した。
映像信号の処理器4350は、客体に関する適切な映像を生成するために映像信号の処理を遂行する。映像信号の処理器4350の構成及び機能は、図1の映像信号の処理器1350の構成及び機能を含む。説明を簡単にするため、映像信号の処理器4350の構成及び機能に関する重複する説明は省略する。
The
The
位相差の算出部4373は、イメージセンサチップ4330から第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部4373は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部4374は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部4373及び深さマップの生成部4374の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部4373及び深さマップの生成部4374の構成及び機能に関する重複する説明は省略する。
The
The configurations and functions of the phase
例として、必要によって、映像信号の処理器4350は、深さマップの生成部4374によって生成された深さマップDMに対して映像信号の処理を遂行してもよい。したがって、映像信号の処理器4350は、さらに適切に処理された深さマップDM’を生成することができる。しかし、図12に示したのと異なり、映像信号の処理無しで、深さマップの生成部4374によって生成された深さマップDMが映像生成装置4300から直接的に出力される。
For example, if necessary, the
図12に示した実施形態によれば、位相差の算出部4373及び深さマップの生成部4374は、イメージセンサチップ4330及び映像信号の処理器4350と別個に提供されてもよい。または、図10乃至図12に示したのと異なり、位相差の算出部103及び深さマップの生成部104は、イメージセンサチップ1330及び映像信号の処理器1350に分散されて具現されてもよい。即ち、本発明の実施形態による位相差の算出部103及び深さマップの生成部104は、多様な構成で具現することができる。
本発明は、図12によって限定されない。映像生成装置4300は、図12に示さない他の構成要素をさらに含むか、或いは図12に示した構成要素の中で1つ以上を含まなくともよい。図12は、映像生成装置4300の例示的な構成を示す。
According to the embodiment shown in FIG. 12, the
The present invention is not limited by FIG. The
上記で言及したように、本発明の実施形態による映像生成装置は、客体を撮影することと同時に深さマップを生成することができる。他の例として、本発明の実施形態による映像生成装置は、DMA(Direct Memory Access)動作を通じてメモリ装置又は格納装置に直接的にアクセスすることができる。メモリ装置又は格納装置は、予め生成された位相情報を格納する。この例で、映像生成装置は、メモリ装置又は格納装置に格納された位相情報に基づいて深さマップを生成する。この例で、映像生成装置は、レンズ、及びイメージセンサチップの一部機能を含まなくともよい。本発明の実施形態は、多様な構成で変更又は修正することができる。 As mentioned above, the image generation apparatus according to the embodiment of the present invention can generate a depth map at the same time as capturing an object. As another example, the image generation apparatus according to the exemplary embodiment of the present invention may directly access the memory device or the storage device through a DMA (Direct Memory Access) operation. The memory device or the storage device stores the phase information generated in advance. In this example, the image generation device generates the depth map based on the phase information stored in the memory device or the storage device. In this example, the image generation device may not include the lens and some functions of the image sensor chip. The embodiments of the present invention can be changed or modified in various configurations.
図13は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図13を参照すれば、映像生成装置200は、位相差の算出部203、深さマップの生成部204、及び位相差の予測部206を含む。
位相差の算出部203、深さマップの生成部204、及び位相差の予測部206は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現されてもよい。または、位相差の算出部203、深さマップの生成部204、及び位相差の予測部206は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供されてもよい。
FIG. 13 is a block diagram showing the configuration of a video generation device according to an embodiment of the present invention. Referring to FIG. 13, the
Whether the phase
位相差の算出部203は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部203は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部204は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部203及び深さマップの生成部204の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部203及び深さマップの生成部204の構成及び機能に関する重複する説明は省略する。
位相差の予測部206は、第1位相差PD1に基づいて、第2位相差PD2として算出される値を予測する。位相差の予測部206は、予測された値PVを深さマップの生成部204に提供する。深さマップの生成部204は、第1位相差PD1及び第2位相差PD2と共に、予測された値PVを参照して深さマップDMを生成する。
The phase
The configurations and functions of the phase
The phase
第1位相差PD1は、レンズ1310(図1参照)が第1位置にある時、算出される。第1位相差PD1に基づいて、レンズ1310の焦点位置、客体とイメージセンサ1331(図2乃至図6参照)との間の距離、レンズ1310とイメージセンサ1331との間の距離等のような撮影の環境が獲得される。撮影の環境が獲得されれば、レンズ1310が第2位置に移動した時、第2位相差PD2として算出される値が予測される。
例として、レンズ1310が第1位置から第2位置に移動することによって、第1位相差PD1は、第2位相差PD2より先に算出される。位相差の予測部206は、レンズ1310が第2位置に移動する前に予め第2位相差PD2として算出される値を予測する。または、位相差の予測部206は、レンズ1310が第2位置に移動する時、第2位相差PD2として算出される値を予測することもできる。但し、この例は、本発明の理解を助けるためのものであり、本発明を制限するためのものではない。
The first phase difference PD1 is calculated when the lens 1310 (see FIG. 1) is at the first position. Imaging based on the first phase difference PD1 such as the focus position of the
As an example, the first phase difference PD1 is calculated before the second phase difference PD2 by moving the
幾つかの場合、位相差の予測部206によって予測された値PVは、位相差の算出部203によって算出された第2位相差PD2と異なることがあり得る。例として、第1位相差PD1及び第2位相差PD2の中で少なくとも1つが誤差を含む場合、予測された値PVが第2位相差PD2と異なることがあり得る。したがって、予測された値PVが第2位相差PD2と異なる場合、誤差が補正される必要がある。
In some cases, the value PV predicted by the phase
実施形態として、予測された値PVと第2位相差PD2との間の差が基準値より大きい場合、誤差を補正するための処理が遂行される。基準値は、固定された値又は調節可能である値である。基準値は、必要によって異なって選択することができる。他の実施形態として、予測された値PVが第2位相差PD2と異なる場合、誤差を補正するための処理を遂行することができる。
誤差を補正するための処理は、多様な方法で遂行することができる。実施形態として、誤差を補正するために、深さマップの生成部204は、予測された値PVと第2位相差PD2との間の差を参照して深さマップDMを生成する。例として、深さマップの生成部204は、予測された値PVと第2位相差PD2の平均に基づいて深さマップDMを生成することができる。
As an embodiment, when the difference between the predicted value PV and the second phase difference PD2 is larger than the reference value, the process for correcting the error is performed. The reference value is a fixed value or a value that is adjustable. The reference value can be selected differently according to need. As another embodiment, when the predicted value PV is different from the second phase difference PD2, the process for correcting the error can be performed.
The process for correcting the error can be performed in various ways. As an embodiment, in order to correct the error, the depth
他の例として、深さマップの生成部204は、位相差がさらに正確に算出されるようにするレンズ1310の位置に関する情報を収集することができる。例として、深さマップの生成部204は、反復される撮影の中で周期的に又は特定の条件が満たされる時点ごとに情報を収集する。深さマップの生成部204は、収集された情報に基づいて第1位相差PD1及び第2位相差PD2の各々の信頼度を判別する。深さマップの生成部204は、第1位相差PD1及び第2位相差PD2の中でより高い信頼度を有する位相差により高い加重値を割当し、第1位相差PD1と第2位相差PD2の加重平均を算出する。深さマップの生成部204は、算出された加重平均に基づいて深さマップDMを生成する。
As another example, the
他の実施形態として、誤差を補正するために、位相差の算出部203は、他の位相差をさらに算出する。例として、レンズ1310は、第1位置及び第2位置と異なる第3位置に移動させる。レンズ1310が第3位置にある時、イメージセンサ1331の複数の位相検出ピクセルは、第3位相信号を生成する。位相差の算出部203は、第3位相信号に基づいて第3位相差を算出する。深さマップの生成部204は、第1位相差PD1、第2位相差PD2、及び第3位相差に基づいて深さマップDMを生成する。
As another embodiment, the
第3位相差がさらに算出された場合、第1位相差PD1及び第2位相差PD2の中でどの位相差がより高い信頼度を有するか否かが判別される。例として、第3位相差が第2位相差PD2より第1位相差PD1にさらに類似である場合、第1位相差PD1は、第2位相差PD2より高い信頼度を有すると看做される。この例で、深さマップの生成部204は、第1位相差PD1及び第3位相差により高い加重値を割当て、第1位相差PD1、第2位相差PD2、及び第3位相差の加重平均を算出する。深さマップの生成部204は、算出された加重平均に基づいて深さマップDMを生成する。必要によって、位相差の算出部203は、第3位相差の外に他の位相差をさらに算出することができる。
但し、上記で言及した実施形態は、本発明の理解を助けるための例示である。誤差を補正するための条件及び処理は、多様に変更又は修正することができる。本発明は、上記で言及した実施形態に限定されない。
When the third phase difference is further calculated, it is determined which one of the first phase difference PD1 and the second phase difference PD2 has higher reliability. As an example, if the third phase difference is more similar to the first phase difference PD1 than the second phase difference PD2, the first phase difference PD1 is considered to have higher reliability than the second phase difference PD2. In this example, the depth
However, the embodiments mentioned above are examples for facilitating the understanding of the present invention. The conditions and processing for correcting the error can be changed or modified in various ways. The invention is not limited to the embodiments mentioned above.
図14は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図14を参照すれば、映像生成装置300は、位相差の算出部303、深さマップの生成部304、及び空間周波数(Spatial Frequency)の算出部307を含む。
位相差の算出部303、深さマップの生成部304、及び空間周波数の算出部307は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現するか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現することができる。または、位相差の算出部303、深さマップの生成部304、及び空間周波数の算出部307は、イメージセンサチップ1330及び映像信号の処理器1350に別個に提供することができる。
FIG. 14 is a block diagram showing a configuration of a video generation device according to an exemplary embodiment of the present invention. Referring to FIG. 14, the
The
位相差の算出部303は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部303は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2が算出される。深さマップの生成部304は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部303及び深さマップの生成部304の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部303及び深さマップの生成部304の構成及び機能に関する重複する説明は省略する。
The
The configurations and functions of the phase
実施形態として、空間周波数の算出部307は、映像信号ISを受信する。映像信号ISは、イメージセンサ1331(図2乃至図6参照)に含まれる複数のイメージセンサピクセルによって、生成される。上記で言及したように、映像信号ISは、客体に関する映像を生成するために利用される。空間周波数の算出部307は、映像信号ISを処理することによって、客体を撮影した映像と関連する空間周波数の情報を生成する。
映像の空間周波数は、その映像を生成するために撮影された客体に対して焦点が合ったか否かと関連する。客体に対する焦点がぼやけた時に撮影された映像の空間周波数の成分は、低い周波数領域に集中的に分布する。一方、客体に対する焦点が合った時に撮影された映像の空間周波数の成分は、低い周波数領域から高い周波数領域まで均一に分布する。
As an embodiment, the spatial
The spatial frequency of the image is related to whether the object photographed to generate the image is in focus. The spatial frequency components of the image captured when the focus on the object is blurred are concentrated in the low frequency region. On the other hand, the spatial frequency components of the image captured when the object is in focus are uniformly distributed from the low frequency region to the high frequency region.
実施形態として、空間周波数の算出部307は、レンズ1310(図1参照)が第1位置にある時、第1空間周波数の情報を生成する。空間周波数の算出部307は、レンズ1310が第2位置にある時、第2空間周波数の情報を生成する。レンズ1310の位置が第1位置から第2位置に変更されることによって、第1空間周波数の情報は、第2空間周波数の情報と異なる。
空間周波数の算出部307は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、レンズ1310が第1位置から第2位置に移動する時、空間周波数の値が変わった方向(即ち、高い周波数領域の空間周波数の成分の増加又は減少)を獲得する。空間周波数の算出部307は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、レンズ1310が第1位置から第2位置に移動する時、空間周波数の値が変わった量を獲得する。空間周波数の算出部307は、第1空間周波数の情報、第2空間周波数の情報、空間周波数の値が変わった方向、空間周波数の値が変わった量等を含む空間周波数の情報SFを深さマップの生成部304に提供する。
As an embodiment, the
The
深さマップの生成部304は、第1位相差PD1及び第2位相差PD2と共に、空間周波数の情報SFを参照して深さマップDMを生成する。特に、深さマップの生成部304は、空間周波数の値が変わった方向及び量の中で少なくとも1つを参照する。空間周波数は、第1位相差PD1及び第2位相差PD2の各々の信頼度を判別するために利用される。空間周波数の利用は、図15及び図16に関する説明でさらに言及する。
The depth
図15は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図15を参照すれば、映像生成装置400は、位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408を含む。
位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散されて具現することができる。または、位相差の算出部403、深さマップの生成部404、空間周波数の算出部407、及び信頼度水準の算出部408は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
FIG. 15 is a block diagram showing a configuration of a video generation device according to an exemplary embodiment of the present invention. Referring to FIG. 15, the
The phase
位相差の算出部403は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部403は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部404は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部403及び深さマップの生成部404の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部403及び深さマップの生成部404の構成及び機能に関する重複する説明は省略する。
The
The configurations and functions of the phase
空間周波数の算出部407は、イメージセンサ1331(図5参照)の複数のイメージセンサピクセルによって、生成された映像信号ISを受信する。空間周波数の算出部407は、映像信号ISを処理することによって、空間周波数の情報SFを生成する。空間周波数の算出部407は、空間周波数の情報SFを深さマップの生成部404に提供する。
例として、空間周波数の算出部407は、レンズ1310(図1参照)が第1位置にある時、生成された第1映像信号を処理することによって、客体を撮影した第1映像と関連した第1空間周波数の情報を生成する。空間周波数の算出部407は、レンズ1310が第2位置にある時、生成された第2映像信号を処理することによって、客体を撮影した第2映像と関連した第2空間周波数の情報を生成する。空間周波数の算出部407は、第1空間周波数の情報及び第2空間周波数の情報に基づいて、空間周波数の値が変わった方向及び量の中で少なくとも1つを獲得する。
The
As an example, the
空間周波数の算出部407の構成及び機能は、図14に関する説明で言及した空間周波数の算出部307の構成及び機能を含む。説明を簡単にするため、空間周波数の算出部407の構成及び機能に関する重複する説明は省略する。
信頼度水準の算出部408は、第1位相差PD1に関する第1信頼度水準を算出する。信頼度水準の算出部408は、第2位相差PD2に関する第2信頼度水準を算出する。上記で言及したように、第1位相差PD1及び第2位相差PD2の中で少なくとも1つが誤差を含む。信頼度水準の算出部408は、第1位相差PD1及び第2位相差PD2に含まれる誤差に関する信頼度水準RLを算出する。例として、誤差の大きさが小さいほど、信頼度水準が高くなる。
The configuration and function of the spatial
The reliability
実施形態として、信頼度水準の算出部408は、空間周波数の値が変わった方向に基づいて信頼度水準RLを算出する。例として、レンズ1310が第1位置から第2位置に移動することによって、レンズ1310の位置が焦点の位置に近くなれば、高い周波数領域の空間周波数の成分が増加する。しかし、第1位相差PD1及び第2位相差PD2の中で少なくとも1つが誤差を含む場合、レンズ1310の位置が焦点の位置に近くになったにも拘らず、高い周波数領域の空間周波数の成分が減少するように見える。この場合、第1位相差PD1又は第2位相差PD2は、低い信頼度水準を有する。
As an embodiment, the reliability
例として、信頼度水準の算出部408は、位相差がさらに正確に算出されるようにするレンズ1310の位置に関する情報を収集する。例として、信頼度水準の算出部408は、反複される撮影の中で周期的に又は特定の条件が満たされる時点ごとに情報を収集する。信頼度水準の算出部408は、収集された情報に基づいて第1位相差PD1及び第2位相差PD2の中で低い信頼度水準を有する位相差を選択する。
他の例として、レンズ1310が第1位置及び第2位置と異なる第3位置にある時、第3位相差がさらに生成される。信頼度水準の算出部408は、第1位相差PD1、第2位相差PD2、及び第3位相差を比較することによって、低い信頼度水準を有する位相差を選択する。さらに、信頼度水準の算出部408は、選択されない位相差に対して高い信頼度水準を算出することができる。
As an example, the
As another example, a third phase difference is further generated when the
実施形態として、深さマップの生成部404は、第1位相差PD1に基づいて生成された第1深さデータ及び第2位相差PD2に基づいて生成された第2深さデータに第1信頼度水準及び第2信頼度水準を反映することによって、深さマップDMを生成する。例として、深さマップの生成部404は、より高い信頼度水準を有する位相差により高い加重値を割当し、加重平均を算出する。深さマップの生成部404は、算出された加重平均に基づいて深さマップDMを生成する。
As an embodiment, the depth
図16は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図16を参照すれば、映像生成装置500は、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508を含む。
位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散して具現することができる。または、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
FIG. 16 is a block diagram showing a configuration of a video generation device according to an exemplary embodiment of the present invention. Referring to FIG. 16, the
The phase
位相差の算出部503は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部503は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部504は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部503及び深さマップの生成部504の構成及び機能は、各々の図7乃至図9に対する説明で言及された位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部503及び深さマップの生成部504の構成及び機能に関する重複する説明は省略する。
位相差の予測部506は、第1位相差PD1に基づいて、第2位相差PD2として算出される値を予測する。位相差の予測部506は、予測された値PVを深さマップの生成部504に提供する。位相差の予測部506の構成及び機能は、図13の位相差の予測部206の構成及び機能を含む。説明を簡単にするため、位相差の予測部506の構成及び機能に関する重複する説明は省略する。
The
The configurations and functions of the phase
The phase
空間周波数の算出部507は、映像信号ISを受信する。映像信号ISは、イメージセンサ1331(図2乃至図6参照)に含まれる複数のイメージセンサピクセルによって、生成される。空間周波数の算出部507は、映像信号ISを処理することによって、客体を撮影した映像と関連された空間周波数の情報SFを生成する。空間周波数の算出部507の構成及び機能は、図14の空間周波数の算出部307の構成及び機能又は図15の空間周波数の算出部407の構成及び機能を含む。説明を簡単にするため、空間周波数の算出部507の構成及び機能に関する重複する説明は省略する。
The
信頼度の算出部508は、第1位相差PD1に関する第1信頼度水準を算出する。信頼度水準の算出部508は、第2位相差PD2に関する第2信頼度水準を算出する。実施形態として、信頼度の算出部508は、位相差の予測部506によって予測された値PV、第1位相差PD1、第2位相差PD2、空間周波数の情報SFの中で少なくとも1つに基づいて信頼度水準RLを算出する。信頼度の算出部508の構成及び機能は、図15の信頼度の算出部408の構成及び機能を含む。説明を簡単にするため、信頼度の算出部508の構成及び機能に関する重複する説明は省略する。
The
レンズ1310(図1参照)の移動方向と空間周波数の変化との間に一貫性(Consistency)があるべきである。さらに、第1位相差PD1及び第2位相差PD2が誤差を含まず、位相差の予測部506によって予測された値PVと第2位相差PD2が同一であることが望ましい。レンズ1310の移動方向と空間周波数の変化との間に一貫性が無いか、或いは予測された値PVが第2位相差PD2と異なる場合、信頼度水準の算出部508は、非一貫性及び誤差を参照して信頼度水準RLを算出する。
There should be consistency between the direction of movement of the lens 1310 (see FIG. 1) and the change in spatial frequency. Further, it is preferable that the first phase difference PD1 and the second phase difference PD2 do not include an error, and the value PV predicted by the phase
深さマップの生成部504は、第1位相差PD1及び第2位相差PD2と共に、信頼度水準RLに基づいて深さマップDMを生成する。実施形態として、深さマップの生成部504は、第1位相差PD1に基づいて生成された第1深さデータ及び第2位相差PD2に基づいて生成された第2深さデータに第1信頼度水準及び第2信頼度水準を反映することによって、深さマップDMを生成する。この実施形態は、図15に対する説明と共に言及した。
位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508の各々は、アナログ回路、論理回路等のハードウェアで具現することができる。または、位相差の算出部503、深さマップの生成部504、位相差の予測部506、空間周波数の算出部507、及び信頼度水準の算出部508の機能は、ソフトウェアによって具現することができる。
The depth
Each of the phase
本発明の実施形態による映像生成装置は、少ない面積又は体積を占める。さらに、本発明の実施形態によれば、様々な深さデータを参照して誤差を補正することによって、より高い信頼性を有する深さマップを生成することができる。
図17は、本発明の実施形態による映像生成装置の構成を示すブロック図である。図17を参照すれば、映像生成装置600は、位相差の算出部603、深さマップの生成部604、及び深さマップの後処理部609を含む。
The image generation device according to the embodiment of the present invention occupies a small area or volume. Further, according to the embodiments of the present invention, it is possible to generate a depth map having higher reliability by correcting various errors with reference to various depth data.
FIG. 17 is a block diagram showing the configuration of a video generation device according to an embodiment of the present invention. Referring to FIG. 17, the
位相差の算出部603、深さマップの生成部604、及び深さマップの後処理部609は、イメージセンサチップ1330(図1参照)又は映像信号の処理器1350(図1参照)に具現されるか、或いはイメージセンサチップ1330及び映像信号の処理器1350に分散して具現することができる。または、位相差の算出部603、深さマップの生成部604、及び深さマップの後処理部609は、イメージセンサチップ1330及び映像信号の処理器1350と別個に提供してもよい。
The
位相差の算出部603は、第1位相信号PS1及び第2位相信号PS2を受信する。位相差の算出部603は、第1位相信号PS1及び第2位相信号PS2の各々に基づいて第1位相差PD1及び第2位相差PD2を算出する。深さマップの生成部604は、第1位相差PD1及び第2位相差PD2に基づいて深さマップDMを生成する。
位相差の算出部603及び深さマップの生成部604の構成及び機能は、各々の図7乃至図9に対する説明で言及した位相差の算出部103及び深さマップの生成部104の構成及び機能を含む。説明を簡単にするため、位相差の算出部603及び深さマップの生成部604の構成及び機能に関する重複する説明は省略する。
The
The configurations and functions of the phase
深さマップの後処理部609は、深さマップDMの解像度を変更させる。実施形態として、深さマップの後処理部609は、客体映像及び深さマップDMに対して映像整合を遂行する。客体映像は、イメージセンサ1331(図2乃至図6参照)に含まれる複数のイメージセンサピクセルによって生成された映像信号に基づいて生成された映像である。深さマップの後処理部609は、映像整合を遂行することによって、変更された解像度を有する深さマップDM’を生成する。
The depth
例として、図4に示したように、複数の位相検出ピクセルが複数のイメージセンサピクセルと重畳されないように構成される場合、深さマップDMは、客体映像のものより低い解像度を有する。深さマップの後処理部609は、客体映像を参照して、深さデータが獲得されない映像領域に対応する深さデータを推定する。例として、深さマップの後処理部609は、客体映像に含まれるエッジ(Edge)成分を取出し、エッジ成分と深さマップDMに対して映像整合を遂行することによって、深さデータが獲得されない映像領域に対応する深さデータを推定する。
上の例で、深さマップの後処理部609は、深さマップDM及び推定された深さデータに基づいて、変更された解像度を有する深さマップDM’を生成する。例として、深さマップDMの解像度を高めることによって、深さマップDM’は、客体映像のことと同一の解像度を有する。
As an example, as shown in FIG. 4, when the plurality of phase detection pixels are not overlapped with the plurality of image sensor pixels, the depth map DM has a lower resolution than that of the object image. The depth
In the above example, the depth
しかし、本発明は、上記の例に限定されない。深さマップの後処理部609は、深さマップDMの解像度を多様に変更させることができる。深さマップDM’は、客体映像のものと異なる解像度を有する。深さマップDMの解像度は、高くなるか、或いは低くなる。さらに、図3に示したように、1つのピクセル単位がイメージセンサピクセルのみではなく、位相検出ピクセルとして利用される場合にも、深さマップDMの解像度を変更させるために深さマップの後処理部609を利用することができる。
However, the invention is not limited to the above examples. The depth
例として、深さマップの後処理部609は、特定の条件が満たされば、動作するように構成される。この例で、映像生成装置600は、深さマップの後処理部609が動作するか否かを判別するために利用される判別ロジック又は回路をさらに含む。他の例として、映像生成装置600は、追加の制御信号ライン又はユーザーインターフェイスをさらに含む。映像生成装置600は、追加の制御信号ライン又はユーザーインターフェイスを通じて深さマップの後処理部609を動作させるための命令を受信する。
As an example, the depth
図18は、本発明の実施形態による映像生成装置を含む電子システムの構成及びそれのインターフェイスを示すブロック図である。電子システム5000は、MIPI(Mobile Industry Processor Interface)連合(Alliance)によって提案されたインターフェイスを利用するか、或いは支援することができるデータ処理装置に具現されることができる。例として、電子システム5000は、携帯用の通信端末機、PDA(Personal Digital Assistant)、PMP(Portable Media Player)、スマートフォン、又はウェアラブル装置等のような電子装置に具現することができる。
FIG. 18 is a block diagram showing a configuration of an electronic system including an image generation apparatus according to an exemplary embodiment of the present invention and an interface thereof. The
電子システム5000は、アプリケーションプロセッサ5100、ディスプレイ5220、及びイメージセンサ5230を含む。アプリケーションプロセッサ5100は、DigRFマスター5110、DSI(Display Serial Interface)ホスト5120、CSI(Camera Serial Interface)ホスト5130、物理階層5140、及び映像信号の処理器5150を含む。
The
DSIホスト5120は、DSIによってディスプレイ5220のDSI装置5225と通信する。例として、DSIホスト5120には光シリアライザSERが具現される。例として、DSI装置5225には光デシリアライザDESが具現される。
CSIホスト5130は、CSIによってイメージセンサ5230のCSI装置5235と通信する。例として、CSIホスト5130には光デシリアライザDESが具現される。例として、CSI装置5235には光シリアライザSERが具現される。映像信号の処理器5150は、メモリ(例えば、ウォーキングメモリ5250又はアプリケーションプロセッサ5100に内装されたメモリ)及びバスを通じてCSIホスト5130と通信する。
The
映像信号の処理器5150及びイメージセンサ5230の中で少なくとも1つは、図7乃至図17に対する説明で言及した本発明の実施形態の中で少なくとも1つにしたがって構成される。例として、図10で説明したように、イメージセンサ5230は、レンズを2つ以上の位置の各々に移動させ、複数の位相検出ピクセルを利用して様々な深さデータを生成し、様々な深さデータに基づいて深さマップを生成する。例として、図11で説明したように、映像信号の処理器5150は、レンズを2つ以上の位置の各々に移動させるためにレンズの駆動信号を生成し、複数の位相検出ピクセルを利用して生成された様々な深さデータに基づいて深さマップを生成する。本発明の実施形態に関する詳細な説明は省略する。
At least one of the
電子システム5000は、アプリケーションプロセッサ5100と通信するRF(Radio Frequency)チップ5240をさらに含む。RFチップ5240は、物理階層5242、DigRFスレーブ5244、及びアンテナ5246を含む。例として、RFチップ5240の物理階層5242とアプリケーションプロセッサ5100の物理階層5140とは、MIPI連合によって提案されたDigRFインターフェイスによって互いにデータを交換する。
The
電子システム5000は、ウォーキングメモリ5250(Working Memory)及び埋め込み型(Embedded)/カードストレージ5255をさらに含む。ウォーキングメモリ5250及び埋め込み型/カードストレージ5255は、アプリケーションプロセッサ5100から提供されたデータを格納する。さらに、ウォーキングメモリ5250及び埋め込み型/カードストレージ5255は、格納されたデータをアプリケーションプロセッサ5100に提供する。
The
ウォーキングメモリ5250は、アプリケーションプロセッサ5100によって処理された又は処理されるデータを一時的に格納する。ウォーキングメモリ5250は、SRAM(Static Random Access Memory)、DRAM(Dynamic RAM)、SDRAM(Synchronous DRAM)等のような揮発性メモリ、又はフラッシュ(Flash)メモリ、PRAM(Phase−change RAM)、MRAM(Magneto−resistive RAM)、ReRAM(Resistive RAM)、FRAM(登録商標)(Ferro−electric RAM)等のような不揮発性メモリを含む。埋め込み型/カードストレージ5255は、電源供給の可否と関わらず、データを格納する。
Walking
電子システム5000は、Wimax5260(World Interoperability for Microwave Access)、WLAN5262(Wireless Local Area Network)、UWB5264(Ultra Wideband)等のような通信モジュールを通じて外部システムと通信する。電子システム5000は、音声情報を処理するためのスピーカ5270及びマイク5275をさらに含む。さらに、電子システム5000は、位置情報を処理するためのGPS(Global Positioning System)装置5280をさらに含む。電子システム5000は、周辺装置との連結を管理するためのブリッジ(Bridge)チップ5290をさらに含む。
The
各々の概念図に示した構成は、単なる概念的な観点で理解しなければならない。本発明の理解を助けるために、概念図に示した構成要素の各々の形態、構造、大きさ等は、誇張又は縮小されて表現されている。実際に具現される構成は、各々の概念図に示したことと異なる物理的な形状を有する。各々の概念図は、構成要素の物理的な形状を制限するためのものではない。
各々のブロック図に示した装置構成は、発明の理解を助けるためのものである。各々のブロックは、機能によってさらに小さい単位のブロックに形成される。または複数のブロックは、機能によってさらに大きい単位のブロックを形成することができる。即ち、本発明の技術思想は、ブロック図として図示された構成によって限定されない。
The configuration shown in each conceptual diagram must be understood from a mere conceptual viewpoint. To facilitate understanding of the present invention, the form, structure, size, etc. of each of the components shown in the conceptual diagram are exaggerated or reduced. The actually implemented configuration has a physical shape different from that shown in each conceptual diagram. Each conceptual diagram is not intended to limit the physical shape of the components.
The device configurations shown in the respective block diagrams are for helping understanding of the invention. Each block is formed into smaller blocks according to the function. Alternatively, the plurality of blocks can form a larger unit block depending on the function. That is, the technical idea of the present invention is not limited to the configuration illustrated as the block diagram.
以上で本発明に対する実施形態を中心に本発明を説明した。但し、本発明が属する技術分野の特徴上、本発明が解決しようとする目的は、本発明の要旨を含みながらも上記の実施形態と異なる形態に達成される。したがって、上記の実施形態は、限定的なものではなく、説明の側面で理解しなければならない。即ち、本発明の要旨を含みながら、本発明のような目的を達成できる技術思想は、本発明の技術思想に含まれることと解釈されなければならない。
したがって、本発明の本質的な特性を逸脱しない範囲内で修正又は変形された技術思想は、本発明が請求する保護範囲に含まれるものである。また、本発明の保護範囲は、上記の実施形態に限定されるものではない。
The present invention has been described above centering on the embodiments for the present invention. However, due to the characteristics of the technical field to which the present invention belongs, the object to be solved by the present invention can be achieved in a form different from that of the above-described embodiment while including the gist of the present invention. Therefore, the above embodiments should be understood in terms of description, not limitation. That is, it should be construed that the technical idea that can achieve the object of the present invention including the gist of the present invention is included in the technical idea of the present invention.
Therefore, the technical idea modified or modified without departing from the essential characteristics of the present invention is included in the protection scope claimed by the present invention. Further, the protection scope of the present invention is not limited to the above embodiment.
100 映像生成装置
103 位相差の算出部
104 深さマップの生成部
200 映像生成装置
203 位相差の算出部
204 深さマップの生成部
206 位相差の予測部
300 映像生成装置
303 位相差の算出部
304 深さマップの生成部
307 空間周波数の算出部
400 映像生成装置
403 位相差の算出部
404 深さマップの生成部
407 空間周波数の算出部
408 信頼度水準の算出部
500 映像生成装置
503 位相差の算出部
504 深さマップの生成部
506 位相差の予測部
507 空間周波数の算出部
508 信頼度水準の算出部
600 映像生成装置
603 位相差の算出部
604 深さマップの生成部
609 深さマップの後処理部
1000 映像生成システム
1100 客体
1300 映像生成装置
1310 レンズ
1330 イメージセンサチップ
1331 イメージセンサ
1350 映像信号の処理器
2300 映像生成装置
2310 レンズ
2330 イメージセンサチップ
2331 イメージセンサ
2332 レンズ駆動部
2333 位相差の算出部
2334 深さマップの生成部
2350 映像信号の処理器
3300 映像生成装置
3310 レンズ
3330 イメージセンサチップ
3350 映像信号の処理器
3353 位相差の算出部
3354 深さマップの生成部
3355 レンズの位置制御部
4300 映像生成装置
4310 レンズ
4330 イメージセンサチップ
4350 映像信号の処理器
4373 位相差の算出部
4374 深さマップの生成部
5000 電子システム
5100 アプリケーションプロセッサ
5110 DigRFマスター
5120 DSIホスト
5130 CSIホスト
5140 物理階層
5150 映像信号の処理器
5220 ディスプレイ
5225 DSI装置
5230 イメージセンサ
5235 CSI装置
5240 RFチップ
5242 物理階層
5244 DigRFスレーブ
5246 アンテナ
5250 ウォーキングメモリ
5255 埋め込み型/カードストレージ
5260 Wimax
5262 WLAN
5264 UWB
5270 スピーカ
5275 マイク
5280 GPS
5290 ブリッジチップ
100 Video Generation Device 103 Phase Difference Calculation Unit 104 Depth Map Generation Unit 200 Video Generation Device 203 Phase Difference Calculation Unit 204 Depth Map Generation Unit 206 Phase Difference Prediction Unit 300 Video Generation Device 303 Phase Difference Calculation Unit 304 Depth Map Generation Unit 307 Spatial Frequency Calculation Unit 400 Video Generation Device 403 Phase Difference Calculation Unit 404 Depth Map Generation Unit 407 Spatial Frequency Calculation Unit 408 Confidence Level Calculation Unit 500 Video Generation Device 503 Phase Difference Calculation unit 504 Depth map generation unit 506 Phase difference prediction unit 507 Spatial frequency calculation unit 508 Reliability level calculation unit 600 Video generation device 603 Phase difference calculation unit 604 Depth map generation unit 609 Depth map Post-processing unit 1000 Image generation system 1100 Object 1300 Image generation device 1310 Lens 1330 Image sensor chip 1331 Image sensor 1350 Image signal processor 2300 Image generation device 2310 Lens 2330 Image sensor chip 2331 Image sensor 2332 Lens drive unit 2333 Phase difference Calculation unit 2334 Depth map generation unit 2350 Image signal processor 3300 Image generation device 3310 Lens 3330 Image sensor chip 3350 Image signal processor 3353 Phase difference calculation unit 3354 Depth map generation unit 3355 Lens position control unit 4300 Image generation device 4310 Lens 4330 Image sensor chip 4350 Image signal processor 4373 Phase difference calculation unit 4374 Depth map generation unit 5000 Electronic system 5100 Application processor 5110 DigRF master 5120 DSI host 5130 CSI host 5140 Physical layer 5150 Video signal Processor 5220 Display 5225 DSI device 5230 Image sensor 5235 CSI device 5240 RF chip 5242 Physical layer 5244 DigRF slave 5246 Antenna 5250 Walking memory 5255 Embedded/card storage 5260 Wimax
5262 WLAN
5264 UWB
5270
5290 bridge chip
Claims (22)
レンズと前記客体との間の距離を調節するために前記レンズの位置を調節するように構成されるレンズ駆動部と、
前記レンズが第1位置にある時、生成された前記第1位相信号に基づいて第1位相差を算出し、前記レンズが前記第1位置と異なる第2位置にある時、生成された前記第2位相信号に基づいて第2位相差が算出されるように構成される位相差の算出部と、
前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部と、
前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部と、を含む映像生成装置。 A plurality of image sensor pixels configured to generate a video signal corresponding to the object, and a first and a second phase signal used to calculate a phase difference between the images. An image sensor including a plurality of phase detection pixels,
A lens driver configured to adjust a position of the lens to adjust a distance between the lens and the object;
When the lens is in the first position, a first phase difference is calculated based on the generated first phase signal, and when the lens is in a second position different from the first position, the generated first phase difference is calculated. A phase difference calculator configured to calculate the second phase difference based on the two-phase signal;
First and second depth data relating to a distance between the plurality of phase detection pixels and the object is generated based on each of the first and second phase differences, and the first and second depth data are generated. A depth map generator configured to generate a depth map based on the
An image generation apparatus including: a phase difference prediction unit configured to predict a value calculated as the second phase difference based on the first phase difference .
前記位相差の予測部は、前記レンズが前記第2位置に移動する前、又は移動する時、前記第2位相差として算出される値を予測するように構成される請求項1に記載の映像生成装置。 When the lens moves from the first position to the second position under the control of the lens driving unit, the first phase difference is calculated before the second phase difference,
The image according to claim 1 , wherein the phase difference prediction unit is configured to predict a value calculated as the second phase difference before or when the lens moves to the second position. Generator.
前記深さマップの生成部は、前記空間周波数の値が変わった方向及び量の中で少なくとも1つを参照して前記深さマップを生成するように構成される請求項7に記載の映像生成装置。 The spatial frequency calculator calculates the direction and the amount of change in the spatial frequency value when the lens moves from the first position to the second position based on the information of the first and second spatial frequencies. Further configured to win at least one of,
The image generator of claim 7 , wherein the depth map generator is configured to generate the depth map with reference to at least one of a direction and an amount in which the value of the spatial frequency has changed. apparatus.
前記第1及び第2位相差の中で少なくとも1つに基づいて前記客体に対する焦点を合わせるための前記レンズの焦点位置を算出し、前記レンズを前記焦点の位置に移動させるためにレンズの駆動信号を生成するように構成されるレンズ位置の制御部と、
前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて深さマップを生成するように構成される深さマップの生成部と、
前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部と、を含む映像生成装置。 A lens configured to receive the first and second phase signals generated by the plurality of phase detection pixels included in the image sensor and move in a direction of increasing or decreasing a distance from the object has a first position. The first phase difference is calculated based on the generated first phase signal, and when the lens is at a second position different from the first position, the first phase difference is calculated based on the generated second phase signal. A phase difference calculator configured to calculate the second phase difference;
A focus position of the lens for focusing on the object is calculated based on at least one of the first and second phase differences, and a lens driving signal for moving the lens to the focus position. A lens position controller configured to generate
First and second depth data relating to a distance between the plurality of phase detection pixels and the object is generated based on each of the first and second phase differences, and the first and second depth data are generated. A depth map generator configured to generate a depth map based on the
An image generation apparatus including: a phase difference prediction unit configured to predict a value calculated as the second phase difference based on the first phase difference .
客体からの距離が増加する方向又は減少する方向に移動するように構成されるレンズが第1位置にある時、複数の位相検出ピクセルによって生成された第1位相信号及び前記レンズが前記第1位置と異なる第2位置にある時、前記複数の位相検出ピクセルによって生成された第2位相信号の各々に基づいて第1及び第2位相差が算出されるように構成される位相差の算出部と、
前記第1及び第2位相差の各々に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第1及び第2深さデータを生成し、前記第1及び第2深さデータに基づいて前記深さマップを生成するように構成される深さマップの生成部と、
前記第1位相差に基づいて、前記第2位相差として算出される値を予測するように構成される位相差の予測部と、を含む映像生成装置。 In a video generation device configured to generate a depth map,
When the lens is configured to move in a direction in which the distance from the object increases or decreases, the first phase signal generated by a plurality of phase detection pixels and the lens are in the first position. And a phase difference calculator configured to calculate a first phase difference and a second phase difference based on each of the second phase signals generated by the plurality of phase detection pixels. ,
First and second depth data relating to a distance between the plurality of phase detection pixels and the object is generated based on each of the first and second phase differences, and the first and second depth data are generated. A depth map generator configured to generate the depth map based on
An image generation apparatus including: a phase difference prediction unit configured to predict a value calculated as the second phase difference based on the first phase difference .
前記位相差の算出部は、前記レンズが前記第1及び第2位置と異なる第3位置にある時、前記複数の位相検出ピクセルによって生成された第3位相信号に基づいて第3位相差が算出されるようにさらに構成され、
前記深さマップの生成部は、前記第3位相差に基づいて前記複数の位相検出ピクセルと前記客体との間の距離に関する第3深さデータを生成し、前記第1乃至第3深さデータに基づいて前記深さマップを生成するようにさらに構成される請求項17に記載の映像生成装置。 When the value predicted by the phase difference prediction unit is different from the second phase difference calculated by the phase difference calculation unit,
The phase difference calculator calculates a third phase difference based on a third phase signal generated by the plurality of phase detection pixels when the lens is at a third position different from the first and second positions. Is further configured to
The depth map generation unit generates third depth data regarding a distance between the plurality of phase detection pixels and the object based on the third phase difference, and the first to third depth data. 18. The video generation device of claim 17, further configured to generate the depth map based on...
前記深さマップの生成部は、前記第1及び第2深さデータに前記第1及び第2信頼度水準を反映することによって、前記深さマップを生成するように構成される請求項17に記載の映像生成装置。 When the lens is in the first position, processing a first image signal generated by a plurality of image sensor pixels to generate information of a first spatial frequency associated with a first image of the object. A second spatial frequency associated with a second image of the object is processed by processing a second image signal generated by the plurality of image sensor pixels when the lens is in the second position. A spatial frequency calculator configured to generate information and obtain a direction in which the spatial frequency value changes based on the first and second spatial frequency information; and a direction in which the spatial frequency value changes. Further comprising: a reliability level calculator configured to calculate a first reliability level related to the first phase difference and a second reliability level related to the second phase difference,
Generator of the depth map, by reflecting the first and second confidence level in the first and second depth data, to claim 17 configured to generate the depth map The image generation device described.
前記イメージセンサの位置を基準に移動するように構成されるレンズと、
コンピュータに読み出される命令語を格納するメモリと、
前記命令語を実行するように構成される1つ以上のプロセッサと、を含み、
前記1つ以上のプロセッサは、前記命令語を実行して、
前記レンズが前記イメージセンサに対して第1位置にある時、生成される前記第1位相信号に基づいて第1位相差を決定し、
前記レンズが前記イメージセンサに対して第2位置にある時、生成される前記第2位相信号に基づいて第2位相差を決定し、
前記第1及び第2位相差に基づいて各々の第1及び第2深さデータを生成し、
前記第1及び第2深さデータに基づいて深さマップを生成し、
前記第1位相差に基づいて前記第2位相差の値を予測するように構成され、
前記第1及び第2深さデータの各々は、前記複数の位相検出ピクセルと前記客体との間の距離を示す映像生成装置。 An image sensor including a plurality of image sensor pixels configured to generate a video signal corresponding to an object, and a plurality of phase detection pixels configured to generate first and second phase signals;
A lens configured to move based on the position of the image sensor,
A memory for storing instruction words read by a computer,
One or more processors configured to execute the instruction words,
The one or more processors execute the instruction word,
Determining a first phase difference based on the generated first phase signal when the lens is in a first position with respect to the image sensor;
Determining a second phase difference based on the generated second phase signal when the lens is in the second position with respect to the image sensor;
Generating respective first and second depth data based on the first and second phase differences,
Generating a depth map based on the first and second depth data ,
Configured to predict a value of the second phase difference based on the first phase difference ,
Each of the first and second depth data is an image generation device indicating a distance between the plurality of phase detection pixels and the object.
前記レンズ駆動部の制御によって前記レンズが前記第1位置から前記第2位置に移動することによって、前記第2位相差が算出される前に、前記第1位相差を算出し、
前記レンズ駆動部の制御によって前記レンズが前記第2位置に移動する前、又は移動する間に、前記第2位相差の値を予測するように構成される請求項21に記載の映像生成装置。
The one or more processors are
The first phase difference is calculated before the second phase difference is calculated by moving the lens from the first position to the second position under the control of the lens driving unit,
The image generation device according to claim 21 , wherein the image generation device is configured to predict the value of the second phase difference before or during the movement of the lens to the second position under the control of the lens driving unit.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0022298 | 2015-02-13 | ||
KR1020150022298A KR102272254B1 (en) | 2015-02-13 | 2015-02-13 | Image generating device for generating depth map with phase detection pixel |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016149765A JP2016149765A (en) | 2016-08-18 |
JP6731738B2 true JP6731738B2 (en) | 2020-07-29 |
Family
ID=56551790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016017442A Active JP6731738B2 (en) | 2015-02-13 | 2016-02-01 | Image generation apparatus for generating depth map using phase detection pixels |
Country Status (5)
Country | Link |
---|---|
US (1) | US10337861B2 (en) |
JP (1) | JP6731738B2 (en) |
KR (1) | KR102272254B1 (en) |
CN (1) | CN105898281B (en) |
DE (1) | DE102016100031A1 (en) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10148864B2 (en) * | 2015-07-02 | 2018-12-04 | Pixart Imaging Inc. | Imaging device having phase detection pixels and regular pixels, and operating method thereof |
CN108352393B (en) | 2015-07-23 | 2022-09-16 | 光程研创股份有限公司 | High-efficiency wide-spectrum sensor |
US10707260B2 (en) | 2015-08-04 | 2020-07-07 | Artilux, Inc. | Circuit for operating a multi-gate VIS/IR photodiode |
US10861888B2 (en) | 2015-08-04 | 2020-12-08 | Artilux, Inc. | Silicon germanium imager with photodiode in trench |
ES2765280T3 (en) | 2015-08-04 | 2020-06-08 | Artilux Inc | Germanium-silicon light sensor apparatus |
US10761599B2 (en) | 2015-08-04 | 2020-09-01 | Artilux, Inc. | Eye gesture tracking |
CN114754864B (en) | 2015-08-27 | 2023-03-24 | 光程研创股份有限公司 | Wide Spectrum Optical Sensor |
RU2679011C1 (en) * | 2015-09-16 | 2019-02-05 | Кэнон Кабусики Кайся | Image sensor and image capture device |
CN112040118B (en) | 2015-09-16 | 2022-06-07 | 佳能株式会社 | camera equipment |
JP6664177B2 (en) * | 2015-09-28 | 2020-03-13 | キヤノン株式会社 | Focus detection device, prediction method, program, and storage medium |
US10741598B2 (en) | 2015-11-06 | 2020-08-11 | Atrilux, Inc. | High-speed light sensing apparatus II |
US10886309B2 (en) | 2015-11-06 | 2021-01-05 | Artilux, Inc. | High-speed light sensing apparatus II |
US10418407B2 (en) | 2015-11-06 | 2019-09-17 | Artilux, Inc. | High-speed light sensing apparatus III |
US10739443B2 (en) | 2015-11-06 | 2020-08-11 | Artilux, Inc. | High-speed light sensing apparatus II |
US10254389B2 (en) | 2015-11-06 | 2019-04-09 | Artilux Corporation | High-speed light sensing apparatus |
JP6786253B2 (en) * | 2016-04-15 | 2020-11-18 | キヤノン株式会社 | Imaging system, information processing device, control method of imaging system, control method of information processing device, and program |
KR101859040B1 (en) * | 2016-09-22 | 2018-05-17 | 엘지전자 주식회사 | Camera apparatus for vehicle |
CN109716761B (en) * | 2016-09-23 | 2020-12-08 | 日本电信电话株式会社 | Image generation device, image generation method, and recording medium |
CN106996938A (en) * | 2017-03-07 | 2017-08-01 | 天津大学 | The FPGA imaging systems of ultra-wideband microwave target detection |
KR102392751B1 (en) * | 2017-03-07 | 2022-04-29 | 삼성전자 주식회사 | Electronic device including camera module and method for controlling thereof |
US10410374B2 (en) * | 2017-12-28 | 2019-09-10 | Semiconductor Components Industries, Llc | Image sensors with calibrated phase detection pixels |
US10419664B2 (en) * | 2017-12-28 | 2019-09-17 | Semiconductor Components Industries, Llc | Image sensors with phase detection pixels and a variable aperture |
US10777692B2 (en) | 2018-02-23 | 2020-09-15 | Artilux, Inc. | Photo-detecting apparatus and photo-detecting method thereof |
US11105928B2 (en) | 2018-02-23 | 2021-08-31 | Artilux, Inc. | Light-sensing apparatus and light-sensing method thereof |
US10595007B2 (en) * | 2018-03-21 | 2020-03-17 | Himax Imaging Limited | Structured-light method and system of dynamically generating a depth map |
TWI780007B (en) | 2018-04-08 | 2022-10-01 | 美商光程研創股份有限公司 | Photo-detecting apparatus and system thereof |
KR102185320B1 (en) * | 2018-04-20 | 2020-12-01 | 알바이오텍 주식회사 | Apparatus for generating images for analyzing user's posture |
CN108648222B (en) * | 2018-04-27 | 2021-08-17 | 华中科技大学 | Method and device for improving spatial resolution of structured light depth data |
US10854770B2 (en) | 2018-05-07 | 2020-12-01 | Artilux, Inc. | Avalanche photo-transistor |
US10969877B2 (en) | 2018-05-08 | 2021-04-06 | Artilux, Inc. | Display apparatus |
US10410368B1 (en) * | 2018-09-27 | 2019-09-10 | Qualcomm Incorporated | Hybrid depth processing |
KR102561533B1 (en) * | 2018-09-28 | 2023-07-31 | 엘지이노텍 주식회사 | Camera device |
US20220005203A1 (en) * | 2018-11-19 | 2022-01-06 | Nec Corporation | Image processing method and image processing device |
US11367390B2 (en) | 2018-12-24 | 2022-06-21 | Novatek Microelectronics Corp. | Display apparatus and method for noise reduction |
US11544873B2 (en) * | 2019-03-05 | 2023-01-03 | Artilux, Inc. | High resolution 3D image processing apparatus and method thereof |
KR102648089B1 (en) * | 2019-03-26 | 2024-03-19 | 삼성전자주식회사 | Imaging device and image sensor |
CN112862880B (en) * | 2019-11-12 | 2024-06-25 | Oppo广东移动通信有限公司 | Depth information acquisition method, device, electronic equipment and storage medium |
KR20210108082A (en) * | 2020-02-25 | 2021-09-02 | 삼성전자주식회사 | Method and apparatus of detecting liveness using phase difference |
US11694480B2 (en) * | 2020-07-27 | 2023-07-04 | Samsung Electronics Co., Ltd. | Method and apparatus with liveness detection |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090080876A1 (en) | 2007-09-25 | 2009-03-26 | Mikhail Brusnitsyn | Method For Distance Estimation Using AutoFocus Image Sensors And An Image Capture Device Employing The Same |
JP5019117B2 (en) * | 2007-11-14 | 2012-09-05 | スタンレー電気株式会社 | Distance image generator |
JP5146295B2 (en) | 2008-12-15 | 2013-02-20 | ソニー株式会社 | Imaging apparatus and focus control method |
JP5178553B2 (en) | 2009-01-27 | 2013-04-10 | オリンパス株式会社 | Imaging device |
JP5424679B2 (en) | 2009-03-18 | 2014-02-26 | キヤノン株式会社 | Imaging apparatus and signal processing apparatus |
JP5361598B2 (en) | 2009-07-30 | 2013-12-04 | キヤノン株式会社 | Focus adjustment apparatus and method, and imaging apparatus |
JP5322995B2 (en) * | 2010-05-10 | 2013-10-23 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP2012058665A (en) * | 2010-09-13 | 2012-03-22 | Sony Corp | Microscope control device and method for determining processing range |
JP5493010B2 (en) * | 2010-11-30 | 2014-05-14 | 富士フイルム株式会社 | Imaging apparatus and focus position detection method thereof |
JP2012124555A (en) * | 2010-12-06 | 2012-06-28 | Canon Inc | Imaging apparatus |
JP2012124553A (en) | 2010-12-06 | 2012-06-28 | Canon Inc | Photographing system and lens device |
JP5803095B2 (en) * | 2010-12-10 | 2015-11-04 | ソニー株式会社 | Imaging device and imaging apparatus |
JP2012173531A (en) | 2011-02-22 | 2012-09-10 | Sony Corp | Imaging device, focus control method and program |
JP5615756B2 (en) | 2011-03-31 | 2014-10-29 | 富士フイルム株式会社 | Imaging apparatus and imaging program |
JP2012230258A (en) | 2011-04-26 | 2012-11-22 | Canon Inc | Imaging device and control method thereof |
JP6029309B2 (en) * | 2011-06-22 | 2016-11-24 | キヤノン株式会社 | Focus detection device |
JP6193227B2 (en) * | 2011-07-12 | 2017-09-06 | サムスン エレクトロニクス カンパニー リミテッド | Blur processing apparatus and method |
WO2013009099A2 (en) * | 2011-07-12 | 2013-01-17 | 삼성전자 주식회사 | Device and method for blur processing |
GB2492848A (en) * | 2011-07-15 | 2013-01-16 | Softkinetic Sensors Nv | Optical distance measurement |
JP5800187B2 (en) | 2011-08-16 | 2015-10-28 | リコーイメージング株式会社 | Imaging apparatus and distance information acquisition method |
JP2014029353A (en) * | 2012-07-31 | 2014-02-13 | Sony Corp | Focus adjustment device, and focus adjustment method |
TW201408118A (en) * | 2012-08-03 | 2014-02-16 | Inst Information Industry | High-power base station and low-power base station for use in heterogeneous network and transmission methods thereof |
JP2014179939A (en) * | 2013-03-15 | 2014-09-25 | Sony Corp | Signal processing device, and signal processing method |
JP6239862B2 (en) | 2013-05-20 | 2017-11-29 | キヤノン株式会社 | Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus |
US20140362190A1 (en) * | 2013-06-07 | 2014-12-11 | Canon Kabushiki Kaisha | Depth measurement apparatus, imaging apparatus, and method of controlling depth measurement apparatus |
KR102082703B1 (en) * | 2013-06-13 | 2020-02-28 | 엘지전자 주식회사 | Apparatus and method for obtaining depth image |
US10230934B2 (en) * | 2013-06-14 | 2019-03-12 | Microsoft Tehcnology Licensing, Llc | Depth map correction using lookup tables |
JP2015033103A (en) | 2013-08-07 | 2015-02-16 | ソニー株式会社 | Image processing device, image processing method, and program |
KR20150022298A (en) | 2013-08-22 | 2015-03-04 | 주식회사 온세텔레콤 | System and method of payment confirmation using auto-call dialing |
ITTO20130784A1 (en) * | 2013-09-30 | 2015-03-31 | Sisvel Technology Srl | METHOD AND DEVICE FOR EDGE SHAPE ENFORCEMENT FOR VISUAL ENHANCEMENT OF DEPTH IMAGE BASED RENDERING |
US9823352B2 (en) * | 2014-10-31 | 2017-11-21 | Rockwell Automation Safety Ag | Absolute distance measurement for time-of-flight sensors |
-
2015
- 2015-02-13 KR KR1020150022298A patent/KR102272254B1/en active Active
- 2015-12-09 US US14/963,753 patent/US10337861B2/en active Active
-
2016
- 2016-01-04 DE DE102016100031.0A patent/DE102016100031A1/en active Pending
- 2016-02-01 JP JP2016017442A patent/JP6731738B2/en active Active
- 2016-02-02 CN CN201610074226.5A patent/CN105898281B/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20160099948A (en) | 2016-08-23 |
US20160239974A1 (en) | 2016-08-18 |
CN105898281B (en) | 2019-10-15 |
DE102016100031A1 (en) | 2016-08-18 |
CN105898281A (en) | 2016-08-24 |
US10337861B2 (en) | 2019-07-02 |
KR102272254B1 (en) | 2021-07-06 |
JP2016149765A (en) | 2016-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6731738B2 (en) | Image generation apparatus for generating depth map using phase detection pixels | |
CN109792478B (en) | Apparatus and method for adjusting focus based on focus target information | |
US9313419B2 (en) | Image processing apparatus and image pickup apparatus where image processing is applied using an acquired depth map | |
US10326981B2 (en) | Generating 3D images using multi-resolution camera set | |
US9161010B2 (en) | System and method for generating robust depth maps utilizing a multi-resolution procedure | |
US9508153B2 (en) | Distance measurement apparatus, imaging apparatus, distance measurement method, and program | |
CN106993112A (en) | Background virtualization method and device based on depth of field and electronic device | |
WO2017172083A1 (en) | High dynamic range depth generation for 3d imaging systems | |
WO2019037088A1 (en) | Exposure control method and device, and unmanned aerial vehicle | |
US9729857B2 (en) | High resolution depth map computation using multiresolution camera clusters for 3D image generation | |
CN105827980B (en) | Focusing control method and device, imaging control method and device and electronic device | |
TWI557688B (en) | System and method for performing depth estimation utilizing defocused pillbox images | |
CN107517346B (en) | Photographing method, device and mobile device based on structured light | |
CN112930677B (en) | Method for switching between first lens and second lens and electronic device | |
JP2014098898A (en) | Multi resolution depth-from-defocus based autofocus | |
CN110246188B (en) | Internal reference calibration method and device for TOF camera and camera | |
JP2017504826A (en) | Image device, method for automatic focusing in an image device, and corresponding computer program | |
CN107211095B (en) | Method and apparatus for processing image | |
CN104601883B (en) | A kind of method and device of image taking | |
US10339665B2 (en) | Positional shift amount calculation apparatus and imaging apparatus | |
US9621780B2 (en) | Method and system of curve fitting for common focus measures | |
US9392158B2 (en) | Method and system for intelligent dynamic autofocus search | |
CN106027889A (en) | Control method, control device and electronic device | |
US11856284B2 (en) | Method of controlling a portable device and a portable device | |
JP2016162376A (en) | Image processor, imaging apparatus, and method for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20161222 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6731738 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |