JP5733588B2 - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP5733588B2 JP5733588B2 JP2014027803A JP2014027803A JP5733588B2 JP 5733588 B2 JP5733588 B2 JP 5733588B2 JP 2014027803 A JP2014027803 A JP 2014027803A JP 2014027803 A JP2014027803 A JP 2014027803A JP 5733588 B2 JP5733588 B2 JP 5733588B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- composition
- quality
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Exposure Control For Cameras (AREA)
- Cameras In General (AREA)
Description
本発明は、画像処理装置および方法、並びにプログラムに関し、特に、より簡単に構図を確認することができるようにする画像処理装置および方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that enable composition confirmation to be more easily confirmed.
デジタルカメラ等の撮像装置において、2つの撮像系を備えるものがある。 Some imaging devices such as a digital camera include two imaging systems.
例えば、使用者の前方を撮像する前方カメラと、後方を撮像する後方カメラとを備える撮像装置が提案されている(例えば、特許文献1参照)。 For example, an imaging device including a front camera that images the front of the user and a rear camera that images the rear has been proposed (see, for example, Patent Document 1).
しかしながら、上述した撮像装置では、ユーザは、2つの撮像系で同時に1つの被写体を撮像することはできない。 However, in the above-described imaging apparatus, the user cannot image one subject at the same time with two imaging systems.
また、一般的なデジタルカメラにおいては、1つの撮像系において、標準モードと広角モードとを切り替えることができるが、ユーザは、それぞれのモードでの構図を同時に確認することはできない。 In a general digital camera, the standard mode and the wide-angle mode can be switched in one imaging system, but the user cannot check the composition in each mode at the same time.
さらに、2つの撮像系に対して、それぞれの撮像系で撮像された画像をそれぞれ表示する2つの表示部を備えるカメラも提案されているが、表示部が2つあるので、ユーザは、それぞれの画像に対してその構図を確認しなければならない。 Furthermore, a camera having two display units for displaying images picked up by the respective image pickup systems with respect to the two image pickup systems has been proposed. However, since there are two display units, the user can You must check the composition of the image.
上述のように、撮像の範囲の異なる2つの画像に対して、簡単に構図を確認することは容易ではなかった。 As described above, it is not easy to easily confirm the composition of two images having different imaging ranges.
本発明は、このような状況に鑑みてなされたものであり、より簡単に構図を確認することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to confirm the composition more easily.
本発明の一側面の画像処理装置は、第1の画像と画角の異なる第2の画像の画質を、前記第1の画像の画質と異ならせるように、前記第2の画像の明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つを調整する第1の画質調整手段と、前記第2の画像中の動きのある物体を検出する物体検出手段と、前記第1の画質調整手段によって明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像に、前記第1の画像および前記第2の画像の被写体の位置が一致するように、前記第1の画像、および前記物体検出手段によって検出された前記第2の画像中の前記物体の領域の物体画像を合成する合成手段とを備える。 The image processing apparatus according to an aspect of the present invention provides the brightness of the second image so that the image quality of the second image having a different angle of view from the first image is different from the image quality of the first image. A first image quality adjusting means for adjusting at least one of color density, hue, and sharpness; an object detecting means for detecting a moving object in the second image; and the first image quality. The position of the subject of the first image and the second image is matched with the second image in which at least one of brightness, color density, hue, and sharpness has been adjusted by the adjusting means. And a combining unit that combines the first image and the object image of the region of the object in the second image detected by the object detecting unit .
前記画像処理装置には、前記合成手段によって合成された合成画像を表示する表示手段をさらに設けることができる。
前記画像処理装置には、前記物体検出手段によって検出された前記第2の画像中の前記物体の領域の画質を、前記第2の画像の画質と異ならせるように、前記第2の画像中の前記物体の領域の明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つを調整する第2の画質調整手段をさらに設け、前記合成手段には、前記第2の画像に、前記被写体の位置が一致するように、前記第1の画像、および前記第2の画質調整手段によって明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像中の前記物体の領域の物体画像を合成させることができる。
The image processing apparatus may further include display means for displaying the synthesized image synthesized by the synthesizing means.
Wherein the image processing apparatus, the image quality of the object in the region before Symbol in the object detecting means is said second detectable by imaging, so that different from the image quality of the second image, the second in the image A second image quality adjusting unit that adjusts at least one of brightness, color density, hue, and sharpness of the area of the object of the object, and the synthesizing unit includes the second image, The second image in which at least one of brightness, color density, hue, and sharpness has been adjusted by the first image and the second image quality adjustment means so that the positions of the subjects coincide with each other. An object image of the region of the object in the image can be synthesized.
前記画像処理装置には、前記第2の画像の構図を解析する構図解析手段と、前記構図解析手段によって解析された構図に基づいて、前記第1の画像の画角とは異なる画角の構図を前記第2の画像から抽出する構図抽出手段とをさらに設け、前記合成手段には、前記第2の画像に、前記被写体の位置が一致するように、前記第1の画像、および前記構図抽出手段に抽出された構図の抽出画像を合成させることができる。 The image processing apparatus includes a composition analysis unit that analyzes the composition of the second image, and a composition having an angle of view different from the angle of view of the first image based on the composition analyzed by the composition analysis unit. And a composition extraction means for extracting the image from the second image, and the composition means extracts the first image and the composition extraction so that the position of the subject coincides with the second image. The extracted images of the composition extracted by the means can be synthesized.
前記第1の画質調整手段には、前記第2の画像の画質を前記第1の画像の画質より下げるように、前記第2の画像の輝度、彩度、または明度を下げさせることができる。 The first image quality adjusting means can reduce the brightness, saturation, or brightness of the second image so that the image quality of the second image is lower than the image quality of the first image .
前記画像処理装置には、前記第1の画像の画質を、前記第2の画像の画質と異ならせるように、前記第1の画像の明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つを調整する第2の画質調整手段をさらに設けることができる。 The image processing apparatus has at least one of brightness, color density, hue, and sharpness of the first image so that the image quality of the first image is different from the image quality of the second image. Second image quality adjusting means for adjusting one of them can be further provided.
前記第2の画質調整手段には、前記第1の画像の画質を前記第2の画像の画質より上げるように、前記第1の画像の輝度、彩度、または明度を上げさせることができる。 The second image quality adjusting means can increase the brightness, saturation, or brightness of the first image so that the image quality of the first image is higher than the image quality of the second image .
本発明の一側面の画像処理方法は、第1の画像と画角の異なる第2の画像の画質を、前記第1の画像の画質と異ならせるように、前記第2の画像の明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つを調整する画質調整ステップと、前記第2の画像中の動きのある物体を検出する物体検出ステップと、前記画質調整ステップにおいて明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像に、前記第1の画像および前記第2の画像の被写体の位置が一致するように、前記第1の画像、および前記物体検出ステップにおいて検出された前記第2の画像中の前記物体の領域の物体画像を合成する合成ステップとを含む。 In the image processing method according to one aspect of the present invention, the brightness of the second image is set so that the image quality of the second image having a different angle of view from the first image is different from the image quality of the first image. An image quality adjustment step for adjusting at least one of color density, hue, and sharpness; an object detection step for detecting a moving object in the second image; and brightness in the image quality adjustment step. The first image and the second image have a subject position that matches the second image in which at least one of color density, hue, and sharpness is adjusted. A synthesis step of synthesizing an image and an object image of the region of the object in the second image detected in the object detection step .
本発明の一側面のプログラムは、第1の画像と画角の異なる第2の画像の画質を、前記第1の画像の画質と異ならせるように、前記第2の画像の明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つを調整する画質調整ステップと、前記第2の画像中の動きのある物体を検出する物体検出ステップと、前記画質調整ステップにおいて明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像に、前記第1の画像および前記第2の画像の被写体の位置が一致するように、前記第1の画像、および前記物体検出ステップにおいて検出された前記第2の画像中の前記物体の領域の物体画像を合成する合成ステップとを含む処理をコンピュータに実行させる。 According to another aspect of the present invention, there is provided a program for controlling brightness and color of the second image so that the image quality of the second image having a different angle of view from the first image is different from the image quality of the first image. An image quality adjustment step for adjusting at least one of density, hue, and sharpness; an object detection step for detecting a moving object in the second image ; The first image , so that the position of the subject of the first image and the second image coincides with the second image in which at least one of density, hue, and sharpness is adjusted ; And a synthesis step of synthesizing the object image of the region of the object in the second image detected in the object detection step .
本発明の一側面においては、第1の画像と画角の異なる第2の画像の画質が、第1の画像の画質と異ならせるように、第2の画像の明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整され、第2の画像中の動きのある物体が検出され、明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された第2の画像に、第1の画像および第2の画像の被写体の位置が一致するように、第1の画像、および検出された第2の画像中の物体の領域の物体画像が合成される。 In one aspect of the present invention, the brightness of the second image, the intensity of the color, and the image quality of the second image having a different angle of view from the first image are different from the image quality of the first image. A second object in which at least one of hue and sharpness is adjusted , a moving object in the second image is detected , and at least one of brightness, color strength, hue, and sharpness is adjusted The first image and the object image of the region of the object in the detected second image are combined so that the positions of the subjects of the first image and the second image coincide with the image of.
本発明の一側面によれば、より簡単に構図を確認することが可能となる。 According to one aspect of the present invention, the composition can be confirmed more easily.
以下、本発明の実施の形態について図を参照して説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The description will be given in the following order.
1. 1.
<1.第1の実施の形態>
[撮像装置の外観と撮像画像]
図1は、本発明を適用した撮像装置の一実施の形態としてのデジタルカメラの外観の例を示している。
<1. First Embodiment>
[Appearance and image of imaging device]
FIG. 1 shows an example of the appearance of a digital camera as an embodiment of an imaging apparatus to which the present invention is applied.
図1のデジタルカメラ11は、メインレンズ31およびサブレンズ32の2つの光学系を備えている。メインレンズ31は、いわゆる標準レンズである。サブレンズ32は、広角レンズ(例えば、魚眼レンズ等)であり、その画角は、メインレンズ31と比較して十分広い。
The
図2は、デジタルカメラ11が撮像する撮像画像の表示例を示している。
FIG. 2 shows a display example of a captured image captured by the
図2に示されるように、デジタルカメラ11は、サブレンズ32を介して撮像した画像(サブ画像)に対して、歪補正等の補正処理を行い、所定の画像処理(画像をぼかす、輝度や彩度を下げる等)を施す。また、デジタルカメラ11は、メインレンズ31を介して撮像した画像(メイン画像)に対して、所定の画像処理(輝度や彩度を上げる等)を施す。そして、デジタルカメラ11は、メイン画像およびサブ画像の位置および画角を調整し、メイン画像とサブ画像とを合成した画像(合成画像)を、デジタルカメラ11の背面に設けられた、図示せぬ表示部に、例えば、図2に示されるように表示する。ユーザは、この図示せぬ表示部の表示内容を確認することで、撮像しようとする画角を認識することができる。
As shown in FIG. 2, the
図2に示される合成画像は、所定の補正と画像処理が施されたサブ画像(広角画像)と、メイン画像(標準画像)とが、それぞれの画像における被写体の位置が一致するように合成されている。 The synthesized image shown in FIG. 2 is synthesized such that the sub image (wide-angle image) that has been subjected to predetermined correction and image processing and the main image (standard image) match the position of the subject in each image. ing.
[デジタルカメラの機能構成例]
次に、図3のブロック図を参照して、デジタルカメラ11の機能構成例について説明する。
[Functional configuration example of digital camera]
Next, a functional configuration example of the
図3のデジタルカメラ11は、メインレンズ31、サブレンズ32、撮像部51、歪補正部52、光軸補正部53、画像処理部54、撮像部55、画像処理部56、合成部57、および表示部58から構成される。
3 includes a
メインレンズ31およびサブレンズ32は、図1を参照して説明したものと同一であるので、その説明は省略する。
The
撮像部51は、撮像素子やA/D(Analog/Digital)変換部を含むように構成される。撮像部51は、サブレンズ32からの光を受光して光電変換することにより被写体を撮像し、得られたアナログの画像信号をA/D変換する。撮像部51は、A/D変換の結果得られたデジタルの画像データ(広角画像)を歪補正部52に供給する。
The
歪補正部52は、撮像部51からの広角画像(サブ画像)におけるサブレンズ32の歪を補正し、補正したサブ画像を光軸補正部53に供給する。
The
光軸補正部53は、サブレンズ32の光軸をメインレンズ31の光軸に合わせて、歪補正部52からのサブ画像において、サブ画像に合成されるメイン画像の位置を決定し、その位置を示す位置情報とともに、サブ画像を画像処理部54に供給する。
The optical
画像処理部54は、光軸補正部53からのサブ画像に対して、メイン画像より画質を下げるように所定の画像処理(ピクチャ、明るさ、色の濃さ、色合い、シャープネス等の調整)を施し、位置情報とともに、合成部57に供給する。
The
ここで、図4乃至図6のブロック図を参照して、3種類の画像処理部54の構成例について説明する。
Here, configuration examples of the three types of
図4は、第1の構成例であり、サブ画像にぼかし処理を施す画像処理部54の構成例を示している。
FIG. 4 is a first configuration example and shows a configuration example of an
図4の画像処理部54は、RGB/YUV変換部61,LPF(Low Pass Filter)62、およびYUV/RGB変換部63から構成される。
The
RGB/YUV変換部61は、光軸補正部53から供給されたサブ画像としてのRGB信号を、以下の式(1)に基づいてYUV信号に変換する。
The RGB /
RGB/YUV変換部61は、変換したYUV信号のうちのY信号(輝度信号)をLPF62に供給するとともに、U,V信号(色差信号)をYUV/RGB変換部63に供給する。
The RGB /
LPF62は、RGB/YUV変換部61から供給されたY信号を平滑化処理することにより、高周波成分を除去し、YUV/RGB変換部63に供給する。
The
YUV/RGB変換部63は、LPF62からのY信号(Y')、および、RGB/YUV変換部61からのU,V信号を、以下の式(2)に基づいてRGB信号に変換する。
The YUV /
YUV/RGB変換部63は、変換したRGB信号(R’,G’,B’)をサブ画像として合成部57に供給する。
The YUV /
以上の構成により、画像処理部54は、サブ画像にぼかし処理を施すことができる。
With the above configuration, the
図5は、第2の構成例であり、サブ画像の彩度を下げる画像処理部54の構成例を示している。
FIG. 5 is a second configuration example and shows a configuration example of the
図5の画像処理部54は、RGB/HSV変換部71,彩度調整部(S調整部)72、およびHSV/RGB変換部73から構成される。
The
RGB/HSV変換部71は、光軸補正部53から供給されたサブ画像としてのRGB信号を、以下の式(3)に基づいてHSV信号に変換する。
The RGB /
式(3)において、MAXは、R,G,Bのうちの最大値を、MINは、R,G,Bのうちの最小値をそれぞれ示している。RGB/HSV変換部71は、変換したHSV信号のうちのS信号(彩度信号)をS調整部72に供給するとともに、H信号(色相信号)およびV信号(明度信号)をHSV/RGB変換部73に供給する。
In Expression (3), MAX represents the maximum value of R, G, and B, and MIN represents the minimum value of R, G, and B, respectively. The RGB /
S調整部72は、RGB/HSV変換部71から供給されたS信号に、所定の係数α(0<α<1)を乗じて、HSV/RGB変換部73に供給する。
The
HSV/RGB変換部73は、S調整部72からのS信号(S'=αS)、および、RGB/HSV変換部71からのH,V信号をRGB信号に変換する。
The HSV /
すなわち、Hi=[H/60] mod 6([x]:x以下の最大の整数、A mod B:A/Bの剰余),f=(H/60)-Hi,p=V(1-S),q=V(1-fS),t=V(1-(1-f)S)としたときに、HSV信号は、以下の式(4)に基づいて、RGB信号に変換される。 That is, H i = [H / 60] mod 6 ([x]: maximum integer less than or equal to x, A mod B: remainder of A / B), f = (H / 60) −H i , p = V ( 1-S), q = V (1-fS), t = V (1- (1-f) S), HSV signal is converted to RGB signal based on the following equation (4) Is done.
HSV/RGB変換部73は、変換したRGB信号(R’,G’,B’)をサブ画像として合成部57に供給する。
The HSV /
以上の構成により、画像処理部54は、サブ画像の彩度を下げることができる。
With the above configuration, the
図6は、第3の構成例であり、サブ画像の明度を下げる画像処理部54の構成例を示している。
FIG. 6 is a third configuration example and shows a configuration example of the
図6の画像処理部54は、RGB/HSV変換部81,明度調整部(V調整部)82、およびHSV/RGB変換部83から構成される。
The
RGB/HSV変換部81は、光軸補正部53から供給されたサブ画像としてのRGB信号を、上述した式(3)に基づいてHSV信号に変換し、変換したHSV信号のうちのV信号をV調整部82に供給するとともに、H信号およびS信号をHSV/RGB変換部83に供給する。
The RGB /
V調整部82は、RGB/HSV変換部81から供給されたV信号に、所定の係数β(0<β<1)を乗じて、HSV/RGB変換部83に供給する。
The
HSV/RGB変換部83は、V調整部82からのV信号(V'=βV)、および、RGB/HSV変換部81からのH,S信号を上述した式(4)に基づいてRGB信号に変換し、変換したRGB信号(R’,G’,B’)をサブ画像として合成部57に供給する。
The HSV /
以上の構成により、画像処理部54は、サブ画像の明度を下げることができる。
With the above configuration, the
このようにして、図4乃至図6を参照して説明してきた3種類の画像処理部54は、いずれにおいても、サブ画像の画質をメイン画像の画質より下げることができる。
In this way, any of the three types of
図3の説明に戻り、撮像部55は、撮像素子やA/D変換部を含むように構成される。撮像部55は、メインレンズ31からの光を受光して光電変換することにより被写体を撮像し、得られたアナログの画像信号をA/D変換する。撮像部55は、A/D変換の結果得られたデジタルの画像データ(標準画像)を画像処理部56に供給する。
Returning to the description of FIG. 3, the
画像処理部56は、撮像部55からのメイン画像(標準画像)に対して、サブ画像より画質を上げるように所定の画像処理(ピクチャ、明るさ、色の濃さ、色合い、シャープネス等の調整)を施し、合成部57に供給する。
The
ここで、図7乃至図9のブロック図を参照して、3種類の画像処理部56の構成例について説明する。
Here, configuration examples of the three types of
図7は、第1の構成例であり、メイン画像の形や輪郭を強調する強調処理を施す画像処理部56の構成例を示している。
FIG. 7 is a first configuration example and shows a configuration example of the
図7の画像処理部56は、RGB/YUV変換部91,HPF(High Pass Filter)92、増幅器93、加算器94、およびYUV/RGB変換部95から構成される。
The
RGB/YUV変換部91は、撮像部55からのメイン画像としてのRGB信号を、上述した式(1)に基づいてYUV信号に変換し、変換したYUV信号のうちのY信号をHPF92および加算器94に供給するとともに、U,V信号をYUV/RGB変換部95に供給する。
The RGB /
HPF92は、RGB/YUV変換部91から供給されたY信号の高周波成分を取り出し、増幅器93に供給する。増幅器93は、HPF92からのY信号の高周波成分をA(A>1)倍に増幅し、加算器94に供給する。加算器94は、RGB/YUV変換部91からのY信号に、増幅器93からの増幅されたY信号の高周波成分を加算して、YUV/RGB変換部95に供給する。
The
YUV/RGB変換部95は、加算器94からのY信号(Y')、および、RGB/YUV変換部91からのU,V信号を、上述した式(2)に基づいてRGB信号に変換し、変換したRGB信号(R’,G’,B’)をメイン画像として合成部57に供給する。
The YUV /
以上の構成により、画像処理部56は、メイン画像に強調処理を施すことができる。
With the above configuration, the
図8は、第2の構成例であり、メイン画像の彩度を上げる画像処理部56の構成例を示している。
FIG. 8 is a second configuration example and shows a configuration example of the
図8の画像処理部56は、RGB/HSV変換部101,彩度調整部(S調整部)102、およびHSV/RGB変換部103から構成される。なお、RGB/HSV変換部101およびHSV/RGB変換部103は、図5の画像処理部54に設けられたRGB/HSV変換部71およびHSV/RGB変換部73と同様の機能を備えるので、その説明は省略する。
The
すなわち、S調整部102は、RGB/HSV変換部101から供給されたS信号に、所定の係数α(α≧1)を乗じて、HSV/RGB変換部103に供給する。
That is, the
以上の構成により、画像処理部56は、メイン画像の彩度を上げることができる。
With the above configuration, the
図9は、第3の構成例であり、サブ画像の明度を上げる画像処理部56の構成例を示している。
FIG. 9 is a third configuration example and illustrates a configuration example of the
図9の画像処理部56は、RGB/HSV変換部111,明度調整部(V調整部)112、およびHSV/RGB変換部113から構成される。なお、RGB/HSV変換部111およびHSV/RGB変換部113は、図6の画像処理部54に設けられたRGB/HSV変換部81およびHSV/RGB変換部83と同様の機能を備えるので、その説明は省略する。
The
すなわち、V調整部112は、RGB/HSV変換部111から供給されたV信号に、所定の係数β(β≧1)を乗じて、HSV/RGB変換部113に供給する。
That is, the
以上の構成により、画像処理部56は、メイン画像の明度を上げることができる。
With the above configuration, the
このようにして、図7乃至図9を参照して説明した3種類の画像処理部56は、いずれにおいても、メイン画像の画質をサブ画像の画質より上げることができる。
In this way, any of the three types of
図3の説明に戻り、合成部57は、画像処理部54からの位置情報を基に、画像処理部56からのメイン画像と、画像処理部54からのサブ画像と合成し、合成した合成画像を表示部58に供給する。
Returning to the description of FIG. 3, the combining
表示部58は、合成部57からの合成画像を表示する。
The
[デジタルカメラの画像表示処理]
次に、図10のフローチャートを参照して、図3のデジタルカメラ11の画像表示処理について説明する。
[Digital camera image display processing]
Next, image display processing of the
ステップS11において、歪補正部52は、撮像部51からの広角画像(サブ画像)におけるサブレンズ32の歪を補正し、補正したサブ画像を光軸補正部53に供給する。
In step S <b> 11, the
ここで、図11および図12を参照して、歪補正部52の歪補正処理について説明する。
Here, the distortion correction processing of the
図11は、歪補正によって得られる所定の大きさの補正画像における画素の画素位置(X,Y)と、歪補正される前のサブ画像(円周魚眼画像)における画素の画素位置(x,y)との対応を説明する図である。 FIG. 11 shows pixel positions (X, Y) of pixels in a corrected image having a predetermined size obtained by distortion correction, and pixel positions (x of pixels) in a sub-image (circular fisheye image) before distortion correction. , y) is a diagram for explaining the correspondence with y).
図11に示されるように、円周魚眼画像の中心をxyz座標の原点として、円周魚眼画像を直径での切断面とした半径Rの上半球を考える。なお、補正画像は、点(0,0,R)で上半球に接しているものとする。 As shown in FIG. 11, consider the upper hemisphere of radius R with the center of the circumferential fish-eye image as the origin of the xyz coordinates and the circumferential fish-eye image as a cut surface in diameter. Note that the corrected image is in contact with the upper hemisphere at the point (0, 0, R).
xyz座標の原点と点(X,Y,R)とを結んだ直線と、上半球の球面との交点を(x,y,z)とし、xyz座標の原点と交点(x,y,z)との距離をRとした場合、以下の式(5)が成り立つ。 The intersection of the xyz coordinate origin and point (X, Y, R) and the upper hemisphere sphere is (x, y, z), and the xyz coordinate origin and intersection (x, y, z) When the distance between and is R, the following equation (5) holds.
すなわち、歪補正部52は、補正後の補正画像における点(X,Y)の画素値を、対応する補正前の円周魚眼画像における点(x,y)の画素値とすることで、補正画像を生成する。
That is, the
なお、図12に示されるように、補正後の補正画像における点(X,Y)に対応する補正前の円周魚眼画像における点(x,y)が、画素の配置における格子点に位置しない場合、周囲の画素(画素値)a乃至dを補間して、点(x,y)の画素値としてもよい。補間の手法としては、バイリニア補間やバイキュービック補間等を用いる。図12において、バイリニア補間を用いた場合、点(x,y)における画素値pは、p=(1-t){(1-s)a+sb}+t{(1-s)c+sd}で求められる。 In addition, as shown in FIG. 12, the point (x, y) in the circumferential fisheye image before correction corresponding to the point (X, Y) in the corrected image after correction is positioned at the grid point in the pixel arrangement. If not, the surrounding pixels (pixel values) a to d may be interpolated to obtain the pixel value of the point (x, y). As an interpolation method, bilinear interpolation, bicubic interpolation, or the like is used. In FIG. 12, when bilinear interpolation is used, the pixel value p at the point (x, y) is p = (1-t) {(1-s) a + sb} + t {(1-s) c + sd}.
図10のフローチャートに戻り、ステップS12において、光軸補正部53は、サブレンズ32の光軸をメインレンズ31の光軸に合わせて、歪補正部52からのサブ画像において、サブ画像に合成されるメイン画像の位置を決定する。光軸補正部53は、その位置を示す位置情報と、サブ画像とを画像処理部54に供給する。
Returning to the flowchart of FIG. 10, in step S <b> 12, the optical
ここで、図13を参照して、光軸補正部53の光軸補正処理について説明する。
Here, the optical axis correction processing of the optical
図13は、メインレンズ31の光軸の座標系(メインレンズ座標系)と、サブレンズ32の光軸の座標系(サブレンズ座標系)との関係を説明する図である。 FIG. 13 is a diagram for explaining the relationship between the coordinate system of the optical axis of the main lens 31 (main lens coordinate system) and the coordinate system of the optical axis of the sub lens 32 (sub lens coordinate system).
図13において、ベクトルhは、デジタルカメラ11に配置されているメインレンズ31とサブレンズ32との、x-y平面における物理的な配置の差を表しており、回転量Rは、メインレンズ31の光軸と、サブレンズ32の光軸とのz軸を基準とした回転ずれ量を表している。すなわち、サブレンズ座標系におけるベクトルv'=(x',y',z')は、メインレンズ座標系におけるベクトルv=(x,y,z)を用いて、v'=Rv+hで表される。すなわち、サブレンズ座標系におけるベクトルv'は、ベクトルvを回転量Rだけ回転して、ベクトルhだけ平行移動したベクトルである。光軸補正部53は、この関係を用いて、サブレンズ32の光軸(座標)をメインレンズ31の光軸(座標)に合わせることができる。
In FIG. 13, a vector h represents a physical arrangement difference in the xy plane between the
さらに、光軸補正部53は、歪補正部52からのサブ画像の中心付近の領域内の画像と、その領域に対応する、撮像部55からのメイン画像とのマッチングを行うことで、サブ画像に合成されるメイン画像の位置を決定する。
Further, the optical
図10のフローチャートに戻り、ステップS13において、画像処理部54は、光軸補正部53からのサブ画像に対して、メイン画像より画質を下げるように所定の画像処理を施す。より具体的には、画像処理部54は、サブ画像の輝度、彩度、または明度を下げる。画像処理部54は、画質を下げたサブ画像を、光軸補正部53からの位置情報とともに、合成部57に供給する。ここで、画像処理部54は、サブ画像の輝度信号だけを抽出して、白黒画像を合成部57に供給するようにもできる。
Returning to the flowchart of FIG. 10, in step S <b> 13, the
ステップS14において、画像処理部56は、撮像部55からのメイン画像に対して、サブ画像より画質を上げるように所定の画像処理を施す。より具体的には、画像処理部56は、メイン画像の輝度、彩度、または明度を上げる。画像処理部56は、画質を上げたメイン画像を、合成部57に供給する。ここで、画像処理部56は、メイン画像の周囲に所定の色や線種の枠を付加して、合成部57に供給するようにもできる。
In step S <b> 14, the
ステップS15において、合成部57は、画像処理部54からの位置情報を基に、画像処理部56からのメイン画像と、画像処理部54からのサブ画像と合成し、合成した合成画像を表示部58に供給する。
In step S15, the combining
このとき、メイン画像は、サブ画像よりその大きさが小さい必要があるが、これは、撮像部51および撮像部55のそれぞれに備えられている撮像素子の大きさによる。
At this time, the size of the main image needs to be smaller than that of the sub image, and this depends on the size of the image sensor provided in each of the
例えば、撮像部51および撮像部55それぞれに備えられている撮像素子の大きさが同一であった場合、異なる範囲の画像が同一の大きさの画像として生成されてしまう。したがって、メイン画像とサブ画像とを合成するためには、いずれかの画像の大きさを調整する必要がある。
For example, when the image pickup devices provided in the
ここで、図14を参照して、合成部57の合成処理におけるメイン画像とサブ画像の、画像の大きさの調整について説明する。
Here, with reference to FIG. 14, adjustment of the image size of the main image and the sub image in the composition processing of the
図14Aに示されるように、xyz座標の原点をメインレンズ31の位置としたときの、原点と、メイン画像Imを写すための撮像部55の撮像素子との距離(z軸方向)をfmとする。
As shown in Figure 14A, when the origin of the xyz coordinate the position of the
また、図14Bに示されるように、xyz座標の原点をサブレンズ32の位置としたときの、原点と、サブ画像Isを写すための撮像部51の撮像素子との距離(z軸方向)をfsとする。
Further, as shown in FIG. 14B, when the origin of the xyz coordinate the position of the sub-lens 32, the distance of the origin, the image sensor of the
そして、ある被写体距離Zを考えたとき、図14Cに示されるように、メイン画像Imの撮像部55の撮像素子に写る範囲をlmとし、サブ画像Isの撮像部51に写る範囲をlsとす
る。また、撮像部51および撮像部55それぞれの撮像素子の大きさをlとする。
Then, when considering a certain object distance Z, as shown in FIG. 14C, the captured area on the imaging element of the
このとき、図14Cの関係から、以下の式(6)が得られる。 At this time, the following equation (6) is obtained from the relationship of FIG. 14C.
また、式(6)の関係から、メイン画像Imの大きさとサブ画像Isの大きさの比lm/lsは、以下の式(7)で求められる。 Further, the relationship of Equation (6), the ratio l m / l s of the magnitude of the size and the sub-image I s of the main image I m is determined by the following equation (7).
このとき、合成部57は、メイン画像Imの大きさをfs/fm倍することで、メイン画像I'mを生成し、サブ画像Isと合成する。
In this case, the combining
このようにして、図14Dに示されるように、メイン画像I'mがサブ画像Isよりその大きさが小さい合成画像が生成される。 In this way, as shown in FIG. 14D, the main image I 'm composite image in size than the sub-image I s is small is produced.
なお、撮像部51および撮像部55の撮像素子の大きさが、同一であった場合に限らず、メイン画像Imとサブ画像Isの大きさの関係が、図14Dのようにならない場合には、メイン画像Imの大きさを所定数倍することで、メイン画像の大きさを調整することができる。
The size of the imaging device of the
図10のフローチャートに戻り、ステップS16において、表示部58は、合成部57からの合成画像を表示する。
Returning to the flowchart of FIG. 10, in step S <b> 16, the
以上の処理によれば、図2で示したような、画質を下げた広角画像の中央に、撮影したい画角の標準画像が合成された合成画像が表示されるので、ユーザは、2つの構図の画像を同時に、簡単に確認することができる。 According to the above processing, as shown in FIG. 2, a composite image in which a standard image with a desired angle of view is combined is displayed at the center of the wide-angle image with reduced image quality. You can easily check the images at the same time.
また、ユーザは、撮影したい画角の以外の構図を広角画像において確認することができるので、よりよい構図を探索することもできる。 In addition, since the user can confirm the composition other than the angle of view to be captured in the wide-angle image, the user can also search for a better composition.
以上においては、撮影したい画角以外の画像は、その画質を下げて、構図のみを確認させる構成について説明したが、撮影したい画角以外の画像に含まれる物体を強調して表示させるようにしてもよい。 In the above description, the image quality of the image other than the angle of view to be photographed has been described so that only the composition is confirmed by reducing the image quality. However, the object included in the image other than the angle of view to be photographed is emphasized and displayed. Also good.
<2.第2の実施の形態>
[デジタルカメラの構成例]
図15は、撮影したい画角以外の画像における物体を表示させるようにしたデジタルカメラの構成例を示している。なお、図15のデジタルカメラ121において、図3のデジタルカメラ11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
<2. Second Embodiment>
[Example of digital camera configuration]
FIG. 15 shows a configuration example of a digital camera that displays an object in an image other than the angle of view to be photographed. In addition, in the
すなわち、図15のデジタルカメラ121において、図3のデジタルカメラ11と異なるのは、物体検出部151および画像処理部152を新たに設け、合成部57に代えて、合成部153を設けた点である。
15 differs from the
図15の光軸補正部53は、光軸補正したサブ画像、および、サブ画像におけるメイン画像が合成される位置を示す位置情報を、画像処理部54に供給する他、光軸補正したサブ画像を、物体検出部151に供給する。
The optical
物体検出部151は、光軸補正部53からのサブ画像において、物体を検出し、検出した物体を含む領域の画像(検出物体画像)を、サブ画像における位置を表す位置情報とともに、画像処理部152に供給する。
The
ここで、図16および図17を参照して、2種類の物体検出部151の構成例について説明する。
Here, a configuration example of the two types of
図16は、物体検出部151の第1の構成例を示している。
FIG. 16 shows a first configuration example of the
図16の物体検出部151は、フレームバッファ161、フレーム間差分算出部162、閾値処理部163、およびラベリング部164から構成されている。
The
フレームバッファ161は、光軸補正部53からのサブ画像をフレーム毎に記憶する。
The
フレーム間差分算出部162は、フレームバッファ161に記憶されている1フレーム前のサブ画像It-1を読み出し、そのサブ画像It-1と、光軸補正部53からの現フレームのサブ画像Itとから、画素毎に、画素値の差であるフレーム間差分値を算出する。フレーム間差分算出部162は、算出結果を閾値処理部163に供給する。
The inter-frame
閾値処理部163は、フレーム間差分算出部162からのフレーム間差分値に基づいて、所定の閾値以上の差分値がある画素を1とし、所定の閾値に満たない差分値の画素を0として2値化する。また、閾値処理部163は、2値化画像を所定のブロックに分割し、ブロック毎に、ブロック内の画素値が1の画素をカウントし、そのカウント数に基づいて、所定の閾値以上のカウント数があるブロックを動きブロックとして検出する。そして、閾値処理部163は、その検出結果(動きブロック)をラベリング部164に供給する。
Based on the inter-frame difference value from the inter-frame
ラベリング部164は、閾値処理部163より供給された動きブロックに基づいて、ラベリング処理を行う。さらに、ラベリング部164は、ラベリングされた各ブロックを外側から囲む矩形(外接枠)を検出し、その検出結果を、検出物体画像として、画像処理部152に供給する。
The
以上の構成により、物体検出部151は、サブ画像において、動きのある物体を検出することができる。
With the above configuration, the
図17は、物体検出部151の第2の構成例を示している。
FIG. 17 illustrates a second configuration example of the
図17の物体検出部151は、顔検出部171から構成されている。
The
顔検出部171は、光軸補正部53からのサブ画像Itから顔を検出し、顔を検出する領域である顔検出領域の位置および大きさに基づいて顔画像を抽出して、検出物体画像として、画像処理部152に供給する。例えば、顔検出部171は、様々な方向を向いている顔の顔画像を学習し、サブ画像Itにおいて、その顔検出領域内と同じ大きさの領域の画像と、学習した顔画像とを比較し、顔であるか否かを評価することで、顔を検出する。
The
以上の構成により、物体検出部151は、サブ画像において、人の顔を検出することができる。
With the above configuration, the
なお、上述の説明においては、物体検出部151は、動きのある物体、または、人(顔)を検出する構成としたが、これに限らず、所定のオブジェクト(自動車、建造物等)を検出するようにしてもよい。
In the above description, the
図15の説明に戻り、画像処理部152は、物体検出部151からの検出物体画像に対して、サブ画像より画質を上げるように所定の画像処理(ピクチャ、明るさ、色の濃さ、色合い、シャープネス等の調整)を施し、位置情報とともに、合成部153に供給する。
Returning to the description of FIG. 15, the
ここで、図18のブロック図を参照して、画像処理部152の構成例について説明する。
Here, a configuration example of the
図18は、検出物体画像に強調処理を施す画像処理部152の構成例を示している。
FIG. 18 illustrates a configuration example of the
図18の画像処理部152は、RGB/YUV変換部181,HPF182、増幅器183、加算器184、およびYUV/RGB変換部185から構成される。なお、RGB/YUV変換部181,HPF182、増幅器183、加算器184、およびYUV/RGB変換部185は、図7の画像処理部56に設けられたRGB/YUV変換部91,HPF92、増幅器93、加算器94、およびYUV/RGB変換部95と同様の機能を備えるので、その説明は省略する。
The
以上の構成により、画像処理部152は、検出物体画像に強調処理を施すことができる。
With the above configuration, the
図15の説明に戻り、合成部153は、画像処理部54からの位置情報を基に、画像処理部56からのメイン画像と、画像処理部54からのサブ画像とを合成する。さらに、合成部153は、画像処理部152からの位置情報を基に、合成した合成画像のサブ画像に対応する領域に、物体検出部151からの検出物体画像を合成し、その合成画像を表示部58に供給する。
Returning to the description of FIG. 15, the synthesizing
[デジタルカメラの画像表示処理]
次に、図19のフローチャートを参照して、図15のデジタルカメラ121の画像表示処理について説明する。なお、図19のフローチャートにおけるステップS31乃至S33,S36の処理は、図10のフローチャートを参照して説明したステップS11乃至S14の処理と同様であるので、その説明は省略するものとする。
[Digital camera image display processing]
Next, image display processing of the
すなわち、ステップS34において、物体検出部151は、光軸補正部53からのサブ画像において、物体を検出する物体検出処理を行う。物体検出部151は、検出した物体を含む領域の画像(検出物体画像)を、サブ画像における位置を表す位置情報とともに、画像処理部152に供給する。
That is, in step S34, the
ここで、図20のフローチャートを参照して、ステップS34の物体検出処理に対応する、動きのある物体を検出する物体検出処理の例を説明する。 Here, an example of object detection processing for detecting a moving object corresponding to the object detection processing in step S34 will be described with reference to the flowchart of FIG.
ステップS51において、フレーム間差分算出部162は、フレームバッファ161に記憶されている1フレーム前のサブ画像It-1を読み出し、そのサブ画像It-1と、光軸補正部53からの現フレームのサブ画像Itとから、画素毎に、フレーム間差分値を算出する。フレーム間差分算出部162は、算出結果を閾値処理部163に供給する。
In
ステップS52において、閾値処理部163は、フレーム間差分算出部162からのフレーム間差分値に基づいて、所定の閾値以上の差分値がある画素を1とし、所定の閾値に満たない差分値の画素を0として2値化する。また、閾値処理部163は、2値化画像を所定のブロックに分割し、ブロック毎に、ブロック内の画素値が1の画素をカウントし、そのカウント数に基づいて、所定の閾値以上のカウント数があるブロックを動きブロックとして検出する。そして、閾値処理部163は、その検出結果(動きブロック)をラベリング部164に供給する。
In step S52, the
ステップS53において、ラベリング部164は、閾値処理部163より供給された動きブロックに基づいて、ラベリング処理を行う。さらに、ラベリング部164は、ラベリングされた各ブロックを外側から囲む矩形(外接枠)を検出し、その検出結果を、検出物体画像として、画像処理部152に供給する。
In step S <b> 53, the
以上の処理によれば、サブ画像において、動きのある物体を検出することができる。 According to the above processing, a moving object can be detected in the sub-image.
また、ステップS34の物体検出処理においては、人の顔を検出するようにしてもよい。 In the object detection process in step S34, a human face may be detected.
ここで、図21のフローチャートを参照して、人の顔を検出する物体検出処理の例を説明する。 Here, an example of object detection processing for detecting a human face will be described with reference to the flowchart of FIG.
ステップS61において、顔検出部171は、光軸補正部53からのサブ画像Itから顔を検出し、顔を検出する領域である顔検出領域の位置および大きさに基づいて顔画像を抽出して、検出物体画像として、画像処理部152に供給する。
In step S61, the
以上の処理によれば、サブ画像において、人の顔を検出することができる。 According to the above processing, a human face can be detected in the sub-image.
なお、図20,21のフローチャートを参照して説明した物体検出処理は、デジタルカメラ121の物体検出部151を、図16,17で説明した構成を併せ持つようにすることで、並列に実行するようにできる。
The object detection processing described with reference to the flowcharts of FIGS. 20 and 21 is executed in parallel by having the
図19のフローチャートに戻り、ステップS35において、画像処理部152は、物体検出部151からの検出物体画像に対して、サブ画像より画質を上げるように所定の画像処理を施し、位置情報とともに、合成部153に供給する。より具体的には、画像処理部152は、検出物体画像の輝度、彩度、または明度を上げる。画像処理部152は、画質を上げた検出物体画像を、合成部153に供給する。ここで、画像処理部152は、検出物体画像の周囲に所定の色の枠を付加して、合成部153に供給するようにもできる。
Returning to the flowchart of FIG. 19, in step S <b> 35, the
そして、ステップS37において、合成部153は、画像処理部54からの位置情報を基に、画像処理部56からのメイン画像と、画像処理部54からのサブ画像とを合成する。さらに、合成部153は、画像処理部152からの位置情報を基に、合成した合成画像のサブ画像に対応する領域に、物体検出部151からの検出物体画像を、例えば、図22で示されるように合成し、その合成画像を表示部58に供給する。
In step S <b> 37, the combining
図22は、検出物体画像を強調表示させた合成画像の例を示している。 FIG. 22 shows an example of a composite image in which the detected object image is highlighted.
図22においては、図2で示された合成画像に加え、合成画像のサブ画像に対応する領域に、検出物体画像201および検出物体画像202が表示されている。
In FIG. 22, in addition to the synthesized image shown in FIG. 2, a detected
図22において、検出物体画像201は、動きのある物体としての犬の画像であり、図16の物体検出部151が、物体(犬)を検出し、画像処理部152が、検出物体画像201の画質を上げることで、合成画像において強調表示される。
22, a detected
また、検出物体画像202は、人の画像であり、図17の物体検出部151が、人の顔を検出し、画像処理部152が、検出物体画像202の画質を上げることで、合成画像において強調表示される。
Further, the detected
このようにして、合成画像に、撮影したい画角(メイン画像)以外の画像に含まれる物体が強調された画像が強調表示されるので、予め焦点位置を固定した状態で静止画像を取り込む、いわゆる「置きピン」の撮影を行う場合に、メイン画像に、所望の被写体以外の物体がフレームインすることがあっても、その物体を合成画像上で確認できるので、シャッタのタイミングが計りやすくなる。 In this manner, an image in which an object included in an image other than the angle of view (main image) to be photographed is highlighted in the composite image, so that a still image is captured in a state where the focal position is fixed in advance. When the “place pin” is shot, even if an object other than the desired subject is framed in the main image, the object can be confirmed on the composite image, so that the shutter timing can be easily measured.
以上の処理によれば、画質を下げた広角画像の中央に、撮影したい画角の標準画像が合成されるとともに、撮影したい画角以外の画像に含まれる物体が強調された画像が合成された合成画像が表示される。したがって、ユーザは、2つの構図の画像を同時に、簡単に確認することができるとともに、撮影したい画角以外の画像に含まれる物体を確認することができる。 According to the above processing, the standard image having the angle of view to be photographed is synthesized at the center of the wide-angle image with the lowered image quality, and the image in which the object included in the image other than the angle of view to be photographed is emphasized is synthesized. A composite image is displayed. Therefore, the user can easily check images of two compositions at the same time, and can also check an object included in an image other than the angle of view to be photographed.
なお、上述した説明においては、サブ画像のみにおいて、物体を検出する構成としたが、メイン画像においても、物体を検出する構成としてもよい。このような構成とすることで、サブ画像とメイン画像とでまたがって表示されるような物体を検出することができるので、例えば、その物体を、サブ画像内では強調し、メイン画像内では画質を下げるようにすることが可能となる。これにより、メイン画像に、所望の被写体以外の物体がフレームインした場合であっても、その物体の表示を目立たなくさせることができる。 In the above description, the object is detected only in the sub-image, but the object may be detected in the main image. With this configuration, an object that is displayed across the sub image and the main image can be detected. For example, the object is emphasized in the sub image and the image quality is enhanced in the main image. Can be lowered. Thereby, even when an object other than the desired subject is framed in the main image, the display of the object can be made inconspicuous.
以上においては、ユーザが撮影したい画角を中心とした合成画像を表示する構成について説明したが、より適切な構図で撮影させる画角を合成画像に表示させるようにしてもよい。 In the above description, the configuration in which the composite image centered on the angle of view that the user wants to shoot has been described. However, the angle of view to be captured with a more appropriate composition may be displayed on the composite image.
<3.第3の実施の形態>
[デジタルカメラの構成例]
図23は、ユーザに、より適切な構図で撮影させる画角を合成画像に表示させるようにしたデジタルカメラの構成例を示している。なお、図23のデジタルカメラ221において、図15のデジタルカメラ121に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
<3. Third Embodiment>
[Example of digital camera configuration]
FIG. 23 shows a configuration example of a digital camera in which the angle of view that allows the user to capture an image with a more appropriate composition is displayed on the composite image. In addition, in the
すなわち、図23のデジタルカメラ221において、図15のデジタルカメラ121と異なるのは、構図解析部251、推奨構図抽出部252を新たに設け、画像処理部152および合成部153に代えて、画像処理部253および合成部254を設けた点である。
That is, the
図23の物体検出部151は、光軸補正部53からのサブ画像において、物体を検出し、検出した物体の、サブ画像における位置を表す位置情報と、サブ画像とを、構図解析部251に供給する。
The
構図解析部251は、物体検出部151からのサブ画像と、サブ画像内の物体の位置情報とに基づいて、サブ画像内の物体の配置に対応した構図を解析し、決定する。例えば、構図解析部251は、複数の構図パターンを予め記憶しており、パターンマッチングにより、その構図パターンの中から、サブ画像内の物体の配置に最も近い構図パターンを選択し、サブ画像に対応した構図(推奨構図)とする。構図解析部251は、決定した構図を示す構図情報(例えば、構図の輪郭である矩形の左上の位置および右下の位置)を、サブ画像とともに、推奨構図抽出部252に供給する。
The
推奨構図抽出部252は、構図解析部251からの構図情報とサブ画像とに基づいて、サブ画像から推奨構図の画像(推奨構図画像)を抽出し、構図情報とともに、画像処理部253に供給する。
The recommended
画像処理部253は、画像処理部56と同様の機能を備えており、推奨構図抽出部252からの推奨構図画像に対して、サブ画像より画質を上げるように所定の画像処理(ピクチャ、明るさ、色の濃さ、色合い、シャープネス等の調整)を施し、構図情報とともに、合成部254に供給する。
The
合成部254は、画像処理部54からの位置情報を基に、画像処理部56からのメイン画像と、画像処理部54からのサブ画像と合成する。さらに、合成部254は、画像処理部253からの構図情報を基に、合成した合成画像のサブ画像に対応する領域に、画像処理部253からの推奨構図画像を合成し、その合成画像を表示部58に供給する。
The combining
[デジタルカメラの画像表示処理]
次に、図24のフローチャートを参照して、図23のデジタルカメラ221の画像表示処理について説明する。なお、図24のフローチャートにおけるステップS71乃至S74,S78の処理は、図10のフローチャートを参照して説明したステップS31乃至S34,S36の処理と同様であるので、その説明は省略するものとする。
[Digital camera image display processing]
Next, image display processing of the
ステップS75において、構図解析部251は、物体検出部151からのサブ画像と、サブ画像内の物体の位置情報とに基づいて、サブ画像内の物体の配置に対応した構図を解析し、推奨構図を決定する。例えば、構図解析部251は、複数の構図パターンを予め記憶しており、パターンマッチングにより、その構図パターンの中から、サブ画像内の物体の配置に最も近い構図パターンを選択し、サブ画像に対応した推奨構図とする。構図解析部251は、決定した構図を示す構図情報を、サブ画像とともに、推奨構図抽出部252に供給する。
In step S75, the
図25は、構図解析部251によって決定される推奨構図の例を示している。
FIG. 25 shows an example of a recommended composition determined by the
図25に示される構図は、3分割構図と呼ばれる構図で、垂直線と水平線との交点(図中、塗りつぶしの丸印)のいずれかの位置に物体(被写体)をおくことで、バランスのとれた画像(写真)となることが知られている。なお、構図解析部251によって決定される構図(構図パターン)は、3分割構図に限らず、左右の広がりを持たせたいときに用いられる水平線構図、垂直方向を強調したいときに用いられる垂直線構図、同じものや似ているものが2つ並んでいるときに用いられる対比構図等、複数用意されているものとする。
The composition shown in FIG. 25 is a composition called a three-part composition, and is balanced by placing an object (subject) at one of the intersections of the vertical and horizontal lines (filled circles in the figure). It is known to be an image (photo). Note that the composition (composition pattern) determined by the
図24のフローチャートに戻り、ステップS76において、推奨構図抽出部252は、構図解析部251からの構図情報とサブ画像とに基づいて、サブ画像から推奨構図画像を抽出し、構図情報とともに、画像処理部253に供給する。
Returning to the flowchart of FIG. 24, in step S76, the recommended
ステップS77において、画像処理部253は、推奨構図抽出部252からの推奨構図画像に対して、サブ画像より画質を上げるように所定の画像処理を施し、構図情報とともに、合成部254に供給する。ここで、画像処理部253は、推奨構図画像の周囲に所定の色や線種の枠を付加して、合成部254に供給するようにもできる。
In step S <b> 77, the
そして、ステップS79において、合成部254は、画像処理部54からの位置情報を基に、画像処理部56からのメイン画像と、画像処理部54からのサブ画像とを合成する。さらに、合成部254は、画像処理部253からの構図情報を基に、合成した合成画像のサブ画像に対応する領域に、画像処理部253からの推奨構図画像を、例えば、図26で示されるように合成し、その合成画像を表示部58に供給する。
In step S <b> 79, the combining
図26は、推奨構図を表示させた合成画像の例を示している。 FIG. 26 shows an example of a composite image in which a recommended composition is displayed.
図26においては、図2で示された合成画像に加え、その合成画像上に、推奨構図が、その輪郭を表す破線によって示されている。 In FIG. 26, in addition to the composite image shown in FIG. 2, on the composite image, a recommended composition is shown by a broken line representing its outline.
上述した説明では、推奨構図内の画像の画質は、サブ画像の画質より高くされるものとしたが、メイン画像(現在の画角)の一部と推奨構図の一部とが重なる場合、これらの区別がつかなく恐れがある。そこで、図26に示されるように、推奨構図として、単に、その輪郭(画角)を表示するのみとしてもよい。 In the above description, the image quality of the image in the recommended composition is assumed to be higher than the image quality of the sub-image. However, when a part of the main image (current angle of view) and a part of the recommended composition overlap, There is a risk of being indistinguishable. Therefore, as shown in FIG. 26, the outline (view angle) may be simply displayed as the recommended composition.
以上の処理によれば、合成画像に推奨構図を表示させることができる。 According to the above processing, the recommended composition can be displayed on the composite image.
このようにして、合成画像に、推奨構図を表示するようにしたので、ユーザは、撮影(記録)しようとしている構図より適切な構図を確認することが可能となる。 Since the recommended composition is displayed on the composite image in this way, the user can confirm a composition that is more appropriate than the composition to be photographed (recorded).
以上においては、より適切な構図を表示するようにした、2つの撮像系を備えるデジタルカメラについて説明してきたが、1つのみの撮像系を備えるデジタルカメラにおいても、より適切な構図を表示させるようにすることができる。 In the above description, a digital camera having two imaging systems that displays a more appropriate composition has been described. However, a more appropriate composition can be displayed even in a digital camera that has only one imaging system. Can be.
ところで、近年、ハイビジョンテレビジョン受像機の普及に伴い、デジタルカメラ等の撮像装置によりアスペクト比(横縦比)が16:9である画像を撮像、記録して、ハイビジョンテレビジョン受像機で鑑賞したいという要求が高まっている。 By the way, in recent years, with the widespread use of high-definition television receivers, it is desirable to capture and record images with an aspect ratio (aspect ratio) of 16: 9 using an imaging device such as a digital camera and view them on a high-definition television receiver. There is an increasing demand.
そのため、図27に示されるような、アスペクト比が4:3(または3:2)である固体撮像素子(以下、単に撮像素子という)301を有する一般的な撮像装置には、アスペクト比が4:3(または3:2)である画像を撮像する標準モードと、アスペクト比が16:9である画像を撮像するパノラマモードとを備えるものがある。標準モードにおいては、撮像素子301全体を使用してアスペクト比が4:3(または3:2)である画像が撮像、表示、記録される。一方、パノラマモードにおいては、図27の撮像素子301における上側の領域311および下側の領域312の撮像素子を使用せずに、アスペクト比が16:9となる矩形領域313の撮像素子を使用してアスペクト比が16:9である画像が撮像、表示、記録される。
Therefore, as shown in FIG. 27, a general imaging apparatus having a solid-state imaging device (hereinafter simply referred to as an imaging device) 301 having an aspect ratio of 4: 3 (or 3: 2) has an aspect ratio of 4. : 3 (or 3: 2) standard mode for capturing an image and panoramic mode for capturing an image with an aspect ratio of 16: 9. In the standard mode, an image with an aspect ratio of 4: 3 (or 3: 2) is captured, displayed, and recorded using the
上述のような撮像装置において、いわゆるスルー画を表示するための表示部の表示領域は、図27の撮像素子301全体に対応した画像を表示するように構成されている。したがって、パノラマモードでユーザが被写体を撮影する場合、スルー画が表示部に表示される表示領域は、図27の撮像素子301全体のうちの矩形領域313に対応した領域となる。
In the imaging apparatus as described above, the display area of the display unit for displaying a so-called through image is configured to display an image corresponding to the
そこで、以降においては、上述したような撮像装置におけるパノラマモードで、ユーザが撮影しようとしている構図より適切な構図を表示するようにした、1つのみの撮像系を備えるデジタルカメラについて説明する。 Therefore, hereinafter, a digital camera including only one imaging system that displays a composition more appropriate than the composition that the user intends to shoot in the panorama mode of the imaging apparatus as described above will be described.
<4.第4の実施の形態>
[デジタルカメラの機能構成例]
図28は、1つのみの撮像系を備えるデジタルカメラの構成例を示している。
<4. Fourth Embodiment>
[Functional configuration example of digital camera]
FIG. 28 illustrates a configuration example of a digital camera including only one imaging system.
図28のデジタルカメラ411は、レンズ431、撮像部432、画像処理部433、切出し部434、抽出部435、合成部436、表示制御部437、表示部438、操作入力部439、記録制御部440、および記録部441から構成される。
The
レンズ431は、図1のデジタルカメラのメインレンズ31と同様、いわゆる標準レンズである。
The
撮像部432は、アスペクト比が4:3である、例えばCCD(Charge Coupled Device)等の撮像素子やA/D変換部を含むように構成される。撮像部432は、レンズ431からの光を受光して光電変換することにより被写体を撮像し、得られたアナログの画像信号をA/D変換する。撮像部432は、A/D変換の結果得られたデジタルの画像データ(以下、撮像画像という)を画像処理部433に供給する。
The
画像処理部433は、撮像部432からの撮像画像に対して、所定の画像処理を施す。画像処理部433は、撮像モードが、アスペクト比が4:3である画像を撮像する標準モードである場合、画像処理を施した撮像画像を、表示制御部437および記録制御部440に供給する。また、画像処理部433は、撮像モードが、アスペクト比が16:9である画像を撮像するパノラマモードである場合、画像処理を施した撮像画像を、切出し部434および抽出部435に供給する。
The
切出し部434は、画像処理部433から撮像画像が供給されると、その撮像画像から、撮像画像とサイズの異なる、アスペクト比が16:9となる画像を切出す。切出し部434は、切出した画像(切出し画像)を、必要に応じて、合成部436、表示制御部437、または記録制御部440に供給する。
When the picked-up image is supplied from the
抽出部435は、画像処理部433から撮像画像が供給されると、その撮像画像において、注目度の高い被写体を検出し、その被写体を含み、撮像画像とサイズの異なる、アスペクト比が16:9となる領域の画像を抽出する。抽出部435は、抽出した画像(抽出画像)を、必要に応じて、合成部436または記録制御部440に供給する。
When the captured image is supplied from the
合成部436は、切出し部434からの切出し画像と、抽出部435からの抽出画像とを合成し、合成した合成画像を表示制御部437に供給する。
The combining
表示制御部437は、表示部438を制御し、各種の画像を表示部438に表示させる。例えば、表示制御部437は、撮像モードが標準モードである場合、画像処理部433から供給された撮像画像を、表示部438に表示させる。また、表示制御部437は、撮像モードがパノラマモードである場合、切出し部434から供給された切出し画像、または、合成部436から供給された合成画像を、表示部438に表示させる。
The
表示部438は、表示制御部437の制御の下、適宜、各種の画像を表示する。
The
操作入力部439は、デジタルカメラ411に対する指示を入力するためにユーザに操作される。操作入力部439は、例えば、各種の操作ボタン、リモコン、タッチパネル、マイクロホン等から構成され、ユーザからの操作を受け付け、その操作内容を示す信号(情報)を、デジタルカメラ411の各ブロックに供給する。
The
記録制御部440は、記録部441を制御する。例えば、記録制御部440は、撮像モードが標準モードである場合、操作入力部439からの信号に基づいて、画像処理部433からの撮像画像を、記録部441に記録させる。また、記録制御部440は、撮像モードがパノラマモードである場合、操作入力部439からの信号に基づいて、切出し部434からの切出し画像および抽出部435からの抽出画像を、記録部441に記録させる。さらに、記録制御部440は、操作入力部439からの信号に基づいて、記録部441から画像を読み出して、表示制御部437に供給する。
The
記録部441は、記録制御部440の制御の下、適宜、各種の画像を記録する。
The
[デジタルカメラの画像表示処理]
次に、図29のフローチャートを参照して、図28のデジタルカメラ411の画像表示処理について説明する。なお、図29の画像表示処理は、ユーザによって、操作入力部439が、撮像モードとしてパノラマモードを選択する旨の操作を受け付けた場合に開始される。
[Digital camera image display processing]
Next, image display processing of the
ステップS111において、撮像部432は、被写体を撮像する。より具体的には、撮像部432は、レンズ431からの光を受光して光電変換することにより被写体を撮像し、得られたアナログの画像信号をA/D変換し、得られた撮像画像を画像処理部433に供給する。
In step S111, the
ステップS112において、画像処理部433は、撮像部432からの撮像画像に対して、デモザイク処理、ホワイトバランス調整処理、ガンマ補正処理等の画像処理を施し、切出し部434および抽出部435に供給する。
In step S <b> 112, the
ステップS113において、切出し部434は、画像処理部433から供給された撮像画像から、アスペクト比が16:9となる画像を切出し、その結果得られた切出し画像を合成部436に供給する。より具体的には、切出し部434は、画像処理部433からの、アスペクト比が4:3である撮像画像において、図27で説明した撮像素子301における矩形領域313に対応する部分の画像を切出す。
In step S <b> 113, the
例えば、図30の左側に示されるように、被写体が猫である撮像画像511(アスペクト比4:3)が得られた場合、切出し部434は、撮像画像511において、一点鎖線で示される領域の画像を切出し、図30の右側に示される切出し画像512を得る。図30に示されるように、アスペクト比が16:9である切出し画像512においては、被写体である猫は、全体的に上の方に位置しており、耳を含む頭頂部が欠けてしまっている。この切出し画像512は、パノラマモードで撮影、表示される画像として、決してよい構図の画像とは言えない。
For example, as illustrated on the left side of FIG. 30, when a captured image 511 (aspect ratio 4: 3) in which the subject is a cat is obtained, the
上述したように、従来の、アスペクト比4:3である撮像素子を備えるデジタルカメラにおいて、ユーザがパノラマモードで被写体を撮影する場合、表示部に表示される画像は、撮像素子全体により撮像される撮像画像511に対して、図30の一点鎖線で示される領域の画像となる。このようなデジタルカメラを、その操作に慣れないユーザがパノラマモードで使用した場合、表示部には、図30の切出し画像512のような画像が表示され、記録されてしまう可能性がある。
As described above, in a conventional digital camera having an image sensor with an aspect ratio of 4: 3, when a user photographs a subject in the panorama mode, an image displayed on the display unit is captured by the entire image sensor. With respect to the captured
図29のフローチャートに戻り、ステップS114において、抽出部435は、画像処理部433から供給された撮像画像において、注目度の高い被写体を検出する。抽出部435は、その被写体を含む、アスペクト比が16:9となる領域の画像を抽出し、その結果得られた抽出画像を合成部436に供給する。
Returning to the flowchart of FIG. 29, in step S114, the
より具体的には、抽出部435は、撮像画像の各領域における、輝度に関する情報を示す輝度情報マップ、色に関する情報を示す色情報マップ、エッジに関する情報を示すエッジ情報マップ、動きに関する情報を示す動き情報マップを生成する。
More specifically, the
ここで、輝度情報マップ乃至動き情報マップのそれぞれを個々に区別する必要のない場合、単に情報マップと称するものとすると、これらの情報マップに含まれる情報は、被写体の含まれる領域により多く含まれる特徴の特徴量を示す情報とされる。そして、その情報が撮像画像の各領域に対応させて並べられたものが情報マップとされる。つまり、情報マップは、撮像画像の各領域における特徴量を示す情報であるといえる。 Here, when it is not necessary to individually distinguish each of the luminance information map or the motion information map, if the information map is simply referred to as an information map, the information included in these information maps is included more in the region including the subject. Information indicating the feature amount of the feature is used. An information map is formed by arranging the information in correspondence with each area of the captured image. That is, the information map can be said to be information indicating the feature amount in each region of the captured image.
したがって、各情報マップにおける、より情報量の多い領域、つまり特徴量の多い領域に対応する撮像画像上の領域は、より被写体が含まれる可能性の高い領域となり、各情報マップにより撮像画像における被写体の含まれる領域を特定することができる。 Therefore, in each information map, a region with a larger amount of information, that is, a region on the captured image corresponding to a region with a large amount of features is a region with a higher possibility of including a subject. Can be specified.
そして、抽出部435は、輝度情報マップ、色情報マップ、エッジ情報マップ、および動き情報マップに基づいて、撮像画像において被写体の含まれる、アスペクト比が16:9となる領域を特定し、その領域の画像を抽出画像として抽出する。
Then, based on the luminance information map, the color information map, the edge information map, and the motion information map, the
例えば、図31の左側に示されるように、撮像画像511(アスペクト比4:3)が得られた場合、抽出部435は、撮像画像511において、被写体である猫を注目度の高い物体として検出し、その被写体を含むように、破線で示される領域(アスペクト比16:9)の画像を抽出して、図31の右側に示される抽出画像513を得る。図31に示されるように、被写体である猫は、アスペクト比が16:9である抽出画像513において、略中心に位置している。この抽出画像513は、パノラマモードで撮影、表示される画像として、よい構図の画像と言える。
For example, as illustrated on the left side of FIG. 31, when a captured image 511 (aspect ratio 4: 3) is obtained, the
なお、撮像画像から輝度、色、エッジなどの情報を抽出する方法は、例えば「Laurent Itti, Christof Koch, and Ernst Niebur, “A Model of Saliency-Based Visual Attention for Rapid Scene Analysis”」に詳細に記載されている。 The method of extracting information such as luminance, color, and edge from the captured image is described in detail in, for example, “Laurent Itti, Christof Koch, and Ernst Niebur,“ A Model of Saliency-Based Visual Attention for Rapid Scene Analysis ”. Has been.
図29のフローチャートに戻り、ステップS115において、合成部436は、被写体の位置が一致するように、切出し部434からの切出し画像と、抽出部435からの抽出画像とを合成し、合成した合成画像を表示制御部437に供給する。
Returning to the flowchart of FIG. 29, in step S115, the combining
ステップS116において、表示制御部437は、合成部436から供給された合成画像を、表示部438に表示させる。
In step S116, the
図32は、表示部438に表示される合成画像の例を示している。
FIG. 32 shows an example of a composite image displayed on the
図32において、デジタルカメラ411の表示部438の表示領域は、アスペクト比4:3である。表示制御部437は、パノラマモードにおいては、表示部438の表示領域の上側の領域と下側の領域には黒い画像(いわゆる黒帯)を表示させることで、アスペクト比16:9の表示領域を形成する。
In FIG. 32, the display area of the
図32に示されるように、表示制御部437は、表示部438におけるアスペクト比16:9の表示領域に、合成画像のうちの切出し画像に対応する部分を表示させる。また、表示制御部437は、表示部438に、合成画像のうちの抽出画像に対応する部分を強調するように、図中破線で示される枠を表示させる。このとき、合成画像のうちの抽出画像に対応する部分のうちの、表示部438の表示領域の黒帯(上側)にかかる部分は、輝度の低い合成画像として表示される。なお、表示部438において表示される抽出画像は、図32のように枠によって強調される他、ユーザが抽出画像の表示範囲を確認できるように表示されればよい。
As shown in FIG. 32, the
以上の処理によれば、1つのみの撮像系を備えるデジタルカメラのパノラマモードで、ユーザが撮影しようとしている構図の画像と、注目度の高い被写体が中央に位置する構図の画像とを併せて表示させることができるので、ユーザは、撮影(記録)しようとしている構図より適切な構図を確認することが可能となる。 According to the above processing, in the panoramic mode of a digital camera having only one imaging system, the image of the composition that the user is going to shoot and the image of the composition in which the subject with high attention is located in the center are combined. Since it can be displayed, the user can confirm a composition more appropriate than the composition to be photographed (recorded).
なお、上述した処理においては、表示部438に、切出し画像と抽出画像とを併せて表示させるようにしたが、撮像画像と抽出画像とを併せて表示させるようにして、表示部438の表示領域の黒帯にかかる部分の輝度を低くするようにしてもよい。
In the above-described processing, the cutout image and the extracted image are displayed together on the
以上においては、パノラマモードで、ユーザが撮影しようとしている構図の画像と、注目度の高い被写体が中央に位置する構図の画像とを併せて表示させる処理について説明したが、パノラマモードで、ユーザが撮影しようとしている構図の画像と、注目度の高い被写体が中央に位置する構図の画像とを記録させるようにしてもよい。 In the above, the processing for displaying the image of the composition that the user is going to shoot in the panorama mode and the image of the composition in which the subject with high attention is located at the center has been described. You may make it record the image of the composition which it is going to image | photograph, and the image of the composition in which the high attention subject is located in the center.
[デジタルカメラの画像記録処理]
ここで、図33のフローチャートを参照して、図28のデジタルカメラ411の画像記録処理について説明する。なお、図33の画像記録処理は、ユーザによって、操作入力部439が、撮像モードとしてパノラマモードを選択する旨の操作を受け付けた場合に開始される。
[Digital camera image recording]
Here, the image recording process of the
なお、図33のフローチャートにおけるステップS211乃至S214の処理は、ステップS213において、切出し画像が表示制御部437および記録制御部440に供給される点と、ステップS214において、抽出画像が記録制御部440に供給される点を除いて、図29のフローチャートにおけるステップS111乃至S114の処理と基本的に同様であるので、その説明は省略する。
Note that the processing of steps S211 to S214 in the flowchart of FIG. 33 is performed in that the cut image is supplied to the
ステップS215において、表示制御部437は、切出し部434から供給された切出し画像を、表示部438に表示させる。より具体的には、表示制御部437は、図32で説明したような、表示部438におけるアスペクト比16:9の表示領域に切出し画像を表示させる。このとき、表示部438の表示領域において、上側の領域と下側の領域には、黒帯が表示される。
In step S215, the
ステップS216において、記録制御部440は、操作入力部439としてのシャッタボタンが押されたか否かを判定する。
In step S216, the
ステップS216において、シャッタボタンが押されていないと判定された場合、処理はステップS211に戻り、これ以降の処理が繰り返される。 If it is determined in step S216 that the shutter button has not been pressed, the process returns to step S211 and the subsequent processes are repeated.
一方、ステップS216において、シャッタボタンが押されたと判定された場合、すなわち、操作入力部440からシャッタボタンが押された旨の信号が、記録制御部440に供給された場合、処理はステップS217に進む。
On the other hand, if it is determined in step S216 that the shutter button has been pressed, that is, if a signal indicating that the shutter button has been pressed is supplied from the
ステップS217において、記録制御部440は、操作入力部440からの信号に基づいて、切出し部434からの切出し画像および抽出部435からの抽出画像を、記録部441に記録させる。例えば、記録部441には、図30で説明した切出し画像512と、図31で説明した抽出画像513とが記録される。
In step S217, the
従来のデジタルカメラにおいては、パノラマモードで、図30で説明した切出し画像512のような画像が、撮影に慣れないユーザが撮影しようとしている構図の画像であった場合、記録される画像も、図30で説明した切出し画像512のような画像となる。この場合、記録された画像に含まれない(欠けてしまっている)被写体の部分を生成して、よりよい構図の画像を得ることはできない。
In a conventional digital camera, when an image such as the cut-out
以上の処理によれば、パノラマモードで、切出し画像と抽出画像とを記録させることができるので、撮影に慣れないユーザが撮影した構図の画像と、ユーザにとって撮影した構図より適切な構図の画像とを記録することが可能となる。 According to the above processing, since the cutout image and the extracted image can be recorded in the panorama mode, the image of the composition taken by the user unfamiliar with photography, and the image of the composition more appropriate for the composition taken by the user Can be recorded.
また、ユーザが撮影した構図の画像と、ユーザが撮影した構図より適切な構図の画像とが記録されるので、ユーザは2つの画像を比較することができ、ユーザが撮影技術の向上を図る一助となる。 In addition, since an image of a composition photographed by the user and an image of a composition more appropriate than the composition photographed by the user are recorded, the user can compare the two images, and help the user improve the photographing technique. It becomes.
上述した処理においては、切出し画像と抽出画像のそれぞれを記録部441に記録させるようにしたが、図29のフローチャートで説明した、切出し画像と抽出画像とを合成した合成画像を記録部441に記録させるようにしてもよい。
In the processing described above, each of the cut-out image and the extracted image is recorded in the
図34は、記録部441に記録される合成画像の例を示している。
FIG. 34 shows an example of a composite image recorded in the
図34の合成画像601においては、一点鎖線で示される部分が切出し画像に対応し、破線で示される部分が抽出画像に対応する。ここで、合成画像601を、3つの領域611乃至613に分けて考える。このとき、領域611は、切出し画像に存在せず、抽出画像に存在する部分であり、領域612は、切出し画像および抽出画像の両方に存在する部分であり、領域613は、切出し画像に存在し、抽出画像に存在しない部分である。
In the
そこで、ユーザの操作により、操作入力部439から、切出し画像の再生(表示)を指示する旨の信号が供給された場合、記録制御部440は、合成画像601における領域612および領域613を読み出して表示制御部437に供給すればよい。また、ユーザの操作により、操作入力部439から、抽出画像の再生を指示する旨の信号が供給された場合、記録制御部440は、合成画像601における領域611および領域612を読み出して表示制御部437に供給すればよい。
Therefore, when a signal for instructing the reproduction (display) of the clipped image is supplied from the
このように、切出し画像と抽出画像とをそれぞれ再生(表示)させることを考慮した場合、切出し画像と抽出画像のそれぞれを記録部441に記録させなくとも、合成画像1枚を記録させるだけでよいので、記録部441の記録容量を削減することができる。
As described above, in consideration of reproducing (displaying) each of the cutout image and the extracted image, it is only necessary to record one composite image without recording the cutout image and the extracted image in the
なお、合成画像601を生成しない場合には、領域611に対応する画像と切出し画像とを併せて記録するようにしてもよいし、抽出画像と領域613に対応する画像とを併せて記録するようにしてもよい。
When the
また、上述した処理においては、操作入力部439としてのシャッタボタンが操作されたときに、抽出画像を記録するようにしたが、例えば、抽出画像の構図が、予め用意された3分割構図や水平線構図、放射線構図等の構図パターンとマッチングしたときに、抽出画像を記録するようにしてもよい。
In the processing described above, the extracted image is recorded when the shutter button as the
これにより、ユーザがシャッタボタンを操作しなくても、よりよい構図の画像を記録することができる。 Thus, an image with a better composition can be recorded without the user operating the shutter button.
さらに、上述した処理においては、画像処理部433は、撮像部432の撮像素子全体から得られた画像データに対して、所定の画像処理を施すようにしたが、操作入力部439としてのシャッタボタンが操作されるまでは、図27の撮像素子301の領域313に対応する撮像素子から得られた画像データに対して画像処理を施すようにして、シャッタボタンが操作されたときに、撮像素子全体から得られた画像データに対して画像処理を施すようにしてもよい。
Further, in the above-described processing, the
これにより、シャッタボタンが操作されるまでの画像処理部433の処理の負荷を低減させることができる。
Thereby, it is possible to reduce the processing load of the
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図35は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 35 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903 are connected to each other by a
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The program executed by the computer (CPU 901) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
11 デジタルカメラ, 31 メインレンズ, 32 サブレンズ, 51 撮像部, 52 歪補正部, 53 光軸補正部, 54 画像処理部, 55 撮像部, 56 画像処理部, 57 合成部, 58 表示部, 121 デジタルカメラ, 151 物体検出部, 152 画像処理部, 153 合成部, 221 デジタルカメラ, 251 構図解析部, 252 推奨構図抽出部, 253 画像処理部, 254 合成部
DESCRIPTION OF
Claims (9)
前記第2の画像中の動きのある物体を検出する物体検出手段と、
前記第1の画質調整手段によって明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像に、前記第1の画像および前記第2の画像の被写体の位置が一致するように、前記第1の画像、および前記物体検出手段によって検出された前記第2の画像中の前記物体の領域の物体画像を合成する合成手段と
を備える画像処理装置。 At least one of brightness, color strength, hue, and sharpness of the second image so that the image quality of the second image having a different angle of view from the first image is different from the image quality of the first image. First image quality adjusting means for adjusting any one of them;
Object detection means for detecting a moving object in the second image;
The subject of the first image and the second image is added to the second image in which at least one of brightness, color density, hue, and sharpness has been adjusted by the first image quality adjusting unit. An image processing apparatus comprising: a combining unit that combines the first image and an object image of the region of the object in the second image detected by the object detection unit so that the positions match.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising display means for displaying a synthesized image synthesized by the synthesizing means.
前記合成手段は、前記第2の画像に、前記被写体の位置が一致するように、前記第1の画像、および前記第2の画質調整手段によって明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像中の前記物体の領域の物体画像を合成する
請求項1または2に記載の画像処理装置。 The image quality of a region of the object in the previous SL object detecting means by said second detection by image, so as to vary the quality of the second image, the brightness of regions of the object in the second image A second image quality adjusting means for adjusting at least one of the image quality, the color density, the color shade, and the sharpness;
The synthesizing unit adjusts brightness, color strength, hue, and sharpness by the first image and the second image quality adjusting unit so that the position of the subject coincides with the second image. the image processing apparatus according to claim 1 or 2 at least one is synthesizing the object image region of the object in the adjusted second image.
前記構図解析手段によって解析された構図に基づいて、前記第1の画像の画角とは異なる画角の構図を前記第2の画像から抽出する構図抽出手段と
をさらに備え、
前記合成手段は、前記第2の画像に、前記被写体の位置が一致するように、前記第1の画像、および前記構図抽出手段に抽出された構図の抽出画像を合成する
請求項1に記載の画像処理装置。 Composition analysis means for analyzing the composition of the second image;
Composition extracting means for extracting, from the second image, a composition having an angle of view different from the angle of view of the first image based on the composition analyzed by the composition analyzing means;
The composition means synthesizes the first image and an extracted image of the composition extracted by the composition extraction means so that the position of the subject coincides with the second image. Image processing device.
請求項1に記載の画像処理装置。 The first image quality adjusting unit lowers the luminance, saturation, or brightness of the second image so that the image quality of the second image is lower than the image quality of the first image. Image processing device.
請求項1に記載の画像処理装置。 Adjusting at least one of brightness, color density, hue, and sharpness of the first image so that the image quality of the first image is different from the image quality of the second image; The image processing apparatus according to claim 1, further comprising: 2 image quality adjusting means.
請求項6に記載の画像処理装置。 The second image quality adjusting means, the image quality of the first image so as to increase than the quality of the second image, according to claim 6 to improve the luminance of the first image, saturation or brightness, Image processing device.
前記第2の画像中の動きのある物体を検出する物体検出ステップと、
前記画質調整ステップにおいて明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像に、前記第1の画像および前記第2の画像の被写体の位置が一致するように、前記第1の画像、および前記物体検出ステップにおいて検出された前記第2の画像中の前記物体の領域の物体画像を合成する合成ステップと
を含む画像処理方法。 At least one of brightness, color strength, hue, and sharpness of the second image so that the image quality of the second image having a different angle of view from the first image is different from the image quality of the first image. An image quality adjustment step for adjusting any one of them,
An object detection step of detecting a moving object in the second image;
The position of the subject of the first image and the second image coincides with the second image in which at least one of brightness, color density, hue, and sharpness has been adjusted in the image quality adjustment step. And a synthesis step of synthesizing the first image and an object image of the region of the object in the second image detected in the object detection step .
前記第2の画像中の動きのある物体を検出する物体検出ステップと、
前記画質調整ステップにおいて明るさ、色の濃さ、色合い、およびシャープネスの少なくともいずれか1つが調整された前記第2の画像に、前記第1の画像および前記第2の画像の被写体の位置が一致するように、前記第1の画像、および前記物体検出ステップにおいて検出された前記第2の画像中の前記物体の領域の物体画像を合成する合成ステップと
を含む処理をコンピュータに実行させるプログラム。 At least one of brightness, color strength, hue, and sharpness of the second image so that the image quality of the second image having a different angle of view from the first image is different from the image quality of the first image. An image quality adjustment step for adjusting any one of them,
An object detection step of detecting a moving object in the second image;
The position of the subject of the first image and the second image coincides with the second image in which at least one of brightness, color density, hue, and sharpness has been adjusted in the image quality adjustment step. As described above, a program that causes a computer to execute a process including the first image and a synthesis step of synthesizing an object image of the region of the object in the second image detected in the object detection step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014027803A JP5733588B2 (en) | 2008-09-08 | 2014-02-17 | Image processing apparatus and method, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008229308 | 2008-09-08 | ||
JP2008229308 | 2008-09-08 | ||
JP2014027803A JP5733588B2 (en) | 2008-09-08 | 2014-02-17 | Image processing apparatus and method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013089349A Division JP5527639B2 (en) | 2008-09-08 | 2013-04-22 | Imaging apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014132771A JP2014132771A (en) | 2014-07-17 |
JP5733588B2 true JP5733588B2 (en) | 2015-06-10 |
Family
ID=49046663
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013089349A Active JP5527639B2 (en) | 2008-09-08 | 2013-04-22 | Imaging apparatus and method, and program |
JP2014027803A Active JP5733588B2 (en) | 2008-09-08 | 2014-02-17 | Image processing apparatus and method, and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013089349A Active JP5527639B2 (en) | 2008-09-08 | 2013-04-22 | Imaging apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP5527639B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102144394B1 (en) * | 2013-08-20 | 2020-08-13 | 한화테크윈 주식회사 | Apparatus and method for alignment of images |
JP7062386B2 (en) * | 2017-08-04 | 2022-05-06 | 株式会社カーメイト | Camera and shooting system and image processing method |
JP2021021573A (en) * | 2019-07-24 | 2021-02-18 | 株式会社島津製作所 | Imaging device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004023747A (en) * | 2002-06-20 | 2004-01-22 | Minolta Co Ltd | Electronic camera |
JP2005303694A (en) * | 2004-04-13 | 2005-10-27 | Konica Minolta Holdings Inc | Compound eye imaging device |
JP2006309661A (en) * | 2005-05-02 | 2006-11-09 | Fuji Photo Film Co Ltd | Image reproducing apparatus and image reproducing program |
JP4650297B2 (en) * | 2006-02-23 | 2011-03-16 | セイコーエプソン株式会社 | Camera, camera control method, program, and recording medium |
JP5319078B2 (en) * | 2006-07-07 | 2013-10-16 | オリンパスイメージング株式会社 | Camera, camera image processing method, program, and recording medium |
-
2013
- 2013-04-22 JP JP2013089349A patent/JP5527639B2/en active Active
-
2014
- 2014-02-17 JP JP2014027803A patent/JP5733588B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013149285A (en) | 2013-08-01 |
JP2014132771A (en) | 2014-07-17 |
JP5527639B2 (en) | 2014-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5413002B2 (en) | Imaging apparatus and method, and program | |
US8363131B2 (en) | Apparatus and method for local contrast enhanced tone mapping | |
JP5183297B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US7990429B2 (en) | Imaging device with blur enhancement | |
JP4668956B2 (en) | Image processing apparatus and method, and program | |
JP4947136B2 (en) | Image processing apparatus, image processing method, and program | |
US20100225785A1 (en) | Image processor and recording medium | |
JP2005141527A (en) | Image processing apparatus, image processing method and computer program | |
US9684988B2 (en) | Imaging device, image processing method, and recording medium | |
GB2485036A (en) | Preventing subject occlusion in a dual lens camera PIP display | |
US20100073546A1 (en) | Image Processing Device And Electric Apparatus | |
KR20150081153A (en) | Apparatus and method for processing image, and computer-readable recording medium | |
JP5504990B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP5733588B2 (en) | Image processing apparatus and method, and program | |
CN111698389A (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP2012235390A (en) | Image processing apparatus, control method of the same and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP5160655B2 (en) | Image processing apparatus and method, and program | |
JP2010154390A (en) | Imaging device, imaging method, and program | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP5131399B2 (en) | Image processing apparatus, image processing method, and program | |
JP5212451B2 (en) | Region specifying method, region specifying device, program, server, and system | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP6881646B2 (en) | Image processing system, imaging device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5733588 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |