JP5261922B2 - Image processing method, image processing program, and digital camera - Google Patents
Image processing method, image processing program, and digital camera Download PDFInfo
- Publication number
- JP5261922B2 JP5261922B2 JP2006317390A JP2006317390A JP5261922B2 JP 5261922 B2 JP5261922 B2 JP 5261922B2 JP 2006317390 A JP2006317390 A JP 2006317390A JP 2006317390 A JP2006317390 A JP 2006317390A JP 5261922 B2 JP5261922 B2 JP 5261922B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- illumination
- color component
- color
- flash
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 22
- 238000005286 illumination Methods 0.000 claims abstract description 167
- 238000006243 chemical reaction Methods 0.000 claims description 47
- 230000003595 spectral effect Effects 0.000 claims description 12
- 230000000694 effects Effects 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 26
- 239000011159 matrix material Substances 0.000 description 24
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 15
- 230000004044 response Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000035945 sensitivity Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 230000004907 flux Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 101100077717 Mus musculus Morn2 gene Proteins 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005375 photometry Methods 0.000 description 2
- 101100175003 Oryza sativa subsp. japonica RGB1 gene Proteins 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、照明手段により照明された被写体の画像を適切に補正する画像処理方法、画像処理プログラム、デジタルカメラに関する。
The present invention relates to an image processing method, an image processing program, and a digital camera that appropriately correct an image of a subject illuminated by illumination means.
ストロボなど人工照明を用いたフラッシュ撮影をした場合、実際に撮影者が見ている被写体に当っている照明と異なる光源で照明された画像が撮影される為、撮影者が見ている色とは異なる色で再現される。例えば、暗い室内でフラッシュ光撮影をした場合、背景に比べフラッシュ光による光量の方が強い為、フラッシュ光に支配的な色に再現される。 When shooting with flash using artificial lighting such as a strobe, an image illuminated with a light source that is different from the illumination that is actually hitting the subject that the photographer is looking at is taken. Reproduced in different colors. For example, when a flash light is photographed in a dark room, the amount of light by the flash light is stronger than the background, so that the color dominant in the flash light is reproduced.
例えば室内の照明が白熱電球の場合、色温度は約2800K程度であり、一方フラッシュ光の色温度は5500Kと高い。従って、撮影者に見えている光源はやや赤みを帯びた白熱電球色で照明された被写体であるのに、実際に撮影された画像では、フラッシュ光の当った主要被写体(人物等)は撮影者が実際に見ていた画像より青白い画像に再現される。 For example, when the indoor lighting is an incandescent lamp, the color temperature is about 2800K, while the color temperature of the flash light is as high as 5500K. Therefore, the light source visible to the photographer is a subject illuminated with a slightly reddish incandescent bulb color, but in the actually photographed image, the main subject (person, etc.) that is exposed to the flash light is the photographer. Is reproduced in a paler image than the image actually viewed.
一方、フラッシュ光を使わずに撮影した場合は、白熱電球の色温度を反映して、暖かみの残るやや赤みの残った色に仕上がる。後者の暖かみのある写真の方が一般的に好まれ、暗くてぶれやすいと言う欠点が有るにも関わらずフラッシュ光を使用せずに撮影したり、ノイズを犠牲にしてフラッシュ光を使用せずISO感度を上げて撮影したりするユーザーもいる。従ってフラッシュ光を使用しても、フラッシュ光を使用しなかった場合と近い色再現への要望が強い。 On the other hand, when shooting without using flash light, the color temperature of the incandescent light bulb is reflected, resulting in a slightly reddish color. The latter warm photo is generally preferred, and it has the disadvantage of being dark and prone to blur, so you can shoot without using flash light, or use flash light at the expense of noise Some users shoot with increased ISO sensitivity. Therefore, even if flash light is used, there is a strong demand for color reproduction that is close to the case where flash light is not used.
この様に撮影に使用した照明と異なる照明下の画像の再現方法として、フラッシュ光を使用した画像と使用しない画像の2枚の画像を連続して撮影し、フラッシュ発光有無の2枚の画像を用いて補正する方法も提案されている(特許文献1)。この特許文献1によれば、フラッシュ発光有無の画像の差分をフラッシュ光のみによる照明画像として作成し、差分画像に色変換補正を行った後、フラッシュ無しの画像と合成して、所望の照明光で照明した画像を生成する。
In this way, as a method of reproducing an image under illumination different from the illumination used for shooting, two images, an image using flash light and an image not using it, are taken in succession, and two images with and without flash emission are taken. There has also been proposed a correction method using this method (Patent Document 1). According to this
しかし、2枚の連続した画像を撮影した場合、どんなに短時間に連写を行っても、撮影者自身の手ぶれや被写体の動きによって、画像にぶれが生じる為、ぶれ補正を行う必要があった。また、背景光の中に点滅している光源が存在していたり、蛍光灯の様に背景光がある周波数でちらついていたりする場合には、連写した画像の差分が必ずしもフラッシュ発光による成分だけとは限らず、補正を間違える可能性もあった。更に、必ずフラッシュ発光有無の2枚の画像を必要とする為、2枚撮影を行っていない画像に付いては補正が出来ないと言う問題も有った。 However, when two consecutive images were taken, no matter how short the continuous shooting was, the image was shaken due to the camera shake of the photographer himself or the movement of the subject. . Also, if there is a flashing light source in the background light, or if the background light flickers at a certain frequency, such as a fluorescent lamp, the difference between the continuous shot images is not necessarily the component due to the flash emission. However, there was a possibility that the correction was wrong. Furthermore, since two images with and without flash emission are necessary, there is a problem that correction cannot be performed for an image that has not been shot.
請求項1の発明は、デジタルカメラにおける画像処理方法であって、被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、前記第2の画像の白の色成分と前記第1の画像の白の色成分との比によって、前記第1の画像の各画素の色成分を前記周囲照明手段により照明された色成分に変換することを特徴とする。
請求項2の発明は、デジタルカメラにおける画像処理方法であって、被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、前記第2の画像の白の色成分と前記第1の画像の白の色成分との比によって、前記第1の画像の各画素の色成分を、前記フラッシュ照明手段による照明と前記周囲照明手段による照明との混合照明で照明された色成分に変換することを特徴とする。
請求項3の発明は、デジタルカメラにおける画像処理方法であって、被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、前記画像を撮像した撮像素子の分光特性に対応する色空間から所定の色空間に変換し、前記第2の画像の照明下の白の色成分と前記第1の画像の照明下の白の色成分との比によって、前記第1の画像の各画素の色成分を前記周囲照明手段により照明された色成分に変換することを特徴とする。
請求項4の発明は、デジタルカメラにおける画像処理方法であって、被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、前記画像を撮像した撮像素子の分光特性に対応する色空間から所定の色空間に変換し、前記第2の画像の照明下の白の色成分と前記第1の画像の照明下の白の色成分との比によって、前記第1の画像の各画素の色成分を、前記フラッシュ照明手段による照明と前記周囲照明手段による照明との混合照明で照明された色成分に変換することを特徴とする。
The invention of
The invention of
According to a third aspect of the present invention, there is provided an image processing method in a digital camera, wherein an image captured by illuminating a subject with flash illumination means for illuminating the subject and ambient illumination means for illuminating the subject from the periphery is acquired, and the acquired image is acquired. Based on the image, at least two of the first image that is the main subject that is mainly illuminated by the flash illumination means and the second image that is not the main subject that is mainly illuminated by the ambient illumination means. An image pickup device that divides the image into two or more images, obtains at least a color component by the flash illumination unit of the first image and a color component by at least the ambient illumination unit of the second image, and captures the image A color space corresponding to the spectral characteristic is converted into a predetermined color space, and a white color component under illumination of the second image and a white color component under illumination of the first image By, and converting the color component of each pixel of the first image to the color component that has been illuminated by the ambient lighting means.
According to a fourth aspect of the present invention, there is provided an image processing method for a digital camera, wherein an image captured by illuminating a subject with flash illumination means for flashing the subject and ambient illumination means for illuminating the subject from the periphery is acquired, and the acquired image is acquired. Based on the image, at least two of the first image that is the main subject that is mainly illuminated by the flash illumination means and the second image that is not the main subject that is mainly illuminated by the ambient illumination means. An image pickup device that divides the image into two or more images, obtains at least a color component by the flash illumination unit of the first image and a color component by at least the ambient illumination unit of the second image, and captures the image A color space corresponding to the spectral characteristic is converted into a predetermined color space, and a white color component under illumination of the second image and a white color component under illumination of the first image Accordingly, the color components of each pixel of the first image, and converting the color component which is illuminated with a mixed illumination with illumination by the ambient lighting means and illumination by the flash illumination means.
本発明は、以上説明した様な構成をしているので、照明手段により照明された被写体の1枚の画像を用いて、その照明手段の照明の影響を適宜補正することができる。 Since the present invention is configured as described above, it is possible to appropriately correct the influence of illumination of the illumination means using one image of the subject illuminated by the illumination means.
−第1の実施の形態−
図1は、本発明の一実施の形態であるデジタルカメラ100の構成を示す図である。デジタルカメラ100は、撮影レンズ102、CCDなどからなる撮像素子103、CPUおよび周辺回路からなる制御装置104、メモリ105、レンズ駆動部106、フラッシュユニット(ストロボ)107、測光部108などから構成される。
-First embodiment-
FIG. 1 is a diagram showing a configuration of a
撮像素子103は、被写体101を撮影レンズ102を介して撮影(撮像)し、撮影した画像データを制御装置104へ出力する。制御装置104は、撮像素子103で撮影された画像データに対して以下で説明する画像処理を行い、画像処理後の画像データを適宜メモリ105に格納する。また、制御装置104は、レンズ駆動部106を介して撮影レンズ102を駆動し、被写体までの測距データを取得する。さらに、制御装置104は、測光部108を介して被写体輝度なの測光データを取得する。さらにまた、制御装置104は、フラッシュユニット107を駆動してフラッシュ(閃光照明、ストロボ)撮影を行う。なお、制御装置104が実行する画像処理プログラムは、不図示のROMに格納されている。
The
本実施の形態のデジタルカメラ100では、撮像素子103により撮影(撮像)された画像(具体的には画像データ)に対して、フラッシュ撮影を行った場合でも、フラッシュを使用しなかったような趣のある状態の画像に適切に補正がなされる。
In the
具体的には、画像をフラッシュにより照明される主要被写体領域とフラッシュが届きにくい背景領域とに分割し、それぞれの領域で照明に関する情報、すなわち照明光源を推定する。このようにして推定した各領域の照明光源に基づき、フラッシュ照明が支配的な主要被写体領域を、背景領域の照明光源により照明されたように色変換処理をする。 Specifically, the image is divided into a main subject area illuminated by a flash and a background area where the flash is difficult to reach, and information regarding illumination, that is, an illumination light source is estimated in each area. Based on the illumination light source of each area estimated in this way, the color conversion processing is performed so that the main subject area where the flash illumination is dominant is illuminated by the illumination light source of the background area.
図2は、本実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムのフローチャートを示す図である。
FIG. 2 is a diagram illustrating a flowchart of an image processing program executed by the
ステップS1では、フラッシュユニット107を使用して撮影した画像を補正対象画像として読み込み、ステップS2に進む。
In step S1, an image photographed using the
ステップS2では、撮影画像を複数の領域に分割する。ステップS3では、カメラの測距機能を用いて、分割した各領域の代表点(例えば中心)までの距離を算出する。領域分割は、簡単には図3の様にブロックで分割しても良いが、エッジ抽出を行った結果を用いて任意の形状に分割してもよい。例えば図4の様な構図では、被写体A、被写体Bとその他背景と言う様に、被写体毎に分割する方が望ましい。 In step S2, the captured image is divided into a plurality of regions. In step S3, the distance to the representative point (for example, the center) of each divided area is calculated using the distance measuring function of the camera. The area division may be simply divided into blocks as shown in FIG. 3, but may be divided into arbitrary shapes using the result of edge extraction. For example, in the composition as shown in FIG. 4, it is desirable to divide each subject, such as subject A, subject B and other backgrounds.
次に、ステップS4では、主要被写体を認識する。主要被写体としては、ピントがあっている領域で、先のステップS3で算出した距離が近い、若しくは各領域内の平均輝度が高いなどの条件を基に領域を主要被写体の領域として認識する。図4の画像例では最も距離の近い人物A(図3の例では領域13、18、23)にピントが有っており、人物Aを主要被写体と判断する。
Next, in step S4, the main subject is recognized. As the main subject, the region is recognized as the main subject region based on conditions such as the focused region, the distance calculated in the previous step S3 is short, or the average luminance in each region is high. In the image example of FIG. 4, the person A closest to the distance (the
次に、ステップS5では、フラッシュユニット107を使用しない場合にカメラで計算される適正露出条件(ISO感度S1、FナンバーF1、シャッター速度T1)と、フラッシュユニット107を使用したときにカメラで計算される適正露出条件(ISO感度S2、FナンバーF2、シャッター速度T2)から、フラッシュユニット107使用時の主要被写体(ストロボ光と周囲照明光の混合照明下)の明るさL2と、ストロボ未使用時の主要被写体(周囲照明下)の明るさL1を次式より算出する。但しKは定数。なお、上記適正露出条件とは、主要被写体を撮影するための適正露出条件である。また、適正露出条件は、測光部108で測光される測光データに基づいて算出される。
図5は、フラッシュユニット107を使用しない場合と使用した場合の露出条件とそれぞれの被写体の明るさの関係を示す表である。
FIG. 5 is a table showing the relationship between the exposure conditions when the
ステップS6では、フラッシュ光のみによる被写体Aの明るさを次式より算出する。
ステップS7では、フラッシュ光の影響が最も弱いと推定される領域(被写体B)を選択する。領域分割が主要被写体とそれ以外の2分割の場合は、被写体A以外を選択することになるが、領域を3つ以上に分割している場合は、各領域までの距離が長い、画像面内に於ける光軸から被写体までの距離(像高)が長い、平均輝度が低いなどを条件として決定し、ステップS8に進む。 In step S7, a region (subject B) that is estimated to be the least affected by the flash light is selected. When the area is divided into the main subject and the other two parts, the area other than the object A is selected. However, when the area is divided into three or more areas, the distance to each area is long, and the image area is long. In this case, the distance from the optical axis to the subject (image height) is long, the average luminance is low, etc., and the process proceeds to step S8.
次にステップS8では、フラッシュユニット107から光軸上の距離aにいる被写体Aに対し、フラッシュユニット107から光軸上の距離bにいる被写体Bのフラッシュユニット107による明るさLb(単位面積辺りに入射する光線束)を、以下の手順で算出する。図6は、この算出を説明する図である。デジタルカメラ100およびフラッシュユニット107を主要被写体Aに向けて撮影している場合、フラッシュユニット107と主要被写体のなす角度はほぼ垂直と考えられるが、背景にいる被写体Bはフラッシュユニット107に対して角度θをなしている場合を考える。撮影レンズが、距離aの被写体に合焦しており、焦点距離がfの時、撮像面で像高yにある被写体が光軸となす角θ’は、次式で求められる。
正確には光軸とフラッシュユニット107の位置がずれているのでその距離を考慮しても良いが、被写体までの距離が光軸とフラッシュユニット107のずれに対して長ければθ≒θ’と考えられる。また歪曲収差の影響が大きい場合は、歪曲収差を考慮して算出する。
To be precise, the optical axis and the position of the
次に、図6を参考に、被写体Bに於けるフラッシュ光による明るさを算出する。フラッシュユニット107の単位面積dAから角度θの方向に立体角Ωで放射する光束dφ'は、輝度Bとして
一方、周囲照明による明るさはL1とほぼ等しい。従って、フラッシュ有りで撮影した画像中の被写体A, Bに於ける周囲照明とフラッシュによる明るさは、図7の様に表される。 On the other hand, brightness of ambient lighting is substantially equal to L 1. Accordingly, the ambient illumination and the brightness by the flash in the subjects A and B in the image taken with the flash are expressed as shown in FIG.
次にステップS9では、通常のオートホワイトバランス(AWB)の方法で、フラッシュ有りで撮影した画像中の主要被写体Aと背景の被写体Bの照明光源を推定する。主要被写体Aを照明している光源下の白に対するホワイトバランス前のカメラRGBの応答を(Rwa,Gwa,Bwa)とする。背景被写体Bを照明している光源下の白に対するホワイトバランス前のカメラRGBの応答を(Rwb,Gwb,Bwb)とする。 Next, in step S9, the illumination light sources of the main subject A and the background subject B in the image taken with the flash are estimated by a normal auto white balance (AWB) method. The response of the camera RGB before white balance to white under the light source illuminating the main subject A is (R wa , G wa , B wa ). The response of the camera RGB before white balance to white under the light source illuminating the background subject B is (R wb , G wb , B wb ).
ステップS10では、ステップS9で算出した夫々の領域の照明光源に対する白の応答と、ステップS5、S6で算出した周囲照明とフラッシュ光による照明の夫々の領域に於ける寄与分から、周囲照明に対する白の応答(Rws,Gws,Bws)を次のようにして算出する。 In step S10, the white response to the illumination light source in each region calculated in step S9 and the contribution of the ambient illumination and the illumination by the flash light in each region calculated in steps S5 and S6, The response (R ws , G ws , B ws ) is calculated as follows.
(Rwa,Gwa,Bwa)、(Rwb,Gwb,Bwb)は、(Rws,Gws,Bws)及びフラッシュ光照明のみによる白の応答(Rwf,Gwf,Bwf)を用いて以下の様に表すことができる。
この2式からRwfを消去してRwsを求めると次式のようになる。
ステップS11では、距離aにいる被写体Aの各画素の色成分(Ra,Ga,Ba)を、周囲照明のみで照明された場合の色に変換するマトリックスを算出する(次式参照)。ステップS12では、ステップS11で求めたマトリックスを使用して、次式により被写体Aの各画素について色変換を行う。
ステップS13では、上記色変換を領域内全画素について行ったかどうかを判断する。行っていない場合はステップS12に戻り処理を繰り返し、行った場合はステップS14に進む。ステップS14では、全ての領域について変換処理が完了したかどうかを判断する。完了していないと判断する場合は、ステップS15に進み、完了していると判断する場合は処理を終了する。終了時、色変換後の画像を出力する。 In step S13, it is determined whether the color conversion has been performed for all the pixels in the area. If not, the process returns to step S12 and the process is repeated. If it is performed, the process proceeds to step S14. In step S14, it is determined whether or not conversion processing has been completed for all regions. If it is determined that it has not been completed, the process proceeds to step S15. If it is determined that it has been completed, the process ends. At the end, output the image after color conversion.
ステップS15では、色変換を行っていない領域k(Nを画像領域分割数として、k=0,1,…,N-1)について同様に、その領域の照明光源に対する白の応答(Rwk,Gwk,Bwk)を算出する。次に、ステップS11に戻り処理を繰り返す。領域kの色変換は、上式と同様に、(Rws,Gws,Bws)との比を対角成分に持つ以下のマトリックスで色変換する。
以上のように構成された第1の実施の形態のデジタルカメラ100では、次のような作用効果を奏する。
(1)主要被写体に対してフラッシュ撮影をして撮像した1枚の画像において、フラッシュ光が支配的な主要被写体領域とフラッシュ光が届かない周囲照明が支配的な背景被写体領域とに分割し、各領域の照明光源(照明に対する白の応答)を推定しているので、主要被写体領域の色を、フラッシュ光照明を使用しなかった色合いの画像、すなわち周囲照明により照明された色の画像に簡単に補正(変換)することができる。
The
(1) In one image captured by flash shooting of a main subject, the main subject region is divided into a main subject region in which flash light is dominant and a background subject region in which ambient illumination is uncontrollable. Since the illumination light source (white response to illumination) is estimated for each area, the color of the main subject area can be easily changed to an image of a shade that does not use flash light illumination, that is, an image illuminated by ambient illumination. Can be corrected (converted).
(2)カメラの測距機能を使用して領域分割を行っているので、画像の分割のために新たな機能を追加する必要が無い。 (2) Since the area is divided using the distance measuring function of the camera, it is not necessary to add a new function for dividing the image.
(3)背景被写体領域の照明下の白の色成分と主要被写体領域の照明下の白の色成分との比によって、主要被写体領域の各画素の色成分を変換しているので、簡単な処理で適切に背景被写体領域の照明下の色に変換することができる。 (3) Since the color component of each pixel in the main subject region is converted by the ratio of the white color component under illumination of the background subject region and the white color component under illumination of the main subject region, simple processing is performed. Can be appropriately converted to a color under illumination of the background subject area.
(第1の実施の形態の変形例1)
使用したレンズがレンズの焦点距離fに対し、そのレンズの最短撮影距離aminは、f≪amin(≦a)であり、又、広角レンズではない画像の場合、即ち、式(3)に於いて最大像高ymaxが、(1/f-1/a)-1≫ymaxとなる場合、θ≒θ'≒0とみなすことができる。この場合、cosθ≒1と近似でき、式(12)の計算を以下の様に簡略化できる。
When the lens used is the focal length f of the lens, the shortest shooting distance a min of the lens is f << a min (≦ a), and in the case of an image that is not a wide-angle lens, that is, in Equation (3) maximum image height y max at that, can be regarded as (1 / f-1 / a ) If the -1 »y max, θ ≒ θ ' ≒ 0. In this case, it can be approximated as cos θ≈1, and the calculation of equation (12) can be simplified as follows.
(第1の実施の形態の変形例2)
図8は、第1の実施の形態の変形例2のデジタルカメラ100の制御装置104が実行する画像処理プログラムのフローチャートを示す図である。被写体Bまでの距離が被写体Aまでの距離より遥かに遠い場合(b≫a)や背景照明輝度がフラッシュ光照射時の輝度に対して十分低い場合(L1≫L2)、式(12)は
FIG. 8 is a diagram illustrating a flowchart of an image processing program executed by the
(第1の実施の形態の変形例3)
上記では、周囲照明のみで照明された場合の色に変換する例を示した。しかし、周囲照明とフラッシュ照明を適度にミックスした照明で照明されたとして色変換することも可能である。この場合、周囲照明による白の応答を(Rws,Gws,Bws)、フラッシュのみによる白の応答を(Rwf,Gwf,Bwf)とすると、次式のようにして求めることができる。mは、0-1の範囲で任意に設定することができる。
Rw,mix=m*Rwf+(1-m)Rws
Gw,mix=m*Gwf+(1-m)Gws
Bw,mix=m*Bwf+(1-m)Bws
In the above, the example which converts into the color at the time of illuminating only with ambient illumination was shown. However, it is also possible to perform color conversion assuming that illumination is performed by appropriately mixing ambient illumination and flash illumination. In this case, if the white response due to ambient lighting is (R ws , G ws , B ws ) and the white response due only to the flash is (R wf , G wf , B wf ), it can be obtained as follows: it can. m can be arbitrarily set within the range of 0-1.
R w, mix = m * R wf + (1-m) R ws
G w, mix = m * G wf + (1-m) G ws
B w, mix = m * B wf + (1-m) B ws
被写体Bの場合も同様である。このようにすることにより、任意な作風を可能とすることができる。上記において、m=0の場合は周囲照明のみとなり、m=1の場合はフラッシュ照明のみとなり、0<m<1の場合はフラッシュ照明と周囲照明の混合照明となる。 The same applies to the subject B. By doing in this way, arbitrary styles can be made possible. In the above, when m = 0, only ambient illumination is provided, when m = 1, only flash illumination is provided, and when 0 <m <1, mixed illumination of flash illumination and ambient illumination is provided.
−第2の実施の形態−
第1の実施の形態では、分割した領域を距離により特徴づけて色変換を行ったが、第2の実施の形態では、各領域内の平均輝度から推定する。輝度のヒストグラムを取ると、フラッシュが当った領域は全体的に平均輝度が高く、フラッシュが当らなかった背景領域は光量不足の為平均輝度が低く、領域内の平均輝度から照明光源の違いを推定することが可能である。
-Second Embodiment-
In the first embodiment, color conversion is performed by characterizing the divided areas according to the distance, but in the second embodiment, the area is estimated from the average luminance in each area. Taking a histogram of brightness, the average brightness is high overall in the area hit by the flash, and the average brightness is low in the background area not hit by the flash due to insufficient light. The difference in illumination light source is estimated from the average brightness in the area. Is possible.
各画素の輝度だけで判定すると、被写体の反射率が元々低い場合と、照明輝度が低い場合の判定が難しいので、輝度で判定する場合には領域分割を大きめに行い、その領域内の平均輝度で判定する方が望ましい。また領域分割の輝度の閾値は、輝度ヒストグラムを取り、その谷の輝度値を閾値Y0に設定する(図10)。各領域の平均輝度>Y0の領域を被写体Aとし、それ以外の領域を背景の被写体Bとする。後の処理は第1の実施の形態と同様に処理する。 If only the luminance of each pixel is determined, it is difficult to determine when the reflectance of the subject is originally low or when the illumination luminance is low. Therefore, when determining by luminance, the area is divided into large areas, and the average luminance within that area is determined. It is preferable to make a judgment with In addition, a luminance histogram is taken as the luminance threshold of the region division, and the luminance value of the valley is set to the threshold Y 0 (FIG. 10). A region where the average luminance of each region is> Y 0 is a subject A, and the other region is a background subject B. Subsequent processing processes as in the first embodiment.
第2の実施の形態のデジタルカメラは、第1の実施の形態のデジタルカメラ100と同様であるので、第1の実施の形態の図1を参照することとし、その説明を省略する。図9は、本実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムのフローチャートを示す図である。第1の実施の形態の図2のフローと同様なステップには同一ステップ番号を付している。
Since the digital camera of the second embodiment is the same as the
ステップS1では、フラッシュユニット107を使用して撮影した画像を補正対象画像として読み込む。ステップS31では、各画素の輝度分布ヒストグラムを作成する。図10は、取得した画像の輝度分布ヒストグラムの一例を示す図である。ステップS32では、輝度閾値Y0を決定する。輝度閾値Y0は、前述した通り、輝度分布の谷の輝度値を輝度閾値Y0に設定する。
In step S1, an image photographed using the
ステップS33では、画像を複数の領域に分割する。ここでの分割は、画像を機械的に所定の画素範囲ごとに分割する。ステップS34では、分割した各領域の平均輝度Ymを算出する。次に、ステップS35〜S38で、ステップS33で分割した各領域を被写体Aの領域(領域A)と被写体Bの領域(領域B)に分割する。 In step S33, the image is divided into a plurality of regions. In this division, the image is mechanically divided into predetermined pixel ranges. In step S34, it calculates the average luminance Y m of each region divided. Next, in steps S35 to S38, the areas divided in step S33 are divided into a subject A area (area A) and a subject B area (area B).
先ず、ステップS35では、分割されたある1つの領域の平均輝度Ymが、輝度閾値Y0より大きいかどうかを判定する。大きいと判定された場合はステップS36に進み、その領域は被写体Aに分類され、大きくないと判定されるとステップS37に進み、その領域は被写体Bに分類される。ステップS38では、すべての領域について判定が完了したかどうかを判断し、まだ完了していない場合はステップS35に戻り、順次次の領域を選択して処理を繰り返す。 First, in step S35, the average luminance Y m of the divided one certain regions are, if greater than the brightness threshold value Y 0 is determined. If it is determined that the area is large, the process proceeds to step S36, and the area is classified as subject A. If it is determined that the area is not large, the process proceeds to step S37, and the area is classified as subject B. In step S38, it is determined whether or not the determination has been completed for all the areas. If the determination has not been completed, the process returns to step S35, and the next area is sequentially selected and the process is repeated.
すべての領域の判定が完了した場合は、被写体A,Bの分割が完了しステップS9に進む。ステップS9以降の処理は、第1の実施の形態の変形例2の図8と同様であるので説明を省略する。
When the determination of all the areas is completed, the division of the subjects A and B is completed and the process proceeds to step S9. Since the process after step S9 is the same as that of FIG. 8 of the
以上のように、撮像された画像を輝度により分割しても、第1の実施の形態と同様に、主要被写体領域の色を、フラッシュを使用しなかったような色合いの画像、すなわち周囲照明により照明された色の画像に簡単に補正(変換)することができる。 As described above, even when the captured image is divided by luminance, the color of the main subject region is changed by the image of the hue that does not use the flash, that is, the ambient illumination, as in the first embodiment. It can be easily corrected (converted) to an illuminated color image.
−第3の実施の形態−
第3の実施の形態のデジタルカメラは、第1の実施の形態のデジタルカメラ100と同様であるので、第1の実施の形態の図1を参照することとし、その説明を省略する。図11は、本実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムのフローチャートを示す図である。第1の実施の形態の図2のフローと同様なステップには同一ステップ番号を付している。
-Third embodiment-
Since the digital camera of the third embodiment is the same as the
第1、2の実施の形態では、カメラRGBに於ける白の応答の比で色変換を行ったが、第3の実施の形態では、カメラRGBから照明色変更に最適な色空間にて白の応答の比をとるマトリックスを作成する。 In the first and second embodiments, the color conversion is performed with the ratio of white response in the camera RGB. In the third embodiment, the white color is converted from the camera RGB to the optimum color space for changing the illumination color. Create a matrix that takes the response ratio of.
具体的には、予めカメラの分光感度から光源を変えた場合の色変換で最適な色空間を求めておく。この色空間への3×3の変換マトリックスをMとする。図11において、ステップS1〜S10は、第1の実施の形態と同様である。ステップS42では、変換マトリックスMを使用して、色変換マトリックスMを次のように算出する。 Specifically, an optimal color space is obtained in advance by color conversion when the light source is changed from the spectral sensitivity of the camera. Let M be the 3 × 3 conversion matrix to this color space. In FIG. 11, steps S1 to S10 are the same as those in the first embodiment. In step S42, using the conversion matrix M, the color conversion matrix M is calculated as follows.
ある領域の照明光源に対する白の応答が(Rwa,Gwa,Bwa)の照明下の各画素の色成分(Ra,Ga,Ba)から、白の応答が(Rws,Gws,Bws)で表される周囲照明下の各画素の色成分(Rs,Gs,Bs)への色変換は、式(19)の様に表される。
従って、ステップS42で求めるマトリックスM’は、
ステップS43では、
次に、変換マトリックスMの決定方法を図12に従って説明する。照明Xの照明下で多数の色票(N色)を撮影して得られた色成分データ(Rai,Gai,Bai)(i=0,1,...,N-1)を用意し(ステップS101)、照明Xとは別の照明Y下で同じ色票を照明以外同じ撮影条件で撮影して得られた色成分データ(Rsi',Gsi',Bsi')(i=0,1,...,N-1)を用意する(ステップS102)。(Rai,Gai,Bai)(i=0,1,...,N-1)を式(24)で変換して得られる色成分データ(Rsi,Gsi,Bsi)(i=0,1,...,N-1) (ステップS103)、と(Rsi',Gsi',Bsi')(i=0,1,...,N-1)の色差(N色の平均)ΔEが最小になる様、Mの9個の成分を最適化する。
尚、ΔE の評価(ステップS108)は、(Rsi,Gsi,Bsi)および(Rsi',Gsi',Bsi')をXYZ空間に変換し(ステップS104、S105)、さらにCIE LAB空間に変換してから(ステップS106、S107)、行われる。MRGB→XYZはカメラの分光感度に依存した色空間から測色値XYZへの変換マトリックスで、予めカメラの分光感度から算出されているものである。また(Xws',Yws',Zws')は照明Yの白色点である。 Note that ΔE is evaluated (step S108) by converting (R si , G si , B si ) and (R si ′, G si ′, B si ′) to XYZ space (steps S104 and S105), and further CIE This is performed after conversion to the LAB space (steps S106 and S107). M RGB → XYZ is a conversion matrix from a color space depending on the spectral sensitivity of the camera to a colorimetric value XYZ, which is calculated in advance from the spectral sensitivity of the camera. Also, (X ws ', Y ws ', Z ws ') is the white point of the illumination Y.
以上のように構成された第3の実施の形態のデジタルカメラ100では、次のような作用効果を奏する。
(1)カメラの分光感度に依存した色空間から照明色変更に最適な色空間に変換してから処理を行うので、白以外の色も精度高く適切に色変換される。すなわち、主要被写体領域の色を、フラッシュを使用しなかったような色合いの画像、すなわち周囲照明により照明された色の画像に、簡単にしかも精度高く補正(変換)することができる。
The
(1) Since processing is performed after conversion from a color space depending on the spectral sensitivity of the camera to a color space optimal for changing the illumination color, colors other than white are also appropriately color-converted with high accuracy. In other words, the color of the main subject area can be corrected (converted) easily and with high accuracy into an image having a hue that does not use a flash, that is, an image illuminated by ambient illumination.
−第4の実施の形態−
第4の実施の形態のデジタルカメラは、第1の実施の形態のデジタルカメラ100と同様であるので、第1の実施の形態の図1を参照することとし、その説明を省略する。図13は、本実施の形態のデジタルカメラ100の制御装置104が実行する画像処理プログラムのフローチャートを示す図である。第1の実施の形態の図2のフローと同様なステップには同一ステップ番号を付している。
-Fourth embodiment-
Since the digital camera of the fourth embodiment is the same as the
第1〜3の実施の形態では、カメラの分光感度に依存した色空間、若しくは照明色変換に最適な色空間にて白の応答の比をとる処理を行っていた。第4の実施の形態では、白の応答の比を取るのではなく、異なる色温度の組み合わせ毎に、色温度1照明下のカメラの色成分データRGB1→色温度2照明下のカメラの色成分データRGB2への最適な色変換マトリックスMoptを想定される組み合わせについて複数記憶しておき、主要被写体の照明(フラッシュと背景照明の混合照明)、及び、背景照明の色温度を推定した後、照明条件に適切なマトリックスMoptを読み出して照明色変換を行う。
In the first to third embodiments, processing for obtaining a white response ratio is performed in a color space depending on the spectral sensitivity of the camera or a color space optimal for illumination color conversion. In the fourth embodiment, instead of taking the white response ratio, the color component data RGB1 of the camera under
各領域の照明色を変換したい場合は、主にフラッシュの影響の強い照明下の色から、背景照明として2500K〜10000Kの色温度の照明下の色に変換する場合を想定しておけばよい。そこで2500Kから10000Kまで500Kおきに3×3の変換マトリックスMoptの9つの係数を予め算出し、デジタルカメラ100などの画像処理装置内に記憶しておく。
In order to convert the illumination color of each region, it is only necessary to assume a case where the color under the illumination that is strongly influenced by the flash is converted into the color under the illumination with a color temperature of 2500K to 10000K as the background illumination. Therefore, nine coefficients of a 3 × 3 conversion matrix M opt are calculated in advance every 500 K from 2500 K to 10000 K, and stored in an image processing apparatus such as the
図13において、ステップS1〜S10は、第1の実施の形態と同様である。ステップS61では、記憶している複数の変換マトリックスMoptから適切な変換マトリックスMoptを選択して読み出す。適切な変換マトリックスMoptを選択する場合、ステップS9において推定したフラッシュ有りで撮影した画像中の主要被写体Aにおける照明光源の情報とステップS10において算出した周囲照明光源の情報を使用する。すなわち、これらの照明光源の色温度の組み合わせに相当する適切な変換マトリックスMoptをメモリから選択して読み出す。 In FIG. 13, steps S1 to S10 are the same as those in the first embodiment. In step S61, read out by selecting an appropriate transformation matrix M opt from a plurality of conversion matrices M opt for storing. When an appropriate conversion matrix M opt is selected, the information on the illumination light source in the main subject A in the image photographed with the flash estimated in step S9 and the information on the ambient illumination light source calculated in step S10 are used. That is, an appropriate conversion matrix M opt corresponding to the combination of the color temperatures of these illumination light sources is selected from the memory and read out.
背景照明の色温度が、予め変換データを記憶している色温度と一致する条件がない場合は、近い条件のデータから補間して撮影条件に適した3×3の変換マトリックスMoptを決定する。 If there is no condition in which the color temperature of the background illumination coincides with the color temperature in which the conversion data is stored in advance, a 3 × 3 conversion matrix M opt suitable for the shooting conditions is determined by interpolation from the data of the close condition. .
ステップS62では、読み出したマトリックスMopt、若しくは補間により求めたマトリックスMoptを用いて、次式に従って各画素の色変換を行う。
対象領域の全画素に付いて色変換が終了したら(ステップS13)、他の領域に付いても同様に照明色の推定を行い(ステップS15)、最適な変換マトリックスMoptを決定し(ステップS61)、色変換を行う(ステップS62)。画像中の全領域について色変換を終了したら(ステップS14)、変換結果の画像を出力して終了する。 When the color conversion is completed for all the pixels in the target area (step S13), the illumination color is similarly estimated for the other areas (step S15), and the optimum conversion matrix Mopt is determined (step S61). ), Color conversion is performed (step S62). When the color conversion is completed for all the areas in the image (step S14), the image of the conversion result is output and the process ends.
次に、予め作成しておく変換マトリックスMoptの決定方法を図14に従って説明する。照明Xの照明下で多数の色票(N色)を撮影して得られた色成分データ(Rai,Gai,Bai)(i=0,1,...,N-1)を用意し(ステップS201)、照明Xとは別の照明Y下で同じ色票を照明以外同じ撮影条件で撮影して得られた色成分データ(Rsi',Gsi',Bsi')(i=0,1,...,N-1)を用意する(ステップS202)。(Rai,Gai,Bai)(i=0,1,...,N-1)を式(28)で変換して得られる色成分データ(Rsi,Gsi,Bsi)(i=0,1,...,N-1) (ステップS203)と(Rsi',Gsi',Bsi')(i=0,1,...,N-1)の色差(N色の平均)ΔEが最小になる様、Moptの9個の成分を最適化する。 Next, a method for determining a conversion matrix M opt created in advance will be described with reference to FIG. Color component data (R ai , G ai , B ai ) (i = 0,1, ..., N-1) obtained by photographing a large number of color charts (N colors) under illumination X Prepared (step S201), and color component data (R si ', G si ', B si ') obtained by photographing the same color chart under the same illumination conditions other than illumination under illumination Y different from illumination X i = 0,1, ..., N-1) are prepared (step S202). (R ai , G ai , B ai ) (i = 0,1, ..., N-1) color component data (R si , G si , B si ) ( i = 0,1, ..., N-1) (Step S203) and (R si ', G si ', B si ') (i = 0,1, ..., N-1) color difference ( average of N color) such that ΔE is minimized, to optimize the nine components of M opt.
尚、ΔE の評価(ステップS208)は、第3の実施の形態と同様に、(Rsi,Gsi,Bsi)および(Rsi',Gsi',Bsi')をXYZ空間に変換し(ステップS204、S205)、さらにCIE LAB空間に変換してから(ステップS206、S207)、行われる。MRGB→XYZはカメラの分光感度に依存する色空間から測色値XYZへの変換マトリックスで、予めカメラの分光感度から算出されているものである。また(Xws',Yws',Zws')は照明Yの白色点である。 Note that ΔE is evaluated (step S208) by converting (R si , G si , B si ) and (R si ′, G si ′, B si ′) into XYZ space, as in the third embodiment. (Steps S204 and S205), and further converted into the CIE LAB space (Steps S206 and S207). M RGB → XYZ is a conversion matrix from the color space depending on the spectral sensitivity of the camera to the colorimetric values XYZ, and is calculated in advance from the spectral sensitivity of the camera. Also, (X ws ', Y ws ', Z ws ') is the white point of the illumination Y.
以上のように構成された第4の実施の形態のデジタルカメラ100では、次のような作用効果を奏する。
(1)予め複数の変換マトリックスMoptを作成しておくので、変換マトリックスを作成する処理が不要となり、処理が軽くなり迅速となる。
−その他の変形例−
尚、上記の例では、領域分割を被写体毎に分割しているが、図3の様にブロック分割している場合、ブロックの境界でブロック歪みを生じる。従って色変換の異なる領域の境界では、例えば100画素程度ずつを境界領域として、隣接する領域の色変換で算出される色成分と当該領域の色変換で算出される色成分を用いて補間することにより、色変換が滑らかに変化するよう補正する。
The
(1) Since a plurality of transformation matrices M opt are created in advance, the processing for creating the transformation matrix is not required, and the processing becomes lighter and quicker.
-Other variations-
In the above example, the area division is divided for each subject. However, when the block division is performed as shown in FIG. 3, block distortion occurs at the block boundary. Therefore, at the boundary between regions having different color conversions, for example, about 100 pixels are used as boundary regions, and interpolation is performed using color components calculated by color conversion of adjacent regions and color components calculated by color conversion of the regions. Accordingly, it corrected so that the color conversion changes smoothly.
また境界のみで複数の色変換の違いを補間するのではなく、各領域毎に代表点に於ける白色点を決定し、画像面内で2次元白色点分布関数を近似し色変換を行っても良い。 Also, instead of interpolating the difference between multiple color conversions only at the boundary, the white point at the representative point is determined for each region, and the color conversion is performed by approximating the two-dimensional white point distribution function within the image plane. Also good.
また、上記実施の形態では、デジタルカメラ100で処理する例を説明した。しかし、デジタルカメラ100で処理する上記説明したプログラムを、パーソナルコンピュータで処理させるようにしてもよい。この場合は、画像データファイルに、フラッシュユニットの発光の有無、各領域毎の測距データ、測光データ、焦点距離fなどの情報が含まれているものとする。
Further, in the above embodiment, an example in which processing is performed by the
図15は、パーソナルコンピュータで処理する場合を示す図である。パーソナルコンピュータ201は、デジタルカメラ202、CD−ROMなどの記録媒体203、他のコンピュータ204などと接続され、処理対象の画像データの提供を受ける。パーソナルコンピュータ201は、提供された画像データに対して、上記説明した画像処理を行う。コンピュータ204は、インターネットやその他の電気通信回線205を経由して接続される。
FIG. 15 is a diagram illustrating a case where processing is performed by a personal computer. A
パーソナルコンピュータ201が画像処理のために実行するプログラムは、CD−ROMなどの記録媒体や、インターネットやその他の電気通信回線を経由した他のコンピュータから提供され、パーソナルコンピュータ201内にインストールされる。パーソナルコンピュータ201は、CPU(不図示)およびその周辺回路(不図示)から構成され、CPUがインストールされたプログラムを実行する。
A program executed by the
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.
100 デジタルカメラ
101 被写体
102 撮影レンズ
103 撮像素子
104 制御装置
105 メモリ
106 レンズ駆動部
107 フラッシュユニット
DESCRIPTION OF
Claims (9)
被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、
前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、
前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、
前記第2の画像の白の色成分と前記第1の画像の白の色成分との比によって、前記第1の画像の各画素の色成分を前記周囲照明手段により照明された色成分に変換することを特徴とする画像処理方法。 An image processing method in a digital camera,
A flash illumination means for flashing the subject and an ambient illumination means for illuminating the subject from the periphery to obtain an image captured,
Based on the acquired image, a first image which is a main subject mainly illuminated by the flash illumination unit and a second image which is not the main subject mainly illuminated by the ambient illumination unit. Divided into at least two images of
Determining at least a color component by the flash illumination means of the first image and a color component by at least the ambient illumination means of the second image;
Converting said by the ratio of white color component of the second white color component and the first image of the image, the color components of each pixel of the first image to the color component that has been illuminated by the ambient lighting means An image processing method.
被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、
前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、
前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、
前記第2の画像の白の色成分と前記第1の画像の白の色成分との比によって、前記第1の画像の各画素の色成分を、前記フラッシュ照明手段による照明と前記周囲照明手段による照明との混合照明で照明された色成分に変換することを特徴とする画像処理方法。 An image processing method in a digital camera,
A flash illumination means for flashing the subject and an ambient illumination means for illuminating the subject from the periphery to obtain an image captured,
Based on the acquired image, a first image which is a main subject mainly illuminated by the flash illumination unit and a second image which is not the main subject mainly illuminated by the ambient illumination unit. Divided into at least two images of
Determining at least a color component by the flash illumination means of the first image and a color component by at least the ambient illumination means of the second image;
According to the ratio of the white color component of the second image and the white color component of the first image, the color component of each pixel of the first image is illuminated by the flash illumination unit and the ambient illumination unit. An image processing method comprising: converting to a color component illuminated by mixed illumination with illumination by a light source.
被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、
前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、
前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、
前記画像を撮像した撮像素子の分光特性に対応する色空間から所定の色空間に変換し、前記第2の画像の照明下の白の色成分と前記第1の画像の照明下の白の色成分との比によって、前記第1の画像の各画素の色成分を前記周囲照明手段により照明された色成分に変換することを特徴とする画像処理方法。 An image processing method in a digital camera,
A flash illumination means for flashing the subject and an ambient illumination means for illuminating the subject from the periphery to obtain an image captured,
Based on the acquired image, a first image which is a main subject mainly illuminated by the flash illumination unit and a second image which is not the main subject mainly illuminated by the ambient illumination unit. Divided into at least two images of
Determining at least a color component by the flash illumination means of the first image and a color component by at least the ambient illumination means of the second image;
The converted image from the color space corresponding to the spectral characteristics of the image sensor of the captured in a predetermined color space, the second color white under illumination of the first image and the color component of the white under illumination of the image An image processing method, comprising: converting a color component of each pixel of the first image into a color component illuminated by the ambient illumination unit according to a ratio to the component.
被写体を閃光照明するフラッシュ照明手段と被写体を周辺から照明する周囲照明手段で照明して撮像された画像を取得し、
前記取得した画像に基づいて、前記画像を主に前記フラッシュ照明手段により照明された主要被写体である第1の画像と、主に前記周囲照明手段により照明された前記主要被写体ではない第2の画像の少なくとも2つ以上の画像に分割し、
前記第1の画像の少なくとも前記フラッシュ照明手段による色成分と、前記第2の画像の少なくとも前記周囲照明手段による色成分とを求め、
前記画像を撮像した撮像素子の分光特性に対応する色空間から所定の色空間に変換し、前記第2の画像の照明下の白の色成分と前記第1の画像の照明下の白の色成分との比によって、前記第1の画像の各画素の色成分を、前記フラッシュ照明手段による照明と前記周囲照明手段による照明との混合照明で照明された色成分に変換することを特徴とする画像処理方法。 An image processing method in a digital camera,
A flash illumination means for flashing the subject and an ambient illumination means for illuminating the subject from the periphery to obtain an image captured,
Based on the acquired image, a first image which is a main subject mainly illuminated by the flash illumination unit and a second image which is not the main subject mainly illuminated by the ambient illumination unit. Divided into at least two images of
Determining at least a color component by the flash illumination means of the first image and a color component by at least the ambient illumination means of the second image;
The converted image from the color space corresponding to the spectral characteristics of the image sensor of the captured in a predetermined color space, the second color white under illumination of the first image and the color component of the white under illumination of the image The color component of each pixel of the first image is converted into a color component illuminated by a mixed illumination of the illumination by the flash illumination unit and the illumination by the ambient illumination unit according to the ratio with the component. Image processing method.
前記画像の分割は、前記取得した画像の輝度分布に基づいて分割することを特徴とする画像処理方法。 The image processing method according to any one of claims 1 to 4,
The image processing method according to claim 1, wherein the image is divided based on a luminance distribution of the acquired image.
前記変換は、前記画像を撮像した撮像素子の分光特性に対応する色空間で行うことを特徴とする画像処理方法。 The image processing method according to claim 1 or claim 2,
The image processing method according to claim 1, wherein the conversion is performed in a color space corresponding to a spectral characteristic of an image pickup device that picks up the image.
前記第1の画像において、前記フラッシュ照明手段による照明の影響と前記周囲照明手段による照明の影響の照明比を算出し、
前記算出した照明比に応じて、前記第1の画像の色を変換することを特徴とする画像処理方法。 The image processing method according to any one of claims 1 to 6,
In the first image, the lighting ratio of the influence of the illumination by the flash illumination means and the influence of the illumination by the ambient illumination means is calculated,
An image processing method comprising: converting a color of the first image in accordance with the calculated illumination ratio.
Digital camera equipped with an image processing program according to claim 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006317390A JP5261922B2 (en) | 2006-11-24 | 2006-11-24 | Image processing method, image processing program, and digital camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006317390A JP5261922B2 (en) | 2006-11-24 | 2006-11-24 | Image processing method, image processing program, and digital camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008131579A JP2008131579A (en) | 2008-06-05 |
JP5261922B2 true JP5261922B2 (en) | 2013-08-14 |
Family
ID=39556952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006317390A Active JP5261922B2 (en) | 2006-11-24 | 2006-11-24 | Image processing method, image processing program, and digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5261922B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5220666B2 (en) * | 2009-03-24 | 2013-06-26 | オリンパスイメージング株式会社 | Imaging device and live view display method |
JP6425571B2 (en) * | 2015-02-02 | 2018-11-21 | キヤノン株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001177732A (en) * | 1999-12-16 | 2001-06-29 | Fuji Photo Film Co Ltd | Image processor |
JP2002369075A (en) * | 2001-06-04 | 2002-12-20 | Olympus Optical Co Ltd | Imaging device, image processing device, imaging program, and image processing program |
-
2006
- 2006-11-24 JP JP2006317390A patent/JP5261922B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2008131579A (en) | 2008-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3849834B2 (en) | Auto white balance control method | |
CN102104785B (en) | Image pickup apparatus and controlling method thereof | |
JP6049343B2 (en) | Image processing apparatus, image processing method, and program | |
JP5743696B2 (en) | Image processing apparatus, image processing method, and program | |
EP2426927B1 (en) | Image processing apparatus, image processing method and computer program | |
JP5808142B2 (en) | Image processing apparatus, image processing method, and program | |
JP4083760B2 (en) | Method and apparatus for adjusting white balance | |
KR100478064B1 (en) | Illumination light color estimating method of obtaining white balance and image sensing apparatus | |
CN1179577C (en) | Image capture device, white balance adjustment method and operation processing program thereof | |
JP2004328140A (en) | Solid state imaging device and digital camera | |
JP4021716B2 (en) | Camera with strobe adjustment function | |
JP2008046410A (en) | Lighting device for photography | |
JP5407600B2 (en) | Image processing apparatus, image processing method, and electronic camera | |
US9497433B2 (en) | Imaging device with color adjustment function, imaging method using the same, and non-transitory storage medium in which imaging program is stored | |
JP5804856B2 (en) | Image processing apparatus, image processing method, and program | |
US20100141811A1 (en) | Color temperature compensating imaging apparatus and method | |
JP5225137B2 (en) | Imaging apparatus, image processing method, and program | |
JP2007251902A (en) | Imaging apparatus and imaging control method | |
JP2008236032A (en) | Photographing device | |
JP5261922B2 (en) | Image processing method, image processing program, and digital camera | |
JP5854716B2 (en) | Image processing apparatus, image processing method, and program | |
JP2003163944A (en) | White balance-control method and digital camera | |
JP2006171315A (en) | Stroboscope controller, stroboscope control program, and stroboscope control method | |
JP2006054775A (en) | Electronic camera with color balance adjusting function, and program | |
JP4396225B2 (en) | White balance control device and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111024 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20111024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5261922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |