JP2009010566A - Method and imaging apparatus for expanding dynamic range of photographic image - Google Patents
Method and imaging apparatus for expanding dynamic range of photographic image Download PDFInfo
- Publication number
- JP2009010566A JP2009010566A JP2007168636A JP2007168636A JP2009010566A JP 2009010566 A JP2009010566 A JP 2009010566A JP 2007168636 A JP2007168636 A JP 2007168636A JP 2007168636 A JP2007168636 A JP 2007168636A JP 2009010566 A JP2009010566 A JP 2009010566A
- Authority
- JP
- Japan
- Prior art keywords
- image
- exposure
- value
- boundary
- gray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000003384 imaging method Methods 0.000 title claims description 16
- 238000012545 processing Methods 0.000 claims abstract description 40
- 239000000203 mixture Substances 0.000 claims abstract description 14
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 10
- 238000012935 Averaging Methods 0.000 claims description 18
- 238000003708 edge detection Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims 1
- 239000003086 colorant Substances 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、写真画像のダイナミックレンジを拡大する方法及び撮像装置に関する。 The present invention relates to a method and an imaging apparatus for expanding a dynamic range of a photographic image.
フィルムカメラあるいはデジダルカメラで被写体を撮影した写真と、人間が直接その被写体を見た時の視覚イメージには差違がある。その要因のひとつとして、写真におけるダイナミックレンジと、人間の視覚におけるダイナミックレンジとが異なり、人間の視覚におけるダイナミックレンジが写真の場合よりはるかに広い、ということがあげられる。 There is a difference between a photograph taken with a film camera or a digital camera, and a visual image when a person looks directly at the subject. One of the factors is that the dynamic range in photography differs from the dynamic range in human vision, and the dynamic range in human vision is much wider than in photography.
人間は瞳孔の大きさを変化させることによって網膜への入射光量を調節し、注視領域の像が明るすぎたり、暗すぎたりすることを防いでおり、眼球運動によって変更されたさまざまな注視領域における明暗に応じて瞳孔の大きさを適宜変化させて入射光量を適正に保つことができる。このような調整能力を用いて、脳内に記憶された映像を時間合成し、視細胞本来のダイナミックレンジ以上の擬似ハイダイナミックレンジ映像を生成していると考えられる。 Humans adjust the amount of light incident on the retina by changing the size of the pupil, preventing the image of the gaze area from being too bright or too dark, and in various gaze areas that have been altered by eye movements. The amount of incident light can be appropriately maintained by appropriately changing the size of the pupil according to the brightness. It is considered that the image stored in the brain is temporally synthesized by using such adjustment ability to generate a pseudo high dynamic range image that exceeds the dynamic range of the photoreceptor.
写真で用いられる感光材料や、デジタルカメラの撮像素子(CCD、CMOS)のダイナミックレンジは、このような人間の視覚における擬似ハイダナミックレンジに比べて狭いため、撮影された画像においては、人間の視覚では確認されない白とびや黒つぶれが生じるものであり、たとえ人間の視覚以上のダイナミックレンジを有するCCDやCMOSで画像を記録したとしても、従来の出力装置では人間の視覚に準ずるような画像情報を生成することは困難である。 The dynamic range of the photosensitive material used in photography and the image pickup device (CCD, CMOS) of a digital camera is narrower than such a pseudo-hyperdynamic range in human vision. Even if an image is recorded with a CCD or CMOS that has a dynamic range greater than that of human vision, image information that is similar to that of human vision is generated, even though unclear whitening and blackout occur. It is difficult to do.
例えば、図1のような風景を撮影する場合を考える。手前側の手すりに鉢が置かれ、遠景として山が薄く見え、その上は空である。中間には町並みの建物、樹木等が広がる風景であり、陽が右前側から射していて、逆光ぎみになっており、鉢の手前側が陰になり、町並みの様子も陰の部分が多くあって、コントラストが強めの風景になっている。 For example, consider the case where a landscape such as that shown in FIG. A bowl is placed on the handrail on the front side, the mountain looks thin as a distant view, and the sky is above it. In the middle is a landscape of buildings, trees, etc. in the middle, the sun is shining from the right front side, it is backlit, the front side of the bowl is shaded, and the cityscape has many shaded parts The contrast is high.
このような風景で、中央部重点平均測光によるデジタルカメラにより自動露出で撮影すると、中央部分を主体とした部分の明るさを適正にするように露光調整がなされ、空の部分には白とびが生じ、町並みや鉢の陰の部分の暗い部分には黒つぶれが見られるようになる。これはデジタルカメラ内蔵の撮像素子や出力装置のダイナミックレンジの狭さによるものである。 In such a landscape, when shooting with automatic exposure using a digital camera with center-weighted average metering, the exposure is adjusted so that the brightness of the area centered on the center is appropriate, and overexposure occurs in the sky. As a result, black spots are seen in the dark parts of the streets and behind the bowls. This is due to the narrow dynamic range of the image sensor and output device built in the digital camera.
露出補正により露光量を変えることにより、写り方を変えることは可能である。手前側の鉢や、町並みをより明るく写るようにするには、オーバー側に露出補正する。この場合、空と、円形の薄く見える山並みも白くなり、見えなくなるようにもなる。逆に円形の山や、空の雲の様子などが見えるようにするには、アンダー側に露出補正する。この場合、鉢や町並みはより陰が濃くなってくる。 It is possible to change the way the image is taken by changing the exposure amount by exposure correction. To make the front bowl and townscape brighter, adjust the overexposure. In this case, the sky and the circular thin-looking mountain range will also become white and will not be visible. Conversely, to make it possible to see a circular mountain or the appearance of clouds in the sky, correct the exposure to the under side. In this case, the pots and the streets become darker.
このようにデジタルカメラの撮像素子のダイナミックレンジの範囲では、コントラストの強い画像に対しては、撮影された画像において、特に明るい部分、あるいは特に暗い部分は見えにくくならざるを得ないという制限がある。人間が同じ情景を直接見る場合には、眼による調整能力により、明るい部分と暗い部分とをともに視認できる。カメラで撮影された画像では、このような調整能力が作用することなく記録されるので、コントラストの強い風景を1枚の画像として撮影した場合には、白とびや黒つぶれが生じることになり、画角中の明るい部分または暗い部分を重視して露出補正をした場合には、重視されない方の部分は白とびまたは黒つぶれの傾向は解消されないことになる。 Thus, within the range of the dynamic range of the image sensor of the digital camera, there is a restriction that a particularly bright part or a particularly dark part must be difficult to see in a captured image for an image with high contrast. . When a human sees the same scene directly, the bright and dark parts can be visually recognized by the ability to adjust with the eyes. Since images recorded with a camera are recorded without such adjustments, when shooting a high contrast landscape as a single image, overexposure and underexposure occur. When the exposure correction is performed with emphasis on the bright or dark part in the angle of view, the tendency of overexposure or underexposure is not eliminated in the part that is not important.
コントラストの強い風景についての一度の撮影による画像では白とびや黒つぶれが生じるため、同じ風景について露光量を変えて複数回撮影を行い、それらを合成して白とびや黒つぶれのない1枚の画像とする手法が知られている。これは露光量オートブラケット機能を有するデジタルカメラにより、同じ風景について露光量を変えて複数回の撮影を連続的に行うことができるオートブラケット機能を有するデジタルカメラを用いてなされる。 When shooting an image of a high-contrast landscape, the overexposure and underexposure will occur. For the same landscape, take multiple shots with different exposures and combine them to create a single image with no overexposure or underexposure. There is a known technique for making an image. This is done using a digital camera having an auto bracket function capable of continuously performing a plurality of times of photographing with the same scene while changing the exposure amount with a digital camera having an exposure amount auto bracket function.
複数回の露光で撮影された画像を合成してダイナミックレンジを拡大することについて、以下のような文献に記載されている。 The following document describes the expansion of the dynamic range by combining images taken by multiple exposures.
特許文献1には、1個のレンズ系からの光を光分配器で複数の画像に分光し、それぞれの画像入力手段から画像処理手段に入力し、一方の画像入力手段で影の部分を鮮明に入力し、他方の画像入力手段で影でない部分を鮮明に入力し、それらの鮮明の部分を合成手段で1つの画像に合成するダイナミックレンジ拡大装置について記載されている。
In
特許文献2には、露光量の異なる複数の画像信号を合成して広ダイナミックレンジ合成画像を生成する撮像装置について記載されている。 Patent Document 2 describes an imaging apparatus that generates a wide dynamic range composite image by combining a plurality of image signals having different exposure amounts.
特許文献3には、異なる露光量で撮影した複数の画像信号を合成する階調拡大処理を行う機能を備えるデジタルカメラにおいて、撮像素子よりダイナミックレンジの広い測光素子で測定対象の輝度を検出し測定対象の中央部と周辺部の輝度差により階調拡大処理を行うか否かを判別することが示されている。 In Patent Document 3, in a digital camera having a function of performing gradation enlargement processing for synthesizing a plurality of image signals photographed with different exposure amounts, the luminance of a measurement object is detected and measured by a photometric element having a wider dynamic range than an image sensor. It is shown that it is determined whether or not the gradation enlargement process is performed based on the luminance difference between the central portion and the peripheral portion.
非特許文献1には、シャッタ速度、絞りを変えた複数枚の画像から、広範な輝度信号を復元するHDR手法について記載されているが、カメラの特性曲線を正確に算出するために、多くの枚数の画像が必要であり、それぞれの画像のシャッタ速度、絞りの情報を取得しておく必要がある。また、そのように算出された輝度情報は必ずしも人間の視覚イメージに近いというわけではなく、生成されたHDR画像は8ビット以上の輝度情報をもっているため、8ビットに準拠したモニタ上に表示することができない。
画像合成に際して、3枚の画像から選択される画像領域を設定する必要がある。そのためには、基準露出画像の画像における濃淡値範囲0〜255において、下限値と上限値とにより規定される濃淡値範囲を指定する。例えば下限値を100、上限値を220とした場合、ハイダイナミックレンジ画像の合成に際して、基準露出画像の濃淡値に着目して、画像における画素の濃淡値が指定された範囲内であれば基準露出画像の濃淡値とし、濃淡値が指定された範囲より低い範囲にあるならば露出オーバー画像における濃淡値とし、濃淡値が指定された範囲より高い範囲にあるならば露出アンダー画像における濃淡値とするように各画素の濃淡値を選択する。このようにして、3通りの露出値の画像からハイダイナミックレンジ画像が合成される。 At the time of image composition, it is necessary to set an image area selected from three images. For this purpose, a gray value range defined by a lower limit value and an upper limit value is designated in the gray value range 0 to 255 in the image of the reference exposure image. For example, when the lower limit value is 100 and the upper limit value is 220, when synthesizing a high dynamic range image, paying attention to the gray value of the reference exposure image, if the gray value of the pixel in the image is within the specified range, the standard exposure The gray value of the image. If the gray value is in a range lower than the specified range, the gray value in the overexposed image is used. If the gray value is in the higher range, the gray value in the underexposed image is used. In this way, the gray value of each pixel is selected. In this manner, a high dynamic range image is synthesized from images with three exposure values.
図1のような風景を撮影する場合も同様であり、同じ風景についてオートブラケット機能により露出アンダー画像、基準露出画像、露出オーバー画像の3枚の画像を撮影し、基準露出画像に対して指定された濃淡値の範囲の下限値を100、上限値を220とした時に、この画像は、図2(a)に示すように、濃淡値が指定された範囲の領域α、指定された範囲より高い領域β、指定された範囲より低い領域γの3つに分かれる。領域αでは基準露出画像における濃淡値が、領域βでは露出アンダー画像における濃淡値が、領域γではオーバー露出画像における濃淡値がそれぞれ選択される。 The same applies when shooting a landscape as shown in FIG. 1. For the same landscape, three images of an underexposed image, a reference exposure image, and an overexposure image are taken with the auto bracket function and specified for the reference exposure image. As shown in FIG. 2A, when the lower limit value of the tone value range is 100 and the upper limit value is 220, this image is higher than the specified range α in the range in which the tone value is specified. The region β is divided into three regions γ lower than the specified range. In the region α, the gray value in the reference exposure image is selected, in the region β, the gray value in the underexposure image is selected, and in the region γ, the gray value in the overexposure image is selected.
ここで、指定された濃淡値範囲を100〜220としているが、基準露出画像における濃淡値の状況、被写体におけるコントラスト等に応じて、濃淡値の範囲を指定する下限値を40、上限値120とすると、濃淡値による領域α、β、γが図2(b)のように異なったものになる。このように濃淡値による領域α、β、γの構成が変わることにより、合成されたハイダイナミックレンジ画像も異なった印象を与える。 Here, the specified gradation value range is set to 100 to 220, but the lower limit value for specifying the gradation value range is set to 40, and the upper limit value 120 is set according to the condition of the gradation value in the reference exposure image, the contrast in the subject, and the like. Then, the regions α, β, and γ depending on the gray value become different as shown in FIG. In this way, the composition of the regions α, β, and γ depending on the gray value changes, so that the synthesized high dynamic range image gives a different impression.
同じ被写体についてデジタルカメラにより露光量を変えて複数回の撮影を行い、それらを合成して得られるハイダイナミックレンジ画像では、露出アンダー画像、基準露出画像、露出オーバー画像を選択的に1枚の画像に合成するのであり、異なる画像から濃度値が選択される画像領域の境界は露光量の異なる画像の境界であって、その不連続性からもとの1枚の画像としては見られない疑似輪郭が発生し、合成された画像は特に露出量の異なる画像から選択された領域の境界について不自然で違和感のあるものとなる。 In a high dynamic range image obtained by combining multiple exposures using the digital camera with different exposure amounts for the same subject, an underexposed image, a reference exposed image, and an overexposed image can be selected as a single image. The boundary of the image area in which the density value is selected from different images is the boundary of the image with different exposure amount, and the pseudo contour that cannot be seen as the original one image due to the discontinuity And the synthesized image becomes unnatural and uncomfortable with respect to the boundary between regions selected from images with different exposure amounts.
特許文献1、3、非特許文献1においては、このような画像合成の際に生じる擬似輪郭について特に考慮してはいない。特許文献2においては、複数の画像の露光量比が設定した値になっていない場合につぎ目の部分の階調の不連続が発生し易いため、実際の露光量比を求め、これを露光量が少ない画像データに乗じて合成処理を行うとしているが、合成される画像において一般的に生じ得るつぎ目での不連続性を有効に処理し得る手法は示されていない。
In
このように、従来のデジタルカメラによって撮影された露出量が異なる複数の画像を合成する場合に、疑似輪郭を目立たないようにして、人間の視覚に近いと言えるハイダイナミックレンジ画像とするのに有効な手段は講じられていなかった。 In this way, when combining multiple images shot with a conventional digital camera with different exposure amounts, it is effective for creating a high dynamic range image that can be said to be close to human vision by making the pseudo contour inconspicuous. No measures were taken.
また、ハイダイナミックレンジ画像として合成するために、露出アンダーの画像、基準露出画像、露出オーバーの画像のいずれの濃淡値を選択するかを規定する濃淡値範囲の閾値(上限値、下限値)をどのように設定するかが、合成された画像に影響を与えることになるが、この濃淡値範囲の閾値を適切に行うための手法が求められていた。 Also, the threshold value (upper limit value, lower limit value) of the tone value range that specifies which tone value of the underexposed image, the reference exposed image, or the overexposed image is selected to be combined as a high dynamic range image. Although how to set affects the synthesized image, a method for appropriately performing the threshold value of the gray value range has been demanded.
本発明は前述した課題を解決すべくなしたものであり、本発明による写真画像のダイナミックレンジを拡大する方法は、同一被写体について露出値を変えて撮影することにより得られた露出値の異なる複数の画像の画像データを合成して写真画像のダイナミックレンジを拡大する方法であって、前記露出値の異なる複数の画像のうちの基準とする露出値の画像をグレースケール画像に変換することと、該変換されたグレースケール画像を設定された濃淡値の閾値により濃淡値の高低に応じた複数の領域に分割することと、前記グレースケール画像における分割された画像の複数の領域を色分けすることと、該色分けされた画像に平均化フィルタ処理を行った画像を生成することと、前記平均化処理を行った画像における各画素の色成分を求めることと、前記各画素の色成分に応じ前記露出値の異なる複数の画像の濃淡値を選択し画像合成することと、からなるものである。 The present invention has been made to solve the above-mentioned problems, and a method for expanding the dynamic range of a photographic image according to the present invention is a method of shooting a plurality of exposure values obtained by changing the exposure value for the same subject. A method for expanding the dynamic range of a photographic image by combining the image data of the image of the image, wherein an image of a reference exposure value among a plurality of images having different exposure values is converted into a grayscale image; Dividing the converted grayscale image into a plurality of regions according to the level of the gray value according to a set gray value threshold; and color-coding the plurality of regions of the divided image in the gray scale image; Generating an image obtained by performing an averaging filter process on the color-coded image, and obtaining a color component of each pixel in the image subjected to the averaging process It and the said selecting image synthesizing gray value of a plurality of different images of the exposure value according to the color component of each pixel, is made of.
前記グレースケール画像を濃淡値の閾値により複数の領域に分割する際に、前記基準とする露出値の画像を変換したグレースケール画像に対しエッジ検出アルゴリズムを適用してエッジを物体境界として描出した物体境界画像を生成し、前記基準とする露出値の画像を変換したグレースケール画像に対し濃淡値をパラメータとし該濃淡値を閾値として前記グレースケール画像を濃淡値の高低に応じて分割した領域の境界である露出境界を描出した露出境界画像を生成し、前記物体境界画像における物体境界と前記露出境界画像における露出境界とに対し得点ルールを設定し、パラメータとしての各濃淡値ごとに前記基準とする画像における各画素につい前記得点ルールをもとに重なり得点を求め、所定の濃淡値範囲において前記重なり得点が最大となる濃淡値を前記濃淡値範囲における閾値として前記グレースケール画像を濃淡値の高低に応じて複数の領域に分割するようにしてもよい。 When the grayscale image is divided into a plurality of areas based on a gray value threshold, an object is depicted with an edge as an object boundary by applying an edge detection algorithm to the grayscale image obtained by converting the reference exposure value image A boundary of an area obtained by generating a boundary image and dividing the grayscale image according to the level of the gray value with the gray value as a parameter for the gray scale image obtained by converting the reference exposure value image as a parameter An exposure boundary image depicting the exposure boundary is generated, score rules are set for the object boundary in the object boundary image and the exposure boundary in the exposure boundary image, and the reference value is set for each gray value as a parameter. An overlap score is obtained for each pixel in the image based on the score rule, and the overlap score is determined within a predetermined gray value range. Said gray value becomes larger as the threshold value in the gray value range in accordance with the gray-scale image of the level of gray values may be divided into a plurality of regions.
また、本発明による撮像装置は、オートブラケット機能により露出値をずらして撮影して得られた複数枚の画像を合成してダイナミックレンジを拡大した画像を生成する機能を備えた撮像装置であって、撮影条件と濃淡値の閾値との設定を行うための設定手段と、撮影された露出値の異なる複数枚の画像データとこれから変換された画像データとを記憶する記憶手段と、基準とする露出値の画像をグレースケール画像に変換するグレースケール化処理部と、該変換されたグレースケール画像を前記設定部により設定された濃淡値の閾値に基づいて濃淡値の高低に応じた複数の領域に分け各領域を色分けする領域分割色分け処理部と、該領域分割色分け処理部で生成された領域ごとに色分けされた画像に平均化フィルタ処理を行う平均化フィルタ処理部と、該平均化フィルタ処理部により得られた画像における各画素の色成分を求め該各画素の色成分に応じ前記露出値の異なる複数の画像の濃淡値を選択し画像合成する画像合成部とを備えてなるものである。 The image pickup apparatus according to the present invention is an image pickup apparatus having a function of generating an image with an expanded dynamic range by combining a plurality of images obtained by shooting with different exposure values by an auto bracket function. , Setting means for setting photographing conditions and gray value thresholds, storage means for storing a plurality of image data with different exposure values photographed and image data converted therefrom, and exposure as a reference A gray-scale processing unit that converts an image of a value into a gray-scale image, and the converted gray-scale image is converted into a plurality of regions according to the level of the gray value based on the gray-value threshold value set by the setting unit. An area division color coding processing unit for color-dividing each area, and an average file for performing an averaging filter process on the color-coded image generated by the area division color coding processing unit Image composition for obtaining a color component of each pixel in the image obtained by the processing unit and the averaging filter processing unit, selecting gray values of a plurality of images having different exposure values according to the color component of each pixel, and performing image composition Part.
前記設定手段において濃淡値の閾値の設定を自動的に行うように設定した時に前記グレースケール画像を濃淡値の閾値により複数の領域に分割するための適正閾値を自動的に設定する適正閾値自動設定部をさらに備え、該適正閾値自動設定部は、前記基準とする露出値の画像を変換したグレースケール画像に対しエッジ検出アルゴリズムを適用してエッジを物体境界として描出した物体境界画像を生成する物体画像生成部と、前記基準とする露出値の画像を変換したグレースケール画像に対し濃淡値をパラメータとし該濃淡値を閾値として前記グレースケール画像を濃淡値の高低に応じて分割した領域の境界である露出境界を描出した露出境界画像を生成する露出境界画像生成部と、前記物体境界画像における物体境界と前記露出境界画像における露出境界とに対する予め規定された得点ルールの表と、パラメータとしての各濃淡値ごとに前記基準とする露出値の画像における各画素について前記得点ルールの表をもとに重なり得点を求め所定の濃淡値範囲において前記重なり得点が最大となる濃淡値を前記濃淡値範囲における閾値として選択する閾値選択手段とからなるようにしてもよい。 Appropriate threshold automatic setting for automatically setting an appropriate threshold for dividing the grayscale image into a plurality of areas by the threshold of the gray value when the setting means is set to automatically set the threshold of the gray value An appropriate threshold value automatic setting unit that applies an edge detection algorithm to a grayscale image obtained by converting the reference exposure value image to generate an object boundary image in which the edge is depicted as an object boundary. An image generation unit and a boundary between regions obtained by dividing the grayscale image according to the level of the gray value by using the gray value as a parameter and the gray value as a threshold for the gray scale image obtained by converting the reference exposure value image An exposure boundary image generation unit that generates an exposure boundary image depicting a certain exposure boundary, and an object boundary in the object boundary image and the exposure boundary image A predetermined score rule table for the exposure boundary and an overlap score for each pixel in the image of the reference exposure value for each gray value as a parameter is obtained based on the score rule table to obtain a predetermined score. You may make it comprise the threshold value selection means which selects the gray value with which the said overlap score becomes the maximum in a gray value range as a threshold value in the said gray value range.
本発明においては、露出値の異なる複数の画像のうちの基準となる露出値の画像をグレースケール化し、濃淡値の閾値により領域分割、色分けしローパスフィルタ処理を行った画像の色成分に応じて元画像を画像合成するようにしたので、露出値の異なる画像から選択される領域の境界において擬似輪郭が生じることを抑制し、違和感のないハイダイナミックレンジ画像を生成することができる。また、このようなハイダイナミックレンジ画像の生成においてグレースケール画像を濃淡値の高低により領域分割するのに適切な濃淡値の閾値を自動的に設定することができる。 In the present invention, an image having a reference exposure value among a plurality of images having different exposure values is converted into a gray scale, and the image is subjected to low-pass filter processing by dividing and color-dividing the image with a threshold value of gray value. Since the original image is synthesized, it is possible to suppress the generation of a pseudo contour at the boundary between regions selected from images having different exposure values, and to generate a high dynamic range image without a sense of incongruity. Further, in the generation of such a high dynamic range image, it is possible to automatically set a gray value threshold appropriate for dividing a gray scale image into regions based on the gray value.
[ハイダイナミックレンジ画像の生成]
オートブラケット機能を用いて露出アンダー、基準露出、露出オーバーとなる露出値の異なる3枚の画像を撮影する場合を考える。通常露出アンダーは−1EV、露出オーバーは+1EVであるが、デジタルカメラによっては露出値の変動幅を±1/3EV、±1/2EVというように設定可能なものもあり、1回のオートブラケット撮影で3枚撮影する場合、5枚撮影する場合を選択できるものもある。以下では、−1EV,0EV,+1EVの3枚の撮影を行う場合について説明する。
[Generate high dynamic range image]
Consider a case where three images with different exposure values, which are underexposed, reference exposed, and overexposed, are shot using the auto bracket function. Normally, underexposure is -1EV and overexposure is + 1EV. However, some digital cameras have variable exposure values that can be set to ± 1 / 3EV and ± 1 / 2EV. In some cases, it is possible to select a case where three images are taken and a case where five images are taken. Hereinafter, a case where three images of -1EV, 0EV, and + 1EV are taken will be described.
図1のような風景について、露出アンダー(−1EV)、基準露出(0EV)、露出オーバー(+1EV)の3枚の画像を撮影し、初めに0EVの画像をグレースケール画像に変換する。ここでは、黄色を明るく、青を暗く知覚する人間の視覚特性を考慮し、グレースケールへの変換式として
I=0.299×R+0.587×G+0114×B ・・・・ (1)
(ただし、R:赤成分、G:緑成分、B:青成分)を用いる。
For a landscape such as that shown in FIG. 1, three images of underexposed (-1 EV), standard exposure (0 EV), and overexposed (+1 EV) are taken, and the 0 EV image is first converted into a grayscale image. Here, considering the human visual characteristics of perceiving yellow as bright and blue as dark, I = 0.299 × R + 0.587 × G + 1114 × B (1)
(However, R: red component, G: green component, B: blue component).
次に、3枚の画像から0EVの画像における濃淡値を選択する領域を設定するため、その濃淡値の範囲の2つの閾値(上限値、下限値)を指定する。ここでは、上限値を220、下限値を100と設定する。そうすると、0EVの画像は濃淡値の上限値220、下限値100を境界として、図2(a)のように、濃淡値が指定された範囲の領域α、指定された範囲より高い領域β、指定された範囲より低い領域γの3つの領域に分かれる。領域αでは基準露出画像における濃淡値を、領域βでは露出アンダーの画像における濃淡値を、領域γでは露出オーバーの画像における濃淡値をそれぞれ選択すると、領域の境界においては異なる露出値の画像から選択された画素が隣接することになり、合成された画像においては疑似輪郭が発生し、不自然で違和感のあるものになる。 Next, two threshold values (upper limit value and lower limit value) in the range of the gray value are designated in order to set a region for selecting the gray value in the 0 EV image from the three images. Here, the upper limit value is set to 220 and the lower limit value is set to 100. Then, the image of 0EV has the upper limit value 220 and the lower limit value 100 as the boundaries, as shown in FIG. 2A, the region α in the range in which the gray value is specified, the region β higher than the specified range, and the specified value. The region is divided into three regions γ that are lower than the specified range. Select the gray value in the standard exposure image for area α, the gray value in the underexposed image in area β, and the gray value in the overexposed image in area γ, and select from images with different exposure values at the boundary of the area. The adjacent pixels are adjacent to each other, and a pseudo contour is generated in the synthesized image, which is unnatural and uncomfortable.
そこで、本発明においては、この境界近辺における画素同士をブレンドし平滑化する処理を行うことにより、境界において擬似輪郭が生じないようにする。そのために、3つに分けられた領域α、β、γのうち領域αを緑(G)、領域βを赤(R)、領域γを青(B)で色表示すると、これは露出値の異なる画像を合成する際にどの露出値の画像における画素を適用するかを色表示で示すものとなる。−1EVの画像の画素を適用しているところの画素は色成分で表せば(R,G,B)=(1,0,0)で赤色、0EVの画像の画素を適用しているところの画素は(R,G,B)=(0,1,0)で緑色、+1EVの画像の画素を適用しているところの画素は(R,G,B)=(0,0,1)で青色となっている。 Therefore, in the present invention, by performing a process of blending and smoothing pixels in the vicinity of the boundary, a pseudo contour is not generated at the boundary. Therefore, when the region α is divided into three regions α, β, and γ, the region α is displayed in green (G), the region β is displayed in red (R), and the region γ is displayed in blue (B). The color display indicates which pixel of the exposure value is applied when combining different images. The pixel where the pixel of the image of -1EV is applied is expressed as a color component, and the pixel of the image of red and 0EV is applied when (R, G, B) = (1, 0, 0). The pixel is green when (R, G, B) = (0, 1, 0), and the pixel where the pixel of the image of +1 EV is applied is (R, G, B) = (0, 0, 1) It is blue.
濃淡値を選択するための領域を示す画像である図2のように境界線で3つの領域α、β、γに分けられたRGBの色表示された画像に対し、例えば図3に示すような3×3の平均化フィルタを用いることにより、境界線近辺での濃淡値の平均化がなされる。この画像に3×3の平均化フィルタをかけると、境界近辺においては隣接する画素同士がブレンドされ、画像の境界線近辺では色成分としてR、G、B単色でなく、それらの成分が混色した色となる。境界線からある程度離れた位置ではこのようなブレンドの作用がなく単色のR、G、Bのままである。 For example, as shown in FIG. 3 for an RGB color-displayed image divided into three regions α, β, and γ by boundary lines as shown in FIG. 2, which is an image showing regions for selecting gray values. By using the 3 × 3 averaging filter, the gray value in the vicinity of the boundary line is averaged. When a 3 × 3 averaging filter is applied to this image, adjacent pixels are blended in the vicinity of the boundary, and these components are mixed in the vicinity of the boundary line of the image instead of R, G, B as single color components. Become a color. At a position apart from the boundary line to some extent, there is no effect of such blending, and monochromatic R, G and B remain.
このように平均化フィルタにより境界線近辺で色のブレンドがなされた画像における色成分値に応じて3つの露出値が異なる画像から濃淡値をどのように選択するかを規定する。境界線から離れていて単色のR、G、Bで表される画素については、それぞれ−1EV、0EV、+1EVの画像の濃淡値を選択するのであるが、境界線近辺でR、G、Bの成分がブレンドされている画素については、その成分に応じて3つの露出値の異なる画像の濃淡値の配分を決定する。例えば(R,G,B)=(0.2,0.7,0.1)のようにRGB成分をもつ画素では(−1EVの画像の画素の濃淡値)×0.2+(0EVの画像の画素の濃淡値)×0.7+(+1EVの画像の画素の濃淡値)×0.1をその画素の濃淡値とする。このように領域α、β、γの境界近辺においては、平均化フィルタにより平滑化され、濃淡値成分がブレンドされたものとすることにより、濃淡値が領域の境界線で飛躍的に変化するということが和らげられ、不自然な擬似輪郭が見られない画像として合成され、また、ハイダミックレンジ画像として白とびや黒つぶれによる情報欠落がない画像となる。 In this way, it is defined how to select a gray value from an image having three different exposure values according to the color component value in an image in which the color is blended in the vicinity of the boundary line by the averaging filter. For pixels that are separated from the boundary line and are represented by single colors R, G, and B, the gray values of the images of −1 EV, 0 EV, and +1 EV are selected, respectively. For pixels with blended components, the distribution of shade values of three images with different exposure values is determined according to the component. For example, in a pixel having RGB components such as (R, G, B) = (0.2, 0.7, 0.1), (−1EV image pixel gray value) × 0.2 + (0 EV image) The gray value of the pixel) × 0.7 + (the gray value of the pixel of the image of +1 EV) × 0.1 is the gray value of the pixel. In this way, in the vicinity of the boundaries of the regions α, β, and γ, it is smoothed by the averaging filter and the gray value component is blended, so that the gray value changes dramatically at the boundary line of the region. The image is synthesized as an image in which an unnatural pseudo contour is not seen, and an image in which no information is lost due to overexposure or underexposure is obtained as a hydramic range image.
以上のハイダイナミックレンジ画像の生成の過程をフローで示すと図4のようになる。図4の左側に処理のフローを示し、右側にそれらの処理により生成される画像を示している。この処理は、オートブラケット機能を有するデジタルカメラにより撮影された画像のデータについて、処理に必要なプログラムを備えた汎用コンピュータを用いて行う。 The process of generating the above high dynamic range image is shown as a flow in FIG. The processing flow is shown on the left side of FIG. 4, and the image generated by these processes is shown on the right side. This processing is performed using a general-purpose computer provided with a program necessary for processing the data of an image taken by a digital camera having an auto bracket function.
この例では、オートブラケト機能により−1EV,0EV,+1EVの3枚の露出値の異なる画像を撮影し合成するようにしているが、露出値の段階としては、1/2EVあるいは1/3EVの幅で変化させるようにすることもできる。また、風景のコントラストの程度、内容によっては3枚でなく2枚の露出値の異なる画像を撮影して合成することもできる。この場合、濃淡値の範囲は1つの閾値により2つに分けられることになる。3つの濃淡値に分ける場合でも、2つの閾値(上限値、下限値)の設定のし方によっては、結果的に2つの濃淡値の範囲に分かれるということもあり得る。
[適正閾値の算出]
ハイダイナミックレンジ画像の合成を行うにあたって、基準露光画像において濃淡値を選択するための領域を規定する閾値(3段階の場合には上限値、下限値)をどのように設定するかにより、合成された画像は変わってくる。図1のような風景を撮影した場合に、基準露出画像(0EV)において濃淡値を選択するための領域を規定する下限値を40、上限値を120として画像合成すると、合成された画像は違和感のあるものになるが、下限値を120、上限値を220とした時の方が違和感の少ない画像として合成される、というような違いがある。どのようにこの上限値、下限値を設定するのがよいか、というのは被写体の風景における濃淡値の構成によることになり、画像ごとに変わってくる。
In this example, three images with different exposure values of -1EV, 0EV, and + 1EV are photographed and synthesized by the auto bracket function, but the exposure value stage has a width of 1/2 EV or 1/3 EV. It can also be changed. Also, depending on the degree of contrast and the content of the landscape, two images with different exposure values can be taken and combined instead of three. In this case, the range of the gray value is divided into two by one threshold value. Even in the case of dividing into three gradation values, depending on how to set two threshold values (upper limit value and lower limit value), the result may be divided into two gradation value ranges.
[Calculation of appropriate threshold value]
When synthesizing a high dynamic range image, it is synthesized depending on how to set thresholds (upper limit value and lower limit value in the case of three levels) that define an area for selecting a gray value in the reference exposure image. The images will change. When a landscape such as that shown in FIG. 1 is photographed, if the lower limit value that defines the area for selecting the gray value is 40 and the upper limit value is 120 in the reference exposure image (0EV), the synthesized image is uncomfortable. However, there is a difference that when the lower limit value is 120 and the upper limit value is 220, the image is synthesized as an image with less discomfort. How to set the upper limit value and the lower limit value depends on the composition of the gray value in the scenery of the subject, and changes for each image.
合成された画像が違和感のあるものか、違和感が少ないものであるかというのは、撮影された元画像におけるエッジ部分と、濃淡値の領域を分けるため色分けされた画像におけるエッジ部分との対応関係に現れてくることがわかる。キャニー(Canny)のエッジ検出により図1の画像のエッジ部分を描出した場合に、図2(a)の下限値120、上限値220とした色分け画像のエッジ部分(境界)とはよく重なるが、図2(b)の下限値40、上限値120とした色分け画像のエッジ部分(境界)とはうまく重ならない。このように合成された画像が違和感の少ないものであることは、元画像(基準露出画像)でエッジ検出により得られたエッジ部分が濃淡値の領域を分けるために色分けされた画像の境界との重なりがよいことに対応することがわかり、このことから、元画像のエッジについての情報と濃淡値の領域を分けるための色分けされた画像のエッジ情報を用いて適正閾値を算出することができる。 Whether the synthesized image has a sense of incongruity or a little incongruity depends on the correspondence between the edge part in the original image taken and the edge part in the color-coded image to separate the gray value area You can see that When the edge portion of the image of FIG. 1 is depicted by the edge detection of Canny, the edge portion (boundary) of the color-coded image having the lower limit value 120 and the upper limit value 220 of FIG. The edge portion (boundary) of the color-coded image having the lower limit value 40 and the upper limit value 120 in FIG. The image synthesized in this way is less uncomfortable because the edge portion obtained by edge detection in the original image (reference exposure image) differs from the boundary of the color-coded image in order to divide the gray value region. It can be seen that this corresponds to a good overlap, and based on this, it is possible to calculate an appropriate threshold value using the information about the edge of the original image and the edge information of the color-coded image for separating the gray value region.
カメラによる適正露出の基準露出画像(0EV)と上下に1EVだけ露出値を変化させた計3枚の画像を用いて画像合成する場合について適正閾値を算出することについて説明する。はじめに、元画像(露出値0EVの画像)をグレースケール画像に変化し、このグレースケール画像について、キャニーのエッジ検出アルゴリズムを適用してエッジを描出し、物体境界の画素を2値化濃度で1、他の画素の濃度を0とした画像(物体境界画像という)を生成する。この物体境界画像におけるエッジを物体境界とする。次に、濃淡値(0〜255)をパラメータとして考え、ある濃淡値を閾値とした時に、その閾値をもとに元画像をグレースケール化した画像について濃淡値の領域を分けて領域の境界(露出境界という)を描出し、露出境界の画素を2値化濃度で1、他の画素の濃度を0とした画像(露出境界画像)を生成する。また、表1のように元画像のエッジであるか否か、色分けされた画像のエッジ(境界)であるか否かに応じて点数を規定しておく。その上で、濃淡値の領域を分ける閾値としての下限値は濃淡値0〜127の範囲(低明度領域)にあり、上限値は濃淡値128〜255の範囲(高明度領域)にあると考え、適正閾値を算出する。
(a)低明度領域について
濃淡値を127から0まで1ずつ変化させながら、各露出境界画像と物体境界画像とから各濃淡値ごとに表1のルールにしたがって元画像(0EV)の全画素について得点を算出し、全画素についての合計値を重なり得点とする。濃淡値127〜0の範囲で算出された各濃淡値の重なり得点において、重なり得点が最大になる濃淡値を低明度領域における適正閾値(3段階の場合には下限値)とする。同じ適性度となる閾値がある場合、より小さい値を閾値として選択する。
(b)高明度領域について
濃淡値を127から255まで1ずつ変化させながら、(a)の場合と同様に表1のルールにしたがって元画像(0EV)の全画素について重なり得点を算出する。濃淡値127〜255の範囲で算出された各濃淡値の重なり得点において、重なり得点が最大になる濃淡値を高明度領域における適正閾値(3段階の場合には上限値)とする。同じ適正度となる濃淡値がある場合、より大きい濃淡値を閾値として選択する。
A description will be given of calculating an appropriate threshold value when image synthesis is performed using a reference exposure image (0 EV) of appropriate exposure by the camera and a total of three images with exposure values changed by 1 EV vertically. First, an original image (image with an exposure value of 0 EV) is changed to a grayscale image, and an edge is drawn by applying the Canney edge detection algorithm to the grayscale image, and the pixel at the object boundary is set to 1 with a binary density. Then, an image in which the density of other pixels is 0 (referred to as an object boundary image) is generated. An edge in this object boundary image is defined as an object boundary. Next, considering a gray value (0 to 255) as a parameter, when a certain gray value is used as a threshold, the gray value is divided into regions of the original image based on the threshold and the boundary of the region ( (Exposure boundary) is drawn, and an image (exposure boundary image) in which the pixel of the exposure boundary is 1 with a binary density and the density of other pixels is 0 is generated. Also, as shown in Table 1, the number of points is defined according to whether or not the edge of the original image is the edge (boundary) of the color-coded image. In addition, it is considered that the lower limit value as a threshold value for dividing the gray value area is in the range of the gray value 0 to 127 (low brightness area), and the upper limit value is in the range of the gray value 128 to 255 (high brightness area). The appropriate threshold value is calculated.
(A) Low lightness region While changing the gray value one by one from 127 to 0, all pixels of the original image (0EV) according to the rule of Table 1 for each gray value from each exposure boundary image and object boundary image The score is calculated, and the total value for all the pixels is used as the overlapping score. In the overlap score of each shade value calculated in the range of the
(B) High Brightness Region Overlapping points are calculated for all the pixels of the original image (0EV) according to the rules in Table 1 while changing the gray value one by one from 127 to 255 as in the case of (a). In the overlap score of the respective shade values calculated in the range of the shade values 127 to 255, the shade value that maximizes the overlap score is set as an appropriate threshold value (upper limit value in the case of three levels). If there is a gray value having the same appropriateness, a larger gray value is selected as the threshold value.
露出境界画像と物体境界画像とから濃淡値ごとに重なり得点を算出し、その結果から適正閾値を求める手順をフローで示すと図5のようになる。図5では、中央における画像データの変換と、それぞれの変換を行う処理とを示している。図4のフローにおいて、濃淡値の閾値を決定することは、画像の濃淡、コントラストの構成等から判断して適宜設定するものとしていたが、図5のフローではこのような適正閾値の設定をより客観的な形で行うことができる。また、濃淡値ごとに算出された重なり得点をグラフとして表すと、例えば図6のような形となり、濃淡値0〜127の間での最高得点となる露出値を下限値とし、128〜255の間で最高得点となる露出値を上限値として選択する。 FIG. 5 is a flowchart showing a procedure for calculating an overlap score for each gray value from the exposure boundary image and the object boundary image, and obtaining an appropriate threshold value from the result. FIG. 5 shows conversion of image data at the center and processing for performing each conversion. In the flow of FIG. 4, the determination of the threshold value of the gray value is set as appropriate based on the image density, the configuration of the contrast, and the like. However, in the flow of FIG. It can be done objectively. In addition, when the overlap score calculated for each gray value is represented as a graph, for example, the shape is as shown in FIG. 6, and the exposure value that is the highest score between the gray values 0 to 127 is the lower limit value, and 128 to 255. Select the exposure value that gives the highest score between the two as the upper limit.
カメラが設定した適正露出(0EV)の画像と、上もしくは下に1段階露出を変化させた画像(+1EVの画像もしくは−1EVの画像)のどちらか一方の2枚の画像からハイダイナミックレンジ画像を生成する場合は、低明度領域における適正閾値もしくは高明度領域における適正閾値のどちらかを算出する。このときの算出アルゴリズムは上に示したものと同じである。 A high dynamic range image is obtained from two images, either an image with proper exposure (0 EV) set by the camera and an image with a one-step exposure change up or down (+1 EV image or -1 EV image). In the case of generation, either an appropriate threshold value in the low brightness area or an appropriate threshold value in the high brightness area is calculated. The calculation algorithm at this time is the same as that shown above.
露出の異なる画像を4枚以上用いる場合、まず0EVの画像を用いて低明度領域における適正閾値と高明度領域における適正閾値を算出するところまでは同一である。その後、上に露出を変化させた(+方向)2つの画像を合成するための適正閾値を算出するときは、2つの中で低い露出の画像を対象に低明度領域における適正閾値算出方法を適用する。逆に、下に露出を変化させた(−方向)2つの画像を合成するための適正閾値を算出するときは、2つの中で高い露出の画像を対象に高明度領域における適正閾値算出方法を適用する。例を示すと、+1EVの画像と+2EVの画像を合成するための適正閾値を算出するときは、+1EVの画像を対象にして上に示した低明度領域における適正閾値算出方法を適用し、−1EVの画像と−2EVの画像を合成するための適正閾値を算出するときは、−1EVの画像を対象として上に示した高明度領域における適正閾値算出方法を適用する。 When four or more images having different exposures are used, the process is the same until the appropriate threshold value in the low brightness area and the appropriate threshold value in the high brightness area are calculated using the 0 EV image. After that, when calculating the appropriate threshold for combining two images with different exposures (+ direction), apply the appropriate threshold calculation method in the low-lightness area for the two low exposure images. To do. Conversely, when calculating an appropriate threshold value for combining two images whose exposure is changed downward (-direction), an appropriate threshold value calculation method in a high brightness area is targeted for an image with a high exposure among the two images. Apply. As an example, when calculating an appropriate threshold value for synthesizing a + 1EV image and a + 2EV image, the appropriate threshold value calculation method in the low lightness region shown above is applied to the + 1EV image, and −1EV is applied. When calculating the appropriate threshold value for combining the image of -1EV and the image of -2EV, the method for calculating the appropriate threshold value in the high brightness area shown above for the -1EV image is applied.
このように、物体境界画像における物体境界と、露出境界画像における露出境界とに対して表1 Thus, Table 1 shows the object boundary in the object boundary image and the exposure boundary in the exposure boundary image.
[ハイダイナミックレンジ画像を生成する撮像装置]
本発明での画像合成によりハイダイナミックレンジ画像を得る機能を備えた撮像装置について説明する。この撮像装置の構成は大略的に、レンズ1、撮像素子(CCD)2、撮影動作制御部5を含む撮像部10と、諸種の設定を行う設定部20と、画像合成処理を行う画像処理部30に分けて考えられる。設定部20では露出値の段数、撮影枚数等の設定を行うとともに、ハイダイナミックレンジ画像の合成の過程でグレースケール画像の領域分割の際に必要な濃淡値の閾値の設定を行う。この設定は撮影者の経験と被写体のコントラストとに応じて手動的に行う場合と、自動的に行う場合とを選択可能にする。撮影動作制御部5は設定部20において設定された露出値段数、一連の撮影動作における撮影枚数の撮影条件に応じた撮影の動作を制御する。
[Imaging device that generates high dynamic range images]
An imaging apparatus having a function of obtaining a high dynamic range image by image synthesis according to the present invention will be described. The configuration of this imaging apparatus is roughly the
記憶部31においては、連続して撮影された露出値の異なる複数枚の画像の画像データを記憶し、画像処理の段階で必要な画像データを用いて処理できるようにする。グレースケール化処理部33は基準とする露出値の画像をグレースケール化する処理を行う。領域分割色分け処理部34は設定手段により設定された閾値によりグレースケール画像を濃淡値の高低に応じて複数の領域に分割し、分割された複数の領域を色分けする。平均化フィルタ処理部35は平均化フィルタによる処理を行い領域が分割され境界部分において色が混色した画像とする。画像合成部36は平均化フィルタ処理部により得られた画像における各画素の色成分を求め各画素の色成分ら応じ前記露出値の異なる複数の画像の濃淡値を選択し画像合成する。
The
適正閾値自動設定部32は閾値設定を自動としたときに適正な閾値を設定するのであり、その際基準とする露出値の画像に対しエッジ検出処理を行って物体境界が描出された物体境界画像を生成し、また各濃淡値をパラメータとしこれを閾値として基準とする露出値の画像を変換して得られたグレースケール画像を濃淡値の高低により分割し露出境界が描出された露出境界画像を生成し、物体境界画像における物体境界と前記露出境界画像における露出境界とに対する予め規定された得点ルールをもとに各濃淡値ごとに基準とする露出値の画像における各画素について重なり得点を求め所定の濃淡値範囲において前記重なり得点が最大となる濃淡値をその範囲における閾値として選択するようにして適正な閾値を設定する。
The appropriate threshold
撮像装置としては、撮像動作制御部5を含む撮像部10、設定部20、画像処理部30を備えるものであり、画像処理部30はハイダミックレンジ画像の合成を行うに際しグレースケール化処理、領域分割色分け処理、平均化フィルタ処理、画像合成を行い、また適正閾値の設定を自動的に行う上での画像処理、演算処理を行うための回路構成、画像処理の課程において画像データ、演算データを記憶保持する記憶手段を備える。
The imaging apparatus includes an
10 撮像部
20 設定部
30 画像処理部
1 レンズ
2 撮像素子(CCD)
5 撮影動作制御部
31 記憶部
32 適正閾値自動設定部
33 グレースケール変換部
34 領域分割色分け処理部
35 平均化フィルタ処理部
36 画像合成部
DESCRIPTION OF
5 Shooting
Claims (4)
前記露出値の異なる複数の画像のうちの基準とする露出値の画像をグレースケール画像に変換することと、
該変換されたグレースケール画像を設定された濃淡値の閾値により濃淡値の高低に応じた複数の領域に分割することと、
前記グレースケール画像における分割された画像の複数の領域を色分けすることと、
該色分けされた画像に平均化フィルタ処理を行った画像を生成することと、
前記平均化処理を行った画像における各画素の色成分を求めることと、
前記各画素の色成分に応じ前記露出値の異なる複数の画像の濃淡値を選択し画像合成することと、
からなることを特徴とする写真画像のダイナミックレンジを拡大する方法。 A method for expanding the dynamic range of a photographic image by combining image data of a plurality of images with different exposure values obtained by changing the exposure value for the same subject,
Converting an image of a reference exposure value among a plurality of images having different exposure values into a grayscale image;
Dividing the converted grayscale image into a plurality of regions according to the level of the gray value according to a set gray value threshold;
Color-coding a plurality of regions of the divided image in the grayscale image;
Generating an image obtained by performing averaging filtering on the color-coded image;
Obtaining a color component of each pixel in the averaged image;
Selecting gray values of a plurality of images having different exposure values according to the color component of each pixel, and synthesizing the images;
A method for expanding the dynamic range of a photographic image characterized by comprising:
Appropriate threshold automatic setting for automatically setting an appropriate threshold for dividing the grayscale image into a plurality of areas by the threshold of the gray value when the setting means is set to automatically set the threshold of the gray value An appropriate threshold value automatic setting unit that applies an edge detection algorithm to a grayscale image obtained by converting the reference exposure value image to generate an object boundary image in which the edge is depicted as an object boundary. An image generation unit and a boundary between regions obtained by dividing the grayscale image according to the level of the gray value by using the gray value as a parameter and the gray value as a threshold for the gray scale image obtained by converting the reference exposure value image An exposure boundary image generation unit that generates an exposure boundary image depicting a certain exposure boundary, and an object boundary in the object boundary image and the exposure boundary image A predetermined score rule table for the exposure boundary and an overlap score for each pixel in the image of the reference exposure value for each gray value as a parameter is obtained based on the score rule table to obtain a predetermined score. The imaging apparatus according to claim 3, further comprising threshold selection means for selecting a gray value having the maximum overlap score in the gray value range as a threshold in the gray value range.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007168636A JP2009010566A (en) | 2007-06-27 | 2007-06-27 | Method and imaging apparatus for expanding dynamic range of photographic image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007168636A JP2009010566A (en) | 2007-06-27 | 2007-06-27 | Method and imaging apparatus for expanding dynamic range of photographic image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009010566A true JP2009010566A (en) | 2009-01-15 |
Family
ID=40325224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007168636A Pending JP2009010566A (en) | 2007-06-27 | 2007-06-27 | Method and imaging apparatus for expanding dynamic range of photographic image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009010566A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011090367A (en) * | 2009-10-20 | 2011-05-06 | Pasuko:Kk | Road surface image capturing/editing device and road surface image capturing/editing program |
JP2012019429A (en) * | 2010-07-09 | 2012-01-26 | Ikegami Tsushinki Co Ltd | Imaging signal processing circuit and imaging signal processing method |
DE102012201696A1 (en) | 2011-02-07 | 2012-08-09 | Canon Kabushiki Kaisha | Image processing apparatus, associated control method, program and recording medium |
KR101374330B1 (en) * | 2010-07-08 | 2014-03-14 | 가부시키가이샤 리코 | Image processing unit, image processing method, and computer-readable recording medium having recorded therein image processing program |
JP2014220760A (en) * | 2013-05-10 | 2014-11-20 | 三星テクウィン株式会社Samsung Techwin Co., Ltd | Image processing apparatus and image processing method |
CN104636118A (en) * | 2013-11-10 | 2015-05-20 | 航天信息股份有限公司 | QR two-dimensional code self-adaptation binarization processing method and device based on light balance |
WO2015072306A1 (en) * | 2013-11-14 | 2015-05-21 | 日本電気株式会社 | Image processing system |
JP2017077008A (en) * | 2016-12-07 | 2017-04-20 | 株式会社ニコン | Image processing apparatus |
CN108810315A (en) * | 2017-04-28 | 2018-11-13 | 佳能株式会社 | Information processing apparatus, image processing system, control system, and information processing method |
JP2019083550A (en) * | 2019-01-16 | 2019-05-30 | 株式会社ニコン | Electronic apparatus |
CN112118394A (en) * | 2020-08-27 | 2020-12-22 | 厦门亿联网络技术股份有限公司 | Dim light video optimization method and device based on image fusion technology |
CN113454392A (en) * | 2019-02-22 | 2021-09-28 | 松下知识产权经营株式会社 | Heating cooker |
CN113780037A (en) * | 2020-06-10 | 2021-12-10 | 中兴通讯股份有限公司 | Indicator light identification method and device, electronic device, computer readable storage medium |
CN114440794A (en) * | 2022-03-11 | 2022-05-06 | 西安交通大学 | High-precision three-dimensional measurement method for high-dynamic surface |
CN118555707A (en) * | 2024-05-28 | 2024-08-27 | 上海润澜照明设计有限公司 | AI-driven multi-modal lighting control system |
-
2007
- 2007-06-27 JP JP2007168636A patent/JP2009010566A/en active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011090367A (en) * | 2009-10-20 | 2011-05-06 | Pasuko:Kk | Road surface image capturing/editing device and road surface image capturing/editing program |
KR101374330B1 (en) * | 2010-07-08 | 2014-03-14 | 가부시키가이샤 리코 | Image processing unit, image processing method, and computer-readable recording medium having recorded therein image processing program |
US8983140B2 (en) | 2010-07-08 | 2015-03-17 | Ricoh Company, Ltd. | Image processing unit, image processing method, and image processing program to correct blurs and noise in an image |
JP2012019429A (en) * | 2010-07-09 | 2012-01-26 | Ikegami Tsushinki Co Ltd | Imaging signal processing circuit and imaging signal processing method |
DE102012201696A1 (en) | 2011-02-07 | 2012-08-09 | Canon Kabushiki Kaisha | Image processing apparatus, associated control method, program and recording medium |
US9426382B2 (en) | 2011-02-07 | 2016-08-23 | Canon Kabushiki Kaisha | Image processing apparatus and method in which first and second images are combined in a weighted manner based on a third image |
JP2014220760A (en) * | 2013-05-10 | 2014-11-20 | 三星テクウィン株式会社Samsung Techwin Co., Ltd | Image processing apparatus and image processing method |
CN104636118A (en) * | 2013-11-10 | 2015-05-20 | 航天信息股份有限公司 | QR two-dimensional code self-adaptation binarization processing method and device based on light balance |
US9747675B2 (en) | 2013-11-14 | 2017-08-29 | Nec Corporation | Image processing system |
WO2015072306A1 (en) * | 2013-11-14 | 2015-05-21 | 日本電気株式会社 | Image processing system |
JPWO2015072306A1 (en) * | 2013-11-14 | 2017-03-16 | 日本電気株式会社 | Image processing system |
JP2017077008A (en) * | 2016-12-07 | 2017-04-20 | 株式会社ニコン | Image processing apparatus |
CN108810315A (en) * | 2017-04-28 | 2018-11-13 | 佳能株式会社 | Information processing apparatus, image processing system, control system, and information processing method |
US10678159B2 (en) | 2017-04-28 | 2020-06-09 | Canon Kabushiki Kaisha | Apparatus, system, and method |
JP2019083550A (en) * | 2019-01-16 | 2019-05-30 | 株式会社ニコン | Electronic apparatus |
CN113454392A (en) * | 2019-02-22 | 2021-09-28 | 松下知识产权经营株式会社 | Heating cooker |
CN113780037A (en) * | 2020-06-10 | 2021-12-10 | 中兴通讯股份有限公司 | Indicator light identification method and device, electronic device, computer readable storage medium |
CN112118394A (en) * | 2020-08-27 | 2020-12-22 | 厦门亿联网络技术股份有限公司 | Dim light video optimization method and device based on image fusion technology |
CN112118394B (en) * | 2020-08-27 | 2022-02-11 | 厦门亿联网络技术股份有限公司 | Dim light video optimization method and device based on image fusion technology |
CN114440794A (en) * | 2022-03-11 | 2022-05-06 | 西安交通大学 | High-precision three-dimensional measurement method for high-dynamic surface |
CN114440794B (en) * | 2022-03-11 | 2022-10-28 | 西安交通大学 | High-precision three-dimensional measurement method for high-dynamic surface |
CN118555707A (en) * | 2024-05-28 | 2024-08-27 | 上海润澜照明设计有限公司 | AI-driven multi-modal lighting control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009010566A (en) | Method and imaging apparatus for expanding dynamic range of photographic image | |
JP5460173B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
CN104717432B (en) | Handle method, image processing equipment and the digital camera of one group of input picture | |
US9019402B2 (en) | Dynamic range extension by combining differently exposed hand-held device-acquired images | |
JP6700840B2 (en) | Image processing device, imaging device, control method, and program | |
JP7087331B2 (en) | Image processing equipment, image processing methods and programs | |
US10298857B2 (en) | Image processing method and apparatus, integrated circuitry and recording medium for applying gain to a pixel | |
JP7369175B2 (en) | Image processing device and its control method and program | |
JP6218389B2 (en) | Image processing apparatus and image processing method | |
CN112840637A (en) | Spatially Multiplexed Exposure for Automatic Exposure of High Dynamic Range Image Sensors | |
CN112655195A (en) | Entropy variance based automatic exposure of image sensors | |
CN106412534B (en) | A kind of brightness of image adjusting method and device | |
JP2016213718A (en) | Image processing apparatus, image processing method, program, and storage medium | |
CN102572286A (en) | Photographic device, photographic method and program | |
JP7071084B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
US20180025476A1 (en) | Apparatus and method for processing image, and storage medium | |
JP4999871B2 (en) | Imaging apparatus and control method thereof | |
KR101387023B1 (en) | High dynamic range image viewer, and image process method thereof | |
US20210166399A1 (en) | Background Balancing in a Collection of Digital Images | |
JP2008206111A (en) | Photographing apparatus and photographing method | |
JP7307541B2 (en) | IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP2019070870A (en) | Image processing device, image processing method and program | |
JP5932392B2 (en) | Image processing apparatus and image processing method | |
Snow | Assessing and achieving accuracy in digital dental photography | |
JP2004078652A (en) | Image processor and its method |