JP5589660B2 - Image processing apparatus, imaging apparatus, and image processing program - Google Patents
Image processing apparatus, imaging apparatus, and image processing program Download PDFInfo
- Publication number
- JP5589660B2 JP5589660B2 JP2010180840A JP2010180840A JP5589660B2 JP 5589660 B2 JP5589660 B2 JP 5589660B2 JP 2010180840 A JP2010180840 A JP 2010180840A JP 2010180840 A JP2010180840 A JP 2010180840A JP 5589660 B2 JP5589660 B2 JP 5589660B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge region
- edge
- image data
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 211
- 238000003384 imaging method Methods 0.000 title claims description 52
- 238000000034 method Methods 0.000 claims description 114
- 230000008569 process Effects 0.000 claims description 106
- 238000003708 edge detection Methods 0.000 claims description 66
- 230000004075 alteration Effects 0.000 claims description 58
- 230000003287 optical effect Effects 0.000 claims description 17
- 238000011161 development Methods 0.000 claims description 14
- 238000007906 compression Methods 0.000 description 20
- 230000006835 compression Effects 0.000 description 16
- 230000006837 decompression Effects 0.000 description 15
- 230000018109 developmental process Effects 0.000 description 12
- 238000011946 reduction process Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000010428 oil painting Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Studio Circuits (AREA)
- Color Television Image Signal Generators (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
Description
本発明は、クレヨン画、油絵、イラスト画などの絵画調の画像を生成する画像処理装置、撮像装置及び画像処理プログラムに関する。 The present invention relates to an image processing device, an imaging device, and an image processing program that generate a painting-like image such as a crayon drawing, an oil painting, or an illustration drawing.
撮影により得られた画像から、クレヨン画、油絵、又はイラスト画などの絵画調の画像を生成する画像処理装置が提案されている(特許文献1参照)。この画像処理装置では、元になる画像(元画像)に含まれる構造的特徴、言い換えれば対象物の輪郭や境界などに表れるエッジ部分の線的特徴を線画化している。 There has been proposed an image processing apparatus that generates a painting-like image such as a crayon drawing, an oil painting, or an illustration drawing from an image obtained by photographing (see Patent Document 1). In this image processing apparatus, a structural feature included in an original image (original image), in other words, a linear feature of an edge portion appearing on the contour or boundary of an object is drawn.
しかしながら、撮像装置によって得られる画像は、撮像装置に用いられる光学系の特性や撮影時の撮影倍率によって色収差が生じている場合がある。このような色収差は上述したエッジ部分の周辺部に発生しやすい。このため、このような元画像を用いて絵画調の画像を生成したときには、元画像に生じた色収差がそのまま残留してしまい、また、残留した色収差が目立つという問題がある。 However, an image obtained by the imaging apparatus may have chromatic aberration depending on characteristics of an optical system used in the imaging apparatus and a photographing magnification at the time of photographing. Such chromatic aberration is likely to occur in the periphery of the edge portion described above. For this reason, when a picture-like image is generated using such an original image, the chromatic aberration generated in the original image remains as it is, and the remaining chromatic aberration is conspicuous.
本発明は、色収差を低減した絵画調の画像を生成することができるようにした画像処理装置、撮像装置及び画像処理プログラムを提供することを目的とする。 An object of the present invention is to provide an image processing apparatus, an imaging apparatus, and an image processing program capable of generating a painting-like image with reduced chromatic aberration.
上述した課題を解決するために、本発明の画像処理装置は、画像に含まれるエッジ領域を検出するエッジ検出部と、前記エッジ検出部により検出された前記エッジ領域の輝度を調整する第1のエッジ領域調整部と、前記エッジ領域の彩度を調整する第2のエッジ領域調整部と、色収差の情報を取得する情報取得部と、を備え、前記エッジ検出部は、前記情報取得部によって取得された色収差の情報に基づいて、前記エッジ領域の検出時に用いるパラメータを変更することを特徴とする。 In order to solve the above-described problem, an image processing apparatus according to the present invention includes an edge detection unit that detects an edge region included in an image, and a first luminance that adjusts the luminance of the edge region detected by the edge detection unit. An edge region adjustment unit; a second edge region adjustment unit that adjusts the saturation of the edge region; and an information acquisition unit that acquires chromatic aberration information. The edge detection unit is acquired by the information acquisition unit. based on the chromatic aberration of information, it characterized that you change a parameter used at the time of detection of the edge region.
また、前記エッジ領域の輝度及び彩度が調整された前記画像のうち、少なくとも前記エッジ領域を除く領域の階調を調整する階調調整部を備えていることが好ましい。 In addition, it is preferable that the image processing apparatus further includes a gradation adjusting unit that adjusts gradation of at least an area excluding the edge area in the image in which the luminance and saturation of the edge area are adjusted.
ここで、前記画像は、輝度及び色差からなる色空間で示される画像であり、前記エッジ検出部は、前記画像の輝度に基づいて前記画像に含まれる前記エッジ領域を検出することが好ましい。 Here, it is preferable that the image is an image indicated by a color space including luminance and color difference, and the edge detection unit detects the edge region included in the image based on the luminance of the image.
また、前記画像は、R色、G色及びB色の各色成分からなる色空間で示される画像であり、前記エッジ検出部は、前記R色、G色及びB色の各色成分の少なくともいずれかの色成分に基づいて前記画像に含まれる前記エッジ領域を検出することが好ましい。 The image is an image indicated by a color space composed of R, G, and B color components, and the edge detection unit is at least one of the R, G, and B color components. It is preferable that the edge region included in the image is detected based on the color component.
また、前記画像は、撮影時に用いた撮像光学系の種類と色収差とが関連付けられた付帯情報が付帯されており、前記付帯情報に基づいて、前記第2のエッジ領域調整部による前記エッジ領域の彩度調整を行うか否かを判定する判定部を備えていることが好ましい。 Further, the image is accompanied by incidental information in which the type of the imaging optical system used at the time of photographing and chromatic aberration are associated with each other, and based on the incidental information, the second edge area adjustment unit determines the edge region. It is preferable that a determination unit that determines whether or not to perform saturation adjustment is provided.
また、前記画像は、撮影時に用いた撮像光学系の種類と色収差とが関連付けられた付帯情報が付帯されており、前記エッジ検出部は、前記画像に付帯された前記付帯情報に基づいて前記エッジ領域の検出時のパラメータを変更することが好ましい。 Further, the image is accompanied by incidental information in which the type of imaging optical system used at the time of photographing and chromatic aberration are associated, and the edge detection unit is configured to perform the edge operation based on the incidental information incidental to the image. It is preferable to change parameters at the time of detecting the region.
また、本発明の撮像装置は、上述した画像処理装置と、撮影時に前記画像を取得する撮像素子と、前記撮像素子により取得される前記画像に対して現像処理を行う現像処理部と、を備えたことを特徴とする。 In addition, an imaging apparatus of the present invention includes the above-described image processing apparatus, an imaging element that acquires the image at the time of shooting, and a development processing unit that performs development processing on the image acquired by the imaging element. It is characterized by that.
また、本発明の画像処理プログラムは、画像に含まれるエッジ領域を検出するエッジ検出工程と、前記エッジ検出工程により検出された前記エッジ領域の輝度を調整する第1のエッジ領域調整工程と、前記エッジ領域の彩度を調整する第2のエッジ領域調整工程と、色収差の情報を取得する情報取得工程と、を備え、前記エッジ検出工程は、前記情報取得工程によって取得された色収差の情報に基づいて、前記エッジ領域の検出時に用いるパラメータを変更する処理を含むことを特徴とする。 The image processing program of the present invention includes an edge detection step for detecting an edge region included in an image, a first edge region adjustment step for adjusting the luminance of the edge region detected by the edge detection step, A second edge region adjustment step for adjusting the saturation of the edge region; and an information acquisition step for acquiring chromatic aberration information, wherein the edge detection step is based on the chromatic aberration information acquired by the information acquisition step. And a process of changing a parameter used when detecting the edge region.
本発明によれば、色収差を低減した絵画調の画像を生成することができる。 According to the present invention, it is possible to generate a picture-like image with reduced chromatic aberration.
図1は、本発明を実施した撮像装置の概略を示す図である。撮像装置10は、撮像光学系15によって取り込まれた被写体光を撮像素子16によって光電変換し、光電変換後の電気信号を画像信号として取得する。撮像光学系15は、図示を省略したズームレンズやフォーカスレンズなどを含むレンズ群から構成される。これらズームレンズやフォーカスレンズはレンズ駆動機構17によって光軸L方向に移動する。
FIG. 1 is a diagram showing an outline of an imaging apparatus embodying the present invention. The
撮像素子16は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)などから構成される。この撮像素子16は、ドライバ18によって駆動制御される。この撮像素子16の駆動制御としては、撮像素子16の各画素における信号電荷の蓄積、及び蓄積された各画素の信号電荷の出力を制御することが挙げられる。なお、各画素の信号電荷は画素信号として出力される。なお、撮像素子16から出力される画像信号は、各画素の画素信号をまとめた信号となる。この撮像素子16から出力される画像信号は、A/D変換部19に出力される。A/D変換部19は、入力されるアナログの画像信号を、デジタルの画像信号に変換する。このデジタルの画像信号は、バッファメモリ20に書き込まれる。
The
画像処理回路21は、バッファメモリ20に書き込まれた画像信号に対して、ホワイトバランス処理、色補間処理、輪郭補償処理、ガンマ処理などの画像処理を施す。上述したように、A/D変換部19によりデジタルの信号に変換された画像信号は、各画素の輝度を示す信号であることから、以下、該画像信号に対して施されるホワイトバランス処理、色補間処理、輪郭補償処理、ガンマ処理などの画像処理を現像処理と称して説明する。
The
例えば絵画調の画像を生成しない場合には、現像処理が施された画像信号(以下、現像処理済みの画像データ)が記録用の画像データとなる。この場合、画像処理回路21は、記録用の画像データに対して、解像度変換処理を実行する。これにより、例えば撮像装置10に設けられた表示装置33に合わせた解像度の縮小画像データ等が生成される。
For example, when a picture-like image is not generated, an image signal subjected to development processing (hereinafter, image data after development processing) becomes image data for recording. In this case, the
一方、絵画調の画像を生成する場合には、画像処理回路21は、現像処理済みの画像データに対して特殊効果を付与する処理を実行する。この特殊効果を付与する処理を行う機能として、画像処理回路21は、エッジ検出部25、第1エッジ領域調整部26、第2エッジ領域調整部27を備えている。
On the other hand, in the case of generating a picture-like image, the
エッジ検出部25は、現像処理済みの画像データを用いて、該画像データに含まれるエッジ部分(以下、エッジ領域)の検出を行う。このエッジ領域の検出については周知であることから、ここではその詳細については省略する。なお、一般的なエッジ検出処理は、画像の明るさ(輝度)が鋭敏に変化している箇所をエッジ領域として抽出する処理である。このようなエッジ検出処理を行う場合には、細かいテクスチャー部分に生じた鋭敏な明るさの変化部分についてもエッジ領域として検出されてしまう恐れがあるので、本実施形態においては、細かなテクスチャー部分に生じる鋭敏な明るさの変化部分についてはエッジ領域として検出されないように、エッジ検出処理を行う際のパラメータが設定される。なお、この細かな部分に生じる鋭敏な明るさの変化部分がエッジ領域として検出されないように、画像データに対してローパスフィルタ処理等の処理を予め施してもよい。
The
このエッジ領域を検出する方法としては、例えばRobertsフィルタ、Sobelフィルタ、Prewittフィルタなどの一次微分タイプの空間フィルタ、ラプラシアンフィルタに代表される二次微分タイプの空間フィルタが挙げられる。なお、一次微分タイプの空間フィルタの場合には、一方向に対する処理のみでエッジ領域を求めることから、例えばx方向(水平方向)に対する処理と、x方向に直交するy方向(鉛直方向)に対する処理とをそれぞれ行った後、これら処理の結果を足し合わせることで、エッジ領域を検出してもよい。 As a method for detecting the edge region, for example, a first-order differential type spatial filter such as a Roberts filter, a Sobel filter, and a Prewitt filter, and a second-order differential type spatial filter typified by a Laplacian filter can be used. In the case of a first-order differential type spatial filter, since the edge region is obtained only by processing in one direction, for example, processing in the x direction (horizontal direction) and processing in the y direction (vertical direction) orthogonal to the x direction. After performing the above, the edge region may be detected by adding the results of these processes.
また、これら一次、二次微分タイプの空間フィルタを用いてエッジ領域を検出する他に、モルフォロジー演算の膨張−収縮を用いてエッジを抽出するモルフォロジーグラジエントの方法を用いることでエッジ領域を検出する、又は、元画像と該元画像をぼかした画像との差分からエッジ領域を検出することも可能である。 In addition to detecting edge regions using these primary and secondary differential type spatial filters, edge regions are detected by using a morphological gradient method of extracting edges using expansion / contraction of morphological operations. Alternatively, the edge region can be detected from the difference between the original image and an image obtained by blurring the original image.
なお、Canny法を用いてエッジ領域を検出する方法や、領域分割による分割線をエッジ領域として検出する方法など、細線化されたエッジ領域が検出される手法は本発明には適していないので、これら方法は除外される。 Note that a method for detecting a thinned edge region, such as a method for detecting an edge region using the Canny method or a method for detecting a dividing line by region division as an edge region, is not suitable for the present invention. These methods are excluded.
上述したバッファメモリ20に記憶される現像処理済みの画像データが例えばR(赤)色、G(緑)色、B(青)色からなる色空間で示される画像データ(以下、RGB画像データ)の場合、エッジ検出部25は、RGB画像データの色成分毎にエッジ領域を検出し、色成分毎に検出したエッジ領域を足し合わせることで、画像全体のエッジ領域を検出する。つまり、画像に生じる色収差の色成分が必ずしも単一の色成分であるとは限らないことから、全ての色成分に対して色成分毎のエッジ検出処理を行って、検出される色成分毎のエッジ領域を足し合わせることで、色収差の影響を低減する。
Image data (hereinafter referred to as RGB image data) in which the developed image data stored in the
なお、エッジ検出に係る処理時間や処理速度を考慮した場合には、必ずしもR色、G色、B色の全ての色成分を用いてエッジ検出処理を実行する必要はなく、例えばG色成分のみなど、少なくともいずれか1つの色成分を用いてエッジ検出処理を実行することも可能である。 When processing time and processing speed related to edge detection are taken into consideration, it is not always necessary to execute edge detection processing using all the R, G, and B color components. For example, only the G color component is used. It is also possible to execute the edge detection process using at least one of the color components.
また、現像処理済みの画像データがYCbCr画像データやYUV画像データに代表される、輝度及び色差からなる色空間で示される画像データの場合には、輝度(Y)成分を用いてエッジ領域を検出すればよい。なお、このような画像データを用いる場合には、輝度成分のみを用いたエッジ検出処理となり処理時間を抑えることができるので、例えば動画像データから絵画調の動画像データを生成する場合に有利である。なお、この場合、輝度(Y)成分だけでなく、色差成分(YCbCr画像データの場合にはCb成分及びCr成分、YUV画像信号の場合にはU成分及びV成分)を用いてエッジ検出処理を行うことも可能である。 When the developed image data is image data represented by a color space consisting of luminance and color difference, represented by YCbCr image data and YUV image data, the edge region is detected using the luminance (Y) component. do it. When such image data is used, edge detection processing using only the luminance component is performed, and the processing time can be reduced. For example, it is advantageous when generating picture-like moving image data from moving image data. is there. In this case, edge detection processing is performed using not only the luminance (Y) component but also the color difference components (Cb component and Cr component in the case of YCbCr image data, U component and V component in the case of YUV image signal). It is also possible to do this.
このエッジ検出部25によるエッジ検出処理を行うことで、抽出されるエッジ領域のアドレス(位置)データが内蔵メモリ41に書き込まれる。なお、エッジ領域の位置データとは、エッジ領域に含まれる画素の位置データである。
By performing edge detection processing by the
第1エッジ領域調整部26は、エッジ検出部25によって検出されるエッジ領域の輝度を調整する。詳細には、この第1エッジ領域調整部26は、エッジ検出部25により抽出されたエッジ領域の位置データと、バッファメモリ20に書き込まれた現像処理済みの画像データとを用いて、エッジ領域の輝度を下げる処理を実行する。
The first edge
例えば現像処理済みの画像データがRGB画像データからなる場合には、第1エッジ領域調整部26は、エッジ領域に含まれる各画素の画素値にゲインγ(0<γ<1)を乗算する。このエッジ領域に含まれる各画素の画素値は、R色、G色及びB色の各色成分の値からなるので、これら各色成分の値にゲインγを乗算する。これにより、各色成分の値が同一の割合で低下する。これにより、エッジ領域の輝度が低減される。
For example, when the developed image data is RGB image data, the first edge
また、現像処理済みの画像データがYCbCr画像データやYUV画像データとなる場合、第1エッジ領域調整部26は、検出されたエッジ領域に含まれる各画素の画素値のうち、輝度(Y)成分の値に対して、ゲインγ’(0<γ’<1)を乗算する。これにより、輝度(Y)成分の値が低下する。これにより、エッジ領域の輝度が低減される。
In addition, when the developed image data is YCbCr image data or YUV image data, the first edge
第2エッジ領域調整部27は、輝度が低減されたエッジ領域の彩度を調整する。詳細には、この第2エッジ領域調整部27は、第1エッジ領域調整部26により、輝度が低減されたエッジ領域の彩度を低減する処理を実行する。
The second edge
例えば現像処理済みの画像データがRGB画像データからなる場合には、例えば下記の式に示すマトリクス演算を用いて彩度を低減する。 For example, when the developed image data is RGB image data, the saturation is reduced by using, for example, a matrix operation represented by the following equation.
なお、上述した式における[R,G,B]は、調整処理前のエッジ領域に含まれる画素のR色成分、G色成分、B色成分の画素値であり、[R’,G’,B’]は調整処理後のエッジ領域に含まれる画素のR色成分、G色成分、B色成分の画素値である。また、係数αは、エッジ領域における信号レベルであり、この係数αは0≦α≦1となる。 Note that [R, G, B] in the above-described equation are pixel values of the R color component, the G color component, and the B color component of the pixels included in the edge region before the adjustment process, and [R ′, G ′, B ′] is the pixel value of the R color component, G color component, and B color component of the pixel included in the edge region after the adjustment processing. The coefficient α is a signal level in the edge region, and the coefficient α satisfies 0 ≦ α ≦ 1.
一方、現像処理済みの画像データがYCbCr画像データやYUV画像データからなる場合には、第2エッジ領域調整部27は、エッジ領域に含まれる画素の画素値のうち、色差成分(YCbCr画像データの場合にはCb成分及びCr成分、YUV画像データの場合にはU成分及びV成分)の値に対して、ゲインδ(0<δ<1)を乗算する。これにより、色差成分の値が低下するので、結果的にエッジ領域の彩度が低減される。なお、ゲインδを乗算する他に、例えばU’=α×U+(1−α)×U(U:調整処理前の色差値、U’:調整処理後の色差値、α:エッジ領域の信号レベル)などの式を用いてもよい。
On the other hand, when the developed image data is composed of YCbCr image data or YUV image data, the second edge
なお、画像処理回路21は、これら第1エッジ領域調整部26及び第2エッジ領域調整部27によって輝度及び彩度が調整(低減)された画像データに対して、色・階調調整処理を実行する。なお、この色・階調調整処理は、画像全体、又はエッジ領域を除いた領域に対して実行される。この色・階調調整処理としては、該当する領域の階調を調整する処理である。この色・階調調整処理を実行することで、少なくともエッジ領域以外の領域の彩度を上げることができる。なお、画像全体に対して色・階調調整処理を実行した場合には、エッジ領域の彩度も上げることになるが、第2エッジ領域調整部27によってエッジ領域の彩度を一旦低減させているので、エッジ領域の彩度は、色収差を目立たせる原因とはならない。これにより、絵画調の画像データが生成される。なお、絵画調の画像を生成する場合には、生成される絵画調の画像データが記録用の画像データとなる。なお、この場合も、画像処理回路21は、記録用の画像データに対して解像度変換処理を行うことで、縮小画像データを生成する。
The
圧縮/伸長回路30は、記録用の画像データに対する圧縮(符号化)処理を行う他、記憶媒体32に記憶される画像データに対する伸長(復号化)処理を行う。接続I/F31は、例えばメモリカードなどの記憶媒体32を電気的に接続する。この記憶媒体32は、撮影条件、撮影日時の他、撮像装置10の情報等が付帯情報として付帯された圧縮処理済みの画像データを格納する。なお、記録用の画像データに対して解像度変換を行うことで取得される縮小画像データは、圧縮/伸長回路30にて圧縮処理された後、付帯情報として記録用の画像データに付帯される。
The compression /
表示装置33は、例えばLCDやELディスプレイなどから構成され、スルー画像や、撮影により得られた画像を表示する。また、この他に、表示装置33は、撮像装置10の設定を行う際の設定用の画像を表示する。なお、符号34は表示制御回路であり、この表示制御回路34は表示装置33における表示制御を実行する。
The display device 33 is composed of, for example, an LCD or an EL display, and displays a through image or an image obtained by photographing. In addition to this, the display device 33 displays an image for setting when the
CPU40は、バッファメモリ20、画像処理回路21、圧縮/伸長回路30、接続I/F31、表示制御回路34、内蔵メモリ41などとバス42を介して接続される。このCPU40は、図示を省略した制御プログラムを実行することで、撮像装置10の各部を統括的に制御する。このCPU40にはレリーズボタン45や操作部46が接続され、これらボタンや操作部の操作に基づく操作信号がCPU40に入力される。この操作信号の入力を受けて、CPU40は、操作信号に基づく処理を実行する。例えばレリーズボタン45が操作されたときには、CPU40は、周知のAE処理、AF処理を行い、これら処理に基づいて撮影条件を決定し、決定された撮影条件に基づいた撮像処理を実行する。なお、AE処理やAF処理については、周知であることから、ここではその詳細については省略する。また、操作部46が操作されたときには、撮像感度やシャッタ速度などを設定する、又は撮影モードを設定する処理を実行する。
The
以下、撮影により絵画調の静止画像を取得する際の処理の流れを、図2のフローチャートに基づいて説明する。 Hereinafter, the flow of processing when acquiring a picture-like still image by photographing will be described based on the flowchart of FIG.
ステップS101は、レリーズボタンの操作があるか否かを判定する処理である。撮影者によりレリーズボタン45が操作されると、レリーズボタン45の内部に設けられたスイッチがオンとなり、その旨を示す信号がCPU40に出力される。CPU40は、レリーズボタン45の操作を受けて入力される信号の有無により、レリーズボタン45の操作があるか否かを判定する。例えば、レリーズボタン45からの信号がCPU40に入力された場合には、CPU40は、レリーズボタン45の操作があると判定する。この場合、ステップS101の判定処理はYesとなり、ステップS102に進む。一方、レリーズボタン45からの信号がCPU40に入力されない場合には、CPU40は、レリーズボタン45の操作がないと判定する。この場合、ステップS101の判定処理はNoとなり、図2のフローチャートに示す処理が終了する。
Step S101 is processing for determining whether or not there is an operation of the release button. When the photographer operates the release button 45, a switch provided inside the release button 45 is turned on, and a signal indicating that is output to the
ステップS102は、撮像処理である。CPU40は、AE処理を実行することで撮影条件を決定した後、AF処理を実行する。これら処理が終了した後、CPU40は、予め設定された撮影条件に基づいて撮像処理を実行する。このステップS102の処理が実行されることで、撮像素子16から出力される画像信号がバッファメモリ20に書き込まれる。
Step S102 is an imaging process. The
ステップS103は、取得された画像信号に対する現像処理である。画像処理回路21は、バッファメモリ20に書き込まれた画像信号を読み出して、ホワイトバランス処理、色補間処理、輪郭補償処理、ガンマ処理などの現像処理を実行する。このステップS103の処理が実行されることで現像処理済みの画像データが生成され、バッファメモリ20に書き込まれる。
Step S103 is a development process for the acquired image signal. The
ステップS104は、現像処理済みの画像データに対するエッジ検出処理である。画像処理回路21は、バッファメモリ20に書き込まれた現像処理済みの画像データを読み出し、エッジ検出処理を実行する。画像データがRGB画像データとなる場合には、画像処理回路21は、色成分毎にエッジ領域を検出し、検出された色成分毎のエッジ領域を足し合わせる。これにより、画像データ全体のエッジ領域が抽出される。
Step S104 is edge detection processing for image data that has been developed. The
一方、画像データがYCbCr画像データやYUV画像データであれば、画像処理回路21は、輝度(Y)成分を用いてエッジ領域を検出する。これにより、画像データに含まれるエッジ領域が抽出される。なお、抽出されたエッジ領域の位置データは、内蔵メモリ41に書き込まれる。
On the other hand, if the image data is YCbCr image data or YUV image data, the
ステップS105は、検出されたエッジ領域に対する輝度低減処理である。画像処理回路21は、内蔵メモリ41に書き込まれた位置データと、バッファメモリ20に書き込まれた画像データとを用いて、エッジ領域に含まれる各画素の画素値を読み出す。例えば画像データがRGB画像データとなる場合には、エッジ領域に含まれる各画素の画素値のそれぞれに対してゲインγを乗算する。一方、画像データがYCbCr画像データやYUV画像データであれば、エッジ領域に含まれる各画素値のうち、輝度(Y)成分の値に対してゲインγ’を乗算する。なお、ゲインγ、γ’が取り得る範囲は、それぞれ0<γ<1、0<γ’<1であることから、これらゲインγ、γ’をそれぞれ乗算することで、エッジ領域における輝度が低減される。なお、ステップS105の処理が施された画像データは、バッファメモリ20に書き込まれる。
Step S105 is a luminance reduction process for the detected edge region. The
ステップS106は、検出されたエッジ領域に対する彩度低減処理である。画像処理回路21は、内蔵メモリ41に書き込まれた位置データと、ステップS106の処理後にバッファメモリ20に書き込まれた画像データとを用いて、エッジ領域に含まれる各画素の画素値を読み出す。例えばRGB画像データの場合には、エッジ領域に含まれる各画素の画素値に対して、上述した式を用いたマトリックス演算を行う。一方、画像データがYCbCr画像データやYUV画像データであれば、エッジ領域に含まれる各画素の画素値のうち、色差成分に対してゲインδを乗算する。このゲインδが取り得る範囲は0<δ<1であることから、ゲインδを乗算することで、エッジ領域の彩度が低減される。なお、ステップS106の処理が施された画像データは、バッファメモリ20に書き込まれる。
Step S106 is a saturation reduction process for the detected edge region. The
ステップS107は、色・階調調整処理である。画像処理回路21は、ステップS105及びステップS106の処理によりエッジ領域の輝度と彩度とが低減処理された画像データをバッファメモリ20から読み出して、エッジ領域以外の領域、又は画像全体に対して色・階調調整処理を実行する。この色・階調調整処理は、ステップS106において実行される彩度低減処理の度合いに応じて実行される。なお、このステップS107における色・階調調整処理は、必ずしも行う必要はない。
Step S107 is color / gradation adjustment processing. The
この色・階調調整処理は、彩度を上げる調整となる。例えばエッジ領域以外の領域に色・階調調整処理を実行する場合には、エッジ領域以外の領域の彩度が上がる。また、画像全体に対して色・階調調整処理を実行する場合には、エッジ領域以外の領域だけでなく、エッジ領域の彩度も上がるが、第2エッジ領域調整部27によってエッジ領域の彩度を一旦低減させているので、エッジ領域の彩度は色収差を目立たせる原因とはならない。この処理を実行することで、絵画調の画像データが生成される。この場合には、絵画調の画像データが記録用の画像データとなる。画像処理回路21は、このステップS107の処理を実行することで得られる記録用の画像データに対して解像度変換処理を行い、例えば表示装置33の解像度に合わせた画像サイズ等となるように縮小画像データを生成する。
This color / gradation adjustment process is an adjustment for increasing the saturation. For example, when color / gradation adjustment processing is performed on a region other than the edge region, the saturation of the region other than the edge region increases. In addition, when color / gradation adjustment processing is performed on the entire image, the saturation of the edge region increases as well as the region other than the edge region, but the second edge
ステップS108は、記録用の画像データを記録する処理である。圧縮/伸長回路30は、ステップS107の処理を実行することで得られる記録用の画像データや、縮小画像データに対して圧縮処理を施す。CPU40は、圧縮処理された記録用画像データに、撮影条件や撮影日時、撮像装置10の機種などの情報や縮小画像データを付帯情報として付帯し、記憶媒体32に書き込む。この処理を行うことで、図2に示すフローチャートの処理が終了する。
Step S108 is processing to record image data for recording. The compression /
図3(a)に示す静止画像に対してエッジ検出処理を行う場合について考慮する。この静止画像に対して一般的なエッジ検出処理を実行すると、矩形にて示す符号51の領域においては、ハッチングにて塗りつぶされた領域52〜56がエッジ領域としてそれぞれ検出される(図3(b)参照)。なお、エッジ領域52、エッジ領域55の周辺部には、赤色、緑色、青色、又は、これら色成分が組み合わされた色の色収差が発生している。なお、図3(b)において色収差が発生している領域は、斜線のハッチングで示す領域57〜59である。
Consider the case where edge detection processing is performed on the still image shown in FIG. When general edge detection processing is performed on this still image,
そこで、上述したステップS104のエッジ検出処理では、図3(a)に示す画像がRGB画像であれば、R色成分、G色成分及びB色成分のそれぞれに対してエッジ検出処理を実行する。これにより、図3(b)に示すエッジ領域52〜56の他に、色収差が発生する領域57〜59もエッジ領域として抽出される。
Therefore, in the edge detection process of step S104 described above, if the image shown in FIG. 3A is an RGB image, the edge detection process is executed for each of the R color component, the G color component, and the B color component. Thereby, in addition to the
そして、ステップS104のエッジ検出処理が終了した後のステップS105の処理では、エッジ領域に対する輝度を低減することから、ステップS104にて抽出されたエッジ領域52〜59の輝度が低減される、言い換えればR色、G色、B色の各色成分の値(階調値)が低くなる。さらに、ステップS106の処理では、エッジ領域に対する彩度を低減する処理であることから、ステップS104にて抽出されたエッジ領域52〜59の彩度が低減される、言い換えればR色、G色、B色の各色成分の値(階調値)がさらに低くなる。つまり、ステップS105及びステップS106の処理を実行することで、エッジ領域の色味が無くなり、これら領域は無彩色に近づく。これによれば、ステップS105及びステップS106の処理を実行することで、エッジ領域周辺の色収差が発生している画素の領域がエッジ領域として表現される。なお、領域51以外についても同様であり、上述したステップS104にて抽出されたエッジ領域に対してステップS105及びステップS106の処理を行うことで、色収差が低減された絵画調の静止画像が生成される(図3(c)参照)。
Then, in the process of step S105 after the edge detection process of step S104 is completed, the brightness of the
次に、撮影により絵画調の動画像を取得する際の処理の流れを説明する。以下、撮影により得られる動画像データがYUV画像データからなる場合について説明する。 Next, the flow of processing when acquiring a picture-like moving image by shooting will be described. Hereinafter, a case where the moving image data obtained by photographing is composed of YUV image data will be described.
ステップS201は、動画撮影の開始指示があるか否かを判定する処理である。なお、撮像装置10において、動画撮影を行う場合には、レリーズボタン45の操作が動画撮影を開始する契機となることが一般的であることから、このステップS201の判定処理は、レリーズボタン45の操作が行われたか否かを判定する処理となる。なお、このレリーズボタン45の操作が行われたか否かを判定する処理は、ステップS101の判定処理を同様である。CPU40がレリーズボタン45の操作が行われたと判定したときには、ステップS201の判定処理がYesとなり、ステップS202に進む。一方、CPU40がレリーズボタン45の操作が行われていないと判定したときには、ステップS201の判定処理がNoとなり、このフローチャートの処理の流れが終了する。
Step S201 is processing for determining whether or not there is an instruction to start moving image shooting. Note that in the
ステップS202は、撮像処理である。CPU40は、予め設定された撮影条件に基づいて、撮像素子16を制御する。これにより、画像信号が撮像素子16から出力される。この画像信号は、バッファメモリ20に格納される。
Step S202 is an imaging process. The
ステップS203は、取得された画像信号に対する現像処理である。なお、この現像処理については、ステップS103と同一の処理である。これにより、画像信号に対する現像処理が実行される。なお、この撮像素子16から出力される画像信号は、動画像の構成するフレーム画像の元になる画像信号である。以下では、現像処理済みの画像データをフレーム画像データと称する。
Step S203 is a development process for the acquired image signal. This development process is the same process as step S103. As a result, development processing for the image signal is executed. Note that the image signal output from the
ステップS204は、フレーム画像データに対するエッジ検出処理である。このステップS204のエッジ検出処理は、ステップS104と同一の処理である。なお、このフローチャートにおいては、フレーム画像データがYUV画像データからなるので、画像処理回路21は、フレーム画像データのうち、輝度(Y)成分を用いて、エッジ検出処理を実行する。これにより、エッジ領域が検出される。
Step S204 is edge detection processing for the frame image data. The edge detection process in step S204 is the same process as step S104. In this flowchart, since the frame image data is composed of YUV image data, the
ステップS205は、検出されたエッジ領域に対する輝度低減処理である。なお、このステップS205の処理は、ステップS105の処理と同一である。これにより、エッジ領域における輝度が低減される。 Step S205 is a luminance reduction process for the detected edge region. The process in step S205 is the same as the process in step S105. Thereby, the brightness | luminance in an edge area | region is reduced.
ステップS206は、検出されたエッジ領域に対する彩度低減処理である。なお、このステップS206の処理は、ステップS106と同一である。これにより、エッジ領域における彩度が低減される。これにより、絵画調のフレーム画像データが生成される
ステップS207は、フレーム画像データに対する圧縮処理である。圧縮/伸長回路30は、輝度及び彩度が低減された、絵画調のフレーム画像データに対して圧縮処理を実行する。
Step S206 is a saturation reduction process for the detected edge region. Note that the processing in step S206 is the same as that in step S106. Thereby, the saturation in the edge region is reduced. Thereby, the painting-like frame image data is generated Step S207 is a compression process for the frame image data. The compression /
ステップS208は、フレーム画像データを記録する処理である。CPU40は、上述したステップS207の圧縮処理により符号化されたフレーム画像データを記憶媒体32に書き込む。
Step S208 is processing to record frame image data. The
ステップS209は、動画撮影の終了指示があるか否かを判定する処理である。撮像装置10において動画撮影を終了する場合、レリーズボタン45の操作が動画撮影を終了する契機となることが一般的であることから、このステップS209の判定処理は、レリーズボタン45の操作が行われたか否かを判定する処理となる。なお、このレリーズボタン45の操作が行われたか否かを判定する処理は、ステップS201の判定処理を同様である。CPU40がレリーズボタン45の操作が行われたと判定したときには、ステップS209の判定処理はYesとなる。この場合、CPU40は、動画撮影に係る処理を終了させる。一方、CPU40がレリーズボタン45の操作が行われていないと判定したときには、ステップS209の判定処理はNoとなる。この場合、動画撮影が引き続き実行されるので、ステップS202に戻る。つまり、動画撮影を終了するためのレリーズボタン45の操作が行われないときには、ステップS202〜ステップS209の処理が繰り返し実行される。
Step S209 is processing for determining whether or not there is an instruction to end moving image shooting. Since the operation of the release button 45 generally triggers the end of moving image shooting when the
この場合も、上述したステップS204からステップS206の処理(エッジ領域の輝度及び彩度を低減する処理)を行うだけで容易に色収差を低減した絵画調の動画像を取得することができる。 Also in this case, it is possible to easily obtain a painting-like moving image with reduced chromatic aberration by simply performing the processing from step S204 to step S206 described above (processing for reducing the luminance and saturation of the edge region).
なお、撮影により絵画調の動画像を取得する際の処理の流れを示す図4のフローチャートにおいては、色・階調調整処理については省略しているが、ステップS206の処理を行った後に、実行することも可能である。 In the flowchart of FIG. 4 showing the flow of processing when acquiring a picture-like moving image by shooting, the color / gradation adjustment processing is omitted, but is executed after the processing of step S206. It is also possible to do.
また、撮影により絵画調の動画像を取得する場合、取得される動画像データをYUV画像データとしているが、これに限定される必要はなく、取得される動画像データはRGB画像データであってもよい。 Also, in the case of obtaining a painting-like moving image by shooting, the acquired moving image data is YUV image data, but the present invention is not limited to this, and the acquired moving image data is RGB image data. Also good.
上述した実施形態では、撮像装置を例に挙げて説明しているが、これに限定される必要はなく、例えば画像処理装置に適用することもできる。以下、画像処理装置の例を取り上げて説明する。図5に示すように、画像処理装置60は、CPU61、ROM62、RAM63、画像処理回路64、圧縮/伸長回路65及び接続I/F66がバス67を介して電気的に接続されている。
In the above-described embodiment, the imaging apparatus has been described as an example. However, the present invention is not limited to this, and can be applied to, for example, an image processing apparatus. Hereinafter, an example of the image processing apparatus will be described. As shown in FIG. 5, in the image processing device 60, a
CPU61は、ROM62に記憶された制御プログラムを実行することで、画像処理装置60の各部を制御する。ROM62は、制御プログラムや制御データなどを記憶する。RAM63は、制御プログラムを実行することで得られる演算子を一時記憶する他、記憶媒体68から読み出された画像信号を記憶する。画像処理回路64は、RAM63に一時記憶された画像データに対して、上述した特殊効果を付与する処理を実行する。圧縮/伸長回路65は、画像処理回路64によって処理された画像データに対する圧縮(符号化)処理を行う他、記憶媒体68から読み出された画像データに対する伸長(復号化)処理を実行する。接続I/F66は、メモリカードなどの記憶媒体68と接続され、記憶媒体68に記憶された画像データの読み出しや、画像データの書き込みを実行する。
The
図6に示すように、画像処理回路64は、エッジ検出部71、第1エッジ領域調整部72、第2エッジ領域調整部73及び色・階調調整部74を備えている。なお、エッジ検出部71、第1エッジ領域調整部72及び第2エッジ領域調整部73の構成は、図1に示すエッジ検出部25、第1エッジ領域調整部26、第2エッジ領域調整部27の構成と同一であることから、ここでは、その説明を省略する。
As shown in FIG. 6, the
色・階調調整部74は、エッジ領域の輝度及び彩度が調整(低減)された画像データに対して、色・階調調整する処理を行う。この色・階調調整は、例えばエッジ領域を除く領域、又は画像全体に対して実行される。
The color /
次に、上述した画像処理装置60を用いて絵画調の静止画像を生成する処理の流れについて、図7のフローチャートを参照して説明する。なお、このフローチャートは、記憶媒体68が画像処理装置60に装着されていることを前提にして実行される。以下、記憶媒体68に記憶されている静止画像データとして、現像処理済みのRGB画像データを挙げて説明する。 Next, the flow of processing for generating a picture-like still image using the image processing device 60 described above will be described with reference to the flowchart of FIG. This flowchart is executed on the assumption that the storage medium 68 is mounted on the image processing apparatus 60. Hereinafter, as the still image data stored in the storage medium 68, RGB image data that has undergone development processing will be described.
ステップS301は、静止画像データを読み出す処理である。CPU61は、記憶媒体68に記憶された静止画像データを読み出し、RAM63に書き込む。圧縮/伸長回路65は、RAM63に記憶された静止画像データに対して伸長(復号化)処理を実行する。この伸長(復号化)処理が施された静止画像データは、再度RAM63に書き込まれる。
Step S301 is processing for reading still image data. The
ステップS302は、読み出された静止画像データに対するエッジ検出処理である。画像処理回路64は、RAM63に書き込まれた静止画像データを読み出してエッジ検出処理を実行する。なお、このエッジ検出処理は、静止画像データのR成分、G成分及びB成分の全ての色成分に対して実行される。この色成分毎に検出されるエッジ領域を足し合わせることで、静止画像データに含まれるエッジ領域が抽出される。この抽出されるエッジ領域の位置データは、RAM63に記憶される。なお、このエッジ検出処理は、R色成分、G色成分及びB色成分の少なくともいずれか一つの色成分を用いて実行してもよい。
Step S302 is edge detection processing for the read still image data. The
ステップS303は、検出されたエッジ領域に対する輝度低減処理である。なお、このステップS303の処理は、ステップS105と同様の処理であることから、ここでは、その説明を省略する。このステップS303の処理により、エッジ領域の輝度が低減される。 Step S303 is a luminance reduction process for the detected edge region. Note that the processing in step S303 is the same as that in step S105, and thus the description thereof is omitted here. By the processing in step S303, the brightness of the edge region is reduced.
ステップS304は、検出されたエッジ領域に対する彩度低減処理である。なお、このステップS304の処理は、ステップS106と同一の処理であることから、ここでは、その説明を省略する。このステップS304の処理により、エッジ領域の彩度が低減される。 Step S304 is a saturation reduction process for the detected edge region. Note that the processing in step S304 is the same as that in step S106, and therefore the description thereof is omitted here. By the processing in step S304, the saturation of the edge region is reduced.
ステップS305は、色・階調調整処理である。このステップS305の処理は、ステップS107と同一の処理であることから、ここでは、その説明を省略する。例えば、このステップS305の処理を、画像全体に実行する場合には、画像全体の彩度が上げられる。このとき、エッジ領域の彩度も上がるが、ステップS304の処理を実行していることから、他の領域に比べて彩度が抑えられる。これにより、エッジ領域における色収差の影響を低減させることができる。一方、このステップS305の処理を、エッジ領域以外の領域に実行した場合、エッジ領域の彩度は変化しないので、この場合も、エッジ領域における色収差は低減された状態で保持される。これにより、絵画調の静止画像データが生成される。なお、このステップS305の処理が終了したときに、画像処理回路64は、色・階調調整処理が施された静止画像データに対して解像度変換処理を施して縮小画像データを生成する。なお、これら画像データは、RAM63に書き込まれる。これにより、絵画調の画像データが生成される。なお、ステップS305の処理は必ずしも実行されるものではなく、省略することも可能である。
Step S305 is a color / gradation adjustment process. Since the process in step S305 is the same as that in step S107, the description thereof is omitted here. For example, when the process of step S305 is performed on the entire image, the saturation of the entire image is increased. At this time, the saturation of the edge region is also increased, but the saturation is suppressed as compared with other regions because the process of step S304 is executed. Thereby, the influence of the chromatic aberration in the edge region can be reduced. On the other hand, when the process of step S305 is performed on an area other than the edge area, the saturation of the edge area does not change, and in this case as well, the chromatic aberration in the edge area is held in a reduced state. As a result, picture-like still image data is generated. When the processing in step S305 is completed, the
ステップS306は、処理済みの静止画像データを記録する処理である。圧縮/伸長回路65は、RAM63に書き込まれた画像データを読み出し、圧縮処理を実行する。この圧縮処理の後、CPU61は、ステップS302からステップS305の処理に係る処理内容と新たに生成された縮小画像データとを付帯情報に追加する。そして、新たな情報が付加された付帯情報と、圧縮処理が施された画像データとを記憶媒体68に書き込む。
Step S306 is processing to record processed still image data. The compression /
この場合も、エッジ検出処理により抽出されるエッジ領域の輝度及び彩度を低減させることで、エッジ領域の周辺に生じる色収差を抑制した絵画調の静止画像データを生成することが可能となる。 Also in this case, by reducing the luminance and saturation of the edge region extracted by the edge detection process, it is possible to generate pictorial still image data in which chromatic aberration generated around the edge region is suppressed.
次に、画像処理装置60を用いて絵画調の動画像を生成する処理の流れについて、図8のフローチャートを用いて説明する。以下、動画像データがYCbCr画像データからなる場合について説明する。 Next, the flow of processing for generating a painting-like moving image using the image processing device 60 will be described with reference to the flowchart of FIG. Hereinafter, a case where the moving image data is composed of YCbCr image data will be described.
ステップS401は、動画像データを読み出す処理である。CPU61は、記憶媒体68に記憶された動画像データを読み出し、RAM63に書き込む。圧縮/伸長回路65は、RAM63に記憶された動画像データに対して伸長(復号化)処理を実行する。伸長(復号化)処理が施された動画像データは、再度RAM63に書き込まれる。
Step S401 is processing for reading moving image data. The
ステップS402は、フレーム画像データに対するエッジ検出処理である。画像処理回路64は、RAM63に書き込まれた動画像データから、n(n=1,2,3,・・・)フレーム目のフレーム画像データを読み出してエッジ検出処理を実行する。なお、このエッジ検出処理は、フレーム画像データの輝度(Y)成分を用いて実行される。これにより、フレーム画像データに含まれるエッジ領域が抽出される。この抽出されるエッジ領域の位置データは、RAM63に記憶される。
Step S402 is edge detection processing for frame image data. The
ステップS403は、検出されたエッジ領域に対する輝度低減処理である。なお、このステップS403の処理は、ステップS303と同様の処理であることから、ここでは、その説明を省略する。このステップS403の処理により、nフレーム目のフレーム画像データにおけるエッジ領域の輝度が低減される。 Step S403 is luminance reduction processing for the detected edge region. Note that the processing in step S403 is the same as that in step S303, and thus the description thereof is omitted here. By the processing in step S403, the brightness of the edge region in the frame image data of the nth frame is reduced.
ステップS404は、検出されたエッジ領域に対する彩度低減処理である。なお、このステップS404の処理は、ステップS304と同一の処理であることから、ここでは、その説明を省略する。このステップS404の処理により、nフレーム目のフレーム画像データにおけるエッジ領域の彩度が低減される。 Step S404 is a saturation reduction process for the detected edge region. Note that the processing in step S404 is the same as that in step S304, and thus the description thereof is omitted here. By the processing in step S404, the saturation of the edge region in the frame image data of the nth frame is reduced.
ステップS405は、色・階調調整処理である。このステップS405の処理は、ステップS305と同一の処理であることから、ここでは、その説明を省略する。例えば、このステップS405の処理を、画像全体に実行する場合には、画像全体の彩度が上げられる。このとき、エッジ領域の彩度も上がるが、ステップS404の処理を実行していることから、他の領域に比べて彩度が抑えられる。これにより、エッジ領域における色収差の影響を低減させることができる。一方、このステップS405の処理を、エッジ領域以外の領域に実行した場合、エッジ領域の彩度は変化しないので、この場合も、エッジ領域における色収差は低減された状態で保持される。これにより、nフレーム目のフレーム画像データが、絵画調のフレーム画像データとして生成される。なお、このnフレーム目のフレーム画像データは、RAM63に格納される。
Step S405 is a color / gradation adjustment process. Since the process in step S405 is the same as that in step S305, the description thereof is omitted here. For example, when the process of step S405 is performed on the entire image, the saturation of the entire image is increased. At this time, the saturation of the edge region is also increased, but the saturation is suppressed as compared with other regions because the process of step S404 is executed. Thereby, the influence of the chromatic aberration in the edge region can be reduced. On the other hand, when the process of step S405 is performed on an area other than the edge area, the saturation of the edge area does not change, and in this case as well, the chromatic aberration in the edge area is held in a reduced state. As a result, frame image data of the nth frame is generated as picture-like frame image data. The frame image data of the nth frame is stored in the
ステップS406は、最終のフレーム画像データであるか否かを判定する処理である。画像処理装置64は、ステップS402〜ステップS405の処理を実行したフレーム画像データのフレーム数を読み出して、動画像データにおける最終フレームとなる画像データであるか否かを判定する。例えばステップS402〜ステップS405の処理を実行したフレーム画像データが最終のフレーム画像データとなる場合には、画像処理回路64は、このステップS406の判定処理をYesとする。この場合、ステップS407に進む。一方、ステップS402〜ステップS405の処理を実行したフレーム画像データが最終のフレーム画像データでない場合には、画像処理回路64は、このステップS406の判定処理をNoとする。この場合には、ステップS402に進み、次フレームのフレーム画像データに対して、ステップS402〜ステップS405の処理を実行する。このように、ステップS406の判定処理がNoとなる場合には、動画像データのフレーム画像データ全てに対して、ステップS402〜ステップS405の処理が実行される。このようにして、絵画調の動画像データが生成される。
Step S406 is processing for determining whether or not the frame image data is final. The
ステップS407は、処理済みの動画像データを記録する処理である。圧縮/伸長回路65は、処理済みの動画像データを圧縮(符号化)処理する。CPU61は、圧縮処理済みの動画像データを記憶媒体68に書き込む。
Step S407 is processing for recording processed moving image data. The compression /
この場合も、エッジ検出処理により抽出されるエッジ領域の輝度及び彩度を低減させることで、エッジ領域の周辺に生じる色収差を抑制した絵画調の動画像データを生成することが可能となる。 Also in this case, by reducing the luminance and saturation of the edge region extracted by the edge detection process, it is possible to generate pictorial moving image data in which chromatic aberration generated around the edge region is suppressed.
上述した実施形態における撮像装置10及び画像処理装置60においては、検出されたエッジ領域の輝度を低減する処理を行った後、エッジ領域の彩度を低減する処理を行っているが、これら処理の順番は、これに限定される必要はなく、エッジ領域の彩度を低減する処理を行った後に、エッジ領域の輝度を低減する処理を行ってもよい。また、エッジ領域の輝度を低減する処理、エッジ領域の彩度を低減する処理を2段階で実行しているが、これに限定される必要はなく、1回の処理でエッジ領域の輝度と彩度とを低減する処理を行ってもよい。
In the
また、上述した実施形態における撮像装置10及び画像処理装置60においては、検出されたエッジ領域に対して彩度を低減する処理を行っているが、このエッジ領域に対する彩度を低減する処理は、必ずしも行う必要はない。例えば、絵画調の画像を生成する際に用いる画像データから色収差(倍率色収差、軸上色収差)の情報を取得し、この色収差の情報に基づいて、エッジ領域における彩度を低減する処理を実行するか否かを決定してもよい。また、エッジ領域における彩度を低減する処理を実行する場合には、色収差の程度に基づいて彩度を低減する際の補正値(ゲイン)を調整することも可能である。なお、画像データを用いて色収差の情報を取得する方法としては、例えば、画像データがRGBデータとなる場合には、各色成分のデータから抽出されるエッジ領域の位置に基づいて色収差の情報を取得することができる。
Further, in the
また、撮像装置の場合、予め撮像光学系における色収差のデータを保持していれば、撮影時に得られた画像データから色収差の情報を取得せずに、撮像光学系における色収差のデータに基づいて、抽出されたエッジ領域における彩度を低減する処理を実行するか否かを決定することも可能である。なお、この撮像光学系における色収差のデータとしては、例えば撮像光学系の焦点距離、撮影距離、絞り値のそれぞれと、色収差とが対応付けられたテーブルデータからなる。この色収差のデータは、予め内蔵メモリに記憶されていることが好ましい。また、レンズユニットと該レンズユニットが着脱される装置本体とから構成される、所謂一眼レフタイプの撮像装置であれば、色収差のデータをレンズユニットに予め記憶させておき、レンズユニットを装置本体に取り付けたときに、レンズユニットから装置本体に送信するようにしてもよい。 In the case of an imaging device, if chromatic aberration data in the imaging optical system is held in advance, without acquiring chromatic aberration information from image data obtained at the time of shooting, based on the chromatic aberration data in the imaging optical system, It is also possible to determine whether or not to execute the process of reducing the saturation in the extracted edge region. Note that the chromatic aberration data in the imaging optical system includes, for example, table data in which each of the focal length, the shooting distance, and the aperture value of the imaging optical system is associated with the chromatic aberration. The chromatic aberration data is preferably stored in advance in a built-in memory. Further, in the case of a so-called single-lens reflex type imaging device composed of a lens unit and a device main body to which the lens unit is attached and detached, chromatic aberration data is stored in the lens unit in advance, and the lens unit is stored in the device main body. When it is attached, it may be transmitted from the lens unit to the apparatus main body.
さらに、撮像装置の場合には、撮像光学系における色収差のデータを保持していれば、該色収差のデータと、撮影にて得られた画像データから得られる色収差の情報との双方を用いて、彩度を低減するか否かを決定することも可能である。 Furthermore, in the case of an imaging device, if chromatic aberration data in the imaging optical system is retained, both the chromatic aberration data and chromatic aberration information obtained from image data obtained by photographing are used. It is also possible to determine whether to reduce the saturation.
一方、画像処理装置の場合には、画像データに予め撮像光学系における色収差のデータを付帯情報として付帯させておき、該色収差のデータに基づいて、抽出されたエッジ領域における彩度を低減する処理を実行するか否かを決定すればよい。 On the other hand, in the case of an image processing apparatus, the chromatic aberration data in the imaging optical system is attached to the image data as supplementary information in advance, and the saturation in the extracted edge region is reduced based on the chromatic aberration data. Whether or not to execute is determined.
上述した実施形態における撮像装置10や画像処理装置60で実行されるエッジ検出処理として、色収差を考慮したエッジ検出処理であってもよい。この場合、現像処理済みの画像データから取得される色収差のデータ、又は予め保持している色収差のデータから、エッジ検出処理におけるパラメータを調整してもよい。このエッジ検出処理におけるパラメータとは、例えばエッジとして検出される輝度差の閾値などが挙げられる。
The edge detection process executed in the
上述した実施形態における撮像装置10や画像処理装置60においては、エッジ検出処理で生成される画像データ(エッジ画像データ)と、エッジ領域の輝度、彩度をそれぞれ低減する処理が施された画像データとを合成する処理については述べていないが、このエッジ画像データと、エッジ領域の輝度、彩度をそれぞれ低減する処理が施された画像データとを合成してもよい。
In the
周知のように、画像データに対してエッジ検出処理を行うと、エッジ領域が白(信号値1)、エッジ領域以外の領域が黒(信号値0)で示されるエッジ画像データが生成される。このエッジ画像データに対して白黒反転処理を行うと、エッジ領域が黒、エッジ領域以外の領域が白となるエッジ画像データが生成される。画像処理回路は、白黒反転処理が施されたエッジ画像データと、エッジ領域の輝度、彩度をそれぞれ低減する処理が施された画像データと合成する。この場合、合成された画像データにおいては、エッジ領域以外の領域においては、所謂白飛びする場合もあるので、このような場合には、上述した色・階調調整処理を行うことで、エッジ領域以外の領域に色味を付ける調整を行う。このような処理を行うことで、色収差を低減した絵画調の画像を生成することが可能となる。 As is well known, when edge detection processing is performed on image data, edge image data is generated in which the edge region is white (signal value 1) and the region other than the edge region is black (signal value 0). When the black and white inversion processing is performed on the edge image data, edge image data in which the edge area is black and the area other than the edge area is white is generated. The image processing circuit synthesizes the edge image data that has been subjected to the black-and-white reversal processing with the image data that has been subjected to processing for reducing the luminance and saturation of the edge region. In this case, in the synthesized image data, so-called whiteout may occur in a region other than the edge region. In such a case, the edge region can be obtained by performing the color / gradation adjustment process described above. Make adjustments to add color to areas other than. By performing such processing, it is possible to generate a painting-like image with reduced chromatic aberration.
上述した実施形態では、画像データとして、R色、G色、B色からなる色空間で示される画像データや、YCbCr画像データやYUV画像データなどの輝度及び色差からなる色空間で示される画像データを例に取り上げて説明しているが、これらに限定される必要はなく、明度(L)、彩度(C)、色相(H)からなる色空間で示される画像データや、他の色空間で示される画像データを用いてもよい。例えば、画像データとしてLCH画像データを用いる場合には、L成分、C成分及びH成分の成分毎にエッジ領域を検出し、成分毎に検出されるエッジ領域を足し合わせることで、画像データに含まれるエッジ領域を抽出する。そして、抽出されたエッジ領域に含まれる各画素のL成分に対してゲインγ”(0<γ”<1)を乗算し、エッジ領域における輝度を低減する。また、エッジ領域に含まれる各画素のC成分に対してゲインδ”(0<δ”<1)を乗算し、エッジ領域における彩度を低減する。この場合、エッジ領域に含まれる各画素のC成分に乗算されるゲインδ”は、撮像光学系の色収差に基づいて調整される。 In the embodiment described above, as image data, image data represented in a color space composed of R, G, and B colors, and image data represented in a color space composed of luminance and color differences such as YCbCr image data and YUV image data. However, the present invention is not limited to these, and image data represented by a color space consisting of lightness (L), saturation (C), and hue (H), and other color spaces The image data indicated by may be used. For example, when LCH image data is used as image data, an edge region is detected for each of the L component, C component, and H component, and the edge regions detected for each component are added to be included in the image data. Edge region to be extracted. Then, the L component of each pixel included in the extracted edge region is multiplied by a gain γ ″ (0 <γ ″ <1) to reduce the luminance in the edge region. Further, the C component of each pixel included in the edge region is multiplied by a gain δ ″ (0 <δ ″ <1) to reduce the saturation in the edge region. In this case, the gain δ ″ multiplied by the C component of each pixel included in the edge region is adjusted based on the chromatic aberration of the imaging optical system.
上述した実施形態では、画像データの色空間を変更せずに、エッジ検出処理、輝度低減処理、彩度低減処理を行っているが、これに限定される必要はなく、画像データの色空間を変更した後に、これら処理を実行することも可能である。この場合、エッジ検出処理、輝度低減処理、彩度低減処理を実行した後、元の色空間に変換すればよい。 In the embodiment described above, the edge detection process, the luminance reduction process, and the saturation reduction process are performed without changing the color space of the image data. However, the present invention is not limited to this, and the color space of the image data is not limited to this. It is also possible to execute these processes after the change. In this case, after performing the edge detection process, the luminance reduction process, and the saturation reduction process, the original color space may be converted.
なお、上述した実施形態では、撮像装置10及び画像処理装置60を例に取り上げて説明したが、これに限定される必要はなく、図7や図8に示すフローチャートに示す機能をコンピュータに実行させることが可能な画像処理プログラムであってもよい。なお、この画像処理プログラムは、メモリカード、光学ディスク、磁気ディスクなど、コンピュータで読み取りが可能な記憶媒体に記憶されていることが好ましい。
In the above-described embodiment, the
10…撮像装置、15…撮像光学系、16…撮像素子、20…バッファメモリ、21,64…画像処理回路、25,71…エッジ検出部、26,72…第1エッジ領域調整部、27,73…第2エッジ領域調整部、32,68…記憶媒体,40,61…CPU、60…画像処理装置、74…色・階調調整部
DESCRIPTION OF
Claims (8)
前記エッジ検出部により検出された前記エッジ領域の輝度を調整する第1のエッジ領域調整部と、
前記エッジ領域の彩度を調整する第2のエッジ領域調整部と、
色収差の情報を取得する情報取得部と、
を備え、
前記エッジ検出部は、前記情報取得部によって取得された色収差の情報に基づいて、前記エッジ領域の検出時に用いるパラメータを変更する
ことを特徴とする画像処理装置。 An edge detection unit for detecting an edge region included in the image;
A first edge region adjustment unit that adjusts the luminance of the edge region detected by the edge detection unit;
A second edge region adjustment unit for adjusting the saturation of the edge region;
An information acquisition unit for acquiring chromatic aberration information;
With
The edge detection unit changes a parameter used when detecting the edge region based on chromatic aberration information acquired by the information acquisition unit.
The image processing apparatus according to claim and this.
前記エッジ領域の輝度及び彩度が調整された前記画像のうち、少なくとも前記エッジ領域を除く領域の階調を調整する階調調整部を備えていることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
An image processing apparatus comprising: a gradation adjusting unit that adjusts gradation of at least an area excluding the edge area of the image in which brightness and saturation of the edge area are adjusted .
前記画像は、輝度及び色差からなる色空間で示される画像であり、
前記エッジ検出部は、前記画像の輝度に基づいて前記画像に含まれる前記エッジ領域を検出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image is an image shown in a color space consisting of luminance and color difference,
The image processing apparatus , wherein the edge detection unit detects the edge region included in the image based on luminance of the image.
前記画像は、R色、G色及びB色の各色成分からなる色空間で示される画像であり、
前記エッジ検出部は、前記R色、G色及びB色の各色成分の少なくともいずれかの色成分に基づいて前記画像に含まれる前記エッジ領域を検出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 .
The image is an image represented by a color space composed of R, G, and B color components,
The image processing apparatus according to claim 1, wherein the edge detection unit detects the edge region included in the image based on at least one of the R, G, and B color components .
前記画像は、撮影時に用いた撮像光学系の種類と色収差とが関連付けられた付帯情報が付帯されており、
前記付帯情報に基づいて、前記第2のエッジ領域調整部による前記エッジ領域の彩度調整を行うか否かを判定する判定部を備えていることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image includes incidental information in which the type of imaging optical system used at the time of photographing and chromatic aberration are associated with each other,
An image processing apparatus comprising: a determination unit that determines whether or not to perform saturation adjustment of the edge region by the second edge region adjustment unit based on the auxiliary information .
前記画像は、撮影時に用いた撮像光学系の種類と色収差とが関連付けられた付帯情報が付帯されており、
前記エッジ検出部は、前記画像に付帯された前記付帯情報に基づいて前記エッジ領域の検出時のパラメータを変更することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image includes incidental information in which the type of imaging optical system used at the time of photographing and chromatic aberration are associated with each other,
The image processing apparatus according to claim 1, wherein the edge detection unit changes a parameter at the time of detecting the edge region based on the incidental information attached to the image.
撮影時に前記画像を取得する撮像素子と、 An image sensor for acquiring the image at the time of shooting;
前記撮像素子により取得される前記画像に対して現像処理を行う現像処理部と、 A development processing unit for performing development processing on the image acquired by the imaging device;
を備えたことを特徴とする撮像装置。 An imaging apparatus comprising:
前記エッジ検出工程により検出された前記エッジ領域の輝度を調整する第1のエッジ領域調整工程と、 A first edge region adjustment step of adjusting the brightness of the edge region detected by the edge detection step;
前記エッジ領域の彩度を調整する第2のエッジ領域調整工程と、 A second edge region adjustment step of adjusting the saturation of the edge region;
色収差の情報を取得する情報取得工程と、 An information acquisition step for acquiring chromatic aberration information;
を備え、 With
前記エッジ検出工程は、前記情報取得工程によって取得された色収差の情報に基づいて、前記エッジ領域の検出時に用いるパラメータを変更する処理を含む The edge detection step includes a process of changing a parameter used when detecting the edge region based on the chromatic aberration information acquired by the information acquisition step.
ことを特徴とするコンピュータにて実行させることが可能な画像処理プログラム。 An image processing program that can be executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010180840A JP5589660B2 (en) | 2010-08-12 | 2010-08-12 | Image processing apparatus, imaging apparatus, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010180840A JP5589660B2 (en) | 2010-08-12 | 2010-08-12 | Image processing apparatus, imaging apparatus, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012044243A JP2012044243A (en) | 2012-03-01 |
JP5589660B2 true JP5589660B2 (en) | 2014-09-17 |
Family
ID=45900102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010180840A Expired - Fee Related JP5589660B2 (en) | 2010-08-12 | 2010-08-12 | Image processing apparatus, imaging apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5589660B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6004757B2 (en) * | 2012-06-07 | 2016-10-12 | キヤノン株式会社 | Image processing apparatus and image processing method |
KR101972982B1 (en) * | 2012-08-10 | 2019-08-16 | 엘지디스플레이 주식회사 | Organic Light Emitting Diode Display Device And Method Of Driving The Same |
KR102069228B1 (en) * | 2013-04-16 | 2020-01-22 | 삼성전자주식회사 | Method and apparatus for filling color of image |
JP6318549B2 (en) * | 2013-10-30 | 2018-05-09 | リコーイメージング株式会社 | Image processing apparatus, imaging apparatus, image processing method, and image processing program |
JP6928903B2 (en) * | 2016-05-23 | 2021-09-01 | 大日本印刷株式会社 | Image processing equipment, image processing methods, and programs |
JP7003558B2 (en) * | 2017-10-12 | 2022-01-20 | カシオ計算機株式会社 | Image processing equipment, image processing methods, and programs |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4186558B2 (en) * | 2002-09-11 | 2008-11-26 | セイコーエプソン株式会社 | Image processing method and apparatus |
JP4469324B2 (en) * | 2005-11-01 | 2010-05-26 | イーストマン コダック カンパニー | Chromatic aberration suppression circuit and chromatic aberration suppression program |
JP2007195122A (en) * | 2006-01-23 | 2007-08-02 | Konica Minolta Photo Imaging Inc | Imaging apparatus, image processor and image processing method |
JP2007201780A (en) * | 2006-01-26 | 2007-08-09 | Konica Minolta Photo Imaging Inc | Imaging apparatus, image processing apparatus and method |
-
2010
- 2010-08-12 JP JP2010180840A patent/JP5589660B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012044243A (en) | 2012-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101951457B (en) | Image processing apparatus and computer-readable medium | |
JP6019964B2 (en) | Image processing apparatus, imaging apparatus equipped with the same, and image processing method | |
JP5169318B2 (en) | Imaging apparatus and imaging method | |
JP5589660B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP4433883B2 (en) | White balance correction device, white balance correction method, program, and electronic camera device | |
US11798143B2 (en) | Image processing apparatus and control method thereof | |
JP2016167754A (en) | Imaging device, control method and program | |
JP2011228807A (en) | Image processing program, image processing apparatus, and image processing method | |
JP5076650B2 (en) | Imaging apparatus and image processing program | |
US10051200B2 (en) | Imaging apparatus and control method thereof | |
JP2009055415A (en) | Camera | |
KR101612853B1 (en) | Photographing apparatus, controlling method of photographing apparatus, and recording medium storing program to implement the controlling method | |
JP5115297B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP4781670B2 (en) | Imaging device | |
JP5282533B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP2011041094A (en) | Image processing apparatus, imaging apparatus, and method of processing image | |
JP2016040870A (en) | Image processing apparatus, image forming method and program | |
JP4954658B2 (en) | Image processing device | |
JP6247513B2 (en) | Imaging apparatus, control method, and program | |
JP2012133492A (en) | Image processing device and program | |
JP2013127804A (en) | Image processing program, image processing device and image processing method | |
US8665351B2 (en) | Image processing device, electronic camera, and storage medium storing image processing program | |
JP5627252B2 (en) | Imaging apparatus and control method thereof | |
JP2019029781A (en) | Image processing system | |
JP4978669B2 (en) | Image processing apparatus, electronic camera, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140701 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5589660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |