JP5173664B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5173664B2 JP5173664B2 JP2008205746A JP2008205746A JP5173664B2 JP 5173664 B2 JP5173664 B2 JP 5173664B2 JP 2008205746 A JP2008205746 A JP 2008205746A JP 2008205746 A JP2008205746 A JP 2008205746A JP 5173664 B2 JP5173664 B2 JP 5173664B2
- Authority
- JP
- Japan
- Prior art keywords
- correction
- coefficient
- image data
- detection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 126
- 238000003672 processing method Methods 0.000 title claims 5
- 238000012937 correction Methods 0.000 claims description 270
- 238000001514 detection method Methods 0.000 claims description 110
- 230000004075 alteration Effects 0.000 claims description 68
- 230000002093 peripheral effect Effects 0.000 claims description 58
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000003702 image correction Methods 0.000 claims description 8
- 230000003796 beauty Effects 0.000 claims 2
- 238000000034 method Methods 0.000 description 38
- 230000008569 process Effects 0.000 description 34
- 238000011161 development Methods 0.000 description 14
- 230000007423 decrease Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 241000271566 Aves Species 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000011514 reflex Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000005457 Black-body radiation Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
Description
本発明は、光学レンズを通して得られた被写体像を光電変換機能を持つ撮像素子から読み出した画像データに対して補正処理を行なう技術に関するものである。 The present invention relates to a technique for performing correction processing on image data obtained by reading a subject image obtained through an optical lens from an image sensor having a photoelectric conversion function.
従来の一眼レフデジタルカメラのブロック構成を図15に示す。この構成では、まず、レンズ制御部303により制御され撮影レンズ302を通じて被写体像が結像される。そして、撮像素子312は光電変換を用いて結像した被写体像を撮像し、A/D変換313が撮像素子から出力された画像データをA/D変換してデジタル画像データを出力する。次に、収差補正部315は、撮影レンズの収差を補正する処理を行ない、撮影レンズの光学的な収差を補正した画像データを出力する。撮影レンズの収差補正を行った後、現像処理部316は、ホワイトバランス補正、色変換処理、コントラスト変換(ガンマ変換)、シャープネス処理等の各種画像補正処理を行う。図15の例では、カメラ本体部300は、ホワイトバランス補正処理のためのWB補正検出部333及びWB補正係数算出部334を備えている。現像処理部316により画像補正処理された画像データは、記録制御部320により記録媒体321に記録される。または、出力制御部322により、ディスプレイやカラープリンター等の表示媒体によって鑑賞するに最適な画像データとなるように画像処理され、これら表示媒体323に出力される。
FIG. 15 shows a block configuration of a conventional single-lens reflex digital camera. In this configuration, first, a subject image is formed through the photographing
上記収差補正部315における撮影レンズの光学的な収差補正を行なうには、カメラメモリ311にあらかじめ光学的な収差補正を行うための補正テーブルを保存しておき、これを利用する方法がある。この方法では、撮影時にカメラ制御部310がカメラメモリ311から補正テーブルを読み出し、収差補正部315に補正テーブルを送り、収差補正部315が撮影した画像データに対して収差補正処理を行う。特に、撮影した画像のシェーディング特性を補正する処理として、特許文献1のような方法が開示されている。本文献では、原稿をスキャニングして画像データを取り込む際、取り込み装置の光学的特性や撮像素子の特性を含めたシェーディング特性を補正する。そのとき、あらかじめスキャンして取り込んであるデータからシェーディング特性を補正するデータを作成してメモリに保存する。そして、スキャニング時に保存された補正データを読み出して、スキャンした画像のシェーディングを補正する。
In order to perform optical aberration correction of the taking lens in the
従来は、撮影された画像データに対して収差補正を行なってから、各種画像処理のための画像を解析するための検出処理と、その検出結果に応じた画像補正処理を行なうための画像補正係数を求める処理が行なわれていた。図15の例では、収差補正処理部315で処理された画像データに対してWB補正検出部333での検出処理と、WB補正係数算出部334による算出処理がされる。その一方で、収差補正後の画像データはバッファメモリ314に一時的に記憶されていた。
Conventionally, after performing aberration correction on captured image data, detection processing for analyzing images for various image processing, and image correction coefficient for performing image correction processing according to the detection results The process to ask for was performed. In the example of FIG. 15, detection processing by the WB
しかしながら、上記構成では、連写性能や連続撮影枚数の性能等が収差補正部315の処理性能に大きく依存してしまうことになる。すなわち、撮影レンズの収差補正処理を行う時間が大きいとき、その処理時間だけ後段の現像処理や記録処理等は遅れが生じる。また、収差補正をしている間は次の撮影した画像データを入力することもできず、連続撮影を行なう際の次のカットを撮影できるまでの時間がかかってしまう。連写性能や連続撮影枚数の性能を維持するために、収差補正部315の前にバッファメモリを設けることもできるが、コストやハードウェアの規模を増大させてしまう恐れがある。
However, in the above configuration, the continuous shooting performance, the continuous shooting performance, and the like greatly depend on the processing performance of the
本発明は、上述した問題点を解決するためのものであり、連写性能や連続撮影枚数の性能を維持しながら、収差補正処理によって画質の向上も図ることを目的としている。 An object of the present invention is to solve the above-described problems, and an object thereof is to improve image quality by aberration correction processing while maintaining continuous shooting performance and continuous shooting performance.
上述した課題を解決するために、本発明の画像処理装置は、光学レンズの収差を補正するための第1の補正係数に基づき、前記光学レンズを通して結像された被写体像を撮像した撮像手段から出力された画像データを補正する第1の補正手段と、前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正する第2の補正手段と、前記第1の補正係数を前記特徴量の検出又は前記第2の補正係数の算出のために変換する変換手段と、を有し、前記特徴量検出手段又は前記係数算出手段は前記変換手段により変換された補正データを用いて前記特徴量の検出又は前記第2の補正係数の算出を行い、前記第2の補正手段は前記変換された補正データを用いることにより得られた前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正することを特徴とする。 To solve the problems described above, the image processing apparatus of the present invention is based on the first correction coefficient for correcting the aberration of the optical lens, an imaging unit that captures a subject image formed through the optical lens A first correction unit that corrects the image data output from the image data, a feature amount detection unit that detects a feature amount from the image data output from the imaging unit that has not been corrected by the first correction unit, and the feature Coefficient calculation means for calculating a second correction coefficient based on the feature quantity detected by the quantity detection means, and second correction means for correcting the image data corrected by the first correction means based on the second correction coefficient. and correcting means comprises a converting means for converting for the calculation of the detection or the second correction coefficient for the first correction factor the feature quantity, the feature quantity detecting unit and the coefficient calculating means calculates the Strange The feature data is detected or the second correction coefficient is calculated using the correction data converted by the means, and the second correction means obtains the second data obtained by using the converted correction data. The image data corrected by the first correction unit is corrected based on the correction coefficient.
また、本発明の画像処理装置は、光学レンズの収差を補正するための第1の補正係数に基づき、前記光学レンズを通して結像された被写体像を撮像した撮像手段から出力された画像データを補正する第1の補正手段と、前記第1の補正係数に応じて特徴量の検出条件を指示する指示手段と、前記指示手段により指示された検出条件に基づき、前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、前記係数算出手段により算出された第2の補正係数に基づき、前記第1の補正手段により補正された画像データを補正する第2の補正手段と、を有することを特徴とする。 The image processing apparatus of the present invention is based on the first correction coefficient for correcting the aberration of the optical lens, corrects the image data output from the imaging means captures a subject image formed through the optical lens a first correcting means for, an instruction means for instructing the detection condition of the feature in accordance with the first correction coefficient, based on the detection conditions instructed by the instruction means, corrected by the first correction means Feature amount detecting means for detecting a feature amount from image data output from the image pickup means that has not been detected, coefficient calculating means for calculating a second correction coefficient based on the feature amount detected by the feature amount detecting means, And a second correction unit that corrects the image data corrected by the first correction unit based on the second correction coefficient calculated by the coefficient calculation unit.
本発明によれば、連写性能や連続撮影枚数の性能を維持させ、かつ、収差補正処理によって画質を向上させることができるという効果がある。 According to the present invention, it is possible to maintain the continuous shooting performance and the performance of the number of continuous shots and improve the image quality by the aberration correction processing.
以下、図面を参照して、本発明に係る実施形態について詳細に説明する。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
図1は、本発明の画像処理装置を適用可能な一眼レフデジタルカメラの構成を示すブロック図である。このカメラは、被写体像を結像するためのレンズユニット101、及び撮影した画像を画像データとして、記録媒体121に記録したり、ディスプレーやプリンターなどの表示媒体123に出力したりするカメラ本体部100より構成される。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a single-lens reflex digital camera to which the image processing apparatus of the present invention can be applied. This camera has a
被写体像は撮影レンズ102によって結像され、結像された被写体像は撮像素子112によって撮影される。撮像素子112は撮影された被写体像を光電変換して電気的なデータとして出力し、A/D変換113はこのデータをデジタル画像データに変換する。このように被写体像をデジタル画像データとして出力するために、撮影レンズ102においては、レンズ制御部103によって、ズーム操作、ピント合焦、絞り制御などが制御される。ここでは、ズーム操作は、使用者がレンズに備わっている不図示のズーム機構を用いて焦点距離を調節し、ピント合焦は、不図示の自動焦点機構によって行なう。また、絞りについては、カメラ制御部110が、カメラ本体部100の不図示の操作部材で使用者が設定した絞り条件を信号線106を介してレンズ制御部103に送る。レンズ制御部103は、その情報に従って撮影レンズ102に付属した絞りを制御する。
The subject image is formed by the photographing
撮像素子112により撮影され、A/D変換113された状態のデジタル画像データは、一旦バッファメモリ114に記憶される。ここまでの画像データは、撮影レンズの収差、ここでは周辺光量落ちの歪を持ったデータである。収差補正部115はこの画像データに対して周辺光量落ち補正(第1の補正)を行う。収差補正部115は、画像データ中の各画素の画面内での位置に基づき、画面中心からの距離によって変化するゲイン(第1の補正係数)を各画像データに掛けることによって周辺光量落ち補正を行なう。各ゲインのデータは、カメラ制御部110から信号線152を通じて収差補正部115に送られる。
Digital image data captured by the
ここでのゲインのデータの一例を図2に示す。画面内における画面中心からの距離(像高)に対して、10点のドットで表されているゲインのデータで構成されている。10点の各像高の間に位置する画素データに対しては、該当する画素データが位置する2点間の像高の各2点のゲインで補間したゲインを使用する。 An example of gain data here is shown in FIG. It consists of gain data represented by 10 dots with respect to the distance (image height) from the center of the screen. For pixel data located between 10 image heights, a gain interpolated with gains at 2 points of image height between 2 points where the corresponding pixel data is located is used.
本実施形態においてレンズユニット101は交換可能であり、収差の特性はレンズユニット毎に異なる。したがって、この10点のゲインのテーブルは、交換できるレンズユニット101ごとにIDを持たせて、予めその特性を求めておく。
In the present embodiment, the
この特性は前記のように、レンズの焦点距離、ピントの合焦した位置までの撮影距離、絞りによって変化し、図3で示すような四次元のテーブルで構成される。これらの各補正係数は、実際に撮影した画像または設計値から実際に撮影した画像を光線追跡によってシミュレートしたものから求めたものが主に用いられる。
図3は、11の像高に対応した11点のゲインのデータが示されているが、画面中心すなわち像高0のときは、必ずゲイン=1.0となるので、省略して10点のゲインのデータを与えることで対応可能である。例えば、絞りF4.0のときは、絞りF2.8の像高に対するテーブルと絞りF8の像高に対するテーブルの間で、1:2補間したときのデータを使用する。同様に、撮影距離2.0mのときは、前記絞りのときに求めた像高に対するテーブルの1.0m時と3.0m時とのテーブル間で1:1補間をする。さらに、焦点距離50mmのときは、前記で求めた絞りと撮影距離の条件の像高に対するテーブルの50mmのときのものを用いる。これによって、像高に対する10点のゲインは決定される。
As described above, this characteristic varies depending on the focal length of the lens, the shooting distance to the in-focus position, and the stop, and is configured by a four-dimensional table as shown in FIG. Each of these correction coefficients is mainly obtained from an actually captured image or a value obtained by simulating an actually captured image by ray tracing from a design value.
FIG. 3 shows 11 points of gain data corresponding to 11 image heights. However, since the gain is always 1.0 at the center of the screen, that is, when the image height is 0, 10 points are omitted. This can be dealt with by giving gain data. For example, when the aperture is F4.0, data obtained by performing 1: 2 interpolation between the table for the image height of the aperture F2.8 and the table for the image height of the aperture F8 is used. Similarly, when the shooting distance is 2.0 m, 1: 1 interpolation is performed between the tables at 1.0 m and 3.0 m for the image height obtained at the time of the aperture stop. Further, when the focal length is 50 mm, the table at 50 mm is used with respect to the image height under the conditions of the aperture and shooting distance obtained above. Thereby, the gain of 10 points with respect to the image height is determined.
図3のテーブルは、カメラメモリ111に記憶しておき、カメラ本体部100に装着可能な全撮影レンズ101に対応する必要があるので、レンズID情報に対応するテーブルを持つ必要がある。図3のテーブルを、不図示のレンズ101内のメモリに記憶する場合、各撮影レンズ101ごとに図3のテーブルを持つので、レンズID情報に対応する必要はない。以上のようにして準備された周辺光量落ち補正テーブルを用いて、収差補正部115において、周辺光量落ち補正処理が行なわれる。
The table in FIG. 3 is stored in the camera memory 111 and needs to correspond to all the photographing
周辺光量落ち補正は、画面全体の各画素に対して、その画素の位置に対応した図2に示された像高に対するゲインを掛ける。10点の間に位置する画素に対しては、その画素を挟む2点のゲインで補間されたゲインを用いる。その結果、図4に示されるように、均一輝度面を撮影したときの元のデジタル画像データ401は、像高に対して402のように均一な画面になるように補正される。
In the peripheral light amount drop correction, each pixel on the entire screen is multiplied by a gain for the image height shown in FIG. 2 corresponding to the position of the pixel. For a pixel located between 10 points, a gain interpolated with gains of 2 points sandwiching the pixel is used. As a result, as shown in FIG. 4, the original
本実施形態では、現像処理部116において、各画像処理である、ホワイトバランス処理、明るさ及びコントラスト補正処理、顔の明るさ補正処理、暗部補正処理の4つの処理を行なう。これらの処理のために、本体部100は、撮影した画像データから各種の特徴量を検出する特徴量検出ブロック130と、このブロックで得られた特徴量に基づいて各画像処理のための補正係数を算出する補正係数算出ブロック131を有している。ここで、特徴量検出ブロック130は、WB(ホワイトバランス)検出部133、ヒストグラム検出部135、顔検出部137、及び暗部補正検出部139を有している。また、補正係数算出ブロック131は、WB補正係数算出部134,明るさ・コントラスト補正係数算出部136、顔明るさ補正係数算出部138、及び暗部補正係数算出部140を有している。
In the present embodiment, the
次に本実施形態の特徴である、収差補正部115による収差補正処理と、特徴量検出ブロック130及び補正係数算出ブロック131による検出処理及び算出処理との平行処理について説明する。
Next, the parallel processing of the aberration correction processing by the
まず、WB検出部133、WB補正係数算出部134、及び現像処理部116で行われるホワイトバランス処理について説明する。
First, white balance processing performed by the
WB検出部133においては、撮影した画像よりホワイトバランスを自動的に行なうために、撮影した画像を複数画素ごとに2次元ブロックに分割する。そして、図5に示されるような、R画素501、G1画素502、G2画素503、及びB画素504ごとにブロック内で積分し、ブロック内の積分結果よりR:G1:G2:Bの色比を求める。また、例えば、色比R:(G1+G2)とB:(G1+G2)の2次元座標上で、あらかじめ撮像素子のR:(G1+G2):Bの黒体輻射軌跡特性を示す線を調べておく。そして、その線の近傍に位置する座標となる色比のブロックを無彩色ブロックと判定し、無彩色と判定されたブロックのみのブロック内のR、G1+G2、Bをさらに積分し、その色比R:(G1+G2):Bを求めて、画面全体の白色成分の色比とする。WB補正係数算出部134は、ここで求められた画像の色比より、この色比を1:1:1にするためのホワイトバランス係数を求め、その係数を現像処理部116に送り、現像処理部116においてホワイトバランス補正処理が行なわれる。
In the
本実施形態では、撮影されたデジタル画像データを、ホワイトバランス検出処理、ホワイトバランス係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、ホワイトバランス検出処理及びホワイトバランス係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。
In this embodiment, while the white balance detection process and the white balance coefficient calculation process are performed on the captured digital image data, the peripheral light amount drop correction process is performed in the aberration
しかしながら、WB検出部133に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、ホワイトバランス処理時には、周辺光量落ちの歪の分を反映させる必要がある。
However, since the captured image input to the
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等によりWB検出に利用できる周辺光量落ち補正ゲインに変換する。そして、WB検出部133が変換された周辺光量落ち補正ゲインを用いて検出処理を行なう。
In the present embodiment, the correction coefficient conversion unit 141 converts the peripheral light amount drop correction data read from the camera control unit 110 into a peripheral light amount drop correction gain that can be used for WB detection by level bit number conversion, dimension change, or the like. To do. The
図6はその一例を説明する図であり、撮影画像の画面全体と処理対象の分割ブロックの関係を示している。図6において、WB検出部133が、例えば602の位置のブロックのホワイトバランス検出のための色比を算出して、602は無彩色のブロックであると判定したとする。このとき、無彩色ブロックを集めてR、G1、G2、Bごとに積分する際、画面中心601から602ブロック中心603までの距離を求め、その長さと同じ像高の周辺光量落ち補正ゲインをブロック内のR、G1、G2、Bの各積分値に掛ける。これによって、ホワイトバランス補正のための検出結果に周辺光量落ちの歪みの分を反映させたことになる。
FIG. 6 is a diagram for explaining an example thereof, and shows the relationship between the entire screen of the captured image and the division block to be processed. In FIG. 6, it is assumed that the
次に、ヒストグラム検出部135、明るさ・コントラスト補正係数算出部136、及び現像処理部116で行われる明るさ及びコントラスト補正処理について説明する。
Next, brightness and contrast correction processing performed by the histogram detection unit 135, the brightness / contrast correction
まず、ヒストグラム検出部135は、撮影されたデジタル画像データの画像全体に各画素値に対する頻度を積算することでヒストグラムを求める。そのヒストグラムを元に、明るさ・コントラスト補正係数算出部136において、画像全体の明るさやコントラストを調整する。
First, the histogram detection unit 135 obtains a histogram by integrating the frequency for each pixel value over the entire image of the captured digital image data. Based on the histogram, the brightness / contrast correction
例えば、図7(a)のように、ヒストグラムの分布が低輝度寄りであり、全体に暗い画像になっているものを、図7(b)のようにヒストグラムが高輝度寄りの明るい画像にしたいとする。この場合は、図8のように、補正前の入力画像データに対して、補正後の出力画像データが大きくなるような特性の補正を行なう必要がある。 For example, as shown in FIG. 7 (a), a histogram with a low luminance distribution and a dark image as a whole is desired to be a bright image with a high luminance distribution as shown in FIG. 7 (b). And In this case, as shown in FIG. 8, it is necessary to correct the characteristics so that the output image data after correction becomes larger than the input image data before correction.
また、図9(a)のように、逆光シーンなどであり、ヒストグラムが低輝度寄りと高輝度寄りの2箇所に主に分布していて、この画像の低輝度寄りの分布に補正を掛けて図9(b)のように低輝度寄りの部分を明るくしたいとする。このようなコントラスト補正を行なう場合、図10のような入出力関係になるような特性のゲインを掛ける補正を行なう必要がある。 Further, as shown in FIG. 9A, the scene is a backlight scene, and the histogram is mainly distributed in two places near the low luminance and the high luminance, and the distribution near the low luminance of the image is corrected. Assume that it is desired to brighten a portion near low luminance as shown in FIG. When such contrast correction is performed, it is necessary to perform correction by multiplying a gain having a characteristic such that an input / output relationship as shown in FIG. 10 is obtained.
本実施形態では、撮影されたデジタル画像データを、ヒストグラム検出処理、明るさ・コントラスト補正係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、ヒストグラム検出処理、明るさ・コントラスト補正係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。
In this embodiment, while the histogram detection process and the brightness / contrast correction coefficient calculation process are performed on the photographed digital image data, the aberration
しかしながら、ヒストグラム検出部135に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、明るさ・コントラスト補正時には、周辺光量落ちの歪の分を反映させる必要がある。 However, since the captured image input to the histogram detection unit 135 is image data before aberration correction, it still has distortion due to a decrease in peripheral light amount. Therefore, at the time of brightness / contrast correction, it is necessary to reflect the amount of distortion caused by a decrease in the amount of peripheral light.
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等によりヒストグラム検出に利用できる周辺光量落ち補正ゲインに変換する。そして、ヒストグラム検出部135が変換された周辺光量落ち補正ゲインを用いて検出処理を行なう。 In the present embodiment, the correction coefficient conversion unit 141 converts the peripheral light amount drop correction data read from the camera control unit 110 into a peripheral light amount drop correction gain that can be used for histogram detection by converting the number of bits of a level, changing a dimension, or the like. To do. Then, the histogram detection unit 135 performs detection processing using the converted peripheral light amount drop correction gain.
ヒストグラム検出部136は、図7(a)や図9(a)の補正前の画像の頻度分布を求めるときに、補正係数変換部141により変換された周辺光量落ち補正ゲインを入力する。そして、ヒストグラム検出部135は、入力される画像データの各画素値の位置によって、周辺光量落ち補正ゲインを掛けてから画素値の頻度分布を求めるようにする。このようにしてヒストグラムを求めることで、周辺光量落ち補正を反映した明るさ・コントラスト補正処理を行なうことができる。
The
次に、顔検出部137、顔明るさ補正係数算出部138,及び現像処理部116で行われる顔明るさ補正処理について説明をする。
まず、顔検出部137は、撮影された画像データより顔の位置や明るさを検出する。そして、顔明るさ補正係数算出部138は、ここで得た顔の位置情報及び顔の明るさ情報を元に、顔の明るさを適正な好ましい明るさに補正をするための係数を算出する。
Next, the face brightness correction process performed by the face detection unit 137, the face brightness correction
First, the face detection unit 137 detects the position and brightness of the face from the captured image data. Then, the face brightness correction
本実施形態では、撮影されたデジタル画像データを、顔検出処理、顔明るさ補正係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、顔検出処理、顔明るさ補正係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。
In this embodiment, while the face detection process and the face brightness correction coefficient calculation process are performed on the captured digital image data, the peripheral light amount drop correction process is performed in the aberration
しかしながら、顔検出部137に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、顔明るさ補正時には、周辺光量落ちの歪の分を反映させる必要がある。 However, since the captured image input to the face detection unit 137 is image data before aberration correction, it still has distortion due to a decrease in peripheral light amount. Therefore, when correcting the face brightness, it is necessary to reflect the amount of distortion due to the decrease in peripheral light amount.
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等により変換する。すなわち、補正データを顔検出に利用できる周辺光量落ち補正ゲイン及び顔明るさ補正係数算出に利用できる周辺光量落ち補正ゲインに変換する。 In the present embodiment, the correction coefficient conversion unit 141 converts the peripheral light amount drop correction data read from the camera control unit 110 by level bit number conversion, dimension change, or the like. That is, the correction data is converted into a peripheral light amount drop correction gain that can be used for face detection and a peripheral light amount drop correction gain that can be used to calculate a face brightness correction coefficient.
顔検出部137は、周辺光量落ち補正のゲインを補正係数変換部141より得て、画面周辺の明るさを補正してから顔検出を行なう。これにより、画像の周辺部に写っている低輝度の顔の情報も正確に得ることができる。 The face detection unit 137 obtains the peripheral light amount drop correction gain from the correction coefficient conversion unit 141 and corrects the brightness around the screen before performing face detection. Thereby, the information of the low-luminance face reflected in the peripheral part of the image can also be obtained accurately.
また顔明るさ補正係数算出部138は、検出された顔の明るさの値に対して、顔の位置情報を使って像高位置を求めて、周辺光量落ち補正のゲインを掛けることによって、周辺光量落ち補正後の顔の明るさを補正する係数を求める。
Further, the face brightness correction
現像処理部116は、以上の処理の結果得られた係数を用いて、目標となる顔の明るさに到達するためのゲイン補正を行なうことによって、周辺光量落ち補正を反映させた顔の明るさ補正処理を適正に行なうことができる。
The
次に、暗部補正検出部139、暗部補正係数算出部140、及び現像処理部116で行われる暗部補正処理について説明をする。
Next, the dark part correction processing performed by the dark part correction detection unit 139, the dark part correction coefficient calculation unit 140, and the
例えば、撮影した画像の一部分がその周辺部よりも大きく暗い場合、その暗い部分を明るく補正して画像のコントラストを平坦な方に補正する処理が必要なシーンが存在する。例えば、主被写体が逆光で撮影されたシーンなどがそれにあたる。本実施形態の暗部補正処理はこの様なシーンを全体として適正な明るさにするための処理処理であり、以下その処理の詳細を説明する。 For example, when a part of a photographed image is larger and darker than its peripheral part, there are scenes that need to be corrected to brighten the dark part and correct the contrast of the image to be flat. For example, a scene in which the main subject is photographed with backlight is an example. The dark portion correction processing of the present embodiment is processing processing for setting such a scene to appropriate brightness as a whole, and details of the processing will be described below.
図11は、暗部補正検出部139が処理対象とする画像の画面全体を示しており、画面内を大きいブロック1104、小さいブロック1102に分割される。そして、大きいブロック内の各画素値の平均値AveL、小さいブロック内の各画素値の平均値AveSを求める。暗部補正係数算出部140は、各画素値とAveL、AveSとの関係から各画素ごとにおいて、画素値Pに掛けるゲインを算出する。そして、現像処理部116がこのゲイン値に基づく補正を行うことで、暗部のコントラスト補正を行なうことができる。
FIG. 11 shows the entire screen of an image to be processed by the dark portion correction detection unit 139, and the screen is divided into a
ここで、大ブロック内の平均値に対するゲインGL、小ブロック内の平均値に対するゲインGS、各画素値に対するゲインGpとする。各ゲインGL、GS、GpをそれぞれAveL、AveS、Pに対して、図12に示されるように、大きい値ほど小さく、小さい値ほど大きくなるようなゲイン値を与えると、求める補正結果の各画素値Ypは次式で表される。 Here, a gain GL for the average value in the large block, a gain GS for the average value in the small block, and a gain Gp for each pixel value are used. As shown in FIG. 12, when each gain GL, GS, Gp is given to AveL, AveS, P, a gain value that decreases as the value increases and increases as the value decreases, each pixel of the correction result to be obtained. The value Yp is expressed by the following equation.
Yp=(GL*KL+GS*KS+Gp*Kp)*P
ここで、KL、KS、Kpは、各ゲインGL、GS、Gpによって生成される画像データを見栄えが好ましくなるように最適化するための固定の設計チューニング値で、色々なシーンの撮影画像より求めるものある。
Yp = (GL * KL + GS * KS + Gp * Kp) * P
Here, KL, KS, and Kp are fixed design tuning values for optimizing the image data generated by the gains GL, GS, and Gp so that the appearance is preferable, and are obtained from captured images of various scenes. There are things.
以上のような補正を行なうことで、逆光シーンのような主被写体が暗く、その周辺が明るいときに、暗部である主被写体の明るさを補正するようにコントラスト調整を行なうことができる。 By performing the correction as described above, it is possible to perform contrast adjustment so as to correct the brightness of the main subject which is a dark portion when the main subject such as a backlight scene is dark and the periphery thereof is bright.
本実施形態では、撮影されたデジタル画像データを、暗部補正検出処理、暗部補正係数算出処理を行なう間に、平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、収差補正処理、暗部補正検出処理、及び暗部補正係数算出処理の全てが終了するまでの処理時間を短縮することができるようになる。したがって、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。
In this embodiment, while the dark portion correction detection processing and dark portion correction coefficient calculation processing are performed on the captured digital image data, the peripheral light amount drop correction processing is performed in the aberration
しかしながら、暗部補正検出部139に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。したがって、暗部補正時には、周辺光量落ちの歪の分を反映させる必要がある。 However, since the photographed image input to the dark part correction detection unit 139 is image data before aberration correction, it still has distortion due to a decrease in peripheral light amount. Therefore, it is necessary to reflect the amount of distortion due to the decrease in the amount of peripheral light when correcting the dark part.
本実施形態では、補正係数変換部141がカメラ制御部110から読み出された周辺光量落ち補正データを、レベルのビット数変換や次元の変更等により暗部補正係数算出に利用できる周辺光量落ち補正ゲインに変換する。そして、暗部補正係数算出部140が変換された周辺光量落ち補正ゲインを用いて算出処理を行なう。 In the present embodiment, the peripheral light amount drop correction gain that the correction coefficient conversion unit 141 can use for the dark portion correction coefficient calculation by converting the peripheral light amount drop correction data read from the camera control unit 110 by, for example, level bit number conversion or dimension change. Convert to Then, the dark portion correction coefficient calculation unit 140 performs a calculation process using the converted peripheral light amount drop correction gain.
暗部補正係数算出部140が、上式のゲインGL、GS、Gpを求める際に反映させる。すなわち、各ブロックや画素の値AveL、AveS、Pに対して、それらの位置(ブロックの場合はブロックの中心座標)によって、周辺光量落ち補正の像高位置に対応するゲインを掛ける。これにより、各ゲイン値に、この暗部補正における周辺光量落ち補正処理を反映させることができる。このようにして周辺光量落ち補正が反映された各画像処理補正係数が求められた各処理を現像処理部116において行なう。
The dark portion correction coefficient calculation unit 140 reflects the gains GL, GS, and Gp in the above equations. That is, the gain corresponding to the image height position of the peripheral light amount drop correction is applied to the values AveL, AveS, and P of the respective blocks and pixels by their positions (in the case of blocks, the center coordinates of the blocks). As a result, the peripheral light amount drop correction process in the dark part correction can be reflected in each gain value. In this way, each processing for obtaining each image processing correction coefficient reflecting the peripheral light amount drop correction is performed in the
以上のようにして、撮影レンズの光学的収差補正処理を行なうときに、撮影レンズの収差補正をホワイトバランス補正処理などの画像補正処理と平行に行なうようにした。また、この補正処理に基づき各種の画像処理における補正係数等を変更するようにした。これにより、メモリ量を節約しつつ、連写性能や連続撮影枚数の性能を維持させ、かつ、収差補正処理によって画質を向上させることができる。 As described above, when the optical aberration correction process of the photographing lens is performed, the aberration correction of the photographing lens is performed in parallel with the image correction process such as the white balance correction process. Further, based on this correction process, correction coefficients and the like in various image processes are changed. Accordingly, it is possible to save the memory amount, maintain the continuous shooting performance and the continuous shooting performance, and improve the image quality by the aberration correction processing.
本実施形態では、撮影レンズの収差として周辺光量落ちの歪を補正するときを例に述べたが、倍率色収差、軸上色収差、及び歪曲収差などの他の収差の補正のときも同様な処理を行なうことで、同様の効果を得ることができる。 In this embodiment, the case of correcting the distortion of the peripheral light amount as an aberration of the photographing lens has been described as an example, but the same processing is performed when correcting other aberrations such as lateral chromatic aberration, axial chromatic aberration, and distortion aberration. By doing so, the same effect can be obtained.
(第2の実施形態)
本実施形態は、第1の実施形態と同様に、周辺光量落ち補正と平行に各種画像処理のための検出処理、及び画像補正係数算出処理を行なう方法であるが、検出処理の処理条件に周辺光量落ちの影響を受けない範囲で行なうことを特徴としている。
(Second Embodiment)
As in the first embodiment, the present embodiment is a method for performing detection processing and image correction coefficient calculation processing for various types of image processing in parallel with peripheral light amount drop correction. It is characterized in that it is performed within a range that is not affected by the drop in the amount of light.
図13は、第2の実施形態のデジタルカメラのブロック構成を示す図である。本実施形態のブロック構成のうち、第1の実施形態と同様の機能を有するものには、同じ符号が付されている。本実施形態では、第1の実施形態の補正係数変換部141に代り、検出条件指示部242を有する。また、基本的な機能は第1の実施形態の特徴量検出ブロック130及び補正係数算出ブロック131同じであるが検出条件指示部242の条件指定に応じた処理を行う特徴量検出ブロック230及び補正係数算出ブロック231を有している。
FIG. 13 is a diagram illustrating a block configuration of a digital camera according to the second embodiment. Of the block configurations of the present embodiment, those having the same functions as those of the first embodiment are denoted by the same reference numerals. In the present embodiment, a detection condition instruction unit 242 is provided instead of the correction coefficient conversion unit 141 of the first embodiment. The basic functions are the same as the feature amount detection block 130 and the correction
次に本実施形態の特徴である、収差補正部115による収差補正処理と、特徴量検出ブロック230及び補正係数算出ブロック231による検出処理及び算出処理との平行処理について説明する。本実施形態では、第1の実施形態と同様に、特徴量検出ブロック230での検出処理及び補正係数算出ブロック231での算出処理を行なうのに平行して、バッファメモリ114を経て収差補正処理部115において周辺光量落ち補正処理を行なう。これにより、連続撮影間隔を速くすることができたり、連続撮影枚数を多くすることができるなど、撮影性能の向上を図ることができる。しかしながら、第1の実施形態と同様に、特徴量検出ブロック230に入力される撮影画像は、収差補正前の画像データであるので、周辺光量落ちの歪を持ったままである。
Next, the aberration correction processing by the
本実施形態において、検出条件指示部242は、特徴量検出ブロック230の各画像処理の検出部で撮影した画像データの解析を行なうとき、周辺光量落ちの歪の影響を大きく受ける範囲を定義する。 In this embodiment, the detection condition instructing unit 242 defines a range that is greatly affected by the distortion of the peripheral light amount when analyzing the image data captured by the detection unit of each image processing of the feature amount detection block 230.
また、検出条件指示部242は、カメラ制御部110から出力された周辺光量落ち補正データを入力し、その像高に対応するデータのゲインを解析する。ここで、例えば、ゲイン1.2倍以上である像高を周辺光量落ちの歪の影響を受ける範囲を定義すると、ゲイン1.2倍以上となる像高に相当する画面内の座標を含む検出位置を検出範囲から除外するように特徴量検出ブロック230に指示する。 Further, the detection condition instruction unit 242 receives the peripheral light amount drop correction data output from the camera control unit 110, and analyzes the gain of the data corresponding to the image height. Here, for example, if a range in which an image height having a gain of 1.2 times or more is affected by the distortion of the peripheral light amount drop, detection including coordinates in the screen corresponding to the image height having a gain of 1.2 times or more is performed. The feature amount detection block 230 is instructed to exclude the position from the detection range.
図14に影響範囲を定義づけた1画面の画像の例を示す。図に示すように、全画面1401の中心座標1404から像高1.2倍未満の周辺光量落ち補正ゲインとなる範囲を矢印1405とすると、各画像処理の検出処理に用いるブロックは、太枠1403で囲まれた範囲内となる。
FIG. 14 shows an example of a one-screen image in which the influence range is defined. As shown in the figure, assuming that the range from the center coordinates 1404 of the
特徴量検出ブロック230の各検出部は、検出条件指示部242からの指示に応じて検出処理範囲を制限するように構成されている。したがって、検出条件指示部242は、すべての画像処理の検出処理をこの範囲内に限定する。補正係数算出ブロック231は第1の実施形態と異なり収差補正処理の条件をなんら考慮することなく特徴量検出ブロック230からの検出結果に基づき係数算出を行う。このように構成することで、各画像処理が周辺光量落ちにの歪によって受ける影響を低減することができる。 Each detection unit of the feature amount detection block 230 is configured to limit the detection processing range in accordance with an instruction from the detection condition instruction unit 242. Therefore, the detection condition instruction unit 242 limits the detection processing of all image processing within this range. Unlike the first embodiment, the correction coefficient calculation block 231 calculates a coefficient based on the detection result from the feature amount detection block 230 without considering any aberration correction processing conditions. By configuring in this way, it is possible to reduce the influence of each image processing due to distortion due to a decrease in peripheral light amount.
以上のように、本実施形態では、撮影レンズの光学的収差補正処理を行なうときに、撮影レンズの収差補正をホワイトバランス補正処理などの画像補正処理と平行に行なった。そして、それら補正処理のための検出処理の動作範囲を収差補正処理の影響の少ない範囲に限定するようにした。これにより、メモリ量を節約しつつ、連写性能や連続撮影枚数の性能を維持させ、かつ、収差補正処理によって画質を向上させることができる。また、第1の実施形態と比較して特徴量検出ブロック及び補正係数算出ブロックにおける処理を複雑にすることなく収差補正処理に係る補正を行うことができる。 As described above, in the present embodiment, when the optical aberration correction process of the photographing lens is performed, the aberration correction of the photographing lens is performed in parallel with the image correction process such as the white balance correction process. The operation range of the detection process for the correction process is limited to a range where the influence of the aberration correction process is small. Accordingly, it is possible to save the memory amount, maintain the continuous shooting performance and the continuous shooting performance, and improve the image quality by the aberration correction processing. Further, the correction related to the aberration correction process can be performed without complicating the process in the feature amount detection block and the correction coefficient calculation block as compared with the first embodiment.
なお、本実施形態では、検出条件指示部242は、すべての画像処理の検出処理を図14に示す範囲内に限定したが、各処理個別に制限するようにしてもよい。例えば、WB検出に対して顔検出のほうが収差による誤検出を受けやすいのであれば、顔検出についての検出範囲をWB検出範囲より狭いものにすることができる。 In the present embodiment, the detection condition instructing unit 242 limits the detection processing of all image processing to the range shown in FIG. 14, but may limit each processing individually. For example, if face detection is more susceptible to erroneous detection due to aberration than WB detection, the detection range for face detection can be narrower than the WB detection range.
100 カメラ本体
110 カメラ制御部
115 収差補正部
116 現像処理部
130 特徴量検出ブロック
131 補正係数算出ブロック
DESCRIPTION OF
Claims (11)
前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、
前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、
前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正する第2の補正手段と、
前記第1の補正係数を前記特徴量の検出又は前記第2の補正係数の算出のために変換する変換手段と、を有し、
前記特徴量検出手段又は前記係数算出手段は前記変換手段により変換された補正データを用いて前記特徴量の検出又は前記第2の補正係数の算出を行い、前記第2の補正手段は前記変換された補正データを用いることにより得られた前記第2の補正係数に基づき前記第1の補正手段により補正された画像データを補正することを特徴とする画像処理装置。 A first on the basis of the correction coefficient, the first correction means for correcting the image data output from the imaging means to imaging an object image formed through an optical lens for correcting aberration of the optical science lens,
A feature amount detection means for detecting a feature amount from image data output from the imaging means that has not been corrected by the first correction means;
Coefficient calculation means for calculating a second correction coefficient based on the feature quantity detected by the feature quantity detection means;
Second correction means for correcting the image data corrected by the first correction means based on the second correction coefficient;
Anda conversion means for converting the first correction coefficient for the calculation of the detection or the second correction coefficient of the feature quantity,
The feature amount detection unit or the coefficient calculation unit detects the feature amount or calculates the second correction coefficient using the correction data converted by the conversion unit, and the second correction unit performs the conversion. An image processing apparatus for correcting the image data corrected by the first correction unit based on the second correction coefficient obtained by using the correction data.
前記第1の補正係数に応じて特徴量の検出条件を指示する指示手段と、
前記指示手段により指示された検出条件に基づき、前記第1の補正手段により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出手段と、
前記特徴量検出手段により検出された特徴量に基づき第2の補正係数を算出する係数算出手段と、
前記係数算出手段により算出された第2の補正係数に基づき、前記第1の補正手段により補正された画像データを補正する第2の補正手段と、
を有することを特徴とする画像処理装置。 A first on the basis of the correction coefficient, the first correction means for correcting the image data output from the imaging means to imaging an object image formed through an optical lens for correcting aberration of the optical science lens,
Instructing means for instructing a feature amount detection condition in accordance with the first correction coefficient ;
A feature amount detection unit that detects a feature amount from image data output from the imaging unit that is not corrected by the first correction unit based on a detection condition instructed by the instruction unit;
Coefficient calculation means for calculating a second correction coefficient based on the feature quantity detected by the feature quantity detection means;
Second correction means for correcting the image data corrected by the first correction means based on the second correction coefficient calculated by the coefficient calculation means;
An image processing apparatus comprising:
前記光学レンズの収差を補正するための第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正工程と、
前記第1の補正工程により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出工程と、
前記特徴量検出工程により検出された特徴量に基づき第2の補正係数を算出する係数算出工程と、
前記第2の補正係数に基づき前記第1の補正工程により補正された画像データを補正する第2の補正工程と、
前記第1の補正係数を前記特徴量の検出又は前記第2の補正係数の算出のために変換する変換工程と、を有し、
前記特徴量検出工程又は前記係数算出工程は前記変換工程により変換された補正データを用いて前記特徴量の検出又は前記第2の補正係数の算出を行い、前記第2の補正工程は前記変換された補正データを用いることにより得られた前記第2の補正係数に基づき前記第1の補正工程により補正された画像データを補正することを特徴とする画像処理装置の画像処理方法。 An image processing method of an image processing apparatus for correcting image data obtained by an imaging unit that images a subject image formed through an optical lens,
A first correction step of correcting image data output from the imaging means based on a first correction coefficient for correcting aberration of the optical lens;
A feature amount detection step of detecting a feature amount from the image data output from the imaging means that has not been corrected by the first correction step;
A coefficient calculation step of calculating a second correction coefficient based on the feature amount detected by the feature amount detection step;
A second correction step of correcting the image data corrected by the first correction step based on the second correction coefficient;
Has, a conversion step of converting the first correction coefficient for the calculation of the detection or the second correction coefficient of the feature quantity,
The feature amount detection step or the coefficient calculation step detects the feature amount or calculates the second correction coefficient using the correction data converted by the conversion step, and the second correction step performs the conversion. An image processing method for an image processing apparatus, wherein the image data corrected in the first correction step is corrected based on the second correction coefficient obtained by using the corrected data.
前記光学レンズの収差を補正するための第1の補正係数に基づき前記撮像手段から出力された画像データを補正する第1の補正工程と、
前記第1の補正係数に応じて特徴量の検出条件を指示する指示工程と、
前記指示工程により指示された検出条件に基づき、前記第1の補正工程により補正されていない前記撮像手段から出力された画像データから特徴量を検出する特徴量検出工程と、
前記特徴量検出工程により検出された特徴量に基づき第2の補正係数を算出する係数算出工程と、
前記係数算出工程により算出された第2の補正係数に基づき、前記第1の補正工程により補正された画像データを補正する第2の補正工程と、
を有することを特徴とする画像処理装置の画像処理方法。 An image processing method of an image processing apparatus for correcting image data obtained by an imaging unit that images a subject image formed through an optical lens,
A first correction step of correcting image data output from the imaging means based on a first correction coefficient for correcting aberration of the optical lens;
An instruction step of instructing a feature amount detection condition in accordance with the first correction coefficient;
A feature amount detection step of detecting a feature amount from the image data output from the imaging means that has not been corrected by the first correction step based on the detection condition instructed by the instruction step;
A coefficient calculation step of calculating a second correction coefficient based on the feature amount detected by the feature amount detection step;
A second correction step of correcting the image data corrected in the first correction step based on the second correction coefficient calculated in the coefficient calculation step;
An image processing method for an image processing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008205746A JP5173664B2 (en) | 2008-08-08 | 2008-08-08 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008205746A JP5173664B2 (en) | 2008-08-08 | 2008-08-08 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010041682A JP2010041682A (en) | 2010-02-18 |
JP5173664B2 true JP5173664B2 (en) | 2013-04-03 |
Family
ID=42013685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008205746A Expired - Fee Related JP5173664B2 (en) | 2008-08-08 | 2008-08-08 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5173664B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5293716B2 (en) | 2010-09-30 | 2013-09-18 | 株式会社ニコン | Interchangeable lens, camera body and camera system |
CN102955330B (en) | 2011-08-18 | 2017-04-12 | 株式会社尼康 | Exchangeable lens and camera system |
JP5968021B2 (en) * | 2012-04-10 | 2016-08-10 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
JP6351377B2 (en) * | 2014-05-27 | 2018-07-04 | 三菱電機株式会社 | Image processing system, imaging apparatus, and recording apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4000872B2 (en) * | 2002-03-05 | 2007-10-31 | ソニー株式会社 | Image photographing apparatus and chromatic aberration correction method |
JP2004266768A (en) * | 2003-03-04 | 2004-09-24 | Mega Chips Corp | Image processing system and digital camera |
JP4218712B2 (en) * | 2006-08-04 | 2009-02-04 | ソニー株式会社 | Face detection device, imaging device, and face detection method |
-
2008
- 2008-08-08 JP JP2008205746A patent/JP5173664B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010041682A (en) | 2010-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8106976B2 (en) | Peripheral light amount correction apparatus, peripheral light amount correction method, electronic information device, control program and readable recording medium | |
US8767103B2 (en) | Color filter, image processing apparatus, image processing method, image-capture apparatus, image-capture method, program and recording medium | |
JP5132401B2 (en) | Image processing apparatus and image processing method | |
US20040041919A1 (en) | Digital camera | |
JP6999802B2 (en) | Methods and equipment for double camera-based imaging | |
US20090284618A1 (en) | Image processing device and method, and computer-readable recording medium containing program | |
JP2008167361A (en) | CAMERA MODULE, ELECTRONIC DEVICE HAVING THE SAME, CAMERA MODULE MANUFACTURING METHOD, AND ELECTRONIC DEVICE MANUFACTURING METHOD USING THE SAME | |
US9699387B2 (en) | Image processing device for processing pupil-divided images obtained through different pupil regions of an imaging optical system, control method thereof, and program | |
US20100085447A1 (en) | Noise canceling circuit, noise canceling method, and solid-state imaging device | |
JP5272699B2 (en) | Image processing apparatus, imaging apparatus, program, and image processing method | |
KR101639664B1 (en) | Photographing apparatus and photographing method | |
JP2016226059A (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5183348B2 (en) | Imaging device | |
JP4955235B2 (en) | Digital camera and gain calculation method | |
JP4513205B2 (en) | Electronic camera and recording medium for image processing program | |
JP5010909B2 (en) | Imaging apparatus and image data correction method | |
JP5173664B2 (en) | Image processing apparatus and image processing method | |
KR101635101B1 (en) | An apparatus and a method of removing lens distortion and chromatic aberration | |
KR101626447B1 (en) | An apparatus, a method, a computer-readable medium storing a computer program of removing lens distortion and chromatic aberration | |
JPH11113018A (en) | Image pickup device | |
JP5560766B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP2021097347A (en) | Imaging apparatus, control method of the same, and program | |
US7697043B2 (en) | Apparatus for compensating for color shading on a picture picked up by a solid-state image sensor over a broad dynamic range | |
JP5284183B2 (en) | Image processing apparatus and method | |
JP2000092383A (en) | Image input device, image input method, method for adjusting transmission filter, method for measuring transmission filter and image output method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121227 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5173664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |