[go: up one dir, main page]

JP2008147714A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2008147714A
JP2008147714A JP2006328842A JP2006328842A JP2008147714A JP 2008147714 A JP2008147714 A JP 2008147714A JP 2006328842 A JP2006328842 A JP 2006328842A JP 2006328842 A JP2006328842 A JP 2006328842A JP 2008147714 A JP2008147714 A JP 2008147714A
Authority
JP
Japan
Prior art keywords
image
correction
image processing
focus position
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006328842A
Other languages
Japanese (ja)
Inventor
Chie Ishikawa
智恵 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006328842A priority Critical patent/JP2008147714A/en
Publication of JP2008147714A publication Critical patent/JP2008147714A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To set suitable correction parameters of an image by using information representing a focus point of an image. <P>SOLUTION: The information representing the focus point of the image is acquired (S201), the image is dynamically divided into areas according to a subject (S202), and an area corresponding to the information representing the focus point is extracted from the divided areas (S204). Statistic of values of pixels included in the extracted area are calculated (S205) and compared with a predetermined threshold to judge whether the image needs to be corrected (S206). When it is judged that the image needs to be corrected, correction parameters for correcting the image are set based upon the statistic (S207). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えばディジタル写真画像のような画像を補正する画像処理に関する。   The present invention relates to image processing for correcting an image such as a digital photographic image.

ディジタル画像の彩度、色調、コントラスト、階調などを調整する様々な画像処理がある。オペレータは、画像に関する専門的な知識をもち、専門的または専用のソフトウェアを用い、経験的な知識を駆使して、これら画像処理を行う。そして、コンピュータのモニタ上で画像処理結果を確認しながら、試行錯誤を繰り返して、最終的な画像を得ている。   There are various image processes for adjusting the saturation, color tone, contrast, gradation, etc. of a digital image. The operator has specialized knowledge regarding images, and performs these image processing using specialized or dedicated software and empirical knowledge. The final image is obtained by repeating trial and error while confirming the image processing result on the computer monitor.

近年、ディジタルカメラ、パソコン、インターネット、家庭用プリンタなどが普及し、ハードディスクなどの記憶媒体の大容量化を背景にして、個人が、ディジタル写真画像を扱う機会が増えている。一方、ディジタルカメラで撮影された画像は、必ずしも好適な条件で撮影された画像とは限らない。勿論、好適ではない条件で撮影した画像であっても、それが撮影者にとって重要な画像であれば、廃棄できるものではない。そこで、好適ではない条件で撮影された画像から適切な画像を得るための画像補正が望まれる。   In recent years, digital cameras, personal computers, the Internet, household printers, and the like have become widespread, and the opportunity for individuals to handle digital photographic images is increasing against the backdrop of increasing the capacity of storage media such as hard disks. On the other hand, an image taken with a digital camera is not necessarily an image taken under suitable conditions. Of course, even if an image was taken under unfavorable conditions, it cannot be discarded if it is an important image for the photographer. Therefore, image correction for obtaining an appropriate image from an image photographed under unfavorable conditions is desired.

特開平11-17969号公報に開示された色補正手法は、グラフィカルユーザインタフェイスによるユーザとの対話を利用する。この手法を用いれば、補正対象領域における代表色および色補正パラメータが手動で設定可能になり、柔軟かつ良好な色補正が可能になる。しかし、この手法は、多数の写真画像を短時間に処理する場合、処理時間とユーザの労力を必要とし、好ましいとは言えない。その上、ユーザの熟練度によって補正結果にばらつきが生じる。   The color correction method disclosed in Japanese Patent Laid-Open No. 11-17969 uses a dialog with a user through a graphical user interface. If this method is used, the representative color and the color correction parameter in the correction target area can be manually set, and flexible and satisfactory color correction can be performed. However, this method is not preferable when processing a large number of photographic images in a short time, which requires processing time and user effort. In addition, the correction results vary depending on the skill level of the user.

ユーザの熟練度の違いによる補正結果のばらつきと、処理時間の問題を解決するには、ユーザの操作を必要としない自動補正が必要である。   In order to solve the variation of the correction result due to the difference in the skill level of the user and the problem of the processing time, automatic correction that does not require the user's operation is required.

自動補正を行う方法として、特開2004-260835公報の発明は明度の補正手段を開示する。画像を複数の固定領域に分割し、画像の中央部に位置する複数領域を主要部分として、それら領域から補正の基準領域を選定して補正に利用する。また、ディジタルカメラは、その内部で固定領域を使って自動画像補正を行う。この場合、固定領域とピント位置(フォーカス位置)を組み合わせて、補正の基準固定領域を選定して補正に利用する。このように、自動補正する場合、画像を複数の固定領域に分割し、それら領域から補正の基準領域を選定してい補正量を決定する。   As a method for performing automatic correction, the invention of Japanese Patent Application Laid-Open No. 2004-260835 discloses lightness correction means. An image is divided into a plurality of fixed areas, and a plurality of areas located at the center of the image are used as main parts, and a correction reference area is selected from these areas and used for correction. Further, the digital camera performs automatic image correction using a fixed area inside. In this case, the reference fixed area for correction is selected and used for correction by combining the fixed area and the focus position (focus position). As described above, when automatic correction is performed, an image is divided into a plurality of fixed areas, and a correction reference area is selected from these areas to determine a correction amount.

しかし、特開2004-260835公報の発明のように、画像を固定領域に分割し、中央部などの位置情報によってのみ主要被写体を決定する場合、大きさが近い被写体が中央部に二つ以上あれば、それら被写体を基準に補正量を決定することになる。また、より中央に近いなどの位置的情報で、被写体の一つを基準に選定して補正量を決定することになる。このような被写体の選定方法は、ユーザが意図しない補正結果になる場合がある。   However, as in the invention of Japanese Patent Application Laid-Open No. 2004-260835, when an image is divided into fixed areas and the main subject is determined only by position information such as the central portion, there may be two or more subjects with similar sizes in the central portion. For example, the correction amount is determined based on these subjects. In addition, the correction amount is determined by selecting one of the subjects based on positional information such as closer to the center. Such a subject selection method may result in a correction result not intended by the user.

例えば図3Aに示すような原画像において、撮影時、ユーザは暗く写った花301にピントを合わせていたとする。この原画像を、図3Cに示すように、8×8の固定領域に分割すると、画像の中央部に位置する白い花302を含む九つの領域313の明るさのヒストグラムが参照される。その結果、領域313は適正な明るさと判断されて補正されなかったり、あるいは、領域313は明る過ぎると判断されて明るさを低減する補正が施される。つまり、ユーザがピントを合わせた(最大の興味をもつ)花301は、暗く写ったまま、あるいは、ますます暗く補正されてしまう。   For example, in the original image as shown in FIG. 3A, it is assumed that the user has focused on the flower 301 that appears dark at the time of shooting. When this original image is divided into 8 × 8 fixed regions as shown in FIG. 3C, the brightness histogram of nine regions 313 including white flowers 302 located in the center of the image is referred to. As a result, the area 313 is determined to have appropriate brightness and is not corrected, or the area 313 is determined to be too bright and correction is performed to reduce the brightness. In other words, the flower 301 focused by the user (who has the greatest interest) remains dark or is corrected darker.

また、複数の固定領域による分割とピント位置を示す情報から、ピントが合っている領域の色分布や明るさのヒストグラムなどの統計量を利用して補正量を決定する方法がある。この方法は、被写体が固定領域の境界を跨いで存在すると、被写体そのものの統計量を正確に得ることができない場合がある。例えば、図3Cのように、画像を8×8の固定領域に分割し、ピントの合っている領域が六つの領域314と判断したとする。この場合、領域314の明るい背景部分と暗い被写体部分の面積率がほぼ一対一である。そのため、領域314の輝度の平均値を求めると中庸の値になり、その結果、ピントが合っている被写体301は、暗く写ったままになる。   In addition, there is a method of determining a correction amount from information indicating division and focus positions by a plurality of fixed areas and using statistics such as a color distribution of a focused area and a histogram of brightness. In this method, if the subject exists across the boundary of the fixed area, the statistics of the subject itself may not be obtained accurately. For example, as shown in FIG. 3C, it is assumed that an image is divided into 8 × 8 fixed areas, and the in-focus areas are determined as six areas 314. In this case, the area ratio of the bright background portion and the dark subject portion of the region 314 is approximately one to one. Therefore, when the average value of the luminance of the area 314 is obtained, it becomes a neutral value, and as a result, the subject 301 in focus remains dark.

つまり、画像を複数の固定領域で分割する方法は、たとえ位置情報やピント情報を組み合わせたとしても、補正量を決める際に重要な、主要な被写体の色分布や明るさの統計量を簡単かつ正確に把握することができない。   In other words, the method of dividing an image into a plurality of fixed areas can easily and easily calculate the color distribution and brightness statistics of main subjects, which are important when determining the correction amount, even if position information and focus information are combined. It cannot be accurately grasped.

特開平11-17969号公報Japanese Patent Laid-Open No. 11-17969 特開2004-260835公報Japanese Patent Laid-Open No. 2004-260835

本発明は、画像のピント位置を示す情報を使用して、画像の適切な補正パラメータを設定することを目的とする。   An object of the present invention is to set an appropriate correction parameter for an image using information indicating the focus position of the image.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる画像処理は、画像のピント位置を示す情報を取得し、前記画像の被写体に応じて前記画像を動的に領域分割し、前記領域分割した領域から、前記ピント位置を示す情報に対応する領域を抽出し、前記抽出した領域に含まれる画素の値の統計量を計算し、前記計算した統計量と、予め決められた閾値を比較して、前記画像の補正の要否を判定し、前記補正が必要と判定した場合、前記統計量を基に前記画像を補正するための補正パラメータを設定することを特徴とする。   The image processing according to the present invention acquires information indicating the focus position of the image, dynamically divides the image according to the subject of the image, and converts the area into information indicating the focus position. The corresponding region is extracted, the statistic of the value of the pixel included in the extracted region is calculated, and the calculated statistic is compared with a predetermined threshold value to determine whether the image needs to be corrected. When it is determined that the correction is necessary, a correction parameter for correcting the image is set based on the statistic.

本発明によれば、画像のピント位置を示す情報を使用して、画像の適切な補正パラメータを設定することができる。   According to the present invention, it is possible to set an appropriate correction parameter for an image using information indicating the focus position of the image.

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1は実施例1の画像処理を実行する画像処理装置の構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus that performs image processing according to the first embodiment.

入力部101は、ユーザから指示やデータを入力するためのキーボードやポインティングデバイス(マウス、トラックボール、トラックパッドまたはタブレット)などである。なお、本実施例をディジタルカメラなどの入力デバイスに適用する場合は、ボタン、モードダイヤル、スイッチなどが入力部101に相当する。   The input unit 101 is a keyboard or a pointing device (mouse, trackball, trackpad or tablet) for inputting instructions and data from the user. When the present embodiment is applied to an input device such as a digital camera, buttons, mode dials, switches, and the like correspond to the input unit 101.

データ保存部102は、画像データを記憶し、通常はハードディスク、光ディスク、メモリカードなどである。勿論、データ保存部102は、プログラムやその他のデータを記憶することも可能である。   The data storage unit 102 stores image data, and is usually a hard disk, an optical disk, a memory card, or the like. Of course, the data storage unit 102 can also store programs and other data.

通信部107は、USBやIEEE1394などのシリアルバスのインタフェイス(I/F)、有線ネットワークI/F、あるいは、赤外線や無線方式の無線ネットワークI/Fである。画像処理装置は、通信部107を介して、図示しない、画像入出力デバイス、ネットワーク上のコンピュータ装置やサーバと通信することができる。   The communication unit 107 is a serial bus interface (I / F) such as USB or IEEE1394, a wired network I / F, or an infrared or wireless wireless network I / F. The image processing apparatus can communicate with an image input / output device, a computer apparatus or a server on a network (not shown) via the communication unit 107.

表示部103は、画像処理前または画像処理後の画像を表示したり、あるいは、グラフィックユーザインタフェイスを表示したりする。表示部103には、一般に、CRTやLCDなどの表示デバイスを用いる。勿論、表示部103は、ケーブルを介して画像処理装置と接続されたモニタでも構わない。   The display unit 103 displays an image before or after image processing, or displays a graphic user interface. For the display unit 103, a display device such as a CRT or an LCD is generally used. Of course, the display unit 103 may be a monitor connected to the image processing apparatus via a cable.

CPU 104は、RAM 106をワークメモリとして、ROM 105またはデータ保存部102に格納された各種プログラムを実行し、前述した各構成を制御して、後述する補正パラメータを設定する画像処理を含む様々な画像処理を実行する。   The CPU 104 uses the RAM 106 as a work memory, executes various programs stored in the ROM 105 or the data storage unit 102, controls various components described above, and performs various processes including image processing for setting correction parameters described later. Perform image processing.

また、画像処理装置には、さらに、図示しない、レンズとCCDなどを有する画像入力部を設けて、画像入力部によって撮影した画像をデータ保存部102に蓄える構成にしてもよい。   Further, the image processing apparatus may further include an image input unit (not shown) having a lens and a CCD, and the image captured by the image input unit may be stored in the data storage unit 102.

以下の説明では、一例として、原画像はRGB色空間で表現され、各チャネルは8ビットの整数値、0〜255の値をもち、画像のサイズは1600×1200画素とする。また、画像中の画素位置を示す場合、画像の左上を原点とし、画像の右方向(水平方向)をx座標の正方向、下方向(垂直方向)をy座標の正方向にする。   In the following description, as an example, an original image is expressed in an RGB color space, each channel has an 8-bit integer value, a value from 0 to 255, and the image size is 1600 × 1200 pixels. Also, when indicating the pixel position in the image, the upper left corner of the image is the origin, the right direction (horizontal direction) of the image is the positive direction of the x coordinate, and the lower direction (vertical direction) is the positive direction of the y coordinate.

[画像処理]
次に、画像処理装置が実行する、ピント位置を示す情報(以下、ピント位置情報と呼ぶ)を使って画像全体の明るさを補正する画像処理を説明する。
[Image processing]
Next, image processing executed by the image processing apparatus to correct the brightness of the entire image using information indicating the focus position (hereinafter referred to as focus position information) will be described.

図2はピントが合っている主要な被写体に応じて画像の明るさを補正する方法を説明するフローチャートで、CPU 104が実行する処理である。   FIG. 2 is a flowchart for explaining a method for correcting the brightness of an image in accordance with a main subject in focus, which is a process executed by the CPU 104.

CPU 104は、補正する画像データと、その付加情報をデータ保存部102から読み出して、RAM 106の所定領域に格納する(S201)。ディジタルカメラで撮影した画像には、一般に、Exif (exchangeable image file format)情報と呼ばれる情報が付加されているので、画像データを取得すると、その付加情報も取得することができる。しかし、画像データとは別に付加情報が保存されている場合は、画像データと、当該画像データに関連する付加情報を別途取得することになる。また、付加情報の取得は、アプリケーションプログラムから直接受信するなど様々な方法が考えられる。   The CPU 104 reads out the image data to be corrected and the additional information from the data storage unit 102 and stores it in a predetermined area of the RAM 106 (S201). Generally, information called Exif (exchangeable image file format) information is added to an image photographed with a digital camera. Therefore, when image data is acquired, the additional information can also be acquired. However, when additional information is stored separately from the image data, the image data and additional information related to the image data are acquired separately. Further, there are various methods for acquiring additional information, such as receiving directly from an application program.

次に、CPU 104は、RAM 106の所定領域に格納した画像データが表す画像を、マルコフ確率場(MRF)モデルを使う動的な領域分割方法により、被写体の形状に応じた領域に分割する(S202)。   Next, the CPU 104 divides the image represented by the image data stored in the predetermined area of the RAM 106 into areas corresponding to the shape of the subject by a dynamic area dividing method using a Markov random field (MRF) model ( S202).

図3Bは、図3Aに示す原画像をMRFモデルによって領域分割した一例を示す図で、原画像が九つの領域に分割された様子を示している。MRFモデルを使う領域分割方法は、公知技術であるから、その詳細説明は割愛する。   FIG. 3B is a diagram showing an example in which the original image shown in FIG. 3A is divided into regions by the MRF model, and shows how the original image is divided into nine regions. Since the region dividing method using the MRF model is a well-known technique, its detailed description is omitted.

図5はMRFモデルを使う領域分割の結果として得られる領域分割データの一例を示す図である。各画素にラベリングされた番号は、当該画素が属す領域を示す。なお、領域分割データは、画像サイズと同じ1600×1200画素のマップデータで、RAM 106の所定領域に格納される。   FIG. 5 is a diagram showing an example of area division data obtained as a result of area division using the MRF model. The number labeled on each pixel indicates the area to which the pixel belongs. The area division data is map data of 1600 × 1200 pixels that is the same as the image size, and is stored in a predetermined area of the RAM 106.

次に、CPU 104は、付加情報からピント位置情報を抽出する(S203)。ピント位置情報は、Exif情報の被写体領域情報(SubjectArea tag)から抽出することができる。なお、被写体領域情報を示すSubjectAreaタグは「Exchangeable image file format for digital still cameras: Exif version 2.2」JEITACP-3451で定義されている。また、Exifのタグデータを読む出す方法は、公知であるから、詳細な説明は割愛する。   Next, the CPU 104 extracts focus position information from the additional information (S203). The focus position information can be extracted from the subject area information (Subject Area tag) of the Exif information. The SubjectArea tag indicating the subject area information is defined in “Exchangeable image file format for digital still cameras: Exif version 2.2” JEITACP-3451. Also, since a method for reading out Exif tag data is known, a detailed description thereof is omitted.

図4Aはピント位置情報を説明する図である。以下では、SubjectAreaタグから主要な被写体の領域を示す矩形領域情報が得られたとして説明する。そして、矩形領域情報には、ピント位置406の中心座標、例えば(1200, 800)と、ピンチ位置406のサイズ、例えば(200, 150)が含まれていたとする。   FIG. 4A is a diagram for explaining focus position information. In the following description, it is assumed that rectangular area information indicating the main subject area is obtained from the SubjectArea tag. The rectangular area information includes the center coordinates of the focus position 406, for example, (1200, 800), and the size of the pinch position 406, for example, (200, 150).

次に、CPU 104は、抽出したピント位置情報と領域分割結果から、ピントが合っている領域Fを抽出する(S204)。なお、ピント位置の中心座標を含む分割領域を領域Fとして抽出すればよい。言い換えれば、図5に示す領域分割データから、ピント位置の中心座標に対応する画素にラベリングされた番号を取得すればよい   Next, the CPU 104 extracts an in-focus area F from the extracted focus position information and the area division result (S204). A divided area including the center coordinates of the focus position may be extracted as the area F. In other words, the number labeled on the pixel corresponding to the center coordinate of the focus position may be obtained from the area division data shown in FIG.

図4Bは、図3Aに示す原画像に、図4Aに示すピント位置401〜406を重ねた状態を示す図で、被写体とピント位置の関係を示している。図4Cは、図3Bに示す領域分割画像と、図4Aに示すピント位置401〜406を重ねた状態を示す図である。実施例1では、図4Cに示すように、ピント位置406に対応する領域305を示す番号が取得され、ピントが合っている領域Fとして領域305が抽出される。   FIG. 4B is a diagram showing a state where the focus positions 401 to 406 shown in FIG. 4A are superimposed on the original image shown in FIG. 3A, and shows the relationship between the subject and the focus position. FIG. 4C is a diagram illustrating a state in which the region-divided image illustrated in FIG. 3B and the focus positions 401 to 406 illustrated in FIG. 4A are overlapped. In Example 1, as shown in FIG. 4C, the number indicating the region 305 corresponding to the focus position 406 is acquired, and the region 305 is extracted as the region F in focus.

次に、CPU 104は、領域Fに含まれる全画素の明るさの平均値を求め、領域Fの明るさBにする(S205)。なお、画素のRGB値をYCbCr値に変換し、変換後の輝度値Yを明るさとして用いればよい。RGBからYCCへの変換は式(1)で行う。なお、YCC空間の輝度値Yの代わりに、L*a*b*空間の明度値Lを用いてもよい。
┌ ┐ ┌ ┐┌ ┐
│Y │ │ 0.2290 0.5870 0.1140││R│
│Cb│=│-0.1687 -0.3313 0.5000││G│ …(1)
│Cr│ │ 0.5000 -0.4187 -0.0813││B│
└ ┘ └ ┘└ ┘
Next, the CPU 104 obtains an average value of the brightness of all the pixels included in the area F and sets the brightness B of the area F (S205). Note that the RGB value of the pixel may be converted into a YCbCr value, and the converted luminance value Y may be used as the brightness. Conversion from RGB to YCC is performed using equation (1). Instead of the luminance value Y in the YCC space, the brightness value L in the L * a * b * space may be used.
┌ ┐ ┌ ┐┌ ┐
│Y │ │ 0.2290 0.5870 0.1140││R│
│Cb│ = │-0.1687 -0.3313 0.5000││G│… (1)
│Cr│ │ 0.5000 -0.4187 -0.0813││B│
└ ┘ └ ┘└ ┘

従って、座標(i, j)の画素P(i, j)=(rij, gij, bij)の輝度値Yijは式(2)で計算することができる。
Yij = 0.2990×rij + 0.5870×gij + 0.1440×bij …(2)
Accordingly, the luminance value Yij of the pixel P (i, j) = (rij, gij, bij) at the coordinates (i, j) can be calculated by the equation (2).
Yij = 0.2990 × rij + 0.5870 × gij + 0.1440 × bij… (2)

あるいは、式(2)の近似式として式(3)を用いてもよい。
Yij = 0.3×rij + 0.6×gij + 0.1×bij …(3)
Alternatively, Expression (3) may be used as an approximate expression of Expression (2).
Yij = 0.3 × rij + 0.6 × gij + 0.1 × bij… (3)

CPU 104は、領域分割データから画素P(i, j)の領域番号を読み出し、領域Fの番号に一致するか否かで、画素P(i, j)が領域Fに含まれるか否かを判定する。そして、領域Fに含まれる画素の明るさを計算すると、明るさの平均値である領域Fの明るさBを式(4)によって計算する。
B = ΣYij/N(領域F内の画素数) …(4)
ここで、Σ演算の範囲は領域F(i, j ∈ 領域F)
Nは領域Fの画素数
The CPU 104 reads the region number of the pixel P (i, j) from the region division data, and determines whether or not the pixel P (i, j) is included in the region F depending on whether or not it matches the number of the region F. judge. Then, when the brightness of the pixels included in the area F is calculated, the brightness B of the area F, which is an average value of the brightness, is calculated by the equation (4).
B = ΣYij / N (number of pixels in region F) (4)
Here, the range of Σ operation is region F (i, j ∈ region F)
N is the number of pixels in area F

次に、CPU 104は、領域Fの明るさBと閾値Thを比較する(S206)。そして、B<Thの場合は領域Fの明るさが不足していると判断し、B≧Thの場合は領域Fの明るさは充分と判断する。   Next, the CPU 104 compares the brightness B of the region F with the threshold value Th (S206). When B <Th, it is determined that the brightness of the area F is insufficient, and when B ≧ Th, it is determined that the brightness of the area F is sufficient.

図6は補正前後の明るさの関係例を示す図で、閾値Th=128とした例である。つまり、領域Fの明るさBが128以上あれば明るさを補正しない。また、領域Fの明るさBが128未満の場合は、明るく補正する。例えば、領域Fの明るさB=78だとすると、閾値Th未満だから、明るく補正して領域Fの明るさBを90.5にする。なお、閾値Thには既定値として経験値を設定し、ユーザが必要に応じて閾値Thを調整可能にすればよい。   FIG. 6 is a diagram showing an example of the relationship between brightness before and after correction, and is an example in which the threshold value Th = 128. That is, if the brightness B of the region F is 128 or more, the brightness is not corrected. When the brightness B of the area F is less than 128, the brightness is corrected brightly. For example, if the brightness B of the area F is 78, it is less than the threshold value Th, so that the brightness B is corrected to be 90.5. It should be noted that an experience value may be set as the default value for the threshold value Th so that the user can adjust the threshold value Th as necessary.

領域Fの明るさが不足していると判断した場合、CPU 104は、領域Fの明るさBを図6に示すように補正する補正量を設定する(S207)。実施例1では、ガンマ補正によって明るさを補正するものとし、補正量としてガンマ値を計算する例を説明する。ガンマ補正は、各画素に式(5)による変換を施す処理である。
νout = νin(1/γ) …(5)
ここで、νinは0〜1.0の範囲に正規化された元の画素値、
νoutは0〜1.0の範囲に正規化されたガンマ補正の後の画素値、
γは補正パラメータ(ガンマ値)
When determining that the brightness of the area F is insufficient, the CPU 104 sets a correction amount for correcting the brightness B of the area F as shown in FIG. 6 (S207). In the first embodiment, an example will be described in which brightness is corrected by gamma correction and a gamma value is calculated as a correction amount. The gamma correction is a process for applying a conversion according to Expression (5) to each pixel.
ν out = ν in (1 / γ)… (5)
Where ν in is the original pixel value normalized to a range of 0 to 1.0,
ν out is the pixel value after gamma correction normalized to the range of 0 to 1.0,
γ is a correction parameter (gamma value)

なお、式(5)においてγ<1.0の場合は、νout≦νinと画素値は小さくなり、ガンマ補正によって暗く補正される。逆に、γ>1.0の場合、νout≧νinと画素値は大きくなり、ガンマ補正によって明るく補正される。 If γ <1.0 in equation (5), the pixel value becomes smaller as ν out ≦ ν in and is corrected darkly by gamma correction. On the contrary, when γ> 1.0, the pixel value becomes large as ν out ≧ ν in and is brightly corrected by gamma correction.

従って、補正パラメータγは、領域Fの明るさBと補正後の明るさB'から式(6)によって計算される。
γ = log B/log B' …(6)
Therefore, the correction parameter γ is calculated from the brightness B of the region F and the corrected brightness B ′ by Expression (6).
γ = log B / log B '… (6)

例えば領域Fの明るさB=78を明るさB'=90.5にする場合の補正パラメータγは次のとおりである。
γ = log(78/255)/log(90.5/255) ≒ 1.143
For example, the correction parameter γ when the brightness B = 78 in the region F is changed to the brightness B ′ = 90.5 is as follows.
γ = log (78/255) / log (90.5 / 255) ≒ 1.143

次に、CPU 104は、補正パラメータγにより、画像データ全体の明るさを補正する(S208)。図7はγ≒1.143の場合の補正用のガンマカーブ702を示す図で、原画像の特性701に比べて明るく補正される。   Next, the CPU 104 corrects the brightness of the entire image data with the correction parameter γ (S208). FIG. 7 is a diagram showing a correction gamma curve 702 in the case of γ≈1.143, which is corrected brighter than the characteristic 701 of the original image.

実施例1では、補正前後の明るさの関係として図6に一例を示したが、この関係(特性)は、実験等によって最適な特性を決めることが好ましい。   In the first embodiment, an example of the relationship between the brightness before and after the correction is shown in FIG. 6, but it is preferable that this relationship (characteristic) is determined by an experiment or the like.

このように、画像を被写体の形に領域分割した結果と、ピント情報に基づき、明るさを補正する補正量を決めることで、撮影者が注目した被写体を適正な明るさに簡単に補正することができる。また、固定分割と異なり、被写体に含まれる画素のみで補正量を決めるため、ピントが合っている被写体を示す情報さえあれば、画像全体に補正処理を施した場合も、主要な被写体を切り抜いて補正処理を施した場合も、同一の補正量で補正される。その結果、補正結果のばらつきが抑制され、補正品質が安定する。   In this way, it is possible to easily correct the subject focused by the photographer to the appropriate brightness by determining the correction amount for correcting the brightness based on the result of dividing the image into the shape of the subject and the focus information. Can do. Also, unlike fixed division, the amount of correction is determined only by the pixels included in the subject, so if there is only information indicating the subject in focus, the main subject will be clipped even if correction processing is applied to the entire image. Even when correction processing is performed, correction is performed with the same correction amount. As a result, variations in correction results are suppressed, and correction quality is stabilized.

以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

実施例1では、付加情報からピント位置情報を抽出したが、ピント位置情報がない、または、読めないフォーマットで付加情報が記述されている場合がある。そこで、実施例2では、ピント位置情報の有無を考慮して画像全体の明るさを補正する画像処理を説明する。   In the first embodiment, the focus position information is extracted from the additional information. However, there is a case where the additional information is described in a format that does not have the focus position information or cannot be read. In the second embodiment, image processing for correcting the brightness of the entire image in consideration of the presence / absence of focus position information will be described.

図8は実施例2の画像の明るさを補正する方法を説明するフローチャートで、CPU 104が実行する処理である。なお、図2に示した処理と同様の処理には同一符号を付して、その詳細説明を省略する。   FIG. 8 is a flowchart for explaining a method for correcting the brightness of an image according to the second embodiment. The same processes as those shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

CPU 104は、付加情報からピント位置情報を抽出できるか否かを判定する(S801)。抽出可能な場合は、ステップS203へ進み、実施例1と同様の処理を行う。   The CPU 104 determines whether or not focus position information can be extracted from the additional information (S801). If extraction is possible, the process proceeds to step S203, and the same processing as in the first embodiment is performed.

付加情報からピント位置情報を抽出できない場合、CPU 104は、分割した各領域のエッジ強度を計算する(S802)。エッジ強度の計算は、公知のPrewitt、Sobel、Laplacianフィルタなどのエッジ検出フィルタを用いて計算できるので詳細な説明を割愛する。   When the focus position information cannot be extracted from the additional information, the CPU 104 calculates the edge strength of each divided area (S802). Since the calculation of the edge strength can be performed using a known edge detection filter such as a Prewitt, Sobel, or Laplacian filter, a detailed description is omitted.

次に、CPU 104は、最もエッジ強度が強い領域をピントが合っている領域Fとして抽出する(S803)。そして、処理をステップS205へ進めて、実施例1と同様の処理を行う。   Next, the CPU 104 extracts a region with the strongest edge strength as a focused region F (S803). Then, the process proceeds to step S205, and the same process as in the first embodiment is performed.

このように、ピント位置情報が抽出不可能な場合でも、分割した領域のエッジ強度から主要な被写体領域を予測して、当該領域に適した補正を行うことができる。   As described above, even when focus position information cannot be extracted, a main subject region can be predicted from the edge strength of the divided region, and correction suitable for the region can be performed.

以下、本発明にかかる実施例3の画像処理を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一符号を付して、その詳細説明を省略する。   Hereinafter, image processing according to the third embodiment of the present invention will be described. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof will be omitted.

実施例1、2では、領域分割結果とピント位置情報から明るさを補正する方法を説明した。実施例3では、領域分割結果とピント位置情報からホワイトバランスを取る方法を説明する。   In the first and second embodiments, the method of correcting the brightness from the region division result and the focus position information has been described. In the third embodiment, a method for obtaining white balance from the region division result and the focus position information will be described.

図9は実施例3のホワイトバランスを取る方法を説明するフローチャートで、CPU 104が実行する処理である。なお、図2に示した処理と同様の処理には同一符号を付して、その詳細説明を省略する。   FIG. 9 is a flowchart for explaining a method for obtaining white balance according to the third embodiment. The same processes as those shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

CPU 104は、領域Fを抽出すると、領域Fの平均色(Ravr, Gavr, Bavr)と彩度の平均値Savrを計算する(S901)。平均色(Ravr, Gavr, Bavr)は、領域Fに含まれる全画素P(i, j)のRGB値(rij, gij, bij)の合計値を領域Fの画素数Nで割ればよい。また、彩度の平均値SavrはHSV空間のS値の平均値とする。RGB空間からHSV空間への変換は公知技術であるから詳細説明を割愛するが、平均色(Ravr, Gavr, Bavr)からHSV空間のS値を計算してSavrにする。なお、以下では、平均色(Ravr, Gavr, Bavr)=(158, 158, 150)、彩度の平均値Savr=5が算出されたとして説明する。   When the area F is extracted, the CPU 104 calculates an average color (Ravr, Gavr, Bavr) and an average value Savr of saturation in the area F (S901). For the average color (Ravr, Gavr, Bavr), the total value of the RGB values (rij, gij, bij) of all the pixels P (i, j) included in the region F may be divided by the number N of pixels in the region F. The average value Savr of saturation is the average value of S values in the HSV space. Since the conversion from the RGB space to the HSV space is a well-known technique, a detailed description is omitted, but the S value of the HSV space is calculated from the average color (Ravr, Gavr, Bavr) to be Savr. In the following description, it is assumed that the average color (Ravr, Gavr, Bavr) = (158, 158, 150) and the saturation average value Savr = 5 are calculated.

次に、CPU 104は、彩度の平均値Savrが白色領域の彩度か否かを判定する(S902)。そして、白色領域の彩度ではないと判定した場合は処理を終了する。白色領域の判定には様々な方法が考えられるが、例えばSavr≦15であれば白色領域の彩度と判定すればよい。   Next, the CPU 104 determines whether or not the average value Savr of saturation is the saturation of the white region (S902). And when it determines with it not being the saturation of a white area | region, a process is complete | finished. Various methods can be considered for the determination of the white region. For example, if Savr ≦ 15, the saturation of the white region may be determined.

白色領域の彩度と判定した場合、CPU 104は、画像全体のホワイトバランスを領域Fの平均色(Ravr, Gavr, Bavr)を基準に補正して(S903)、処理を終了する。ホワイトバランスの補正も様々な方法があるが、例えば画像の各画素P(i, j)のRGB値(rij, gij, bij)を、領域Fの平均色(Ravr, Gavr, Bavr)を使って、式(7)で補正すればよい。
R'(i, j) = rij×Gavr/Ravr
G'(i, j) = gij …(7)
B'(i, j) = bij×Gavr/Bavr
If it is determined that the saturation is in the white area, the CPU 104 corrects the white balance of the entire image based on the average color (Ravr, Gavr, Bavr) in the area F (S903), and ends the process. There are various methods for correcting white balance. For example, the RGB values (rij, gij, bij) of each pixel P (i, j) of the image are used by using the average colors (Ravr, Gavr, Bavr) of the region F. The correction may be made using equation (7).
R '(i, j) = rij x Gavr / Ravr
G '(i, j) = gij (7)
B '(i, j) = bij × Gavr / Bavr

なお、白色領域の判定方法は、S値に基づき決める方法だけではない。例えば、彩度の情報をYCC空間のCbCrによる式差ベクトルで決めてもよいし、色かぶりを起こし易いシーンを実際に撮影して、統計的に得られたRGB値に基づき決めてもよい。   Note that the white region determination method is not limited to the method of determining based on the S value. For example, the saturation information may be determined by an expression difference vector by CbCr in the YCC space, or may be determined based on RGB values obtained by actually photographing a scene that is likely to cause color fogging.

また、実施例2と同様に、ピント位置情報が抽出不可能な場合は、各領域のエッジ強度を計算し、最もエッジ強度が強い領域を領域Fとみなして、ホワイトバランスを補正してもよい。   Similarly to the second embodiment, when focus position information cannot be extracted, the edge strength of each region may be calculated, the region having the strongest edge strength may be regarded as the region F, and the white balance may be corrected. .

上記の方法でホワイトバランスを調整すれば、背景や、主要な被写体以外の白い物体の面積が大きくても、撮影者が注目した被写体を中心にホワイトバランスを調整することができる。また、明るさ補正と同様に、固定分割と異なり、白い被写体以外の領域を含むことなく、色と彩度の平均値を計算できる。そのため、主要な被写体を切り抜いた画像をピント位置情報とともに保存すれば、切り抜く前の画像と同じ補正量を得ることができ、補正品質が安定する。   If the white balance is adjusted by the above method, the white balance can be adjusted around the subject that the photographer has paid attention to even if the background or the area of a white object other than the main subject is large. Similarly to the brightness correction, unlike the fixed division, the average value of color and saturation can be calculated without including an area other than a white subject. Therefore, if the image obtained by cutting out the main subject is stored together with the focus position information, the same correction amount as that of the image before cutting out can be obtained, and the correction quality is stabilized.

[変形例]
上記の実施例においては、原画像を領域分割する例を説明したが、原画像を縮小後に領域分割を行ってもよい。原画像を領域分割する場合に比べて、若干、被写体の境界部における領域分割精度が低下する、処理の高速化を図ることができる。
[Modification]
In the above embodiment, the example in which the original image is divided into regions has been described. However, the region may be divided after the original image is reduced. Compared with the case where the original image is divided into regions, the region division accuracy at the boundary portion of the subject is slightly lowered, and the processing speed can be increased.

また、上記の実施例において、MRFモデルを使用する領域分割方法を説明したが、被写体ごとに領域分割可能な方法であればよい。   In the above embodiment, the region dividing method using the MRF model has been described. However, any method can be used as long as the region can be divided for each subject.

また、上記の実施例において、領域分割の結果、図5に示す領域分割データ(マップ)が作成されると説明したが、この情報だけに限定するものではない。例えば、マップ作成後、各領域の平均輝度や平均色、画素数、中心座標、重心座標、彩度、明度などの情報も合わせて、出力し保存してもよい。平均輝度などの付加情報をもつことで、その後の明るさの補正やホワイトバランスの補正にそれらの情報を利用することができる。   In the above-described embodiment, it has been described that the area division data (map) shown in FIG. 5 is created as a result of the area division. However, the present invention is not limited to this information. For example, after the map is created, information such as average luminance and average color of each area, the number of pixels, center coordinates, barycentric coordinates, saturation, and brightness may be output and stored together. By having additional information such as average luminance, the information can be used for subsequent brightness correction and white balance correction.

また、上記の実施例において、ピント位置を取得する際に、Exifフォーマットの中の被写体領域情報(SubjectArea)を利用する例を説明したが、この方法に限るわけではない。例えば、ディジタルカメラの機種によっては、Exifフォーマット中に各社が独自に利用可能なMakernotesタグに、各社独自の撮影情報を記述する場合があり、その撮影情報中のピント情報を使ってもよい。   Further, in the above-described embodiment, the example in which the subject area information (SubjectArea) in the Exif format is used when acquiring the focus position has been described. However, the present invention is not limited to this method. For example, depending on the model of the digital camera, the shooting information unique to each company may be described in a Makernotes tag that can be used independently by each company in the Exif format, and the focus information in the shooting information may be used.

また、実施例3と、実施例1または2を組み合わせて、明るさの補正とホワイトバランスの補正を同時に行ってもよい。   Further, the correction of brightness and the correction of white balance may be performed simultaneously by combining the third embodiment and the first or second embodiment.

[他の実施例]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, and a printer), and a device (for example, a copying machine and a facsimile device) including a single device. You may apply to.

また、本発明の目的は、上記実施例の機能を実現するソフトウェアを記録した記憶媒体(記録媒体)をシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記ソフトウェアを実行することでも達成される。この場合、記憶媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのソフトウェアを記憶した記憶媒体は本発明を構成する。   Another object of the present invention is to supply a storage medium (recording medium) that records software for realizing the functions of the above-described embodiments to a system or apparatus, and a computer (CPU or MPU) of the system or apparatus executes the software. Is also achieved. In this case, the software itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the software constitutes the present invention.

また、前記ソフトウェアの実行により上記機能が実現されるだけでなく、そのソフトウェアの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   In addition, the above functions are not only realized by the execution of the software, but an operating system (OS) running on a computer performs part or all of the actual processing according to instructions of the software, and thereby the above functions This includes the case where is realized.

また、前記ソフトウェアがコンピュータに接続された機能拡張カードやユニットのメモリに書き込まれ、そのソフトウェアの指示により、前記カードやユニットのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   In addition, the software is written in a function expansion card or unit memory connected to the computer, and the CPU of the card or unit performs part or all of the actual processing according to instructions of the software, thereby This includes the case where is realized.

本発明を前記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するソフトウェアが格納される。   When the present invention is applied to the storage medium, the storage medium stores software corresponding to the flowchart described above.

実施例1の画像処理を実行する画像処理装置の構成例を示すブロック図、FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus that executes image processing according to the first embodiment; ピントが合っている主要な被写体に応じて画像の明るさを補正する方法を説明するフローチャート、A flowchart illustrating a method of correcting the brightness of an image according to a main subject in focus; 原画像の一例を示す図、A diagram showing an example of an original image, 原画像をMRFモデルによって領域分割した一例を示す図、A diagram showing an example of dividing an original image by an MRF model, 画像を固定領域に分割した場合の問題を説明するための図、A diagram for explaining the problem when an image is divided into fixed areas. ピント位置情報を説明する図、A diagram explaining the focus position information, 原画像にピント位置を重ねた状態を示す図、The figure which shows the state where the focus position is superimposed on the original image, 領域分割画像とピント位置を重ねた状態を示す図、The figure which shows the state where the area division picture and the focus position are superimposed MRFモデルを使う領域分割の結果として得られる領域分割データの一例を示す図、The figure which shows an example of the area | region division data obtained as a result of the area division | segmentation using an MRF model, 補正前後の明るさの関係例を示す図、The figure which shows the example of the relationship of the brightness before and after correction, 補正用のガンマカーブを示す図、The figure which shows the gamma curve for correction, 実施例2の画像の明るさを補正する方法を説明するフローチャート、Flowchart for explaining a method for correcting the brightness of the image of Example 2, 実施例3のホワイトバランスを取る方法を説明するフローチャートである。12 is a flowchart for explaining a method for obtaining white balance according to a third embodiment.

Claims (9)

画像のピント位置を示す情報を取得し、
前記画像の被写体に応じて前記画像を動的に領域分割し、
前記領域分割した領域から、前記ピント位置を示す情報に対応する領域を抽出し、
前記抽出した領域に含まれる画素の値の統計量を計算し、
前記計算した統計量と、予め決められた閾値を比較して、前記画像の補正の要否を判定し、
前記補正が必要と判定した場合、前記統計量を基に前記画像を補正するための補正パラメータを設定することを特徴とする画像処理方法。
Get information that shows the focus position of the image,
Dynamically segmenting the image according to the subject of the image,
An area corresponding to the information indicating the focus position is extracted from the divided areas.
Calculating the statistic of the value of the pixels contained in the extracted region;
Compare the calculated statistic with a predetermined threshold value to determine whether the image needs to be corrected,
An image processing method comprising: setting a correction parameter for correcting the image based on the statistic when it is determined that the correction is necessary.
前記統計量は、前記抽出した領域に含まれる全画素の明るさの平均値であることを特徴とする請求項1に記載された画像処理方法。   2. The image processing method according to claim 1, wherein the statistic is an average value of brightness of all pixels included in the extracted region. 前記補正パラメータは、前記画像の明るさを補正するためのパラメータであることを特徴とする請求項2に記載された画像処理方法。   3. The image processing method according to claim 2, wherein the correction parameter is a parameter for correcting the brightness of the image. 前記統計量は、前記抽出した領域に含まれる全画素の彩度の平均値であることを特徴とする請求項1に記載された画像処理方法。   2. The image processing method according to claim 1, wherein the statistic is an average value of saturations of all pixels included in the extracted region. 前記補正パラメータは、前記画像のホワイトバランスを補正するためのパラメータであることを特徴とする請求項4に記載された画像処理方法。   5. The image processing method according to claim 4, wherein the correction parameter is a parameter for correcting white balance of the image. さらに、前記ピント位置を示す情報が取得できない場合、前記領域分割した領域からエッジ強度が最も強い領域を抽出し、前記抽出した領域を示す情報を前記ピント位置を示す情報にすることを特徴とする請求項1に記載された画像処理方法。   Further, when information indicating the focus position cannot be acquired, a region having the strongest edge strength is extracted from the region divided, and the information indicating the extracted region is used as information indicating the focus position. The image processing method according to claim 1. 画像のピント位置を示す情報を取得する取得手段と、
前記画像の被写体に応じて前記画像を動的に領域分割する分割手段と、
前記領域分割した領域から、前記ピント位置を示す情報に対応する領域を抽出する抽出手段と、
前記抽出した領域に含まれる画素の値の統計量を計算する計算手段と、
前記計算した統計量と、予め決められた閾値を比較して、前記画像の補正の要否を判定する判定手段と、
前記補正が必要と判定した場合、前記統計量を基に前記画像を補正するための補正パラメータを設定することを特徴とする画像処理装置。
Acquisition means for acquiring information indicating a focus position of the image;
Dividing means for dynamically dividing the image according to the subject of the image;
Extraction means for extracting an area corresponding to the information indicating the focus position from the divided areas;
Calculating means for calculating a statistic of a value of a pixel included in the extracted region;
A determination unit that compares the calculated statistic with a predetermined threshold to determine whether the image needs to be corrected;
An image processing apparatus, wherein when it is determined that the correction is necessary, a correction parameter for correcting the image is set based on the statistic.
画像処理装置を制御して、請求項1から請求項6の何れか一項に記載された画像処理を実現することを特徴とするコンピュータプログラム。   7. A computer program for controlling the image processing apparatus to realize the image processing according to any one of claims 1 to 6. 請求項8に記載されたコンピュータプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記憶媒体。   9. A computer-readable storage medium in which the computer program according to claim 8 is recorded.
JP2006328842A 2006-12-05 2006-12-05 Image processor and image processing method Withdrawn JP2008147714A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006328842A JP2008147714A (en) 2006-12-05 2006-12-05 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006328842A JP2008147714A (en) 2006-12-05 2006-12-05 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2008147714A true JP2008147714A (en) 2008-06-26

Family

ID=39607455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006328842A Withdrawn JP2008147714A (en) 2006-12-05 2006-12-05 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2008147714A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244539A (en) * 2011-05-23 2012-12-10 Olympus Corp Image processing device and image processing program
JP2012244538A (en) * 2011-05-23 2012-12-10 Olympus Corp Image processing device and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244539A (en) * 2011-05-23 2012-12-10 Olympus Corp Image processing device and image processing program
JP2012244538A (en) * 2011-05-23 2012-12-10 Olympus Corp Image processing device and image processing program

Similar Documents

Publication Publication Date Title
WO2018176925A1 (en) Hdr image generation method and apparatus
CN108604293B (en) Apparatus and method for improving image quality
US7358994B2 (en) Image processing apparatus, image processing method, recording medium thereof, and program thereof
JP5116393B2 (en) Image processing apparatus and image processing method
JP4978378B2 (en) Image processing device
JP6355346B2 (en) Image processing apparatus, image processing method, program, and storage medium
KR102567860B1 (en) Improved inverse tone mapping method and corresponding device
US8463038B2 (en) Image processing apparatus and method for correcting an image based upon features of the image
KR20200023651A (en) Preview photo blurring method and apparatus and storage medium
JP5703255B2 (en) Image processing apparatus, image processing method, and program
JP2002158893A (en) Image correction apparatus, image correction method, and recording medium
KR20110124965A (en) Apparatus and method for generating bokeh effects in out-focusing shots
JP2010278708A (en) Image processing apparatus and method, and computer program
KR102311367B1 (en) Image processing apparatus, image processing method, and storage medium
CN107172354A (en) Method for processing video frequency, device, electronic equipment and storage medium
US9674427B2 (en) Image processing method and apparatus
US20060152603A1 (en) White balance correction in digital camera images
JP7030425B2 (en) Image processing device, image processing method, program
JP2008147714A (en) Image processor and image processing method
JP4219577B2 (en) Image processing apparatus, image output apparatus, image processing method, and storage medium
JP2006343863A (en) Image processor and image processing method
JP2006133873A (en) Method and apparatus for processing image
JP6166768B2 (en) Image processing apparatus, image processing method, and program
JP6115183B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5116873B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080806