JP2001184503A - Device and method for processing image - Google Patents
Device and method for processing imageInfo
- Publication number
- JP2001184503A JP2001184503A JP37141399A JP37141399A JP2001184503A JP 2001184503 A JP2001184503 A JP 2001184503A JP 37141399 A JP37141399 A JP 37141399A JP 37141399 A JP37141399 A JP 37141399A JP 2001184503 A JP2001184503 A JP 2001184503A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction information
- image processing
- unit
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は画像データに対して
補正を施す画像処理装置及びその方法に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and method for correcting image data.
【0002】[0002]
【従来の技術】多値画像を形成する画像処理装置におい
ては、画像中の最も明るいハイライト部分、又は最も暗
いシャドウ部分の輝度値を調整することによって、コン
トラストのより鮮明な画像を得ることを目的とした、所
謂ホワイトバランス調整が行われている。2. Description of the Related Art In an image processing apparatus for forming a multi-valued image, it is possible to obtain a clearer image by adjusting the brightness value of the brightest highlight portion or the darkest shadow portion in the image. The intended so-called white balance adjustment is performed.
【0003】従来の画像処理装置においてホワイトバラ
ンス調整を行なう際には、画像内の輝度が高いほうから
数%である所定の高輝度領域において、輝度が所定の閾
値以上である画素を除いた画素のR,G,B平均値を算
出し、該平均値に基づいて各画素を補正していた。When performing white balance adjustment in a conventional image processing apparatus, pixels in a predetermined high-brightness region where the luminance is several percent from the highest in the image, excluding pixels whose luminance is equal to or higher than a predetermined threshold value, are excluded. R, G, B average values were calculated, and each pixel was corrected based on the average values.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上記従
来の画像処理装置においては、対象画像のシーンにかか
わらず、即ち画像特徴を考慮することなく、画像の補正
を行っていた。従って、例えば白い壁を背景とした人物
写真等、全体的に輝度レベルの高い画像に対してホワイ
トバランス調整を施した場合、装置内部において露出オ
ーバーと判断されてしまうため、白い壁の部分は適正な
状態に補正されるものの、肝心の人物部分が非常に暗く
なってしまうという不具合が生じていた。However, in the above-described conventional image processing apparatus, the image is corrected regardless of the scene of the target image, that is, without considering the image characteristics. Therefore, when white balance adjustment is performed on an image having a high luminance level as a whole, such as a portrait of a person against a white wall as a background, it is determined that the image is overexposed inside the apparatus. Although it is corrected to a proper state, there is a problem that the important person part becomes very dark.
【0005】本発明は上述した問題を解決するためにな
されたものであり、対象画像内の任意の領域に対して適
切な露出補正を可能とする画像処理装置及びその方法を
提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and has as its object to provide an image processing apparatus and an image processing method capable of appropriately performing exposure correction on an arbitrary area in a target image. And
【0006】[0006]
【課題を解決するための手段】上記目的を達成するため
の一手段として、本発明の画像処理装置は以下の構成を
備える。As one means for achieving the above object, the image processing apparatus of the present invention has the following arrangement.
【0007】即ち、画像内のマスク領域を設定する設定
手段と、前記画像全体における第1の輝度分布及び前記
マスク領域における第2の輝度分布を求める輝度分布取
得手段と、前記第1及び第2の輝度分布に基づいて補正
情報を作成する補正情報作成手段と、前記補正情報に基
づいて前記画像を補正する補正手段と、を有することを
特徴とする。That is, setting means for setting a mask area in an image, luminance distribution obtaining means for obtaining a first luminance distribution in the entire image and a second luminance distribution in the mask area, and the first and second luminance distribution obtaining means. And a correction unit that corrects the image based on the correction information.
【0008】例えば、前記補正情報作成手段は、前記画
像全体に関する第1の補正情報、及び前記マスク領域に
関する第2の補正情報を作成することを特徴とする。[0008] For example, the correction information creating means creates first correction information for the entire image and second correction information for the mask area.
【0009】例えば、前記設定手段は、前記画像を表示
する表示手段と、該表示された画像上における任意の領
域をマスク領域として指定する指定手段と、を有するこ
とを特徴とする。For example, the setting means has a display means for displaying the image, and a designating means for designating an arbitrary area on the displayed image as a mask area.
【0010】[0010]
【発明の実施の形態】以下、本発明に係る一実施形態に
ついて、図面を参照して詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below in detail with reference to the drawings.
【0011】[装置概要構成]まず、本実施形態の画像
処理装置において画像補正を行うための構成を図1に示
し、詳細に説明する。本実施形態においては、設定した
マスク領域に対して最適な補正処理を施すことを特徴と
する。[Apparatus Outline Configuration] First, a configuration for performing image correction in the image processing apparatus of the present embodiment is shown in FIG. 1 and will be described in detail. The present embodiment is characterized in that optimal correction processing is performed on a set mask area.
【0012】図1に示す画像処理部の構成は、画像入力
部2、画像バッファ3、ヒストグラム保持部4、ルック
アップテーブル保持部(以下、LUT保持部)5、ヒス
トグラム作成部6、ルックアップテーブル作成部(以
下、LUT作成部)7、画像補正部9、画像出力部1
0、及びユーザインタフェース部(以下、UI部)12
を含む。The configuration of the image processing unit shown in FIG. 1 includes an image input unit 2, an image buffer 3, a histogram storage unit 4, a look-up table storage unit (hereinafter, LUT storage unit) 5, a histogram creation unit 6, a lookup table. Creation unit (hereinafter, LUT creation unit) 7, image correction unit 9, image output unit 1
0, and a user interface unit (hereinafter, UI unit) 12
including.
【0013】画像入力部2は、入力画像保持部1から画
像データ、及びマスクデータを読み込んで、画像バッフ
ァ3に書き込む。画像バッファ3は、画像データ及びマ
スクデータを保持している。ヒストグラム保持部4は、
画像データ全体のヒストグラム及びマスク領域のヒスト
グラムを保持している。LUT保持部5は、補正処理の
際に使用するルックアップテーブル(以下、LUT)を
保持している。ヒストグラム作成部6は、画像バッファ
3に格納されている画像データ及びマスクデータをもと
に、ヒストグラムを作成し、結果をヒストグラム保持部
4に格納する。LUT作成部7は、ヒストグラム保持部
4に格納されているヒストグラムをもとに、補正に必要
なパラメータを算出してLUTを作成し、結果をLUT
保持部5に格納する。画像補正部9は、LUT保持部5
に格納されているLUT、画像バッファ3に格納されて
いる重みデータに基づいて、画像バッファ3に格納され
ている画像データに対して補正を施し、再度画像バッフ
ァ3に格納する。画像出力部10は、画像バッファ3か
ら画像データを読み込んで、出力画像保持部11に書き
込む。The image input unit 2 reads the image data and the mask data from the input image holding unit 1 and writes them into the image buffer 3. The image buffer 3 holds image data and mask data. The histogram holding unit 4
The histogram of the entire image data and the histogram of the mask area are held. The LUT holding unit 5 holds a look-up table (hereinafter, LUT) used in the correction processing. The histogram creating unit 6 creates a histogram based on the image data and the mask data stored in the image buffer 3 and stores the result in the histogram holding unit 4. The LUT creation unit 7 creates a LUT by calculating parameters required for correction based on the histogram stored in the histogram holding unit 4 and creates an LUT.
It is stored in the holding unit 5. The image correction unit 9 includes the LUT holding unit 5
The correction is performed on the image data stored in the image buffer 3 based on the LUT stored in the image buffer 3 and the weight data stored in the image buffer 3, and the image data is stored in the image buffer 3 again. The image output unit 10 reads image data from the image buffer 3 and writes the read image data to the output image holding unit 11.
【0014】16は装置全体を制御するコントローラで
あり、CPU13,ROM14,及びRAM15を備え
る。CPU13は、ROM14に保持された制御プログ
ラムをRAM15上に読み出して実行することにより、
後述するフローチャートに示される本実施形態に特有の
制御を実現する。Reference numeral 16 denotes a controller for controlling the entire apparatus, which includes a CPU 13, a ROM 14, and a RAM 15. The CPU 13 reads out the control program stored in the ROM 14 onto the RAM 15 and executes the control program.
Control specific to the present embodiment, which is shown in a flowchart described later, is realized.
【0015】[UI部詳細構成]図2に、UI部12に
おける表示画面例を示し、本実施形態の特徴であるユー
ザインタフェースについて説明する。[Detailed Configuration of UI Section] FIG. 2 shows an example of a display screen in the UI section 12, and a user interface which is a feature of the present embodiment will be described.
【0016】図2によれば、UI画面は画像表示部16
1と、終了ボタン162、キャンセルボタン163、及
び目標輝度値設定部165を備える。尚、UI画面上に
おいてカーソル164が任意に移動可能である。According to FIG. 2, the UI screen is displayed on the image display unit 16.
1, an end button 162, a cancel button 163, and a target luminance value setting unit 165. Note that the cursor 164 can be arbitrarily moved on the UI screen.
【0017】画像表示部161には画像バッファ3の内
容、即ち格納されている画像データが表示され、さらに
カーソルによってマスク領域が指定された場合には、そ
の境界をオーバーレイ表示する。尚、本実施形態におい
てはマスク領域の指定方法を特に規定しない。例えば、
円もしくは長方形の対角線を指定しても良いし、中心と
端点を指定しても良い。また、輪郭をなぞるようにして
任意の形を指定できるようにしても良い。The image display unit 161 displays the contents of the image buffer 3, that is, the stored image data, and when a mask area is designated by a cursor, the boundary is displayed in an overlay manner. In the present embodiment, a method for specifying a mask area is not particularly defined. For example,
A diagonal line of a circle or a rectangle may be specified, or a center and an end point may be specified. Also, an arbitrary shape may be specified by tracing the contour.
【0018】目標輝度値設定部165においては、カー
ソル164によって指定されたマスク領域における、補
正後の目標輝度値を設定する。The target luminance value setting section 165 sets a corrected target luminance value in the mask area designated by the cursor 164.
【0019】尚、終了ボタン162およびキャンセルボ
タン163を押下した際の動作については、後述する。The operation when the end button 162 and the cancel button 163 are pressed will be described later.
【0020】[マスクデータ説明]図3に、本実施形態
におけるマスクデータの例を示す。マスクデータは画像
データの各画素に対応しており、その画素がマスクされ
ているか否かの情報(マスク情報)を保持している。マ
スクデータを作成する際には、上述したようにUI部1
2で画像データ内の領域指定を行ない、該指定された領
域をマスク領域としてマスクデータが作成される。例え
ば、図3の(a)に示す画像データについて、人物の顔
部分がユーザによってマスク領域として指定された場
合、そのマスク情報が図3の(b)に示される様に作成
される。即ち、図3(b)に示す白領域がマスク領域で
あり、黒領域がマスクされていない非マスク領域であ
る。尚、本実施形態においては、マスク領域として少な
くとも一つの閉領域が指定されるものとする。[Explanation of Mask Data] FIG. 3 shows an example of mask data in the present embodiment. The mask data corresponds to each pixel of the image data, and holds information (mask information) as to whether or not the pixel is masked. When creating the mask data, as described above, the UI unit 1
In step 2, an area in the image data is designated, and mask data is created using the designated area as a mask area. For example, when the face portion of a person is designated as a mask area by the user in the image data shown in FIG. 3A, the mask information is created as shown in FIG. 3B. That is, the white area shown in FIG. 3B is a mask area, and the black area is an unmasked area that is not masked. In this embodiment, it is assumed that at least one closed area is specified as a mask area.
【0021】また、マスクデータのデータ構造を図3
(c)に示す。同図に示されるように、マスクデータは
マスク情報のみならず、UI部12で指定された目標輝
度値をそのヘッダ部内に有している。FIG. 3 shows the data structure of the mask data.
It is shown in (c). As shown in the figure, the mask data has not only the mask information but also a target luminance value specified by the UI unit 12 in its header part.
【0022】[画像処理概要]図4に、図1に示す構成
による画像処理の概要フローチャートを示す。該フロー
チャートをはじめ、本実施形態においてフローチャート
によって示される処理は、CPU13がROM14内に
保持された制御プログラムを実行することによって実現
される。[Outline of Image Processing] FIG. 4 shows an outline flowchart of image processing by the configuration shown in FIG. The processing shown by the flowcharts in the present embodiment, including the flowchart, is realized by the CPU 13 executing a control program stored in the ROM 14.
【0023】ステップS51において、画像入力部2は
入力画像保持部1から画像データを読み込み、画像バッ
ファ3に格納する。In step S 51, the image input unit 2 reads image data from the input image holding unit 1 and stores it in the image buffer 3.
【0024】ステップS52において、UI部12は画
像バッファ3に格納された画像データを表示する。そし
てステップS53において、UI部12の表示画面上に
おいて何らかのユーザー指示が発生するまで待機し、終
了ボタン162が押下されればステップS57にすす
み、キャンセルボタン163が押下されれば処理を終了
する。一方、画像表示部161内で画像データ内の領域
が指定されればステップS54に進み、後述する画像補
正処理が開始される。即ちステップS53においてユー
ザは、画像表示部161に表示された画像内において、
最適な補正が施されることが最も望ましい領域、すなわ
ち主オブジェクトを含む領域を選択する。以降、このユ
ーザによって指定された領域を「マスク領域」と称す
る。In step S52, the UI unit 12 displays the image data stored in the image buffer 3. In step S53, the process waits until a user instruction is generated on the display screen of the UI unit 12, and if the end button 162 is pressed, the process proceeds to step S57. If the cancel button 163 is pressed, the process ends. On the other hand, if an area in the image data is designated in the image display unit 161, the process proceeds to step S <b> 54, and an image correction process described later is started. That is, in step S53, the user selects the image in the image displayed on the image display
An area in which optimal correction is most desired, that is, an area including the main object is selected. Hereinafter, the area specified by the user is referred to as a “mask area”.
【0025】ステップS54において、ヒストグラム保
持部6、及び画像バッファ3に格納されたマスクデータ
を初期化し、ステップS55において、ステップS53
で指定されたマスク領域に基づいてマスクデータを作成
する。さらに、UI部12の目標輝度値設定部165に
おいて設定された目標輝度値を、該マスクデータのヘッ
ダに格納する。尚、マスク領域以外の領域については、
特にマスクデータの変更は行わない。In step S54, the mask data stored in the histogram holding unit 6 and the image buffer 3 is initialized, and in step S55, the process proceeds to step S53.
Creates mask data based on the mask area specified by. Further, the target luminance value set by the target luminance value setting unit 165 of the UI unit 12 is stored in the header of the mask data. In addition, about the area other than the mask area,
In particular, the mask data is not changed.
【0026】そしてステップS56において、画像の補
正処理を行うが、この詳細については後述する。その後
ステップS57において、画像出力部10が画像バッフ
ァ3に保持された画像データを出力画像保持部11に書
き込むことによって出力する。In step S56, the image is corrected. The details will be described later. Thereafter, in step S57, the image output unit 10 writes the image data held in the image buffer 3 into the output image holding unit 11 to output the image data.
【0027】[画像補正処理概要]図5に、上述した図
4のステップS56に示す画像補正処理の概要フローチ
ャートを示す。[Outline of Image Correction Processing] FIG. 5 is a schematic flowchart of the image correction processing shown in step S56 in FIG. 4 described above.
【0028】ステップS2において、ヒストグラム作成
部6で、画像バッファ3に格納されている画像データ及
びマスクデータをもとにヒストグラムを作成し、結果を
ヒストグラム保持部4に格納する。尚、ヒストグラム作
成部6の動作の詳細を図6に示す。In step S 2, a histogram is created in the histogram creating section 6 based on the image data and the mask data stored in the image buffer 3, and the result is stored in the histogram holding section 4. FIG. 6 shows the details of the operation of the histogram creation unit 6.
【0029】ステップS3において、LUT作成部7
で、ヒストグラム保持部4に格納されたヒストグラムを
もとに、補正に必要なパラメータを算出してLUTを作
成し、結果をLUT保持部5に格納する。LUT作成部
7の動作の詳細を図7に示す。In step S3, the LUT creation unit 7
Then, based on the histogram stored in the histogram holding unit 4, parameters necessary for correction are calculated to create an LUT, and the result is stored in the LUT holding unit 5. FIG. 7 shows details of the operation of the LUT creation unit 7.
【0030】ステップS4において、画像補正部9は、
LUT保持部5に格納されているLUTに基づいて、画
像バッファ3に格納されている画像データを補正し、再
度画像バッファ3に格納する。In step S4, the image correcting section 9
The image data stored in the image buffer 3 is corrected based on the LUT stored in the LUT holding unit 5 and stored in the image buffer 3 again.
【0031】[ヒストグラム作成処理]図6に、ヒスト
グラム作成部6におけるヒストグラム作成処理のフロー
チャートを示す。これは即ち、図5のステップS2を詳
細に示すものである。[Histogram Creation Processing] FIG. 6 shows a flowchart of the histogram creation processing in the histogram creation section 6. That is, step S2 in FIG. 5 is shown in detail.
【0032】ステップS11において、画像バッファ3
から画像データとマスクデータを1画素分ずつ取り出
す。尚、画像データとしてはRGB各色の輝度データ
(R,G,B)、マスクデータとしてはマスクの有無を
示すデータが格納されている。In step S11, the image buffer 3
, The image data and the mask data are extracted for each pixel. Note that luminance data (R, G, B) of each color of RGB is stored as image data, and data indicating presence / absence of a mask is stored as mask data.
【0033】ステップS12において、画像データのR
GB値から以下の式に従って当該画素の輝度Lを求め
る。In step S12, the image data R
The luminance L of the pixel is obtained from the GB value according to the following equation.
【0034】L=(3R+6G+B)/10 尚、上式に示すように本実施形態においては輝度値を
R:G:B=3:6:1の重みで加重平均する例につい
て説明するが、もちろんこれ以外の重み付けを行っても
良く、例えば、RGBの最大値と最小値の平均値に基づ
いて重みを求めても良い。L = (3R + 6G + B) / 10 In this embodiment, as shown in the above equation, an example in which the luminance value is weighted and averaged with a weight of R: G: B = 3: 6: 1 will be described. Weighting other than this may be performed. For example, the weight may be obtained based on the average value of the maximum and minimum values of RGB.
【0035】ステップS13において、ヒストグラム保
持部4に格納されているヒストグラムを更新する。ヒス
トグラム保持部4には、上式に基づいて算出された輝度
LのヒストグラムHistL、およびRGB各色の累積輝度
値を当該画素の輝度Lの値毎に格納したHistR,HistG,
HistB、さらにマスクデータによって示されるマスク領
域における輝度LのヒストグラムHistLMsk、を保持して
いる。尚、各ヒストグラムの初期状態はすべて0であ
る。また、各ヒストグラムの更新は下記の式に従う。In step S13, the histogram stored in the histogram storage 4 is updated. The histogram holding unit 4 stores a histogram HistL of the luminance L calculated based on the above equation and HistR, HistG, and HistR that store the accumulated luminance value of each color of RGB for each value of the luminance L of the pixel.
HistB and a histogram HistLMsk of the luminance L in the mask area indicated by the mask data are held. Note that the initial state of each histogram is all zero. The updating of each histogram is performed according to the following equation.
【0036】 HistR[L]=HistR[L]+R HistG[L]=HistG[L]+G HistB[L]=HistB[L]+B HistL[L]=HistL[L]+1 ステップS14において、マスクデータを参照すること
によって当該画素がマスクされているか否かを調べる。
マスクされていたらステップS15に進み、マスクされ
ていなければステップS16に進む。HistR [L] = HistR [L] + R HistG [L] = HistG [L] + G HistB [L] = HistB [L] + B HistL [L] = HistL [L] +1 In step S14 It is checked whether the pixel is masked by referring to the mask data.
If masked, the process proceeds to step S15, and if not masked, the process proceeds to step S16.
【0037】ステップS15において、ヒストグラム保
持部4に格納されているマスク領域のヒストグラムを下
式に従って更新する。In step S15, the histogram of the mask area stored in the histogram holding unit 4 is updated according to the following equation.
【0038】HistLMsk[L]=HistLMsk[L]+1 ステップS16において、ヒストグラム作成処理が全画
素について終了したか否かを調べ、未終了であればステ
ップS11に戻る。HistLMsk [L] = HistLMsk [L] +1 In step S16, it is determined whether or not the histogram creation processing has been completed for all pixels. If not completed, the flow returns to step S11.
【0039】本実施形態において作成された輝度Lのヒ
ストグラムHistLの例を、図9に示す。FIG. 9 shows an example of the histogram ListL of the luminance L created in this embodiment.
【0040】[LUT作成処理]図7に、LUT作成部
7におけるLUT作成処理のフローチャートを示す。こ
れは即ち、図5のステップS3を詳細に示すものであ
る。[LUT Creation Processing] FIG. 7 shows a flowchart of the LUT creation processing in the LUT creation section 7. That is, step S3 in FIG. 5 is shown in detail.
【0041】ステップS21において、ヒストグラム保
持部4に格納されているヒストグラムHistLから、画像
の最大輝度を求める。図9に例示したヒストグラムにお
いては、最大輝度は「252」になる。In step S21, the maximum luminance of the image is obtained from the histogram HistL stored in the histogram holding unit 4. In the histogram illustrated in FIG. 9, the maximum luminance is “252”.
【0042】ステップS22において、論理上の最大輝
度である255から所定量を順次減じていき、その都度
ステップS21で求めた最大輝度との比較を行い、最大
輝度の方が大きくなった時点の輝度LH’を求める。そ
して、該LH’以下である輝度域において、総画素数の
所定の割合分を含む輝度領域(ハイライト領域)を求め
る。例えば、図9に示すヒストグラムにおいて順次減じ
る所定量を「10」とすると、最大輝度である「25
2」を255,245,235・・・と順次比較してい
くことにより、LH’は「245」となる。そして、該
LH’以下の輝度域において、総画素数の1%を含む輝
度領域をハイライト領域として求めると、該ハイライト
領域の最小輝度値であるハイライトポイントLHは「2
34」となる。In step S22, a predetermined amount is sequentially reduced from 255, which is the logical maximum luminance, and each time, the luminance is compared with the maximum luminance obtained in step S21, and the luminance at the time when the maximum luminance becomes larger is calculated. Find LH '. Then, a luminance region (highlight region) including a predetermined ratio of the total number of pixels in the luminance region equal to or less than the LH ′ is obtained. For example, assuming that the predetermined amount sequentially reduced in the histogram shown in FIG. 9 is “10”, the maximum luminance is “25”.
.. Are sequentially compared with 255, 245, 235..., LH ′ becomes “245”. Then, when a luminance region including 1% of the total number of pixels in the luminance region equal to or less than LH ′ is obtained as a highlight region, the highlight point LH that is the minimum luminance value of the highlight region is “2”
34 ".
【0043】そして、以下の式に従って、ハイライト領
域内(輝度がLH以上LH’以下の領域)のRGB毎の
平均輝度(RH,GH,BH)を算出する。Then, the average luminance (RH, GH, BH) for each of the RGB in the highlight area (the area where the luminance is not less than LH and not more than LH ') is calculated according to the following equation.
【0044】[0044]
【数1】 (Equation 1)
【0045】次にステップS23において、ヒストグラ
ム保持部4に格納されているヒストグラムHistLから、
画像の最小輝度を求める。図9に例示したヒストグラム
においては、最小輝度は「5」になる。Next, in step S23, from the histogram HistL stored in the histogram holding unit 4,
Find the minimum brightness of the image. In the histogram illustrated in FIG. 9, the minimum luminance is “5”.
【0046】ステップS24において、論理上の最小輝
度である0から所定量を順次加算していき、その都度ス
テップS23で求めた最小輝度との比較を行い、最小輝
度の方が大きくなった時点の輝度LS’を求める。そし
て、該LS’以上である輝度域において、総画素数の所
定の割合分を含む輝度領域(シャドウ領域)を求める。
例えば、図9に示すヒストグラムにおいて順次加算する
所定量を「10」とすると、最小輝度である「5」を
0,10,20・・・と順次比較していくことにより、
LS’は「10」となる。そして、該LS’以上の輝度
域において、総画素数の1%を含む輝度領域をシャドウ
領域として求めると、該シャドウ領域の最大輝度値であ
るシャドウポイントLSは「22」となる。In step S24, a predetermined amount is sequentially added from 0, which is the logical minimum luminance, and each time, the value is compared with the minimum luminance obtained in step S23. The luminance LS 'is obtained. Then, a luminance region (shadow region) including a predetermined ratio of the total number of pixels in the luminance region equal to or larger than LS ′ is obtained.
For example, assuming that the predetermined amount to be sequentially added in the histogram shown in FIG. 9 is “10”, the minimum brightness “5” is sequentially compared with 0, 10, 20,.
LS ′ becomes “10”. Then, when a brightness area including 1% of the total number of pixels is obtained as a shadow area in the brightness area equal to or larger than LS ′, the shadow point LS which is the maximum brightness value of the shadow area is “22”.
【0047】そして、以下の式に従って、シャドウ領域
内(輝度がLS’以上LS以下の領域)のRGB毎の平
均輝度(RS,GS,BS)を算出する。Then, the average luminance (RS, GS, BS) for each of the RGB in the shadow area (the area whose luminance is not less than LS ′ and not more than LS) is calculated according to the following equation.
【0048】[0048]
【数2】 (Equation 2)
【0049】次にステップS25において、以上により
求めたRH,GH,BH,RS,GS,BSに基づい
て、RGBそれぞれのLUTであるLUTR,LUTG,
LUTBを作成し、LUT保持部5に格納する。作成し
たLUTの例を図10(a)に示す。Next, in step S25, based on the RH, GH, BH, RS, GS, and BS obtained above, the LUTs LUT R, LUT G,
An LUTB is created and stored in the LUT holding unit 5. FIG. 10A shows an example of the created LUT.
【0050】また、 LHTmp=(3RH+6GH+BH)/10 LSTmp=(3RS+6GS+BS)/10 によって求めた輝度LHTmp及びLSTmpをもとに、Hist
L補正用のLUTであるLUTTmpを作成する。LHTmp = (3RH + 6GH + BH) / 10 LSTmp = (3RS + 6GS + BS) / 10 Based on the luminance LHTmp and LSTmp obtained by
An LUT Tmp, which is an LUT for L correction, is created.
【0051】尚、上式に示すように本実施形態において
は輝度値をR:G:B=3:6:1の重みで加重平均す
る例について説明するが、もちろんこれ以外の重み付け
を行っても良く、例えば、RGBの最大値と最小値の平
均値に基づいて重みを求めても良い。In this embodiment, as shown in the above equation, an example in which the luminance values are weighted and averaged with weights of R: G: B = 3: 6: 1 will be described. Of course, other weights are applied. For example, the weight may be calculated based on the average of the maximum and minimum values of RGB.
【0052】ステップS26において、LUTTmpを参
照してHistLMskを補正する。尚、このHistLMskは、のち
に露出補正量を算出する際に使用される。In step S26, HistLMsk is corrected with reference to LUTTmp. Note that this HistLMsk is used when calculating the exposure correction amount later.
【0053】ステップS27において、補正後のHistLM
skからマスク領域の平均輝度を求め、マスクデータのヘ
ッダ部に保持されている目標輝度値に基づいて、露出補
正用LUTであるLUTLMskを作成し、LUT保持部5
に格納する。図10(b)に、LUTLMskの例を示す。
この図10(b)に示すLUTLMskが即ち、マスク領域
における露出を最適に補正するためのLUTとなる。In step S27, the corrected HistLM
The average luminance of the mask area is obtained from sk, and an LUT LMsk, which is an LUT for exposure correction, is created based on the target luminance value held in the header of the mask data.
To be stored. FIG. 10B shows an example of LUTLMsk.
The LUT LMsk shown in FIG. 10B is an LUT for optimally correcting exposure in the mask area.
【0054】尚、図10(a)に示すLUTR,LUT
G,LUTBは、コントラスト、および色かぶりの補正を
行うためのLUTである。ここでは、G,B,Rの順に
ハイライトのガンマを立たせている。このように、Rに
対してG及びBを強めることで、例えば青っぽく色かぶ
りしている画像の色かぶりを補正することができる。同
時に、コントラストも補正できる。The LUTR and LUT shown in FIG.
G and LUTB are LUTs for correcting contrast and color cast. Here, the highlight gamma is set in the order of G, B, and R. In this way, by increasing G and B with respect to R, it is possible to correct, for example, the color cast of a bluish image. At the same time, the contrast can be corrected.
【0055】[画像補正処理]図8に、画像補正部9に
おける画像補正処理のフローチャートを示す。これは、
図5のステップS4を詳細に示したものである。[Image Correction Processing] FIG. 8 shows a flowchart of the image correction processing in the image correction section 9. this is,
FIG. 6 shows step S4 of FIG. 5 in detail.
【0056】ステップS41において、画像バッファ3
に格納されている画像データを1画素分取り出す。ここ
で、画像データはRGB各色の輝度(R,G,B)が格
納されている。In step S41, the image buffer 3
Is extracted for one pixel. Here, the image data stores the luminance (R, G, B) of each of the RGB colors.
【0057】ステップS42において、マスク領域の露
出を最適に補正するLUTLMsk、およびLUTR,LU
TG,LUTBに基づいて、画像バッファ3から取り出し
た画像データを下式に従って補正し、結果を画像バッフ
ァ3に上書きする。In step S42, LUTLMsk and LUTR, LU for optimally correcting the exposure of the mask area
Based on TG and LUTB, the image data taken out of the image buffer 3 is corrected according to the following equation, and the result is overwritten on the image buffer 3.
【0058】 R=LUTLMsk[LUTR[R]] G=LUTLMsk[LUTG[G]] B=LUTLMsk[LUTB[B]] ステップS43において、全画素について補正処理が終
了したか否かを調べ、未終了であればステップS41に
戻る。R = LUTLMsk [LUTR [R]] G = LUTLMsk [LUTG [G]] B = LUTLMsk [LUTB [B]] In step S43, it is determined whether or not the correction processing has been completed for all pixels, and the processing is not completed. If so, the process returns to step S41.
【0059】以上説明したように本実施形態によれば、
専用UIを用いて、画像データ内におけるマスク領域を
設定し、該マスク領域に対する最適な露出補正を行うた
めのLUTを作成して画像全体を補正することにより、
任意のマスク領域に対して最適な露出補正を行うことが
できる。As described above, according to the present embodiment,
By using a dedicated UI to set a mask area in the image data, create an LUT for performing optimal exposure correction on the mask area, and correct the entire image,
Optimal exposure correction can be performed on an arbitrary mask area.
【0060】従って、例えば人物を撮影した写真画像に
おいて、該人物部分についてのマスクデータを作成し、
人物の露出を最適に補正するLUTを作成して画像を補
正することができるため、たとえ背景が白い壁であるた
めに人物像がつぶれてしまっているような写真画像にお
いても、人物部分の露出を最適に補正することが可能と
なる。Therefore, for example, in a photographic image obtained by photographing a person, mask data for the person part is created,
Since an image can be corrected by creating an LUT that optimally corrects the exposure of a person, even in a photographic image in which a person image is crushed due to a white wall as a background, the exposure of the person portion can be prevented. Can be optimally corrected.
【0061】<変形例>以下、本実施形態の変形例につ
いて説明する。<Modification> A modification of this embodiment will be described below.
【0062】本変形例における画像処理の概要フローチ
ャートを図11に示す。尚、該フローチャートにいおい
て、上述した図4と同様の処理を行うステップについて
は同一参照番号を付し、説明を省略する。FIG. 11 shows a schematic flowchart of the image processing in this modification. In the flowchart, steps for performing the same processing as in FIG. 4 described above are denoted by the same reference numerals, and description thereof will be omitted.
【0063】図11においては、、ステップS54に示
すヒストグラム保持部4および画像バッファ3内のマス
クデータの初期化のタイミングが、図4と異なる。即
ち、上述した図4においては、ヒストグラム作成対象と
なる領域を1つのみとする例について説明した。本変形
例においては図11に示すように、マスクデータの初期
化(S54)を画像補正処理(S56)の後には行わな
いようなタイミングとする。In FIG. 11, the timing of initializing the mask data in the histogram holding unit 4 and the image buffer 3 shown in step S54 is different from that in FIG. That is, in FIG. 4 described above, an example has been described in which there is only one region for which a histogram is to be created. In this modified example, as shown in FIG. 11, the timing is such that the initialization of the mask data (S54) is not performed after the image correction processing (S56).
【0064】これにより、UI部12においてユーザは
複数領域を指定することが可能となるため、任意の複数
領域に対して、その画像特性を考慮した露出補正が可能
となる。As a result, the user can specify a plurality of regions on the UI unit 12, so that an arbitrary plurality of regions can be subjected to exposure correction in consideration of the image characteristics.
【他の実施形態】尚、本実施形態においては、輝度デー
タは0から255のデジタル値であるとして実施する例
について説明したが、本発明はこれらの値、例えばデー
タの最大値は255に限定されるものではない。さら
に、輝度に基づいてヒストグラムを作成するのみなら
ず、網点濃度等によっても本発明は実現可能である。Other Embodiments In the present embodiment, an example has been described in which the luminance data is a digital value from 0 to 255, but the present invention is limited to these values, for example, the maximum value of data is 255. It is not something to be done. Further, the present invention can be realized not only by creating a histogram based on luminance but also by halftone dot density or the like.
【0065】なお、本発明は、複数の機器(例えばホス
トコンピュータ、インタフェイス機器、リーダ、プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
など)に適用してもよい。Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus including one device (for example, a copier, a facsimile) Device).
【0066】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。この場合、記憶媒体から読
み出されたプログラムコード自体が前述した実施形態の
機能を実現することになり、そのプログラムコードを記
憶した記憶媒体は本発明を構成することになる。また、
コンピュータが読み出したプログラムコードを実行する
ことにより、前述した実施形態の機能が実現されるだけ
でなく、そのプログラムコードの指示に基づき、コンピ
ュータ上で稼働しているオペレーティングシステム(OS)
などが実際の処理の一部または全部を行い、その処理に
よって前述した実施形態の機能が実現される場合も含ま
れることは言うまでもない。Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (a computer) of the system or the apparatus. It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. Also,
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the operating system (OS) running on the computer based on the instructions of the program code.
It goes without saying that a case where the functions of the above-described embodiments are implemented by performing some or all of the actual processing, and the processing performs the functions of the above-described embodiments.
【0067】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0068】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャート(図5,
図6,図7,図8,図7,図8,図4,図11)に対応
するプログラムコードが格納されることになる。When the present invention is applied to the storage medium, the storage medium is provided with the above-described flowchart (FIG. 5).
The program codes corresponding to FIG. 6, FIG. 7, FIG. 8, FIG. 7, FIG. 8, FIG.
【0069】[0069]
【発明の効果】以上説明したように本発明によれば、対
象画像内の任意の領域に対して適切な露出補正を行うこ
とが可能となる。As described above, according to the present invention, it is possible to perform appropriate exposure correction on an arbitrary region in a target image.
【図1】本発明に係る一実施形態における画像補正を行
うための構成を示すブロック図、FIG. 1 is a block diagram showing a configuration for performing image correction according to an embodiment of the present invention;
【図2】UI部における表示画面例を示す図、FIG. 2 is a diagram showing an example of a display screen in a UI unit.
【図3】マスクデータの例を示す図、FIG. 3 is a diagram showing an example of mask data;
【図4】画像処理の概要を示すフローチャート、FIG. 4 is a flowchart showing an outline of image processing;
【図5】画像補正処理を示すフローチャート、FIG. 5 is a flowchart showing an image correction process;
【図6】ヒストグラム作成処理を示すフローチャート、FIG. 6 is a flowchart showing a histogram creation process,
【図7】ルックアップテーブル作成処理を示すフローチ
ャート、FIG. 7 is a flowchart showing a lookup table creation process;
【図8】画像補正処理を示すフローチャート、FIG. 8 is a flowchart illustrating an image correction process;
【図9】ヒストグラムの例を示す図、FIG. 9 is a diagram showing an example of a histogram.
【図10】ルックアップテーブルの例を示す図、FIG. 10 is a diagram showing an example of a lookup table;
【図11】本実施形態の変形例における画像処理の概要
を示すフローチャート、である。FIG. 11 is a flowchart illustrating an outline of image processing in a modification of the present embodiment.
1 入力画像保持部 2 画像入力部 3 画像バッファ 4 ヒストグラム保持部 5 ルックアップテーブル保持部 6 ヒストグラム作成部 7 ルックアップテーブル作成部 9 画像補正部 10 画像出力部 11 出力画像保持部 12 UI部 DESCRIPTION OF SYMBOLS 1 Input image holding part 2 Image input part 3 Image buffer 4 Histogram holding part 5 Lookup table holding part 6 Histogram creation part 7 Lookup table creation part 9 Image correction part 10 Image output part 11 Output image holding part 12 UI part
Claims (13)
と、 前記画像全体における第1の輝度分布及び前記マスク領
域における第2の輝度分布を求める輝度分布取得手段
と、 前記第1及び第2の輝度分布に基づいて補正情報を作成
する補正情報作成手段と、 前記補正情報に基づいて前記画像を補正する補正手段
と、を有することを特徴とする画像処理装置。A setting unit for setting a mask region in an image; a luminance distribution obtaining unit for obtaining a first luminance distribution in the entire image and a second luminance distribution in the mask region; An image processing apparatus, comprising: correction information creating means for creating correction information based on the luminance distribution of the correction information; and correction means for correcting the image based on the correction information.
に関する第1の補正情報、及び前記マスク領域に関する
第2の補正情報を作成することを特徴とする請求項1記
載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the correction information creating unit creates first correction information for the entire image and second correction information for the mask area.
して指定する指定手段と、を有することを特徴とする請
求項2記載の画像処理装置。3. The image processing apparatus according to claim 2, wherein the setting unit includes: a display unit that displays the image; and a designating unit that designates an arbitrary area on the displayed image as a mask area. Image processing device.
なくとも一領域を指定することを特徴とする請求項3記
載の画像処理装置。4. The image processing apparatus according to claim 3, wherein the specifying unit specifies at least one area on the image.
域に対する補正後の目標輝度値を設定し、 前記補正情報作成手段は、前記目標輝度値に基づいて前
記第2の補正情報を作成することを特徴とする請求項4
記載の画像処理装置。5. The setting unit further sets a corrected target luminance value for the set mask area, and the correction information generating unit generates the second correction information based on the target luminance value. 5. The method according to claim 4, wherein
An image processing apparatus as described in the above.
情報であることを特徴とする請求項4記載の画像処理装
置。6. The image processing apparatus according to claim 4, wherein the first correction information is correction information for each color component.
アップテーブルであることを特徴とする請求項4記載の
画像処理装置。7. The image processing apparatus according to claim 4, wherein said first and second correction information is a look-up table.
と、 前記画像全体における第1の輝度分布及び前記マスク領
域における第2の輝度分布を求める輝度分布取得工程
と、 前記第1及び第2の輝度分布に基づいて補正情報を作成
する補正情報作成工程と、 前記補正情報に基づいて前記画像を補正する補正工程
と、を有することを特徴とする画像処理方法。8. A setting step of setting a mask area in an image; a luminance distribution obtaining step of obtaining a first luminance distribution in the entire image and a second luminance distribution in the mask area; An image processing method, comprising: a correction information generating step of generating correction information based on the luminance distribution of the correction information; and a correction step of correcting the image based on the correction information.
作成工程と、 前記マスク領域に関する第2の補正情報を作成す第2の
作成工程と、を有することを特徴とする請求項8記載の
画像処理方法。9. The correction information creating step includes: a first creation step of creating first correction information for the entire image; a second creation step of creating second correction information for the mask area; The image processing method according to claim 8, comprising:
して指定する指定工程と、を有することを特徴とする請
求項9記載の画像処理方法。10. The method according to claim 9, wherein the setting step includes a displaying step of displaying the image, and a specifying step of specifying an arbitrary area on the displayed image as a mask area. Image processing method.
おいて指定したマスク領域に対する補正後の目標輝度値
を設定する目標値設定工程を有し、 前記補正情報作成工程においては、前記目標輝度値に基
づいて前記第2の補正情報を作成することを特徴とする
請求項10記載の画像処理方法。11. The setting step further includes a target value setting step of setting a corrected target luminance value for the mask area specified in the specifying step. 11. The image processing method according to claim 10, wherein the second correction information is created based on the second correction information.
媒体であって、該プログラムは少なくとも、 画像内のマスク領域を設定する設定工程のコードと、 前記画像全体における第1の輝度分布及び前記マスク領
域における第2の輝度分布を求める輝度分布取得工程の
コードと、 前記第1及び第2の輝度分布に基づいて補正情報を作成
する補正情報作成工程のコードと、 前記補正情報に基づいて前記画像を補正する補正工程の
コードと、を有することを特徴とする記録媒体。12. A recording medium on which an image processing program is recorded, the program comprising at least a code of a setting step of setting a mask area in an image, a first luminance distribution in the entire image and the mask area A code of a luminance distribution obtaining step for obtaining a second luminance distribution in the above, a code of a correction information generating step of generating correction information based on the first and second luminance distributions, and the image based on the correction information. And a code for a correction step for correcting.
画像処理方法を実現するプログラムを記録した記録媒
体。13. A recording medium on which a program for realizing the image processing method according to claim 8 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37141399A JP4355416B2 (en) | 1999-12-27 | 1999-12-27 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37141399A JP4355416B2 (en) | 1999-12-27 | 1999-12-27 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001184503A true JP2001184503A (en) | 2001-07-06 |
JP4355416B2 JP4355416B2 (en) | 2009-11-04 |
Family
ID=18498675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP37141399A Expired - Fee Related JP4355416B2 (en) | 1999-12-27 | 1999-12-27 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4355416B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004236110A (en) * | 2003-01-31 | 2004-08-19 | Canon Inc | Image processor, image processing method, storage medium and program |
JP2005051407A (en) * | 2003-07-31 | 2005-02-24 | Canon Inc | Image processing method and device |
JP2006031682A (en) * | 2004-06-17 | 2006-02-02 | Fuji Photo Film Co Ltd | Lookup table creation device, method and program |
KR101075207B1 (en) * | 2009-11-27 | 2011-10-19 | (주)하이브 | Medical Vision System and Image Compensating Method thereof |
-
1999
- 1999-12-27 JP JP37141399A patent/JP4355416B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004236110A (en) * | 2003-01-31 | 2004-08-19 | Canon Inc | Image processor, image processing method, storage medium and program |
US7580566B2 (en) | 2003-01-31 | 2009-08-25 | Canon Kabushiki Kaisha | Image processing device, image processing method, storage medium, and program |
JP2005051407A (en) * | 2003-07-31 | 2005-02-24 | Canon Inc | Image processing method and device |
US7428021B2 (en) | 2003-07-31 | 2008-09-23 | Canon Kabushiki Kaisha | Image processing method, recording medium and apparatus for performing color adjustment to image data using a brightness component, a low-frequency brightness component, and first and second parameters |
US7683973B2 (en) | 2003-07-31 | 2010-03-23 | Canon Kabushiki Kaisha | Image processing method and apparatus performing color adjustment |
JP2006031682A (en) * | 2004-06-17 | 2006-02-02 | Fuji Photo Film Co Ltd | Lookup table creation device, method and program |
KR101075207B1 (en) * | 2009-11-27 | 2011-10-19 | (주)하이브 | Medical Vision System and Image Compensating Method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP4355416B2 (en) | 2009-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6952503B2 (en) | Image processing apparatus and method | |
US7580566B2 (en) | Image processing device, image processing method, storage medium, and program | |
JP5105209B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP4600424B2 (en) | Development processing apparatus for undeveloped image data, development processing method, and computer program for development processing | |
JP3809298B2 (en) | Image processing method, apparatus, and recording medium | |
JPH11250222A (en) | Method and device for processing picture | |
JP2000236442A (en) | Image processor, its method and computer, readable memory | |
JP4208767B2 (en) | Image processing apparatus and image processing method | |
JP4355416B2 (en) | Image processing apparatus and method | |
JP5070921B2 (en) | Development processing apparatus for undeveloped image data, development processing method, and computer program for development processing | |
JP2004023737A (en) | Image processing apparatus and method thereof | |
JP2001069352A (en) | Picture processor and its method | |
JP3907312B2 (en) | Image processing method, storage medium, and image processing apparatus | |
JP2002044451A (en) | Image processor and method therefor | |
JP2000123165A (en) | Image processing apparatus and method | |
JP4865916B2 (en) | Image processing apparatus and method | |
JP4807315B2 (en) | Development processing apparatus for undeveloped image data, development processing method, and computer program for executing development processing | |
JP4455307B2 (en) | Image processing apparatus and method, and memory medium | |
JP3684120B2 (en) | Image processing apparatus and method, and memory medium | |
JP2002135587A (en) | Image processing apparatus and its method | |
JPH11317873A (en) | Image correction device and storage medium | |
JP2002281333A (en) | Image processor and image processing method | |
JP3976898B2 (en) | Image processing method, apparatus, and recording medium | |
JP2001167260A (en) | Image processing device and method | |
JP4697987B2 (en) | Image processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060830 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060830 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090727 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090803 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120807 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120807 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130807 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |