[go: up one dir, main page]

JPH11120325A - Image evaluation method, medium storing image evaluation program, and image evaluation apparatus - Google Patents

Image evaluation method, medium storing image evaluation program, and image evaluation apparatus

Info

Publication number
JPH11120325A
JPH11120325A JP9284138A JP28413897A JPH11120325A JP H11120325 A JPH11120325 A JP H11120325A JP 9284138 A JP9284138 A JP 9284138A JP 28413897 A JP28413897 A JP 28413897A JP H11120325 A JPH11120325 A JP H11120325A
Authority
JP
Japan
Prior art keywords
image
evaluation
image data
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9284138A
Other languages
Japanese (ja)
Other versions
JP4243362B2 (en
Inventor
Naoki Kuwata
直樹 鍬田
Yoshihiro Nakami
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP28413897A priority Critical patent/JP4243362B2/en
Priority to EP98304509A priority patent/EP0891075A3/en
Priority to EP10158002A priority patent/EP2199973A3/en
Priority to US09/093,094 priority patent/US6738527B2/en
Publication of JPH11120325A publication Critical patent/JPH11120325A/en
Priority to US10/742,718 priority patent/US7259894B2/en
Priority to US11/491,305 priority patent/US7755801B2/en
Priority to US11/491,278 priority patent/US7940426B2/en
Priority to US11/739,858 priority patent/US7508548B2/en
Application granted granted Critical
Publication of JP4243362B2 publication Critical patent/JP4243362B2/en
Priority to US13/081,027 priority patent/US8553285B2/en
Priority to US13/455,575 priority patent/US8867099B2/en
Priority to US13/719,602 priority patent/US8681380B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 一つの評価基準だけでは偏りが生じる可能性
があった。 【解決手段】 画像処理の中枢をなすコンピュータ21
はステップS120,S140にて異なる評価基準で画
素の画像データをサンプリングしておくとともに、ステ
ップS180にて入力される画像評価オプションに基づ
いてステップS192〜S196にて重み付け係数kを
決定し、この決定した重み付け係数kを使用してステッ
プS310にて集計結果を合算して輝度分布ヒストグラ
ムを生成することにより、複数の評価基準を合算した総
合的な集計結果に基づいて画像を評価し、ステップS3
10〜S350にて最適な画像処理を実行することがで
きる。
(57) [Summary] [Problem] There is a possibility that bias will occur if only one evaluation criterion is used. SOLUTION: Computer 21 which is the center of image processing
Sample the pixel image data with different evaluation criteria in steps S120 and S140, and determine the weighting coefficient k in steps S192 to S196 based on the image evaluation option input in step S180. By using the weighted coefficient k and summing up the summation results in step S310 to generate a luminance distribution histogram, the image is evaluated based on the total summation result obtained by summing up a plurality of evaluation criteria.
Optimal image processing can be executed in 10 to S350.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル写真画像
のような実写の画像データに基づいて画像を評価する画
像評価方法、画像評価プログラムを記録した媒体および
画像評価装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image evaluation method for evaluating an image based on real image data such as a digital photographic image, a medium storing an image evaluation program, and an image evaluation apparatus.

【0002】[0002]

【従来の技術】ディジタル写真画像のような実写の画像
データに対して各種の画像処理が行われている。例え
ば、コントラストを拡大するとか、色調を補正すると
か、明るさを補正するといった画像処理である。これら
の画像処理は、通常、マイクロコンピュータで実行可能
となっており、操作者がモニタ上で画像を確認して必要
な画像処理を選択したり、画像処理のパラメータなどを
決定している。すなわち、画像の特徴を操作者が判定し
て各種の操作を選択したり実行している。
2. Description of the Related Art Various types of image processing are performed on image data of actual photographs such as digital photographic images. For example, image processing such as increasing contrast, correcting color tone, or correcting brightness. Normally, these image processings can be executed by a microcomputer, and an operator checks an image on a monitor and selects necessary image processing, or determines parameters of the image processing. That is, the operator determines the characteristics of the image and selects or executes various operations.

【0003】[0003]

【発明が解決しようとする課題】近年、画像処理の技法
については各種のものが提案され、実際に効果を発揮し
ている。しかしながら、どの技法でどの程度の処理を行
うかとなると、依然、人間が関与しなければならない。
これは、画像処理の対象となるディジタル画像データに
おいて、どこが重要であるのかを判断することができな
かったためである。
In recent years, various image processing techniques have been proposed and have actually been effective. However, when it comes to how much processing is done with which technique, humans still have to be involved.
This is because it is not possible to determine where the digital image data to be subjected to image processing is important.

【0004】例えば、明るさを補正する画像処理を考え
た場合、画面全体の平均が暗ければ明るく補正し、逆に
平均が明るければ暗く補正するという自動処理を考えた
とする。ここで、夜間撮影した人物像の実写の画像デー
タがあるとする。背景は殆ど真っ暗に近いものの、人物
自体は良好に撮影できていたとする。この実写の画像デ
ータを自動補正すると、背景が真っ暗であるがために明
るく補正しようとしてしまい、昼間の画像のようになっ
てしまうことになる。
[0004] For example, in consideration of image processing for correcting brightness, it is assumed that automatic processing is performed in which, if the average of the entire screen is dark, the image is corrected to be bright, and if the average is bright, the image is corrected to be dark. Here, it is assumed that there is image data of a real image of a person image taken at night. It is assumed that although the background is almost completely dark, the person itself has been well photographed. If the image data of the actual photograph is automatically corrected, an attempt is made to correct the image data brightly because the background is completely dark, resulting in a daytime image.

【0005】この場合、人間が関与していれば人物像の
部分だけに注目する。そして、人物像が暗ければ少し明
るく補正するし、逆に、フラッシュなどの効果で明る過
ぎれば暗くする補正を選択する。
In this case, if a human is involved, attention is paid only to the part of the human figure. Then, if the person image is dark, the correction is made slightly brighter, and conversely, if the image is too bright due to the effect of flash or the like, the correction is made darker.

【0006】本出願人は、このような課題に鑑みて特願
平xx号にて画像の中での重要な部分を判断する発明を
提案した。同発明においては、画像のシャープな部分に
本来の被写体(オブジェクト)が存在しているはずであ
ると考え、各画素での画像の変化度合いに着目して同変
化度合いの大きな画素をオブジェクトと判断している。
In view of such a problem, the present applicant has proposed an invention in Japanese Patent Application No. xx to judge an important part in an image. In the present invention, it is considered that an original subject (object) should exist in a sharp portion of an image, and a pixel having a large degree of change is determined as an object by focusing on the degree of change of the image at each pixel. doing.

【0007】しかしながら、画像のシャープな部分があ
るにしても同部分の面積は小さく背景部分を基準にした
画像処理が好ましい場合もあり、一つの評価基準だけで
は偏りが生じる可能性があった。また、いずれの評価基
準を採用すべきかを判定する必要性は依然として残った
ままであった。
However, even if there is a sharp portion of the image, the area of the portion is small and image processing based on the background portion may be preferable in some cases, and there is a possibility that bias is caused by only one evaluation criterion. Further, the need to determine which evaluation criterion should be adopted still remains.

【0008】本発明は、上記課題にかんがみてなされた
もので、画像処理の前提として画像を評価するにあた
り、柔軟に対応して画像評価結果を利用しやすくするこ
とが可能な画像評価方法、画像評価プログラムを記録し
た媒体および画像評価装置の提供を目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has an image evaluation method and an image evaluation method capable of flexibly responding to image evaluation as a prerequisite for image processing. It is an object to provide a medium on which an evaluation program is recorded and an image evaluation device.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、ドットマトリクス状の画
素からなる実写の画像データを入力し、各画素の画像デ
ータを所定の基準で集計し、集計結果に基づいて画像を
評価する画像評価方法であって、上記集計結果に対する
複数の評価基準をもつとともに、それぞれの評価基準に
基づく評価結果を所定の重み付けで合算する構成として
ある。
In order to achieve the above object, the invention according to claim 1 inputs real image data composed of pixels in a dot matrix form, and totals the image data of each pixel on a predetermined basis. An image evaluation method for evaluating an image on the basis of a totaling result, having a plurality of evaluation criteria for the totaling result, and summing the evaluation results based on each evaluation standard with a predetermined weight.

【0010】上記のように構成した請求項1にかかる発
明においては、評価する手法の前提として、ドットマト
リクス状の画素からなる実写の画像データを入力し、各
画素の画像データを所定の基準で集計し、集計結果に基
づいて画像を評価する。ここにおいて、上記集計結果に
対する複数の評価基準をもっており、それぞれの評価基
準に基づく評価結果を所定の重み付けで合算する。
In the invention according to claim 1 configured as described above, as a premise of the evaluation method, image data of a real photograph consisting of pixels in a dot matrix is input, and the image data of each pixel is determined based on a predetermined standard. Aggregates and evaluates the images based on the aggregation results. Here, there are a plurality of evaluation criteria for the result of the aggregation, and the evaluation results based on the respective evaluation criteria are added together with a predetermined weight.

【0011】すなわち、ポートレートのように画像のシ
ャープな被写体をオブジェクトとして当該画像を評価す
るのに適当な評価基準もあれば、背景を重要なオブジェ
クトとして当該画像を評価するのに適当な評価基準もあ
り、これらの複数の評価基準を並行して実行しつつそれ
ぞれの重み付けを変えることによって適宜おりまぜ、総
合評価する。
That is, there is an evaluation criterion suitable for evaluating an image with a sharp object of the image as an object such as a portrait, and an evaluation criterion suitable for evaluating the image with a background as an important object. There is also a plurality of evaluation criteria, which are executed in parallel while appropriately changing the weights of the respective evaluation criteria, and comprehensively evaluated.

【0012】なお、この評価結果は画像の特徴などを判
定するのに使用可能なものであればよく、具体的に画像
の種類を特定するような結果が得られる必要はない。例
えば、画像を明るいと判定するか暗いと判定するかとい
った場合の輝度のヒストグラムなどといった指標も含む
ものであり、明るい画像であるとか暗い画像であるとい
った判定結果が得られる必要はない。むろん、明暗以外
にも画像がシャープであるか否かの指標であるとか、鮮
やかさを判断する際の指標であってもよい。
The evaluation result may be any one that can be used to determine the characteristics of the image, and it is not necessary to obtain a result that specifically specifies the type of the image. For example, it also includes an index such as a histogram of luminance when an image is determined to be bright or dark, and it is not necessary to obtain a determination result such as a bright image or a dark image. Of course, other than light and dark, it may be an index for determining whether an image is sharp or an index for determining vividness.

【0013】集計結果に対して複数の評価基準を適用す
るためには、実質的に同様の目的を達するさまざまな手
法を採用可能である。例えば、全画素について個別の評
価基準で重み付けを与えて集計することもその一例であ
る。但し、全画素について集計すると処理量が多くなる
ので、そのような状況に対して好適な一例として、請求
項2にかかる発明は、請求項1に記載の画像評価方法に
おいて、上記画像データについて所定の基準で間引いて
集計するにあたり、複数の評価基準に基づくサンプリン
グを行って集計するとともに、それぞれの集計結果を所
定の重み付けで合算する構成としてある。
In order to apply a plurality of evaluation criteria to the tabulation results, various methods that achieve substantially the same purpose can be adopted. For example, an example is that weighting is performed on all pixels using individual evaluation criteria and totalization is performed. However, since the processing amount increases if the totalization is performed for all the pixels, as an example suitable for such a situation, the invention according to claim 2 is a method according to claim 1, wherein When thinning out and summing up data according to the standard, the data is sampled based on a plurality of evaluation criteria and summed up, and the respective summation results are summed up with a predetermined weight.

【0014】上記のように構成した請求項2にかかる発
明においては、集計する前提として画像データをサンプ
リングすることとし、このサンプリングの仕方に対する
基準を変えることによって結果的に複数の基準を採用す
ることとなり、さらに、それぞれの集計結果の重み付け
を調整して合算することにより、結果的に複数の評価基
準に基づく評価結果に対してそれぞれ重み付けを持たせ
て評価したことに対応する。
[0014] In the invention according to claim 2 configured as described above, the image data is sampled as a precondition for counting, and a plurality of standards are eventually adopted by changing the standard for this sampling method. Further, by adjusting the weights of the respective totalization results and adding them together, the result is that the evaluation results based on a plurality of evaluation criteria are weighted and evaluated.

【0015】このような評価基準の基本的な一例とし
て、請求項3にかかる発明は、請求項1または請求項2
のいずれかに記載の画像評価方法において、一の評価基
準が均等にサンプリングして集計する構成としてある。
As a basic example of such an evaluation criterion, the invention according to claim 3 is based on claim 1 or claim 2.
In the image evaluation method described in any one of the above, one evaluation criterion is configured to uniformly sample and total.

【0016】上記のように構成した請求項3にかかる発
明においては、画像データが均等に間引かれるが、画像
を全体的に捉えることになるので、風景写真などの判定
に適した評価基準と言える。
According to the third aspect of the present invention, the image data is uniformly thinned out, but the entire image is captured. I can say.

【0017】一方、サンプリング手法を採用する場合と
採用しない場合のいずれにも適用可能な評価基準の一例
として、請求項4にかかる発明は、請求項1〜請求項3
のいずれかに記載の画像評価方法において、一の評価基
準が各画素における隣接画素との変化度合いが大きい画
素について評価を重くして集計する構成としてある。
On the other hand, the invention according to claim 4 is an example of an evaluation criterion applicable to both cases where the sampling method is adopted and cases where it is not adopted.
In one of the image evaluation methods described in any one of the above, one evaluation criterion is configured so that evaluation is made heavier for pixels having a large degree of change between each pixel and an adjacent pixel, and aggregation is performed.

【0018】上記のように構成した請求項4にかかる発
明においては、各画素における隣接画素との変化度合い
を検出し、変化度合いが大きい画素について評価を重く
して集計することにより、結果的に変化度合いの大きい
はっきりした画像部分を評価する評価基準を採用するこ
とになる。
In the invention according to claim 4 configured as described above, the degree of change between each pixel and an adjacent pixel is detected, and the pixels having a large degree of change are weighted and aggregated, and as a result, An evaluation criterion for evaluating a clear image portion having a large degree of change is adopted.

【0019】この評価基準は画像のシャープな部分に重
きをおいて評価するので、人物像などの画像を判定する
のに好適なことはいうまでもない。ここで変化度合いが
大きい画像に評価の重きをおく手法には、集計しながら
重み付けを代えるものであってもよいし、変化度合いの
大きい画素だけについて集計するといったものでもよ
い。
This evaluation criterion is evaluated with emphasis on a sharp part of the image, and it is needless to say that it is suitable for determining an image such as a human image. Here, the method of placing an evaluation weight on an image having a large degree of change may be a method of changing the weighting while counting, or a method of counting only pixels having a large degree of change.

【0020】評価基準の重み付けは必ずしも固定的でな
ければならないわけではなく、請求項5にかかる発明
は、請求項1〜請求項4のいずれかに記載の画像評価方
法において、各評価基準に対する重み付けを変更可能に
構成してある。
The weighting of the evaluation criterion does not necessarily have to be fixed, and the invention according to claim 5 is a method according to any one of claims 1 to 4, wherein the weighting of each evaluation criterion is performed in the image evaluation method according to any one of claims 1 to 4. Is configured to be changeable.

【0021】上記のように構成した請求項5にかかる発
明においては、それぞれの評価基準に対する重み付けを
変更することにより、画像に対応した総合評価結果を導
き出すことが可能となる。この場合、それぞれの重み付
けを個別に変更するものであるとか、複数の組合せを予
め用意しておき、その組合せを選択するというものなど
各種の態様が含まれる。
In the invention according to claim 5 configured as described above, it is possible to derive an overall evaluation result corresponding to an image by changing the weight for each evaluation criterion. In this case, various modes are included, such as changing each weight individually or preparing a plurality of combinations in advance and selecting the combination.

【0022】また、このような重み付けの変更自体を操
作者が行うのではなく、画像データに基づいて実現する
ことも含まれ、その一例として、請求項6にかかる発明
は、各評価基準に基づく評価結果に基づいて当該評価結
果の重み付けを変化させる構成としてある。
Further, the change of the weighting itself is not performed by the operator but is realized based on the image data. As an example, the invention according to claim 6 is based on each evaluation criterion. It is configured to change the weight of the evaluation result based on the evaluation result.

【0023】上記のように構成した請求項6にかかる発
明においては、各評価基準で評価結果を得て、その評価
結果からそれぞれの評価基準の適応性など勘案して当該
評価結果の重み付けを変化させる。
In the invention according to claim 6, the evaluation result is obtained by each evaluation criterion, and the weight of the evaluation result is changed from the evaluation result in consideration of the adaptability of each evaluation criterion. Let it.

【0024】評価結果を使用して評価基準の重み付けを
変える際にもさまざまな手法を採用可能であり、例え
ば、ある評価基準で各画素の画像データを上述したサン
プリングの対象とするか否かを判断するとすれば、その
画素数を一つの評価基準とし、画素数が多い場合に重み
付けを重くするといったことも含まれる。
Various methods can be adopted when changing the weight of the evaluation criterion using the evaluation result. For example, it is determined whether or not the image data of each pixel is subjected to the above-described sampling with a certain evaluation criterion. If it is determined, the number of pixels is used as one evaluation criterion, and when the number of pixels is large, weighting is increased.

【0025】以上のような手法で画像を評価する発明の
思想は、各種の態様を含むものである。すなわち、ハー
ドウェアで実現されたり、ソフトウェアで実現されるな
ど、適宜、変更可能である。
The idea of the invention for evaluating an image by the above-described method includes various aspects. That is, it can be appropriately changed, for example, by hardware or software.

【0026】発明の思想の具現化例として画像処理する
ソフトウェアとなる場合には、かかるソフトウェアを記
録したソフトウェア記録媒体上においても当然に存在
し、利用されるといわざるをえない。
In the case of software for performing image processing as an embodiment of the idea of the present invention, the software naturally exists on a software recording medium on which such software is recorded, and must be used.

【0027】その一例として、請求項7にかかる発明
は、コンピュータにてドットマトリクス状の画素からな
る実写の画像データを入力し、各画素の画像データを所
定の基準で集計し、集計結果に基づいて画像を評価する
画像評価プログラムを記録した媒体であって、上記集計
結果に対する複数の評価基準をもつとともに、それぞれ
の評価基準に基づく評価結果を所定の重み付けで合算す
る構成としてある。
As one example, the invention according to claim 7 is a computer which inputs image data of a real photograph composed of pixels in a dot matrix form by a computer, totals the image data of each pixel on a predetermined basis, and based on the totaling result. A medium on which an image evaluation program for evaluating an image is recorded, which has a plurality of evaluation criteria for the above-mentioned total result, and is configured to sum the evaluation results based on the respective evaluation criteria with a predetermined weight.

【0028】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなるソフトウェア記録媒体においても全
く同様に考えることができる。また、一次複製品、二次
複製品などの複製段階については全く問う余地無く同等
である。その他、供給方法として通信回線を利用して行
う場合でも本発明が利用されていることには変わりない
し、半導体チップに書き込まれたようなものであっても
同様である。
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any software recording medium to be developed in the future. Also, the duplication stages of the primary duplicated product, the secondary duplicated product, and the like are equivalent without any question. In addition, the present invention is still used even when the supply method is performed using a communication line, and the same applies to a case where the information is written on a semiconductor chip.

【0029】さらに、一部がソフトウェアであって、一
部がハードウェアで実現されている場合においても発明
の思想において全く異なるものはなく、一部をソフトウ
ェア記録媒体上に記憶しておいて必要に応じて適宜読み
込まれるような形態のものとしてあってもよい。
Further, even when a part is realized by software and a part is realized by hardware, there is no difference in the concept of the invention, and it is necessary to store a part on a software recording medium. May be in a form that is read as appropriate in accordance with.

【0030】これらの画像評価方法やソフトウェアの実
現主体として画像評価装置として適用可能なことはいう
までもなく、請求項8にかかる発明は、ドットマトリク
ス状の画素からなる実写の画像データを入力する画像デ
ータ入力手段と、各画素の画像データを所定の基準で集
計し、集計結果に基づいて画像を評価するにあたり、上
記集計結果に対する複数の評価基準をもつとともに、そ
れぞれの評価基準に基づく評価結果を所定の重み付けで
合算する画像データ評価手段とを具備する構成としてあ
る。
It goes without saying that the image evaluation method and the software can be applied as an image evaluation apparatus as a subject of implementation, and the invention according to claim 8 inputs actual image data composed of pixels in a dot matrix. Image data input means, and sums the image data of each pixel according to a predetermined standard, and evaluates an image based on the totalized result. And image data evaluation means for summing the data with a predetermined weight.

【0031】上記のように構成した請求項8にかかる発
明においては、画像データ入力手段ばドットマトリクス
状の画素からなる実写の画像データを入力し、画像デー
タ評価手段は各画素の画像データを所定の基準で集計し
てその集計結果に基づいて画像を評価する。この際、画
像データ評価手段は、上記集計結果に対する複数の評価
基準をもっており、それぞれの評価基準に基づく評価結
果に対して所定の重み付けを持たせて合算して評価す
る。
In the invention according to claim 8 configured as described above, the image data input means inputs real image data consisting of pixels in a dot matrix form, and the image data evaluation means converts the image data of each pixel to a predetermined value. And the image is evaluated based on the result of the aggregation. At this time, the image data evaluation means has a plurality of evaluation criteria for the result of the aggregation, and evaluates the evaluation results based on the respective evaluation criteria by adding a predetermined weight to the evaluation results.

【0032】むろん、このような画像評価装置は単独で
存在する場合もあるし、画像処理装置に組み込まれた状
態で利用されることもあるなど、適宜変更可能である。
Needless to say, such an image evaluation apparatus may be used alone or may be used in a state of being incorporated in an image processing apparatus.

【0033】[0033]

【発明の効果】以上説明したように本発明は、複数の評
価基準の重み付けを変えて総合的に評価するため、画像
の特徴を判定するにあたって柔軟に対応することが可能
な画像評価方法を提供することができる。
As described above, the present invention provides an image evaluation method capable of flexibly responding to the determination of image characteristics because the evaluation is comprehensively performed by changing the weights of a plurality of evaluation criteria. can do.

【0034】また、請求項2にかかる発明によれば、画
像データについてサンプリングして処理を行うため、サ
ンプリングの仕方に応じて評価基準を複数採用可能であ
るとともに、処理量を低減させることができる。
According to the second aspect of the present invention, since the image data is sampled and processed, a plurality of evaluation criteria can be adopted according to the sampling method, and the processing amount can be reduced. .

【0035】さらに、請求項3にかかる発明によれば、
処理量を低減させつつ風景などに最適な評価基準を採用
することが可能となる。
Further, according to the third aspect of the present invention,
It is possible to employ an evaluation criterion that is optimal for a landscape or the like while reducing the processing amount.

【0036】さらに、請求項4にかかる発明によれば、
画像の変化度合いが大きい部分はフォーカスのはっきり
した被写体部分であることが多いため、このような重要
画素に重きをおいた画像評価が可能となる。
Further, according to the invention of claim 4,
Since a portion where the degree of change of the image is large is often a subject portion with clear focus, it is possible to perform image evaluation with emphasis on such important pixels.

【0037】さらに、請求項5にかかる発明によれば、
複数の評価基準に対する重み付けを変更することによ
り、より柔軟な評価が可能となる。
Further, according to the invention of claim 5,
By changing the weights for a plurality of evaluation criteria, more flexible evaluation becomes possible.

【0038】さらに、請求項6にかかる発明によれば、
評価結果を利用して重み付けを変化させるため、評価の
手間を軽減させることができる。
Further, according to the invention of claim 6,
Since the weighting is changed using the evaluation result, it is possible to reduce the trouble of the evaluation.

【0039】さらに、請求項7にかかる発明によれば、
同様にして画像の特徴を判定するにあたって柔軟に対応
することが可能な画像評価プログラムを記録した媒体を
提供することができ、請求項8にかかる発明によれば、
画像評価装置を提供することができる。
Further, according to the invention of claim 7,
In the same manner, it is possible to provide a medium on which an image evaluation program capable of flexibly coping with determining the characteristics of an image has been recorded.
An image evaluation device can be provided.

【0040】[0040]

【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0041】図1は、本発明の一実施形態にかかる画像
評価方法を実行して画像処理する画像処理システムをブ
ロック図により示しており、図2は具体的ハードウェア
構成例を概略ブロック図により示している。
FIG. 1 is a block diagram showing an image processing system for performing image processing by executing an image evaluation method according to an embodiment of the present invention, and FIG. 2 is a schematic block diagram showing an example of a specific hardware configuration. Is shown.

【0042】図1において、画像入力装置10は写真な
どをドットマトリクス状の画素として表した実写の画像
データを画像処理装置20へ出力し、同画像処理装置2
0は所定の処理を経て画像データを集計して評価結果を
求め、同評価結果に基づいて画像処理の内容と程度を決
定してから画像処理を実行する。同画像処理装置20は
画像処理した画像データを画像出力装置30へ出力し、
画像出力装置は画像処理された画像をドットマトリクス
状の画素で出力する。
In FIG. 1, an image input device 10 outputs real image data representing a photograph or the like as pixels in a dot matrix to an image processing device 20 and outputs the data to the image processing device 2.
In step 0, the image data is totaled through a predetermined process to obtain an evaluation result, and the content and degree of the image processing are determined based on the evaluation result, and then the image processing is executed. The image processing device 20 outputs the image-processed image data to the image output device 30,
The image output device outputs the image-processed image as pixels in a dot matrix.

【0043】画像処理装置20は、予め画像データを集
計して当該画像に対する評価結果を求めている。この
際、複数の評価基準を採用して個別に画像データの集計
を行い、所定の条件で重み付けを変化させて合算してい
る。従って、画像処理装置20は、画像データ評価手段
を構成する。
The image processing apparatus 20 collects image data in advance and obtains an evaluation result for the image. At this time, the image data is totaled individually by using a plurality of evaluation criteria, and the weights are changed under predetermined conditions to add up. Therefore, the image processing device 20 forms an image data evaluation unit.

【0044】画像入力装置10の具体例は図2における
スキャナ11やデジタルスチルカメラ12あるいはビデ
オカメラ14などが該当し、画像処理装置20の具体例
はコンピュータ21とハードディスク22とキーボード
23とCD−ROMドライブ24とフロッピーディスク
ドライブ25とモデム26などからなるコンピュータシ
ステムが該当し、画像出力装置30の具体例はプリンタ
31やディスプレイ32等が該当する。本実施形態の場
合、画像の不具合等を修正すべく等該画像を評価するた
め、画像データとしては写真などの実写データが好適で
ある。なお、モデム26については公衆通信回線に接続
され、外部のネットワークに同公衆通信回線を介して接
続し、ソフトウェアやデータをダウンロードして導入可
能となっている。
A specific example of the image input device 10 corresponds to the scanner 11, the digital still camera 12, or the video camera 14 in FIG. 2, and a specific example of the image processing device 20 is a computer 21, a hard disk 22, a keyboard 23, a CD-ROM. A computer system including a drive 24, a floppy disk drive 25, a modem 26, and the like corresponds to the computer system. Specific examples of the image output device 30 correspond to a printer 31, a display 32, and the like. In the case of the present embodiment, actual image data such as a photograph is preferable as the image data in order to evaluate the image in order to correct a defect or the like of the image. The modem 26 is connected to a public communication line, is connected to an external network via the public communication line, and can download and install software and data.

【0045】本実施形態においては、画像入力装置10
としてのスキャナ11やデジタルスチルカメラ12が画
像データとしてRGB(緑、青、赤)の階調データを出
力するとともに、画像出力装置30としてのプリンタ3
1は階調データとしてCMY(シアン、マゼンダ、イエ
ロー)あるいはこれに黒を加えたCMYKの二値データ
を入力として必要とするし、ディスプレイ32はRGB
の階調データを入力として必要とする。一方、コンピュ
ータ21内ではオペレーティングシステム21aが稼働
しており、プリンタ31やディスプレイ32に対応した
プリンタドライバ21bやディスプレイドライバ21c
が組み込まれている。また、画像処理アプリケーション
21dはオペレーティングシステム21aにて処理の実
行を制御され、必要に応じてプリンタドライバ21bや
ディスプレイドライバ21cと連携して所定の画像処理
を実行する。
In this embodiment, the image input device 10
The scanner 11 and the digital still camera 12 output RGB (green, blue, red) gradation data as image data, and the printer 3 as the image output device 30.
1 requires CMY (cyan, magenta, yellow) or CMYK binary data obtained by adding black to the input as gradation data, and the display 32 has RGB data.
Is required as an input. On the other hand, an operating system 21a is running in the computer 21, and a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32 are provided.
Is incorporated. The image processing application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the display driver 21c as necessary.

【0046】従って、画像処理装置20としてのこのコ
ンピュータ21の具体的役割は、RGBの階調データを
入力して画像を評価しつつ最適な画像処理を施したRG
Bの階調データを作成し、ディスプレイドライバ21c
を介してディスプレイ32に表示させるとともに、プリ
ンタドライバ21bを介してCMY(あるいはCMY
K)の二値データに変換してプリンタ31に印刷させる
ことになる。
Therefore, the specific role of the computer 21 as the image processing device 20 is to execute RGB image processing while performing optimum image processing while evaluating the image by inputting RGB gradation data.
B, and generates the gradation data of the display driver 21c.
Via the printer driver 21b, and CMY (or CMY) via the printer driver 21b.
The data is converted into the binary data K) and printed by the printer 31.

【0047】このように、本実施形態においては、画像
の入出力装置の間にコンピュータシステムを組み込んで
画像評価と画像処理を行うようにしているが、必ずしも
かかるコンピュータシステムを必要とするわけではな
く、画像データに対して各種の画像処理を行うシステム
に適用可能である。例えば、図3に示すようにデジタル
スチルカメラ12a内に画像評価して画像処理する画像
処理装置を組み込み、変換した画像データを用いてディ
スプレイ32aに表示させたりプリンタ31aに印字さ
せるようなシステムであっても良い。また、図4に示す
ように、コンピュータシステムを介することなく画像デ
ータを入力して印刷するプリンタ31bにおいては、ス
キャナ11bやデジタルスチルカメラ12bあるいはモ
デム26b等を介して入力される画像データから画像評
価して画像処理するように構成することも可能である。
As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image evaluation and image processing. However, such a computer system is not necessarily required. The present invention is applicable to a system that performs various types of image processing on image data. For example, as shown in FIG. 3, a digital still camera 12a incorporates an image processing device that performs image evaluation and image processing, and uses the converted image data to display on a display 32a or print on a printer 31a. May be. As shown in FIG. 4, in a printer 31b that inputs and prints image data without passing through a computer system, image evaluation is performed based on image data input through a scanner 11b, a digital still camera 12b, a modem 26b, or the like. It is also possible to configure so as to perform image processing.

【0048】上述した画像評価とそれに伴う画像処理
は、具体的には上記コンピュータ21内にて図5などに
示すフローチャートに対応した画像処理プログラムで行
っている。同図に示すフローチャートは画像処理プログ
ラムにおける画像評価の前段部分に該当し、画像データ
を複数の評価基準で集計して所定の評価結果を得る処理
を実行する。
The above-described image evaluation and the accompanying image processing are performed by the image processing program corresponding to the flowchart shown in FIG. The flowchart shown in the figure corresponds to the first part of the image evaluation in the image processing program, and executes a process of totalizing the image data based on a plurality of evaluation criteria and obtaining a predetermined evaluation result.

【0049】ここで本実施形態において採用する二つの
評価基準について説明する。共通するのはいずれも全画
素を対象とするのではなく、所定の基準に従って画素を
間引くとともに、サンプリングした画素について輝度を
集計する点である。また、相違するのは、一方が均等に
画素をサンプリングするのに対し、他方がエッジ画素を
選択してサンプリングする点である。輝度の集計結果に
ついては後述するが、このようにしていわゆるサンプリ
ング手法を変えることにより、画像の評価を変えること
ができる。均等に画素をサンプリングするというのは画
像全体の画素について輝度を集計することに他ならず、
画像全体としての画像データの輝度の分布を評価するこ
とになるから、風景写真が全体的に暗いとかコントラス
トが狭いといった評価の参考となる。
Here, two evaluation criteria used in this embodiment will be described. What is common is that not all pixels are targeted, but pixels are thinned out according to a predetermined criterion and the luminance of sampled pixels is totaled. The difference is that one samples the pixels uniformly while the other samples the edge pixels. The result of summation of the luminance will be described later, but by changing the so-called sampling method in this way, the evaluation of the image can be changed. Sampling pixels evenly means counting the brightness of the pixels in the entire image,
Since the distribution of the luminance of the image data of the entire image is evaluated, it can be used as a reference for the evaluation that the landscape photograph is generally dark or the contrast is narrow.

【0050】一方、エッジ画素は画像のシャープな部分
であるから、画像の中でも本来の被写体に関わる画素に
ついて輝度を集計することになり、たとえ背景が暗くて
も被写体が十分な明るさを持っていれば画像の明るさは
十分であるといった評価結果が得られることになる。本
実施形態においては、操作者による選択あるいは自動処
理によってこれら二つの評価基準を適宜組み合わせて画
像の判定を行うようにしている。
On the other hand, since the edge pixels are sharp portions of the image, the luminance of the pixels related to the original subject in the image is totaled. Even if the background is dark, the subject has sufficient brightness. Then, an evaluation result that the brightness of the image is sufficient can be obtained. In the present embodiment, an image is determined by appropriately combining these two evaluation criteria by selection by an operator or automatic processing.

【0051】図5に示すフローチャートを参照すると、
この画像評価処理では、図6に示すようにドットマトリ
クス状の画素からなる画像データについて対象画素を水
平方向に主走査しつつ垂直方向に副走査して移動させ、
各画素についてサンプリング対象であるか否かを判断し
て集計している。
Referring to the flowchart shown in FIG.
In this image evaluation process, as shown in FIG. 6, the target pixel is moved by performing sub-scanning in the vertical direction while performing main scanning in the horizontal direction with respect to image data composed of pixels in a dot matrix.
Each pixel is counted by judging whether or not it is a sampling target.

【0052】画像データがドットマトリクス状の画素か
ら構成されている場合には、各画素ごとに上述したRG
Bの輝度を表す階調データで表されており、画像のエッ
ジ部分では隣接する画素間での同データの差分は大きく
なる。この差分は輝度勾配であり、これをエッジ度と呼
ぶことにし、ステップS110では各画素でのエッジ度
を判定する。図7に示すようなXY直交座標を考察する
場合、画像の変化度合いのベクトルはX軸方向成分とY
軸方向成分とをそれぞれ求めれば演算可能となる。
If the image data is composed of dot matrix pixels, the above-described RG
It is represented by gradation data representing the luminance of B, and the difference of the same data between adjacent pixels becomes large in the edge portion of the image. This difference is a luminance gradient, which is called an edge degree. In step S110, the edge degree at each pixel is determined. When considering the XY rectangular coordinates as shown in FIG. 7, the vector of the degree of change of the image is the X-axis direction component and the Y-axis direction component.
The calculation can be performed by obtaining the axial components.

【0053】ドットマトリクス状の画素からなるディジ
タル画像においては、図8に示すように縦軸方向と横軸
方向に画素が隣接しており、その明るさをf(x,y)
で表すものとする。この場合、f(x,y)はRGBの
各輝度であるR(x,y),G(x,y),B(x,
y)であったり、あるいは全体の輝度Y(x,y)であ
ってもよい、なお、RGBの各輝度であるR(x,
y),G(x,y),B(x,y)と全体の輝度Y
(x,y)との関係は、厳密には色変換テーブルなどを
参照しなければ変換不能であるが、後述するようにして
簡易な対応関係を利用するようにしても良い。
In a digital image composed of pixels in the form of a dot matrix, as shown in FIG. 8, the pixels are adjacent to each other in the direction of the vertical axis and the horizontal axis, and the brightness is represented by f (x, y).
It shall be represented by In this case, f (x, y) is R (x, y), G (x, y), B (x,
y) or the whole luminance Y (x, y). Note that R (x,
y), G (x, y), B (x, y) and overall luminance Y
Strictly speaking, the relationship with (x, y) cannot be converted without referring to a color conversion table or the like, but a simple correspondence may be used as described later.

【0054】図8に示すものにおいて、X方向の差分値
fxとY方向の差分値fyは、
In FIG. 8, the difference value fx in the X direction and the difference value fy in the Y direction are

【0055】[0055]

【数1】 (Equation 1)

【0056】のように表される。従って、これらを成分
とするベクトルの大きさ|g(x,y)|は、
Is represented as follows. Therefore, the magnitude | g (x, y) |

【0057】[0057]

【数2】 (Equation 2)

【0058】のように表される。むろん、エッジ度はこ
の|g(x,y)|で表される。なお、本来、画素は図
9に示すように縦横に升目状に配置されており、中央の
画素に注目すると八つの隣接画素がある。従って、同様
にそれぞれの隣接する画素との画像データの差分をベク
トルで表し、このベクトルの和を画像の変化度合いと判
断しても良い。
Is represented as follows. Of course, the edge degree is represented by | g (x, y) |. Note that, as shown in FIG. 9, the pixels are originally arranged in a grid in the vertical and horizontal directions, and there are eight adjacent pixels when focusing on the central pixel. Therefore, similarly, the difference between the image data and each adjacent pixel may be represented by a vector, and the sum of the vectors may be determined as the degree of change of the image.

【0059】以上のようにして各画素についてエッジ度
が求められるので、あるしきい値と比較してエッジ度の
方が大きい画素はエッジ画素と判断すればよい。なお、
経験的事実から考察すると、フォーカスが集中する被写
体は構図の中央部分に位置することが多い。従って、中
央部分から多くの画素が抽出されるような仕組みとする
ことにより、画像処理の判断に利用したときにより好ま
しい効果を得られる。
Since the edge degree is obtained for each pixel as described above, a pixel having a larger edge degree than a certain threshold value may be determined as an edge pixel. In addition,
Considering empirical facts, a subject with a high focus is often located at the center of the composition. Therefore, by adopting a structure in which a large number of pixels are extracted from the central portion, a more favorable effect can be obtained when used for determination of image processing.

【0060】このため、図10に示すように、画像の中
の部分毎に比較するしきい値Th1,Th2,Th3を
異ならせておくようにしてもよい。むろん、この例で
は、
For this reason, as shown in FIG. 10, the threshold values Th1, Th2, and Th3 to be compared for each portion in the image may be different. Of course, in this example,

【0061】[0061]

【数3】 (Equation 3)

【0062】なる関係があり、中央に近い部分ほどしき
い値は低く、エッジ度が比較的低くてもフォーカスが集
中していると判断されるようになる。
The threshold value is lower in the portion closer to the center, and it is determined that the focus is concentrated even if the edge degree is relatively low.

【0063】ステップS120ではエッジ度と同しきい
値とを比較して変化度合いが大きいか否かを判断する。
比較の結果、エッジ度の方が大きければこの画素はエッ
ジ画素であると判断し、ステップS130にてその画素
の画像データをサンプリングしてワークエリアに保存す
る。ワークエリアはコンピュータ21内のRAMであっ
てもよいしハードディスク22であってもよい。
In step S120, it is determined whether or not the degree of change is large by comparing the edge degree with the same threshold value.
As a result of the comparison, if the degree of edge is larger, the pixel is determined to be an edge pixel, and in step S130, the image data of the pixel is sampled and stored in the work area. The work area may be the RAM in the computer 21 or the hard disk 22.

【0064】一方、このようなエッジ度の判定と並行し
てステップS140では当該対象画素が均等サンプリン
グの対象画素であるか否かを判断する。均等にサンプリ
ングするといっても、ある誤差の範囲内となる程度にサ
ンプリングする必要がある。統計的誤差によれば、サン
プル数Nに対する誤差は概ね1/(N**(1/2))と
表せる。ただし、**は累乗を表している。従って、1%
程度の誤差で処理を行うためにはN=10000とな
る。
On the other hand, in parallel with the determination of the edge degree, it is determined in step S140 whether or not the target pixel is a target pixel for uniform sampling. Even if sampling is performed uniformly, it is necessary to perform sampling to such an extent that it is within a certain error range. According to the statistical error, the error with respect to the number N of samples can be approximately expressed as 1 / (N ** (1/2)). Here, ** indicates a power. Therefore, 1%
In order to perform processing with an error of the order, N = 10000.

【0065】ここにおいて、図6に示すビットマップ画
面は(width)×(height)の画素数とな
り、サンプリング周期ratioは、
Here, the bit map screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is

【0066】[0066]

【数4】 (Equation 4)

【0067】とする。ここにおいて、min(widt
h,height)はwidthとheightのいず
れか小さい方であり、Aは定数とする。また、ここでい
うサンプリング周期ratioは何画素ごとにサンプリ
ングするかを表しており、図11の○印の画素はサンプ
リング周期ratio=2の場合を示している。すなわ
ち、縦方向及び横方向に二画素ごとに一画素のサンプリ
ングであり、一画素おきにサンプリングしている。A=
200としたときの1ライン中のサンプリング画素数は
図12に示すようになる。
Assume that Here, min (widt
h, height) is the smaller of width and height, and A is a constant. Also, the sampling period ratio here indicates how many pixels are sampled, and the pixels marked with a circle in FIG. 11 show the case where the sampling period ratio = 2. In other words, one pixel is sampled every two pixels in the vertical direction and the horizontal direction, and sampling is performed every other pixel. A =
The number of sampling pixels in one line when the number is set to 200 is as shown in FIG.

【0068】同図から明らかなように、サンプリングし
ないことになるサンプリング周期ratio=1の場合
を除いて、200画素以上の幅があるときには最低でも
サンプル数は100画素以上となることが分かる。従っ
て、縦方向と横方向について200画素以上の場合には
(100画素)×(100画素)=(10000画素)
が確保され、誤差を1%以下にできる。
As can be seen from the figure, except for the case where the sampling period ratio = 1 in which sampling is not performed, when the width is 200 pixels or more, the number of samples is at least 100 pixels or more. Therefore, when the number of pixels is 200 or more in the vertical and horizontal directions, (100 pixels) × (100 pixels) = (10000 pixels)
Is ensured, and the error can be reduced to 1% or less.

【0069】ここにおいてmin(width,hei
ght)を基準としているのは次のような理由による。
例えば、図13(a)に示すビットマップ画像のよう
に、width>>heightであるとすると、長い
方のwidthでサンプリング周期ratioを決めて
しまった場合には、同図(b)に示すように、縦方向に
は上端と下端の2ラインしか画素を抽出されないといっ
たことが起こりかねない。しかしながら、min(wi
dth,height)として、小さい方に基づいてサ
ンプリング周期ratioを決めるようにすれば同図
(c)に示すように少ない方の縦方向においても中間部
を含むような間引きを行うことができるようになる。す
なわち、所定の抽出数を確保したサンプリングが可能と
なる。
Here, min (width, hei)
(ght) is based on the following reason.
For example, assuming that width >> height as in the bitmap image shown in FIG. 13A, when the sampling period ratio is determined by the longer width, as shown in FIG. 13B. In addition, it may happen that only two lines, the upper and lower lines, are extracted in the vertical direction. However, min (wi
(dth, height), if the sampling period ratio is determined based on the smaller one, it is possible to perform the thinning including the intermediate part even in the smaller vertical direction as shown in FIG. Become. That is, it is possible to perform sampling while securing a predetermined number of extractions.

【0070】ステップS140では、このような均等な
サンプリング手法を採用しつつ、当該対象画素がそのサ
ンプリング対象となっているか否かを判断し、対象であ
ればステップS150にて画像データをサンプリングす
る。
In step S140, while employing such a uniform sampling method, it is determined whether or not the target pixel is to be sampled. If so, image data is sampled in step S150.

【0071】ステップS130,S150で画像データ
をサンプリングするというのは、同画像データに基づい
て輝度を集計することを意味する。上述したように、本
実施形態においてはコンピュータ21が扱うのはRGB
の階調データであり、直接には輝度の値を持っていな
い。輝度を求めるためにLuv表色空間に色変換するこ
とも可能であるが、演算量などの問題から得策ではな
い。このため、テレビジョンなどの場合に利用されてい
るRGBから輝度を直に求める次式の変換式を利用す
る。
Sampling the image data in steps S130 and S150 means that the luminance is totalized based on the image data. As described above, in this embodiment, the computer 21 handles RGB
And does not directly have a luminance value. Although it is possible to perform color conversion to the Luv color space in order to obtain the luminance, this is not advisable due to problems such as the amount of calculation. For this reason, the following conversion formula for directly obtaining luminance from RGB used in the case of a television or the like is used.

【0072】[0072]

【数5】 (Equation 5)

【0073】輝度はヒストグラムとして集計し、むろ
ん、ステップS130の集計エリアとステップS150
の集計エリアは別個である。なお、輝度の集計とともに
集計対象となった画素数についても集計しておく。
The luminance is tabulated as a histogram. Of course, the tabulation area of step S130 and the step S150
Are separate areas. It should be noted that the number of pixels to be counted is also counted together with the counting of the luminance.

【0074】以上のような処理を画像データの各画素に
ついて行うため、ステップS160にて処理の対象画素
を移動させ、ステップS170にて全画素について終了
したと判断されるまで処理を繰り返す。
In order to perform the above processing for each pixel of the image data, the pixel to be processed is moved in step S160, and the processing is repeated until it is determined in step S170 that all the pixels have been completed.

【0075】それぞれのサンプリング手法で対象となる
画素について輝度の集計を行ったら、ステップS180
では画像評価オプションを入力する。図14はディスプ
レイ32上に表示される画像評価オプション入力画面を
示しており、選択肢としてポートレートと風景写真と自
動設定という三つが用意されている。
After summing the luminance of the target pixel by each sampling method, step S180
Now enter the image evaluation options. FIG. 14 shows an image evaluation option input screen displayed on the display 32, and three options of portrait, landscape photograph, and automatic setting are prepared as options.

【0076】図15に示すように均等サンプリングで得
られた輝度のヒストグラムと、エッジ画素のサンプリン
グで得られた輝度のヒストグラムとを合算して当該画像
を評価するためのヒストグラムを生成するにあたり、そ
れぞれの重み付けを調整する必要がある。ここで重み付
け係数kを採用すると、均等サンプリングの集計結果D
ist_aveとエッジ画素サンプリングでの集計結果
Dist_edgから、評価用の集計結果Dist_S
umは、
As shown in FIG. 15, when generating a histogram for evaluating the image by adding the luminance histogram obtained by the uniform sampling and the luminance histogram obtained by sampling the edge pixels, Needs to be adjusted. Here, when the weighting coefficient k is adopted, the summation result D of the uniform sampling is obtained.
The evaluation result Dist_S is obtained from the ist_ave and the aggregation result Dist_edg in the edge pixel sampling.
um is

【0077】[0077]

【数6】 (Equation 6)

【0078】となる。そして、この重み付け係数kは、
「0」に近づくほど全体重視となり、「1」に近づくほ
ど被写体重視といえる。このため、図14に示す画像評
価オプション入力画面でオプションを選択した後、ステ
ップS190にて同オプションに基づいて分岐し、ポー
トレートを選択したときにはステップS192にて「k
=0.8」と設定し、風景写真を選択したときにはステ
ップS194にて「k=0.2」と設定する。
Is obtained. And this weighting coefficient k is
It can be said that the closer to "0", the greater the importance of the entirety, and the closer to "1", the greater the importance of the subject. For this reason, after selecting an option on the image evaluation option input screen shown in FIG. 14, the process branches in step S190 based on the option, and when a portrait is selected, “k” is selected in step S192.
= 0.8 ", and when a landscape photograph is selected," k = 0.2 "is set in step S194.

【0079】オプション選択の残る一つの選択肢は自動
設定である。この自動設定では先に述べたようにサンプ
リングしたエッジ画素数に基づき、当該エッジ画素数が
少ない場合には風景写真と考えて重み付け係数kを
「0」に近づけるし、当該エッジ画素数が多い場合には
ポートレートと考えて重み付け係数kを「1」に近づけ
る。エッジ画素のサンプリング数x_edgと均等サン
プリング数x_aveを使用し、ステップS196にて
重み付け係数を
One remaining option selection is automatic setting. In this automatic setting, as described above, based on the number of edge pixels sampled, if the number of edge pixels is small, the weighting coefficient k is set to be close to “0” in consideration of a landscape photograph, and if the number of edge pixels is large. , The weighting coefficient k is made closer to “1” as a portrait. Using the sampling number x_edg of the edge pixels and the uniform sampling number x_ave, the weighting coefficient is calculated in step S196.

【0080】[0080]

【数7】 (Equation 7)

【0081】として算出して評価用の集計結果Dist
_Sumを得る。
The total result Dist for calculation and evaluation
Get _Sum.

【0082】このようにして評価用の集計結果Dist
_Sumを得ることにより画像の評価を行ったことにな
る。むろん、この集計結果を用いてさらなる判定を行っ
ても良いが、基本的にはかかる集計結果を利用する画像
処理に応じて適宜変更すればよい。
In this way, the evaluation result Dist
Obtaining _Sum means that the image has been evaluated. Of course, further determination may be made using this totaled result, but basically it may be changed as appropriate in accordance with image processing using this totaled result.

【0083】この後、同集計結果に基づいて最適な画像
処理を決定し、実行する。図16は、その一例としてコ
ントラストの拡大と明度の補正の画像処理を実行するた
めのフローチャートを示している。
Thereafter, the optimum image processing is determined and executed based on the result of the aggregation. FIG. 16 shows a flowchart for executing image processing for contrast enhancement and brightness correction as an example.

【0084】本実施形態でのコントラストを拡大するた
めの基本的な手法は、画像データに基づいて輝度分布を
求め、この輝度分布が本来の階調幅(255階調)の一
部分しか利用していないのであれば分布を拡大するとい
うものである。
In the basic method for increasing the contrast in the present embodiment, a luminance distribution is obtained based on image data, and this luminance distribution uses only a part of the original gradation width (255 gradations). If so, the distribution is expanded.

【0085】従って、ステップS310では上述した重
み付け係数kから集計結果Dist_Sumとしての輝
度分布のヒストグラムを作成し、ステップS320では
拡大する幅を決定する。拡大幅を決定するにあたり、輝
度分布の両端を求めることを考える。写真画像の輝度分
布は図17に示すように概ね山形に表れる。むろん、そ
の位置、形状についてはさまざまである。輝度分布の幅
はこの両端をどこに決めるかによって決定されるが、単
に裾野が延びて分布数が「0」となる点を両端とするこ
とはできない。裾野部分では分布数が「0」付近で変移
する場合があるし、統計的に見れば限りなく「0」に近
づきながら推移していくからである。
Therefore, in step S310, a histogram of the luminance distribution as the aggregation result Dist_Sum is created from the above-mentioned weighting coefficient k, and in step S320, the width to be enlarged is determined. In determining the enlargement width, consider obtaining both ends of the luminance distribution. The luminance distribution of the photographic image appears substantially in a mountain shape as shown in FIG. Of course, the position and shape are various. The width of the luminance distribution is determined depending on where the both ends are determined. However, the point where the number of distributions becomes “0” by extending the base cannot be set as the both ends. This is because the number of distributions may change around “0” in the tail part, and the number of distributions changes while approaching “0” without limit statistically.

【0086】このため、分布範囲において最も輝度の大
きい側と小さい側からある分布割合だけ内側に経た部分
を分布の両端とする。本実施形態においては、同図に示
すように、この分布割合を0.5%に設定している。む
ろん、この割合については、適宜、変更することが可能
である。このように、ある分布割合だけ上端と下端をカ
ットすることにより、ノイズなどに起因して生じている
白点や黒点を無視することもできる。すなわち、このよ
うな処理をしなければ一点でも白点や黒点があればそれ
が輝度分布の両端となってしまうので、255階調の輝
度値であれば、多くの場合において最下端は階調「0」
であるし、最上端は階調「255」となってしまうが、
上端部分から0.5%の画素数だけ内側に入った部分を
端部とすることにより、このようなことが無くなる。
For this reason, the portions extending inward by a certain distribution ratio from the side with the highest luminance and the side with the lowest luminance in the distribution range are set as both ends of the distribution. In the present embodiment, as shown in the figure, the distribution ratio is set to 0.5%. Of course, this ratio can be changed as appropriate. In this manner, by cutting the upper and lower ends by a certain distribution ratio, white points and black points caused by noise or the like can be ignored. That is, if such processing is not performed, even if there is even one point, a white point or a black point will be at both ends of the luminance distribution. "0"
And the uppermost end is the gradation “255”,
Such a problem is eliminated by setting a portion which is 0.5% of the number of pixels inside from the upper end portion as an end portion.

【0087】実際の処理ではサンプリングした画素数に
対する0.5%を演算し、再現可能な輝度分布における
上端の輝度値及び下端の輝度値から順番に内側に向かい
ながらそれぞれの分布数を累積し、0.5%の値となっ
た輝度値を求める。以後、この上端側をymaxと呼
び、下端側をyminと呼ぶ。
In actual processing, 0.5% of the number of sampled pixels is calculated, and the number of distributions is accumulated in order from the upper-end luminance value and the lower-end luminance value of the reproducible luminance distribution in order inward. The luminance value having a value of 0.5% is obtained. Hereinafter, this upper end is called ymax, and the lower end is called ymin.

【0088】再現可能な輝度の範囲を「0」〜「25
5」としたときに、変換前の輝度yと輝度の分布範囲の
最大値ymaxと最小値yminから変換先の輝度Yを次式に
基づいて求める。
The reproducible luminance range is from “0” to “25”.
When “5” is set, the luminance Y to be converted is obtained from the luminance y before the conversion and the maximum value ymax and the minimum value ymin of the luminance distribution range based on the following equation.

【0089】[0089]

【数8】 (Equation 8)

【0090】ただしHowever,

【0091】[0091]

【数9】 (Equation 9)

【0092】また、上記変換式にてY<0ならばY=0
とし、Y>255ならばY=255とする。ここにおけ
る、aは傾きであり、bはオフセットといえる。この変
換式によれば、図18に示すように、あるせまい幅を持
った輝度分布を再現可能な範囲まで広げることができ
る。ただし、再現可能な範囲を最大限に利用して輝度分
布の拡大を図った場合、ハイライト部分が白く抜けてし
まったり、ハイシャドウ部分が黒くつぶれてしまうこと
が起こる。これを防止するため本実施形態においては、
再現可能な範囲を制限している。すなわち、再現可能な
範囲の上端と下端に拡大しない範囲として輝度値で
「5」だけ残している。この結果、変換式のパラメータ
は次式のようになる。
If Y <0 in the above conversion formula, Y = 0.
If Y> 255, Y = 255. Here, “a” is a slope, and “b” is an offset. According to this conversion formula, as shown in FIG. 18, a luminance distribution having a certain narrow width can be expanded to a reproducible range. However, when the luminance distribution is expanded by making the most of the reproducible range, a highlight portion may be lost in white, or a high shadow portion may be lost in black. In order to prevent this, in this embodiment,
Reproducible range is limited. That is, the luminance value “5” is left as a range that does not expand to the upper and lower ends of the reproducible range. As a result, the parameters of the conversion equation are as follows.

【0093】[0093]

【数10】 (Equation 10)

【0094】そして、この場合にはy<yminと、y>
ymaxの範囲においては変換を行わないようにする。
In this case, y <ymin and y>
No conversion is performed in the range of ymax.

【0095】ただし、このままの拡大率(aに対応)を
適用してしまうと、非常に大きな拡大率が得られる場合
も生じてしまう。例えば、夕方のような薄暮の状態では
最も明るい部分から暗い部分までのコントラストの幅が
狭くて当然であるのに、この画像についてコントラスト
を大きく拡大しようとする結果、昼間の画像のように変
換されてしまいかねない。このような変換は希望されな
いので、拡大率には制限を設けておき、aが1.5(〜
2)以上とはならないように制限する。これにより、薄
暮は薄暮なりに表現されるようになる。なお、この場合
は輝度分布の中心位置がなるべく変化しないような処理
を行っておく。
However, if the enlargement ratio (corresponding to a) is applied as it is, a very large enlargement ratio may be obtained. For example, in a twilight state such as in the evening, the width of the contrast from the brightest part to the dark part is naturally narrow, but as a result of trying to greatly increase the contrast of this image, it is converted like a daytime image. I could end up. Since such conversion is not desired, a limit is set for the enlargement ratio, and a is set to 1.5 (to
2) Restrict it so that it does not exceed the above. Thereby, twilight comes to be expressed as twilight. In this case, processing is performed so that the center position of the luminance distribution does not change as much as possible.

【0096】ところで、輝度の変換時に、毎回、上記変
換式(Y=ay+b)を実行するのは非合理的である。
というのは、輝度yの取りうる範囲が「0」〜「25
5」でしかあり得ないため、予め輝度yが取りうる全て
の値に対応して変換後の輝度Yを求めておくことも可能
である。従って、図19に示すようなテーブルとして記
憶しておく。
By the way, it is irrational to execute the above conversion formula (Y = ay + b) every time the luminance is converted.
That is, the possible range of the luminance y is “0” to “25”.
Since it can be only 5 ", the converted luminance Y can be obtained in advance for all possible values of the luminance y. Therefore, it is stored as a table as shown in FIG.

【0097】このような変換テーブルを形成することが
ステップS320の拡大幅決定処理に該当し、画像デー
タを変更することが可能になる。しかし、このような輝
度の範囲の拡大によってコントラストを強調するだけで
なく、合わせて明るさを調整することも極めて有効であ
るため、ステップS330にて画像の明るさを判断し、
補正のためのパラメータを生成する。
Forming such a conversion table corresponds to the enlargement width determination processing in step S320, and it is possible to change the image data. However, since it is extremely effective not only to enhance the contrast by expanding the range of brightness but also to adjust the brightness together, the brightness of the image is determined in step S330.
Generate parameters for correction.

【0098】例えば、図20にて実線で示すように輝度
分布の山が全体的に暗い側に寄っている場合には波線で
示すように全体的に明るい側に山を移動させると良い
し、逆に、図21にて実線で示すように輝度分布の山が
全体的に明るい側に寄っている場合には波線で示すよう
に全体的に暗い側に山を移動させると良い。
For example, in the case where the peaks of the luminance distribution as a whole are closer to the dark side as shown by the solid line in FIG. 20, it is better to move the peaks to the brighter side as a whole as shown by the wavy line. Conversely, when the peaks of the luminance distribution are generally shifted to the bright side as shown by the solid line in FIG. 21, it is preferable to move the peaks to the dark side as a whole as indicated by the wavy line.

【0099】各種の実験を行った結果、本実施形態にお
いては、輝度分布におけるメジアンymedを求め、同
メジアンymedが「85」未満である場合に暗い画像
と判断して以下のγ値に対応するγ補正で明るくする。
As a result of various experiments, in the present embodiment, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, the image is determined to be a dark image and corresponds to the following γ value. Brighten with gamma correction.

【0100】[0100]

【数11】 [Equation 11]

【0101】あるいは、Alternatively,

【0102】[0102]

【数12】 (Equation 12)

【0103】とする。It is assumed that

【0104】この場合、γ<0.7となっても、γ=
0.7とする。このような限界を設けておかないと夜の
画像が昼間のようになってしまうからである。なお、明
るくしすぎると全体的に白っぽい画像になってコントラ
ストが弱い画像になりやすいため、彩度を合わせて強調
するなどの処理が好適である。
In this case, even if γ <0.7, γ =
0.7. Unless such a limit is set, a night image looks like daytime. If the image is made too bright, the image becomes whitish as a whole and the image tends to have a low contrast. Therefore, a process such as emphasizing with saturation is preferable.

【0105】一方、メジアンymedが「128」より
大きい場合に明るい画像と判断して以下のγ値に対応す
るγ補正で暗くする。
On the other hand, when the median ymed is larger than “128”, the image is determined to be a bright image and darkened by γ correction corresponding to the following γ value.

【0106】[0106]

【数13】 (Equation 13)

【0107】あるいは、Alternatively,

【0108】[0108]

【数14】 [Equation 14]

【0109】とする。この場合、γ>1.3となって
も、γ=1.3として暗くなり過ぎないように限界を設
けておく。
It is assumed that In this case, even if γ> 1.3, a limit is set to γ = 1.3 so as not to be too dark.

【0110】なお、このγ補正は変換前の輝度分布に対
して行っても良いし、変換後の輝度分布に対して行って
も良い。γ補正をした場合における対応関係を図22に
示しており、γ<1であれば上方に膨らむカーブとな
り、γ>1であれば下方に膨らむカーブとなる。むろ
ん、かかるγ補正の結果も図19に示すテーブル内に反
映させておけばよく、テーブルデータに対して同補正を
行っておく。
Note that this γ correction may be performed on the luminance distribution before conversion or on the luminance distribution after conversion. FIG. 22 shows a correspondence relationship in the case of performing γ correction. If γ <1, the curve expands upward, and if γ> 1, the curve expands downward. Of course, the result of the γ correction may be reflected in the table shown in FIG. 19, and the correction is performed on the table data.

【0111】最後に、ステップS340にてコントラス
ト補正と明度補正が必要であるか否かを判断する。この
判断は上述した拡大率(a)とγ値について適当なしき
い値と比較し、拡大率の方が大きかったりγ値が所定範
囲を超えていたら必要性有りと判断する。そして、必要
性有りと判断されれば画像データの変換を行う。
Finally, in step S340, it is determined whether contrast correction and brightness correction are necessary. In this determination, the enlargement ratio (a) and the γ value are compared with appropriate thresholds, and if the enlargement ratio is larger or the γ value exceeds a predetermined range, it is determined that the necessity exists. If it is determined that there is a need, the image data is converted.

【0112】画像処理が必要であると判断された場合、
(9)式に基づく変換を行うが、同式の変換式は、RG
Bの成分値との対応関係においても当てはめることがで
き、変換前の成分値(R0 ,G0 ,B0 )に対して変換
後の成分値(R,G,B)は、
When it is determined that image processing is necessary,
Conversion based on equation (9) is performed, and the conversion equation of the same equation is RG
This can also be applied to the correspondence relationship with the component values of B. The component values (R, G, B) after the conversion are compared with the component values (R0, G0, B0) before the conversion.

【0113】[0113]

【数15】 (Equation 15)

【0114】として求めることもできる。ここで、輝度
y,Yが階調「0」〜階調「255」であるのに対応し
てRGBの各成分値(R0,G0,B0),(R,G,B)
も同じ範囲となっており、上述した輝度y,Yの変換テ
ーブルをそのまま利用すればよいといえる。
Can be obtained as Here, the RGB component values (R0, G0, B0), (R, G, B) corresponding to the luminance y, Y of the gradation "0" to the gradation "255".
Are in the same range, and it can be said that the conversion table of the luminances y and Y described above may be used as it is.

【0115】従って、ステップS350では全画素の画
像データ(R0,G0,B0)について(18)〜(2
0)式に対応する変換テーブルを参照し、変換後の画像
データ(R,G,B)を得るという処理を繰り返すことに
なる。
Therefore, in step S350, the image data (R0, G0, B0) of all pixels are (18) to (2).
The process of referring to the conversion table corresponding to equation (0) and obtaining the converted image data (R, G, B) is repeated.

【0116】ところで、この場合は輝度の集計結果を画
像の判定に利用する評価基準として使用し、コントラス
ト補正と明度補正を行うようにしているが、画像処理の
具体例はこれに限られるものではなく、従って評価基準
として使用する集計内容も様々である。
In this case, the result of summation of luminance is used as an evaluation criterion used for image determination, and contrast correction and brightness correction are performed. However, specific examples of image processing are not limited to this. Therefore, there are various kinds of aggregation contents used as evaluation criteria.

【0117】図23は彩度強調のための画像処理を実行
する場合のフローチャートを示している。
FIG. 23 is a flowchart showing a case where image processing for enhancing saturation is executed.

【0118】まず、画素データがその成分要素として彩
度を持っていればその彩度の値を用いて分布を求めるこ
とが可能であるが、RGBの成分値しか持っていないた
め、本来的には彩度値が直接の成分値となっている表色
空間への変換を行なわなければ彩度値を得ることができ
ない。例えば、標準表色系としてのLuv空間において
は、L軸が輝度(明度)を表し、U軸及びV軸で色相を
表している。ここにおいて、U軸及びV軸においては両
軸の交点からの距離が彩度を表すため、実質的に(U**
2+V**2)**(1/2)が彩度となる。
First, if the pixel data has saturation as its component element, it is possible to obtain the distribution using the saturation value. However, since the pixel data has only RGB component values, it is inherently necessary. Can not obtain a saturation value without conversion to a color space in which the saturation value is a direct component value. For example, in a Luv space as a standard color system, the L axis represents luminance (brightness), and the U axis and the V axis represent hue. Here, in the U-axis and the V-axis, since the distance from the intersection of both axes represents the saturation, substantially (U **
2 + V ** 2) ** (1/2) is the saturation.

【0119】このような異なる表色空間の間での色変換
は対応関係を記憶した色変換テーブルを参照しつつ、補
間演算を併用しなければならず、演算処理量は膨大とな
ってくる。このような状況に鑑み、本実施形態において
は、画像データとして標準的なRGBの階調データを直
に利用して彩度の代替値Xを次のようにして求めてい
る。
In color conversion between such different color spaces, it is necessary to use an interpolation operation while referring to a color conversion table in which correspondence is stored, and the amount of operation processing becomes enormous. In view of such a situation, in the present embodiment, the alternative value X of the saturation is obtained as follows by directly using standard RGB gradation data as image data.

【0120】[0120]

【数16】 (Equation 16)

【0121】本来的には彩度は、R=G=Bの場合に
「0」となり、RGBの単色あるいはいずれか二色の所
定割合による混合時において最大値となる。この性質か
ら直に彩度を適切に表すのは可能であるものの、簡易な
(21)式によっても赤の単色および緑と青の混合色で
ある黄であれば最大値の彩度となり、各成分が均一の場
合に「0」となる。また、緑や青の単色についても最大
値の半分程度には達している。むろん、
Originally, the saturation becomes “0” when R = G = B, and reaches the maximum value when mixing a single color of RGB or a predetermined ratio of any two colors. Although it is possible to directly express the saturation directly from this property, the saturation of the maximum value can be obtained by a simple equation (21) if the color is a single color of red and yellow which is a mixed color of green and blue. It is "0" when the components are uniform. In addition, green and blue single colors also reach about half of the maximum value. Of course,

【0122】[0122]

【数17】 [Equation 17]

【0123】という式にも代替可能である。The formula can be substituted.

【0124】ステップS410では、上述した均等サン
プリングとエッジ画素サンプリングの手法を採用しつつ
それぞれ別個に彩度の代替値Xについてのヒストグラム
の分布を求める。(21)式においては、彩度が最低値
「0」〜最大値「511」の範囲で分布し、概略的には
図24に示すような分布となる。次なるステップS42
0では、集計された彩度分布に基づいてこの画像につい
ての彩度指数というものを決定する。但し、この場合も
均等サンプリングの集計結果とエッジ画素サンプリング
の集計結果から個別に彩度指数を導出し、上述した重み
付け係数kを利用して合算せしめた彩度指数を算出す
る。
In step S410, the distribution of the histogram for the alternative value X of the saturation is obtained separately while employing the above-described methods of uniform sampling and edge pixel sampling. In the equation (21), the saturation is distributed in a range from the minimum value “0” to the maximum value “511”, and the distribution is roughly as shown in FIG. Next step S42
At 0, a saturation index for this image is determined based on the aggregated saturation distribution. However, also in this case, the saturation index is individually derived from the totalization result of the uniform sampling and the totalization result of the edge pixel sampling, and the total saturation index is calculated using the above-mentioned weighting coefficient k.

【0125】彩度指数を導出するにあたり、本実施形態
においては、サンプリングされた画素数の範囲で、分布
数として上位の「16%」が占める範囲を求める。そし
て、この範囲内での最低の彩度「A」がこの画像の彩度
を表すものとして次式に基づいて彩度強調指数Sを決定
する。
In deriving the saturation index, in the present embodiment, the range occupied by the higher-order “16%” as the number of distributions in the range of the number of sampled pixels is obtained. Then, assuming that the lowest saturation “A” within this range represents the saturation of this image, the saturation enhancement index S is determined based on the following equation.

【0126】すなわち、That is,

【0127】[0127]

【数18】 (Equation 18)

【0128】とする。図25は、この彩度「A」と彩度
強調指数Sとの関係を示している。図に示すように、彩
度指数Sは最大値「50」〜最小値「0」の範囲で彩度
「A」が小さいときに大きく、同彩度「A」が大きいと
きに小さくなるように徐々に変化していくことになる。
It is assumed that FIG. 25 shows the relationship between the saturation “A” and the saturation enhancement index S. As shown in the drawing, the saturation index S is large when the saturation “A” is small and is small when the saturation “A” is large in the range of the maximum value “50” to the minimum value “0”. It will change gradually.

【0129】彩度強調指数Sに基づいて彩度を強調する
にあたり、上述したように画像データが彩度のパラメー
タを備えているものであれば同パラメータを変換すれば
よいものの、RGBの表色空間を採用している場合に
は、一旦、標準表色系であるLuv空間に変換し、Lu
v空間内で半径方向へ変移させなければならないといえ
る。しかしながら、RGBの画像データを、一旦、Lu
v空間内の画像データに変換し、彩度強調後に再びRG
Bに戻すといった作業が必要となり、演算量が多くなら
ざるを得ない。従って、RGBの階調データをそのまま
利用して彩度強調することにする。
To enhance the saturation based on the saturation enhancement index S, if the image data has a saturation parameter as described above, the parameter may be converted. When the space is adopted, the space is temporarily converted to the Luv space which is a standard color system, and the Lu space is used.
It can be said that the displacement must be made in the radial direction in the v space. However, once the RGB image data is
After converting to v-space image data and emphasizing saturation,
Work such as returning to B is required, and the amount of calculation must be increased. Therefore, the saturation is enhanced using the RGB gradation data as it is.

【0130】RGB表色空間のように各成分が概略対等
な関係にある色相成分の成分値であるときには、R=G
=Bであればグレイであって無彩度となる。従って、R
GBの各成分における最小値となる成分については各画
素の色相に影響を与えることなく単に彩度を低下させて
いるにすぎないと考えれば、各成分における最小値をす
べての成分値から減算し、その差分値を拡大することに
よって彩度を強調できるといえる。
When each component is a component value of a hue component having a substantially equal relationship as in the RGB color space, R = G
If = B, it is gray and achromatic. Therefore, R
Assuming that the minimum component of each component of GB simply reduces the saturation without affecting the hue of each pixel, the minimum value of each component is subtracted from all component values. It can be said that the saturation can be enhanced by enlarging the difference value.

【0131】まず、上述した彩度強調指数Sから演算に
有利な彩度強調パラメータSratioを、
First, a saturation enhancement parameter Sratio advantageous for calculation is calculated from the saturation enhancement index S described above.

【0132】[0132]

【数19】 [Equation 19]

【0133】として求める。この場合、彩度強調指数S
=0のときに彩度強調パラメータSratio=1となって
彩度強調されない。次に、RGB階調データの各成分
(R,G,B)における青(B)の成分値が最小値であ
ったとすると、この彩度強調パラメータSratio を使用
して次のように変換する。
Is obtained. In this case, the saturation enhancement index S
When = 0, the saturation enhancement parameter Sratio = 1, and saturation enhancement is not performed. Next, assuming that the component value of blue (B) in each component (R, G, B) of the RGB gradation data is the minimum value, conversion is performed as follows using the saturation enhancement parameter Sratio.

【0134】[0134]

【数20】 (Equation 20)

【0135】この結果、RGB表色空間とLuv空間と
の間で一往復する二度の色変換が不要となるため、演算
時間の低減をはかることができる。この実施形態におい
ては、無彩度の成分について単純に最小値の成分を他の
成分値から減算する手法を採用しているが、無彩度の成
分を減算するにあたっては別の変換式を採用するもので
あっても構わない。ただし、(29)〜(31)式のよ
うに最小値を減算するだけの場合には乗除算が伴わない
ので演算量が容易となるという効果がある。
As a result, it is not necessary to perform two rounds of color conversion, which makes one round trip between the RGB color space and the Luv space, so that the calculation time can be reduced. In this embodiment, a method of simply subtracting the minimum value component from the other component values for the achromatic component is employed, but another conversion formula is employed for subtracting the achromatic component. It does not matter. However, in the case where only the minimum value is subtracted as in the equations (29) to (31), there is an effect that the amount of calculation becomes easy because no multiplication / division is involved.

【0136】(25)〜(27)式を採用する場合で
も、良好な変換が可能であるものの、この場合には彩度
を強調すると輝度も向上して全体的に明るくなるという
傾向がある。従って、各成分値から輝度の相当値を減算
した差分値を対象として変換を行うことにする。
Even when the formulas (25) to (27) are adopted, good conversion is possible, but in this case, when the saturation is enhanced, the luminance tends to be improved and the whole image tends to be brighter. Therefore, the conversion is performed on the difference value obtained by subtracting the luminance equivalent value from each component value.

【0137】まず、輝度を求めるために、上述したLu
v空間に色変換したのでは演算量が多大となってしまう
ため、テレビジョンなどの場合に利用されているRGB
から輝度を直に求める次式の変換式を利用する。
First, in order to obtain the luminance, the above-described Lu is used.
Since the amount of calculation is large if the color conversion is performed in the v space, the RGB used in the case of television etc.
The following conversion formula for directly obtaining the luminance from is used.

【0138】輝度Yは、The luminance Y is

【0139】[0139]

【数21】 (Equation 21)

【0140】一方、彩度強調は、On the other hand, saturation enhancement

【0141】[0141]

【数22】 (Equation 22)

【0142】とする。この加減値△R,△G,△Bは輝
度との差分値に基づいて次式のように求める。すなわ
ち、
It is assumed that: The addition and subtraction values △ R, △ G, and 求 め る B are obtained by the following equation based on the difference value with the luminance. That is,

【0143】[0143]

【数23】 (Equation 23)

【0144】となり、この結果、As a result,

【0145】[0145]

【数24】 (Equation 24)

【0146】として変換可能となる。なお、輝度の保存
は次式から明らかである。
The conversion is possible. The preservation of the brightness is apparent from the following equation.

【0147】[0147]

【数25】 (Equation 25)

【0148】また、入力がグレー(R=G=B)のとき
には、輝度Y=R=G=Bとなるので、加減値△R=△
G=△B=0となり、無彩色に色が付くこともない。
(39)式〜(41)式を利用すれば輝度が保存され、
彩度を強調しても全体的に明るくなることはない。
When the input is gray (R = G = B), the luminance Y = R = G = B.
G = △ B = 0, and there is no achromatic color.
By using the expressions (39) to (41), the luminance is stored,
Emphasizing saturation does not make the whole picture brighter.

【0149】以上のようにして彩度強調指数Sratio を
求めたら、ステップS430にて所定のしきい値と比較
し、彩度強調が必要な画像であるかを判断する。そし
て、必要であればステップS440にて(39)式〜
(41)式に基づいて全画素について画像データを変換
する。
After the saturation enhancement index Sratio is obtained as described above, it is compared with a predetermined threshold value in step S430 to determine whether the image requires saturation enhancement. Then, if necessary, in step S440, equations (39) to
Image data is converted for all pixels based on equation (41).

【0150】従って、ステップS410,S420にて
複数の評価基準に基づいて画像データを評価しつつ、そ
れぞれの評価結果に対して所定の重み付けを持たせて合
算しており、これらを実行するハードウェア構成とソフ
トウェアとによって画像データ評価手段を構成すること
になる。
Therefore, in steps S410 and S420, the image data is evaluated based on a plurality of evaluation criteria, and each evaluation result is added with a predetermined weight and added up. The configuration and the software constitute the image data evaluation means.

【0151】また、他の画像の評価基準としてエッジ強
調処理の画像処理を前提としたエッジ度の評価に適用す
ることもできる。図26は、このエッジ強調処理のフロ
ーチャートを示している。エッジ度は上述した手法にて
算出するものとし、ステップS510では対象画素を移
動させながら均等サンプリングとエッジ画素サンプリン
グの手法で別々にエッジ度を集計する。そして、積算さ
れたエッジ度を画素数で除算することにより、それぞれ
の評価基準に基づくエッジ度の平均値を算出する。すな
わち、この画像のシャープ度合いSLは、画素数をE
(I)pixとすると、
Further, the present invention can be applied to the evaluation of the edge degree based on the image processing of the edge enhancement processing as another image evaluation standard. FIG. 26 shows a flowchart of this edge enhancement processing. The edge degree is calculated by the above-described method. In step S510, the edge degree is separately calculated by the uniform sampling method and the edge pixel sampling method while moving the target pixel. Then, by dividing the integrated edge degree by the number of pixels, an average value of the edge degrees based on each evaluation criterion is calculated. That is, the sharpness SL of this image is obtained by setting the number of pixels to E.
(I) If pix,

【0152】[0152]

【数26】 (Equation 26)

【0153】のようにして演算することができる。この
場合、SLの値が小さい画像ほどシャープネスの度合い
が低い(見た目にぼけた)と判断できるし、SLの値が
大きい画像ほどシャープネスの度合いが高い(見た目に
はっきりとしたもの)と判断できる。
The calculation can be performed as follows. In this case, it can be determined that an image having a lower SL value has a lower degree of sharpness (visually blurred), and an image having a higher SL value has a higher degree of sharpness (visually clear).

【0154】次に、ステップS515では画像評価オプ
ションを入力するなどして重み付け係数kを決定し、そ
れぞれのサンプリング手法に基づくエッジ度を重み付け
加算して合算する。
Next, in step S515, a weighting coefficient k is determined by inputting an image evaluation option or the like, and the edge degrees based on each sampling method are weighted and added to be added.

【0155】一方、画像のシャープさは感覚的なもので
あるため、実験的に得られた最適なシャープ度合いの画
像データについて同様にしてシャープ度合いSLを求
め、その値を理想のシャープ度合いSLoptと設定す
るとともに、ステップS520においてエッジ強調度E
enhanceを、
On the other hand, since the sharpness of the image is intuitive, the sharpness SL is obtained in the same manner for the experimentally obtained image data having the optimum sharpness, and the obtained value is used as the ideal sharpness SLopt. In addition to the setting, in step S520, the degree of edge enhancement E
enhance,

【0156】[0156]

【数27】 [Equation 27]

【0157】として求める。ここにおいて、係数ksは
画像の大きさに基づいて変化するものであり、上述した
ように画像データが縦横方向にそれぞれheightド
ットとwidthドットからなる場合、
Is obtained. Here, the coefficient ks changes based on the size of the image. As described above, when the image data includes height dots and width dots in the vertical and horizontal directions,

【0158】[0158]

【数28】 [Equation 28]

【0159】のようにして求めている。ここにおいて、
min(height,width)はheightド
ットとwidthドットのうちのいずれか小さい方を指
し、Aは定数で「768」としている。むろん、これら
は実験結果から得られたものであり、適宜変更可能であ
ることはいうまでもない。ただし、基本的には画像が大
きいものほど強調度を大きくするということで良好な結
果を得られている。
This is obtained as follows. put it here,
min (height, width) indicates the smaller one of the height dot and the width dot, and A is a constant “768”. Of course, these are obtained from the experimental results, and it goes without saying that they can be appropriately changed. However, good results are basically obtained by increasing the degree of emphasis for a larger image.

【0160】このようにしてエッジ強調度Eenhance を
求めたら、ステップS530にて所定のしきい値と比較
してエッジ強調が必要であるか判断し、必要であると判
断されればステップS540にて全画素についてエッジ
強調処理を実行する。
After the edge enhancement degree Eenhance is obtained in this manner, it is compared with a predetermined threshold value in step S530 to determine whether edge enhancement is necessary. If it is determined that edge enhancement is necessary, step S540 is performed. An edge enhancement process is performed on all pixels.

【0161】エッジ強調処理は、強調前の各画素の輝度
Yに対して強調後の輝度Y’が、
In the edge enhancement processing, the luminance Y ′ after emphasis is compared with the luminance Y of each pixel before emphasis.

【0162】[0162]

【数29】 (Equation 29)

【0163】として演算される。ここで、Yunsharpは
各画素の画像データに対してアンシャープマスク処理を
施したものであり、ここでアンシャープマスク処理につ
いて説明する。図27は一例として5×5画素のアンシ
ャープマスク41を示している。このアンシャープマス
ク41は、中央の「100」の値をマトリクス状の画像
データにおける処理対象画素Y(x,y)の重み付けと
し、その周縁画素に対して同マスクの升目における数値
に対応した重み付けをして積算するのに利用される。こ
のアンシャープマスク41を利用する場合、
Is calculated. Here, Yunsharp is obtained by performing unsharp mask processing on the image data of each pixel. Here, the unsharp mask processing will be described. FIG. 27 shows an unsharp mask 41 of 5 × 5 pixels as an example. The unsharp mask 41 uses the value of “100” at the center as the weight of the pixel Y (x, y) to be processed in the matrix image data, and weights the peripheral pixels corresponding to the numerical values in the cells of the same mask. It is used for multiplying and integrating. When using this unsharp mask 41,

【0164】[0164]

【数30】 [Equation 30]

【0165】なる演算式に基づいて積算する。(48)
式において、「396」とは重み付け係数の合計値であ
り、サイズの異なるアンシャープマスクにおいては、そ
れぞれ升目の合計値となる。また、Mijはアンシャー
プマスクの升目に記載されている重み係数であり、Y
(x,y)は各画素の画像データである。なお、ijに
ついてはアンシャープマスク41に対して横列と縦列の
座標値で示している。
The integration is performed based on the following arithmetic expression. (48)
In the formula, “396” is the total value of the weighting coefficients, and in the case of unsharp masks of different sizes, it is the total value of each cell. Mij is a weight coefficient described in the unsharp mask cell, and Y
(X, y) is image data of each pixel. Note that ij is indicated by horizontal and vertical coordinate values with respect to the unsharp mask 41.

【0166】(47)式に基づいて演算されるエッジ強
調演算の意味するところは次のようになる。Yunsharp
(x,y)は注目画素に対して周縁画素の重み付けを低
くして加算したものであるから、いわゆる「なまった
(アンシャープ)」画像データとしていることになる。
このようにしてなまらせたものはいわゆるローパスフィ
ルタをかけたものと同様の意味あいを持つ。従って、
「Y(x,y)−Yunsharp (x,y)」とは本来の全
成分から低周波成分を引いたことになってハイパスフィ
ルタをかけたものと同様の意味あいを持つ。そして、ハ
イパスフィルタを通過したこの高周波成分に対してエッ
ジ強調度Eenhance を乗算して「Y(x,y)」に加え
れば同エッジ強調度Eenhanceに比例して高周波成分を
増したことになり、エッジが強調される結果となる。
The meaning of the edge emphasis operation calculated based on the expression (47) is as follows. Yunsharp
Since (x, y) is obtained by adding the peripheral pixel to the target pixel with a lower weight, so-called "unsharp" image data is obtained.
What has been blunted in this way has the same meaning as that obtained by applying a so-called low-pass filter. Therefore,
“Y (x, y) −Yunsharp (x, y)” has the same meaning as that obtained by subtracting a low-frequency component from all original components and applying a high-pass filter. Then, by multiplying the high-frequency component passed through the high-pass filter by the edge enhancement Eenhance and adding it to "Y (x, y)", the high-frequency component is increased in proportion to the edge enhancement Eenhance. The result is that the edges are enhanced.

【0167】なお、エッジ強調が必要になる状況を考え
るといわゆる画像のエッジ部分であるから、隣接する画
素との間で画像データの差が大きな場合にだけ演算する
ようにしてもよい。このようにすれば、殆どのエッジ部
分でない画像データ部分でアンシャープマスクの演算を
行う必要がなくなり、処理が激減する。
Considering a situation where edge enhancement is required, since the image is a so-called edge portion of the image, the calculation may be performed only when the difference between the image data and the adjacent pixels is large. In this way, it is not necessary to perform the unsharp mask calculation on the image data portion which is not the most edge portion, and the processing is drastically reduced.

【0168】なお、実際の演算は、強調後の輝度Y’と
強調前の輝度Yから、
The actual calculation is based on the luminance Y ′ after emphasis and the luminance Y before emphasis.

【0169】[0169]

【数31】 (Equation 31)

【0170】と置き換えれば、変換後のR’G’B’
は、
By replacing with R′G′B ′ after conversion,
Is

【0171】[0171]

【数32】 (Equation 32)

【0172】のように演算可能となる。The operation can be performed as shown in FIG.

【0173】従って、このエッジ強調処理では、ステッ
プS510,S515にて、複数の評価基準に基づいて
画像のエッジ度を評価しつつ、それぞれの評価結果に対
して所定の重み付けを持たせて合算しており、これらを
実行するハードウェア構成とソフトウェアとによって画
像データ評価手段を構成することになる。
Accordingly, in this edge enhancement processing, in steps S510 and S515, while evaluating the edge degree of the image based on a plurality of evaluation criteria, each evaluation result is given a predetermined weight and summed. The image data evaluation means is constituted by a hardware configuration and software for executing these.

【0174】なお、上述したコントラスト補正、明度補
正、彩度強調、エッジ強調のそれぞれについて、画像処
理を行うかを判断している。しかし、必ずしも画像処理
を行うか否かの二者択一の判断を行う必要はない。すな
わち、それぞれにおいて強調程度を設定しており、この
ようにして設定した強調程度で画像処理を行うようにし
ても良い。
It is determined whether to perform image processing for each of the above-described contrast correction, lightness correction, saturation enhancement, and edge enhancement. However, it is not always necessary to determine whether to perform image processing. That is, the degree of emphasis is set for each, and image processing may be performed with the degree of emphasis set in this way.

【0175】次に、上記構成からなる本実施形態の動作
を説明する。
Next, the operation of the present embodiment having the above configuration will be described.

【0176】写真画像をスキャナ11で読み込み、プリ
ンタ31にて印刷する場合を想定する。すると、まず、
コンピュータ21にてオペレーティングシステム21a
が稼働しているもとで、画像処理アプリケーション21
dを起動させ、スキャナ11に対して写真の読み取りを
開始させる。読み取られた画像データが同オペレーティ
ングシステム21aを介して画像処理アプリケーション
21dに取り込まれたら、処理対象画素を初期位置に設
定する。続いて、ステップS110にて(1)式〜
(3)式に基づいてエッジ度を判定し、ステップS12
0ではしきい値と同エッジ度とを比較する。そして、エ
ッジ度の方が大きい場合には処理対象画素がエッジ画素
であると判断し、ステップS130にて当該画素の画像
データをワークエリアに保存する。また、ステップS1
40では当該処理対象画素が均等サンプリングの対象で
あるか否かを判断し、対象である場合はステップS15
0で当該画素の画像データを別のワークエリアに保存す
る。
Assume that a photographic image is read by the scanner 11 and printed by the printer 31. Then, first,
Operating system 21a on computer 21
Is running, the image processing application 21
d is started, and the scanner 11 starts reading a photograph. When the read image data is captured by the image processing application 21d via the operating system 21a, the processing target pixel is set to the initial position. Subsequently, in step S110, equations (1) to
The edge degree is determined based on equation (3), and step S12 is performed.
At 0, the threshold is compared with the same edge degree. If the edge degree is higher, it is determined that the pixel to be processed is an edge pixel, and the image data of the pixel is stored in the work area in step S130. Step S1
In 40, it is determined whether or not the pixel to be processed is a target of uniform sampling.
If 0, the image data of the pixel is stored in another work area.

【0177】以上の処理をステップS160にて処理対
象画素を移動させながらステップS170にて全画素に
ついて実行したと判断されるまで繰り返す。
The above process is repeated while moving the pixel to be processed in step S160 until it is determined in step S170 that all the pixels have been executed.

【0178】全画素について実行し終えたら、それぞれ
のワークエリアには異なる評価基準でサンプリングされ
た画像データが保存されていることになり、ステップS
180では画像評価のためのオプションを入力する。操
作者が画像を見てポートレートであるか風景写真である
かが判断できればいずれかを選択すればよいし、判断で
きない場合や全てを自動化したい場合には自動設定を選
択する。ポートレートを選択した場合には重み付け係数
kが「0.8」となってエッジ画素についての集計結果
に重きを置かれるし、風景写真を選択した場合には重み
付け係数kが「0.2」となって均等にサンプリングし
た集計結果に重きを置かれ、自動設定を選択した場合に
はエッジ画素の割合に応じた重み付け係数kがセットさ
れる。ただし、どの場合においても重み付け係数kを使
用して複数の評価基準を採用することになり、一つだけ
の評価基準にとらわれない柔軟な評価が可能となる。
When the execution has been completed for all the pixels, image data sampled with different evaluation criteria is stored in each work area.
At 180, an option for image evaluation is input. If the operator can determine whether the image is a portrait or a landscape by looking at the image, he or she can select either one. If the operator cannot determine whether the image is a portrait or a landscape, or if he / she wants to automate everything, he or she selects automatic setting. When the portrait is selected, the weighting coefficient k becomes “0.8” and the aggregation result of the edge pixels is weighted. When the landscape photograph is selected, the weighting coefficient k is “0.2”. When the automatic setting is selected, a weighting coefficient k corresponding to the ratio of the edge pixels is set. However, in any case, a plurality of evaluation criteria are adopted using the weighting coefficient k, and flexible evaluation can be performed without being restricted to only one evaluation criteria.

【0179】本実施形態においては、ワークエリアに画
像データそのものを保存するようにしたが、メモリ容量
や処理時間の面から考えると必ずしも画像データをその
ものをワークエリアに保存しておく必要はない。すなわ
ち、最終的にはサンプリング対象の画素について輝度分
布や彩度代替値分布のヒストグラムを作成することにな
るので、予めステップS120,S150にてヒストグ
ラムの情報を蓄積していくようにすればよい。
In the present embodiment, the image data itself is stored in the work area. However, it is not always necessary to store the image data itself in the work area from the viewpoint of memory capacity and processing time. That is, since a histogram of the luminance distribution and the saturation alternative value distribution is finally created for the sampling target pixel, the information of the histogram may be accumulated in advance in steps S120 and S150.

【0180】自動的にコントラスト補正と明度補正を実
行する場合は、重み付け係数を使用してステップS12
0,S150,S310にて輝度分布のヒストグラムを
求め、ステップS320にて(12)(13)式に基づ
いて拡大処理のためのパラメータを決定するとともに、
ステップS330にて(14)〜(17)式に基づいて
明度補正のためのパラメータを決定する。そして、ステ
ップS340ではこれらのパラメータを所定のしきい値
と比較し、画像処理すべきと判断すればステップS35
0にて上記パラメータに基づいて輝度変換する。この場
合、演算量を減らすために最初に図19に示す輝度の変
換テーブルを作成しておき、(18)〜(20)式に基
づいて画像データを変換する。
When the contrast correction and the brightness correction are automatically executed, the weighting coefficients are used to execute step S12.
At 0, S150, and S310, a histogram of the luminance distribution is obtained. At step S320, parameters for the enlargement process are determined based on the equations (12) and (13).
In step S330, parameters for brightness correction are determined based on equations (14) to (17). Then, in step S340, these parameters are compared with a predetermined threshold value.
At 0, luminance conversion is performed based on the above parameters. In this case, a luminance conversion table shown in FIG. 19 is first created in order to reduce the amount of calculation, and the image data is converted based on equations (18) to (20).

【0181】この後、画像処理された画像データをディ
スプレイドライバ21cを介してディスプレイ32に表
示し、良好であればプリンタドライバ21bを介してプ
リンタ31にて印刷させる。すなわち、同プリンタドラ
イバ21bはエッジ強調されたRGBの階調データを入
力し、所定の解像度変換を経てプリンタ31の印字ヘッ
ド領域に対応したラスタライズを行なうとともに、ラス
タライズデータをRGBからCMYKへ色変換し、その
後でCMYKの階調データから二値データへ変換してプ
リンタ31へ出力する。
Thereafter, the image data subjected to the image processing is displayed on the display 32 via the display driver 21c. If the image data is good, the image data is printed by the printer 31 via the printer driver 21b. That is, the printer driver 21b receives the RGB tone data of which the edge is emphasized, performs rasterization corresponding to the print head area of the printer 31 through a predetermined resolution conversion, and performs color conversion of the rasterized data from RGB to CMYK. After that, the CMYK gradation data is converted into binary data and output to the printer 31.

【0182】以上の処理により、スキャナ11を介して
読み込まれた写真の画像データは自動的に最適なコント
ラスト補正と明度補正を施されてディスプレイ32に表
示された後、プリンタ31にて印刷される。すなわち、
複数の評価基準を採用してより柔軟に画像を判定し、そ
の評価結果に基づいてコントラスト補正や明度補正とい
う最適な画像処理を実現することができる。
With the above processing, the image data of the photograph read through the scanner 11 is automatically subjected to optimal contrast correction and lightness correction, displayed on the display 32, and printed by the printer 31. . That is,
It is possible to more flexibly determine an image by employing a plurality of evaluation criteria, and to realize optimal image processing such as contrast correction and brightness correction based on the evaluation result.

【0183】一方、このようなコントラスト補正や明度
補正に限らず、彩度強調やエッジ強調の場合にも、複数
の評価基準で彩度やエッジ度をサンプリングして集計す
るとともに重み付け係数を調整して合算するようにした
ため、単一の評価基準だけにとらわれない柔軟な判定を
経て画像処理を実行することになる。
On the other hand, in the case of not only the contrast correction and the lightness correction but also the chroma emphasis and the edge emphasis, the chroma and the edge are sampled and aggregated by a plurality of evaluation criteria, and the weighting coefficient is adjusted. Therefore, the image processing is executed through a flexible determination that is not limited to a single evaluation criterion.

【0184】このように、画像処理の中枢をなすコンピ
ュータ21はステップS120,S140にて異なる評
価基準で画素の画像データをサンプリングしておくとと
もに、ステップS180にて入力される画像評価オプシ
ョンに基づいてステップS192〜S196にて重み付
け係数kを決定し、この決定した重み付け係数kを使用
してステップS310にて集計結果を合算して輝度分布
ヒストグラムを生成することにより、複数の評価基準を
合算した総合的な集計結果に基づいて画像を評価し、ス
テップS310〜S350にて最適な画像処理を実行す
ることができる。
As described above, the computer 21, which is the center of the image processing, samples the image data of the pixels according to the different evaluation criteria in steps S120 and S140, and based on the image evaluation option input in step S180. In steps S192 to S196, a weighting coefficient k is determined, and the determined weighting coefficient k is used to add up the aggregation results in step S310 to generate a luminance distribution histogram, thereby obtaining a total of a plurality of evaluation criteria. The image is evaluated based on the statistical totaling result, and the optimal image processing can be executed in steps S310 to S350.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる画像処理装置を適
用した画像処理システムのブロック図である。
FIG. 1 is a block diagram of an image processing system to which an image processing device according to an embodiment of the present invention is applied.

【図2】同画像処理装置の具体的ハードウェアのブロッ
ク図である。
FIG. 2 is a block diagram of specific hardware of the image processing apparatus.

【図3】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 3 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図4】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 4 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図5】本発明の画像処理装置における画像評価処理部
分を示すフローチャートである。
FIG. 5 is a flowchart illustrating an image evaluation processing portion in the image processing apparatus of the present invention.

【図6】画像データの大きさと処理対象画素を移動させ
ていく状態を示す図である。
FIG. 6 is a diagram illustrating the size of image data and a state in which a processing target pixel is moved.

【図7】画像の変化度合いを直交座標の各成分値で表す
場合の説明図である。
FIG. 7 is an explanatory diagram in a case where the degree of change of an image is represented by each component value of rectangular coordinates.

【図8】画像の変化度合いを縦軸方向と横軸方向の隣接
画素における差分値で求める場合の説明図である。
FIG. 8 is an explanatory diagram in a case where the degree of change of an image is obtained by a difference value between adjacent pixels in a vertical axis direction and a horizontal axis direction.

【図9】隣接する全画素間で画像の変化度合いを求める
場合の説明図である。
FIG. 9 is an explanatory diagram in a case where the degree of change of an image is obtained between all adjacent pixels.

【図10】しきい値を変化させる領域を示す図である。FIG. 10 is a diagram showing a region where a threshold value is changed.

【図11】サンプリング周期を示す図である。FIG. 11 is a diagram showing a sampling cycle.

【図12】サンプリング画素数を示す図である。FIG. 12 is a diagram showing the number of sampling pixels.

【図13】変換元の画像とサンプリングされる画素の関
係を示す図である。
FIG. 13 is a diagram illustrating a relationship between a conversion source image and pixels to be sampled.

【図14】画像評価オプションの入力画面を示す図であ
る。
FIG. 14 is a diagram showing an input screen for an image evaluation option.

【図15】個別のサンプリング結果を重み付けを変えて
合算する状況を示す図である。
FIG. 15 is a diagram showing a situation in which individual sampling results are added with different weights.

【図16】画像評価処理の後段と画像処理部分を示すフ
ローチャートである。
FIG. 16 is a flowchart showing the second half of the image evaluation process and the image processing part.

【図17】輝度分布の端部処理と端部処理にて得られる
端部を示す図である。
FIG. 17 is a diagram showing edge processing of a luminance distribution and an edge obtained by the edge processing.

【図18】輝度分布の拡大と再現可能な輝度の範囲を示
す図である。
FIG. 18 is a diagram showing an enlarged luminance distribution and a reproducible luminance range.

【図19】輝度分布を拡大する際の変換テーブルを示す
図である。
FIG. 19 is a diagram showing a conversion table for enlarging a luminance distribution.

【図20】γ補正で明るくする概念を示す図である。FIG. 20 is a diagram illustrating a concept of increasing brightness by γ correction.

【図21】γ補正で暗くする概念を示す図である。FIG. 21 is a diagram illustrating a concept of darkening by γ correction.

【図22】γ補正で変更される輝度の対応関係を示す図
である。
FIG. 22 is a diagram illustrating a correspondence relationship of luminance changed by γ correction.

【図23】彩度強調する場合のフローチャートである。FIG. 23 is a flowchart in the case where saturation is emphasized.

【図24】彩度分布の集計状態の概略図である。FIG. 24 is a schematic diagram of a tallying state of a saturation distribution.

【図25】彩度Aと彩度強調指数Sとの関係を示す図で
ある。
FIG. 25 is a diagram showing the relationship between saturation A and saturation enhancement index S.

【図26】エッジ強調する場合のフローチャートであ
る。
FIG. 26 is a flowchart for edge emphasis.

【図27】5×5画素のアンシャープマスクを示す図で
ある。
FIG. 27 is a diagram showing an unsharp mask of 5 × 5 pixels.

【符号の説明】[Explanation of symbols]

10…画像入力装置 20…画像処理装置 21…コンピュータ 21a…オペレーティングシステム 21b…プリンタドライバ 21c…ディスプレイドライバ 21d…画像処理アプリケーション 22…ハードディスク 23…キーボード 24…CD−ROMドライブ 25…フロッピーディスクドライブ 26…モデム 30…画像出力装置 Reference Signs List 10 image input device 20 image processing device 21 computer 21a operating system 21b printer driver 21c display driver 21d image processing application 22 hard disk 23 keyboard 24 CD-ROM drive 25 floppy disk drive 26 modem 30 ... Image output device

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成9年12月3日[Submission date] December 3, 1997

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0006[Correction target item name] 0006

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0006】 本出願人は、このような課題に鑑みて特
願平9−151413号にて画像の中での重要な部分を
判断する発明を提案した。同発明においては、画像のシ
ャープな部分に本来の被写体(オブジェクト)が存在し
ているはずであると考え、各画素での画像の変化度合い
に着目して同変化度合いの大きな画素をオブジェクトと
判断している。
In view of such a problem, the present applicant has proposed in Japanese Patent Application No. 9-151413 an invention for judging an important portion in an image. In the present invention, it is considered that an original subject (object) should exist in a sharp portion of an image, and a pixel having a large degree of change is determined as an object by focusing on the degree of change of the image at each pixel. doing.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ドットマトリクス状の画素からなる実写
の画像データを入力し、各画素の画像データを所定の基
準で集計し、集計結果に基づいて画像を評価する画像評
価方法であって、 上記集計結果に対する複数の評価基準をもつとともに、
それぞれの評価基準に基づく評価結果を所定の重み付け
で合算することを特徴とする画像評価方法。
1. An image evaluation method for inputting real image data composed of dot matrix pixels, summing up image data of each pixel based on a predetermined standard, and evaluating an image based on the summation result. Having multiple evaluation criteria for the aggregation results,
An image evaluation method characterized in that evaluation results based on respective evaluation criteria are summed with a predetermined weight.
【請求項2】 上記請求項1に記載の画像評価方法にお
いて、上記画像データについて所定の基準で間引いて集
計するにあたり、複数の評価基準に基づくサンプリング
を行って集計するとともに、それぞれの集計結果を所定
の重み付けで合算することを特徴とする画像評価方法。
2. The image evaluation method according to claim 1, wherein when the image data is thinned out based on a predetermined criterion and totaled, sampling is performed based on a plurality of evaluation criteria, and the totaling result is calculated. An image evaluation method characterized by adding together with a predetermined weight.
【請求項3】 上記請求項2に記載の画像評価方法にお
いて、一の評価基準が均等にサンプリングして集計する
ものであることを特徴とする画像評価方法。
3. The image evaluation method according to claim 2, wherein one evaluation criterion is one in which sampling is uniformly performed and tabulated.
【請求項4】 上記請求項1〜請求項3のいずれかに記
載の画像評価方法において、一の評価基準が各画素にお
ける隣接画素との変化度合いが大きい画素について評価
を重くして集計するものであることを特徴とする画像評
価方法。
4. An image evaluation method according to any one of claims 1 to 3, wherein one evaluation criterion is to aggregate the weights of the pixels having a large degree of change from adjacent pixels in each pixel. An image evaluation method, characterized in that:
【請求項5】 上記請求項1〜請求項4のいずれかに記
載の画像評価方法において、各評価基準に対する重み付
けを変更可能としたことを特徴とする画像評価方法。
5. An image evaluation method according to claim 1, wherein the weighting for each evaluation criterion can be changed.
【請求項6】 上記請求項1〜請求項5のいずれかに記
載の画像評価方法において、各評価基準に基づく評価結
果に基づいて当該評価結果の重み付けを変化させること
を特徴とする画像評価方法。
6. The image evaluation method according to claim 1, wherein a weight of the evaluation result is changed based on an evaluation result based on each evaluation criterion. .
【請求項7】 コンピュータにてドットマトリクス状の
画素からなる実写の画像データを入力し、各画素の画像
データを所定の基準で集計し、集計結果に基づいて画像
を評価する画像評価プログラムを記録した媒体であっ
て、 上記集計結果に対する複数の評価基準をもつとともに、
それぞれの評価基準に基づく評価結果を所定の重み付け
で合算することを特徴とする画像評価プログラムを記録
した媒体。
7. An image evaluation program for inputting image data of a real photograph made up of dot matrix pixels by a computer, summing up image data of each pixel based on a predetermined standard, and evaluating an image based on the summation result. Media that has multiple evaluation criteria for the above aggregation results,
A medium on which an image evaluation program is recorded, wherein evaluation results based on each evaluation criterion are summed with a predetermined weight.
【請求項8】 ドットマトリクス状の画素からなる実写
の画像データを入力する画像データ入力手段と、 各画素の画像データを所定の基準で集計し、集計結果に
基づいて画像を評価するにあたり、上記集計結果に対す
る複数の評価基準をもつとともに、それぞれの評価基準
に基づく評価結果を所定の重み付けで合算する画像デー
タ評価手段とを具備することを特徴とする画像評価装
置。
8. An image data input means for inputting real image data consisting of pixels in a dot matrix form, and summing up image data of each pixel based on a predetermined standard and evaluating an image based on the summation result. An image evaluation apparatus, comprising: a plurality of evaluation criteria for a totaled result; and image data evaluation means for summing evaluation results based on each evaluation criteria with a predetermined weight.
JP28413897A 1997-06-09 1997-10-16 Image processing apparatus, image processing method, and recording medium recording image processing program Expired - Lifetime JP4243362B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP28413897A JP4243362B2 (en) 1997-10-16 1997-10-16 Image processing apparatus, image processing method, and recording medium recording image processing program
EP98304509A EP0891075A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
EP10158002A EP2199973A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
US09/093,094 US6738527B2 (en) 1997-06-09 1998-06-08 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, and image evaluation method and a medium on which an image evaluation program is recorded
US10/742,718 US7259894B2 (en) 1997-06-09 2003-12-22 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,278 US7940426B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,305 US7755801B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/739,858 US7508548B2 (en) 1997-06-09 2007-04-25 Image processing method and image processing apparatus
US13/081,027 US8553285B2 (en) 1997-06-09 2011-04-06 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/455,575 US8867099B2 (en) 1997-06-09 2012-04-25 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/719,602 US8681380B2 (en) 1997-06-09 2012-12-19 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28413897A JP4243362B2 (en) 1997-10-16 1997-10-16 Image processing apparatus, image processing method, and recording medium recording image processing program

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2002278377A Division JP3731573B2 (en) 2002-09-25 2002-09-25 Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program
JP2007267324A Division JP4475316B2 (en) 2007-10-15 2007-10-15 Image processing apparatus, recording medium storing image processing program, and image processing method
JP2008144768A Division JP2008245321A (en) 2008-06-02 2008-06-02 Image processing apparatus, image processing method, and recording medium

Publications (2)

Publication Number Publication Date
JPH11120325A true JPH11120325A (en) 1999-04-30
JP4243362B2 JP4243362B2 (en) 2009-03-25

Family

ID=17674669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28413897A Expired - Lifetime JP4243362B2 (en) 1997-06-09 1997-10-16 Image processing apparatus, image processing method, and recording medium recording image processing program

Country Status (1)

Country Link
JP (1) JP4243362B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501170A (en) * 2004-05-31 2008-01-17 ノキア コーポレイション Method and system for viewing and enhancing images
JP2008234124A (en) * 2007-03-19 2008-10-02 Fujifilm Corp Representative color extraction method and representative color extracting device
US7486312B2 (en) 2003-05-16 2009-02-03 Seiko Epson Corporation Brightness correction for image
US7570840B2 (en) 2003-05-16 2009-08-04 Seiko Epson Corporation Determination of portrait against back light
US7570391B2 (en) 2003-08-11 2009-08-04 Seiko Epson Corporation Image processing according to image output mode
US7570836B2 (en) 2003-07-30 2009-08-04 Seiko Epson Corporation Backlit image judgment
US7782366B2 (en) 2002-09-20 2010-08-24 Seiko Epson Corporation Backlight adjustment processing of image using image generation record information
JP2014153959A (en) * 2013-02-08 2014-08-25 Canon Inc Image processing device, image processing method, program, and storage medium
JP2015156189A (en) * 2014-02-21 2015-08-27 株式会社ニコン image evaluation device, and image evaluation program
JP2019096364A (en) * 2019-03-18 2019-06-20 株式会社ニコン Image evaluation device
JP2020170555A (en) * 2020-07-13 2020-10-15 株式会社ニコン Image evaluation device, camera, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7782366B2 (en) 2002-09-20 2010-08-24 Seiko Epson Corporation Backlight adjustment processing of image using image generation record information
US7570840B2 (en) 2003-05-16 2009-08-04 Seiko Epson Corporation Determination of portrait against back light
US7486312B2 (en) 2003-05-16 2009-02-03 Seiko Epson Corporation Brightness correction for image
US7929763B2 (en) 2003-05-16 2011-04-19 Seiko Epson Corporation Determination of portrait against back light
US7932930B2 (en) 2003-05-16 2011-04-26 Seiko Epson Corporation Brightness correction for image
US7570836B2 (en) 2003-07-30 2009-08-04 Seiko Epson Corporation Backlit image judgment
US7570391B2 (en) 2003-08-11 2009-08-04 Seiko Epson Corporation Image processing according to image output mode
JP2008501170A (en) * 2004-05-31 2008-01-17 ノキア コーポレイション Method and system for viewing and enhancing images
JP2008234124A (en) * 2007-03-19 2008-10-02 Fujifilm Corp Representative color extraction method and representative color extracting device
JP2014153959A (en) * 2013-02-08 2014-08-25 Canon Inc Image processing device, image processing method, program, and storage medium
JP2015156189A (en) * 2014-02-21 2015-08-27 株式会社ニコン image evaluation device, and image evaluation program
JP2019096364A (en) * 2019-03-18 2019-06-20 株式会社ニコン Image evaluation device
JP2020170555A (en) * 2020-07-13 2020-10-15 株式会社ニコン Image evaluation device, camera, and program

Also Published As

Publication number Publication date
JP4243362B2 (en) 2009-03-25

Similar Documents

Publication Publication Date Title
US7155060B2 (en) Image processing system, image processing method, and medium having an image processing control program recorded thereon
US6535301B1 (en) Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium
US20110188776A1 (en) Image processing method and image processing apparatus
JPH10198802A (en) Image processing apparatus, image processing method, and medium recording image processing program
JP4208396B2 (en) Image processing method, apparatus, and recording medium
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JPH11146219A (en) Image processing apparatus, image processing method, medium recording image processing program
JPH118768A (en) Image processing apparatus, image processing method, medium recording image processing control program
JP4240236B2 (en) Image processing apparatus, image processing method, medium storing image processing program, and printing apparatus
JP3921737B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3985109B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JPH10200777A (en) Image processing apparatus, image processing method, and medium recording image processing program
JP3736632B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3705250B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3731573B2 (en) Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program
JP3570416B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP4475316B2 (en) Image processing apparatus, recording medium storing image processing program, and image processing method
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3458855B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JPH11136514A (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP4941575B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP5029779B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP4557087B2 (en) Image processing apparatus, image processing method, and recording medium
JPH10200756A (en) Image processing apparatus, image processing method, and medium recording image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080602

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080609

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080704

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140109

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term