JP5372586B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP5372586B2 JP5372586B2 JP2009102207A JP2009102207A JP5372586B2 JP 5372586 B2 JP5372586 B2 JP 5372586B2 JP 2009102207 A JP2009102207 A JP 2009102207A JP 2009102207 A JP2009102207 A JP 2009102207A JP 5372586 B2 JP5372586 B2 JP 5372586B2
- Authority
- JP
- Japan
- Prior art keywords
- noise
- pixel
- unit
- edge
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 38
- 238000009826 distribution Methods 0.000 claims description 62
- 238000004364 calculation method Methods 0.000 claims description 53
- 238000003384 imaging method Methods 0.000 claims description 31
- 230000001186 cumulative effect Effects 0.000 claims description 15
- 238000005315 distribution function Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 8
- 238000010998 test method Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 34
- 230000009467 reduction Effects 0.000 description 34
- 238000006243 chemical reaction Methods 0.000 description 30
- 238000001422 normality test Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 12
- 238000009499 grossing Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000002955 isolation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、画像の特定領域がエッジ部か平坦部か否かを判定して画質を改善する画像処理装置に関する。 The present invention relates to an image processing apparatus that determines whether a specific area of an image is an edge portion or a flat portion and improves image quality.
従来、デジタルカメラなどにより取得された写真画像の画質を改善する方法として、ノイズ低減処理や帯域強調処理などが知られている。これらの処理には、ノイズの低減と鮮鋭感の向上を両立させるため、画像中の平坦領域とエッジ領域とで異なる処理を施す、あるいは処理のパラメータを変えるなどの方法が一般的に用いられている。 Conventionally, noise reduction processing, band enhancement processing, and the like are known as methods for improving the image quality of a photographic image acquired by a digital camera or the like. For these processes, in order to achieve both noise reduction and sharpness improvement, methods such as applying different processes to the flat area and edge area in the image or changing processing parameters are generally used. Yes.
例えば、特許文献1には、エッジ部に適した平滑化処理と、平坦部に適した平滑化処理とをエッジ部と平坦部を判別する処理の結果に応じて切り替える高画質化手法が開示されている。また、特許文献2には、エッジ部または平坦部を判別するとともに画素の孤立性をさらに算出し、エッジ部・平坦部判別結果および孤立性に基づいてシャープネス処理条件を決定して画質改善を行う手法が開示されている。この場合、これら従来例におけるエッジ部と平坦部の判別としては、判別指標として、注目点近傍のエッジ強度や局所分散、局所連結性、カラー画像であれば色相関や色チャンネル間の方向性などが用いられている。
しかしながら、上述の従来例におけるエッジ部・平坦部判別法では、ノイズの量が多い場合に判別指標自体がノイズの影響を受ける可能性が大きく、正確にエッジ部と平坦部を判別できないという問題がある。また、注目画素近傍で画像の平滑化などを行ってから判別したり、判別指標自体を平滑化したりして最終的な判定指標に含まれるノイズの影響を緩和すると、微細なエッジを含むテクスチャ部を平坦部と誤判別するという問題も生じる。 However, in the edge / flat portion discrimination method in the above-described conventional example, there is a high possibility that the discrimination index itself is affected by noise when the amount of noise is large, and the edge portion and the flat portion cannot be accurately discriminated. is there. In addition, if the effect of noise included in the final determination index is reduced by performing discrimination after smoothing the image in the vicinity of the target pixel, or by smoothing the determination index itself, a texture portion including fine edges There is also a problem of misclassifying as a flat part.
本発明は上記事情に鑑みてなされたもので、ノイズの影響を受けることなく平坦部の判別を確実に行うことができ、画質の向上を実現できる画像処理装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus that can reliably determine a flat portion without being affected by noise and can improve image quality.
請求項1記載の発明は、デジタル画像を取得する撮像系を用いてあらかじめ撮像することにより得られた画像の画素値に関する統計量と、前記画像におけるノイズの確率分布に関するパラメータの値との間に成り立つ関係を、ノイズ特性データとして保持するデータ保持手段と、前記デジタル画像内の注目画素を含む領域における画素値の分布から所定の統計量を算出する手段と、前記ノイズ特性データおよび前記所定の統計量から、前記注目画素を含む領域におけるノイズの確率分布に関するパラメータの値を算出するパラメータ算出手段と、前記パラメータの値を用いて前記ノイズの確率分布を算出し、前記注目画素を含む領域における画素値の分布と、前記パラメータの値を用いて算出された前記ノイズの確率分布とが、どの程度合致するかを示す指標値を算出する検定手段と、を具備したことを特徴としている。 The invention according to claim 1 is between a statistic relating to a pixel value of an image obtained by imaging in advance using an imaging system for acquiring a digital image and a parameter value relating to a probability distribution of noise in the image. Data holding means for holding the relationship as noise characteristic data , means for calculating a predetermined statistic from a distribution of pixel values in a region including the target pixel in the digital image, the noise characteristic data and the predetermined statistic from the amount, and calculates the parameter calculating means for calculating a value of a parameter related to the probability distribution of the noise in the region including the pixel of interest, the probability distribution of said noise by using the value of the parameter, the pixels in the region including the pixel of interest the distribution of values, and the probability distribution of the noise which is calculated using the values of the parameters, how matching A test means for calculating an index value indicating the Luke, is characterized by comprising a.
請求項2記載の発明は、請求項1記載の発明において、前記ノイズの確率分布に関するパラメータは、標準偏差又は分散であることを特徴としている。 The invention according to claim 2 is characterized in that, in the invention according to claim 1, the parameter relating to the probability distribution of noise is standard deviation or variance.
請求項3記載の発明は、請求項1記載の発明において、前記統計量は、前記注目画素を含む領域における画素値の平均または中央値であることを特徴としている。 According to a third aspect of the present invention, in the first aspect of the present invention, the statistic is an average or median of pixel values in a region including the target pixel.
請求項4記載の発明は、請求項1記載の発明において、前記ノイズ特性データは、所定の入力値に対し、前記入力値を画素値とする平坦部でのノイズの標準偏差又は分散を与えるものであり、前記パラメータ算出手段は、前記統計量を前記ノイズ特性データに対する入力値として、前記前記注目画素を含む領域におけるノイズの確率分布に関する標準偏差又は分散を前記パラメータの値として求めることを特徴としている。 According to a fourth aspect of the present invention, in the first aspect of the invention, the noise characteristic data gives a standard deviation or variance of noise in a flat portion having the input value as a pixel value with respect to a predetermined input value. , and the said parameter calculating means, the statistic as the input value for the noise characteristic data, the standard deviation or variance on the probability distribution of the noise in the region including the said target pixel as a feature to seek the value of the parameter Yes.
請求項5記載の発明は、請求項1記載の発明において、前記検定手段は、確率分布の累積分布関数の類似度を評価する検定方式であることを特徴としている。 The invention according to claim 5 is the invention according to claim 1, characterized in that the test means is a test method for evaluating the similarity of the cumulative distribution function of the probability distribution.
請求項6記載の発明は、請求項1記載の発明において、前記注目画素を含む領域における画素値の分布は、前記注目画素を含む領域内で離散的な位置の画素の画素値の分布であることを特徴としている。 According to a sixth aspect of the invention, in the first aspect of the invention, the distribution of pixel values in the region including the target pixel is a distribution of pixel values of pixels at discrete positions in the region including the target pixel. It is characterized by that.
請求項7記載の発明は、請求項1記載の発明において、前記デジタル画像の各画素における画素値は、前記撮像系を用いて撮像することにより得られた画像の画素値の線形演算により算出された新たな画素値成分から成ることを特徴としている。
Calculating invention of
本発明によれば、ノイズの影響を受けることなく平坦部を正確に判別することができるので、エッジ部と平坦部との判別を確実に行うことができ、エッジ強調した良質の画像を取得できる。 According to the present invention, since the flat portion can be accurately determined without being affected by noise, the edge portion and the flat portion can be reliably determined, and a high-quality image with edge enhancement can be obtained. .
また、本発明によれば、ノイズの影響を受け易いテクスチャ部も平坦部と誤認することなく判別することができるので、テクスチャ部を強調した良質の画像を取得することができる。 Further, according to the present invention, since a texture portion that is easily affected by noise can be determined without being mistaken as a flat portion, a high-quality image in which the texture portion is emphasized can be acquired.
さらに、本発明によれば、撮像系により撮像されるカラー画像についてもエッジ部やテクスチャ部を強調した良質の画像を取得できる。 Furthermore, according to the present invention, it is possible to acquire a high-quality image in which an edge portion and a texture portion are emphasized for a color image captured by an imaging system.
以下、本発明の実施の形態を図面に従い説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施の形態)
図1は、本発明の第1の実施の形態にかかる画像処理装置を適用したデジタルカメラの概略構成を示している。
(First embodiment)
FIG. 1 shows a schematic configuration of a digital camera to which the image processing apparatus according to the first embodiment of the present invention is applied.
図1において、100はデジタルカメラで、このデジタルカメラ100は、撮像系101、入力画像バッファ102、データ保持手段としてのノイズモデルテーブル103、エッジ平坦判定部104、ノイズ低減部105、エッジ強調部106及び記録部107より構成されている。
In FIG. 1,
撮像系101は、モノクロの撮像素子を備えたもので、被写体の光学像をデジタル画像に変換し、Optical Blackの補正を施した後、入力画像バッファ102に出力する。入力画像バッファ102は、撮像系101より出力されるデジタル画像を画素(x,y)ごとに記憶する。ノイズモデルテーブル103は、撮像系101で予め種々の明るさのパッチを撮影した際に得られる画像についてパッチ画像の画素値平均と標準偏差とのデータペアをノイズ特性データとして記録している。このノイズモデルテーブル103の詳細は後述する。エッジ平坦判定部104は、入力画像バッファ102内の各画素(x,y)を順次スキャンし、画素(x,y)の近傍が平坦的かエッジ的かを判定し、エッジ部で大きく平坦度で小さくなるエッジ指標E(x,y)を算出して出力する。このエッジ平坦判定部104についても詳細は後述する。ノイズ低減部105は、エッジ平坦判定部104からエッジ指標E(x,y)が入力されると、対応する画素位置(x,y)の近傍画素(対応画素の周りの所定範囲の画素)を用いて、ノイズ低減のための公知のエッジ保存平滑化処理を行う。エッジ強調部106は、不図示の内部バッファを有し、この内部バッファにノイズ低減部105から入力されるノイズ低減後の画素値を全て蓄積してエッジ強調処理を行う。そして、記録部107は、記録媒体を有し、エッジ強調部106での処理で取得されたエッジ強調結果を記録する。
The
図2は、エッジ平坦判定部104の概略構成を示すもので、近傍バッファ110、統計量算出部111、パラメータ算出手段としての分散算出部112、検定手段としての正規性検定部113より構成されている。
FIG. 2 shows a schematic configuration of the edge
近傍バッファ110は、入力画像バッファ102から読み出される座標(x,y)の画素近傍の画素値、つまり注目画素の画素値と、この注目画素の周りの所定範囲の画素値を一時記憶する。統計量算出部111は、近傍バッファ110に記憶された近傍画素の画素値より中央値(メディアン)Aを求める。分散算出部112は、ノイズモデルテーブル103のノイズ特性データを参照して、中央値Aに対応するノイズ量Noise(A)(標準偏差σ)をノイズの正規分布に関するパラメータとして求める。正規性検定部113は、近傍バッファ110内の近傍画素値の分布(観測データ)が、統計量算出部111で求められた中央値Aと分散算出部112で求められた標準偏差σより得られるノイズの正規分布N(A,σ)に近いかどうかを判定する。なお、観測データが正規分布に合致するかどうかを判定する公知の方法はいろいろあるが、ここでは、kormogolov-smirnovの方法が用いられる。
The
次に、このように構成されたデジタルカメラ100の作用を説明する。
Next, the operation of the
いま、デジタルカメラ100の図示しないシャッタが押下されると、撮像系101は被写体の光学像をデジタル画像に変換し、Optical Black補正を施した後、入力画像バッファ102に出力する。入力画像バッファ102は、撮像系101より出力されるデジタル画像を各画素(x,y)ごとに記憶する。
Now, when a shutter (not shown) of the
次に、エッジ平坦判定部104は、入力画像バッファ102内の各画素(x,y)を順次スキャンし、画素(x,y)の近傍が平坦的かエッジ的かを判定する。そして、この判定結果によりエッジ部で大きく、平坦度で小さくなるようなエッジ指標E(x,y)を算出し、この算出したエッジ指標E(x,y)をノイズ低減部105およびエッジ強調部106に出力する。
Next, the edge
この場合、エッジ平坦判定部104では、次のようにしてエッジ指標Eを求める。まず、座標(x,y)の画素近傍の画素値を入力画像バッファ102から読出し近傍バッファ110に記憶させる。次に、統計量算出部111で、近傍バッファ110に記憶された近傍画素の画素値に関する統計量として中央値Aを求める。また、分散算出部112は、ノイズモデルテーブル103を参照して、中央値Aに対応するノイズ量Noise(A)(標準偏差σ)を求める。さらに詳述すると、一般に撮像素子で発生するノイズは正規分布であり、標準偏差と画素値の間には、例えば図6に示すような素子固有の関係があることが知られている。そこで、ノイズモデルテーブル103に、撮像系101で予め種々の明るさのパッチを撮影した際に得られる画像について、パッチ画像の画素値平均(中央値)と標準偏差とのデータペアを記録しておく。図6中の各黒点がこれらに相当する。分散算出部112では、図6中の各黒点で決定される折れ線関数Noise(x)により中央値Aに対応するノイズ量Noise(A)、つまり標準偏差σを線形補間により求める。
In this case, the edge
最後に、正規性検定部113では、近傍バッファ110内の近傍画素の画素値の分布(観測データ)が、統計量算出部111で求められた中央値Aと分散算出部112で求められた標準偏差σとを持つノイズの正規分布N(A,σ)に近いか(又は合致するか)を公知のkormogolov-smirnovの方法を用いて判定する。この方法では、観測データの累積度数分布を計算し、この累積度数分布と正規分布の累積分布関数との差の最大値を正規性の判定指標(エッジ指標E)としている。本実施の形態では、図3に示すように、近傍バッファ110内の近傍画素の画素値の累積ヒストグラムh(v)と、ノイズの正規分布N(A,σ)の累積分布関数L*S((v-A)/σ)との差分を取り、この差分の最大値をエッジ指標Eとしている。そして、このエッジ指標Eをノイズ低減部105およびエッジ強調部106に出力する。この場合、エッジ指標Eは、下式により求められる。
Finally, in the
E = max(|h(v)-L*S((v-A)/σ)|) mm<=v<=MM
ここでS(x)はA=0、σ=標準偏差1の正規分布N(0,1)の累積分布関数、mmおよびMMは近傍バッファ110内の画素値の最小値および最大値、Lは近傍バッファ110内の画素数である。
E = max (| h (v) -L * S ((vA) / σ) |) mm <= v <= MM
Where S (x) is the cumulative distribution function of normal distribution N (0,1) with A = 0 and σ = standard deviation 1, mm and MM are the minimum and maximum pixel values in the
このようにしてエッジ平坦判定部104求められたエッジ指標Eは、ノイズ低減部105およびエッジ強調部106に出力される。
The edge index E thus obtained for the edge
ノイズ低減部105では、エッジ平坦判定部104からエッジ指標E(x,y)が入力されると、対応する画素位置(x,y)の近傍画素を用いて、公知のエッジ保存平滑化処理を行う。具体的には、下記の式1によりノイズ低減後の画素値U(x,y)を計算する。
In the
U(x,y) = ΣΣ_ij wij*V(x+i,y+j)/ΣΣwij, (-N<=i,j<=N,Nは近傍サイズ) (式1)
wij = W(|V(x+i,y+j)-V(x,y)|, σ)
W(x,σ) = exp(-x*x/(σ*σ))
この場合、重み関数W(x,σ)はxが小さいほど大きくなるので、式1の計算により、V(x,y)に値の近い近傍画素V(x+i,y+j)ほど重い重み付けで平均がとられる。その結果、エッジ部では注目画素と同じ側のエッジにのっている画素のみを使って平均が取られる形となってエッジが保たれ、平坦部では全ての近傍画素に均等に近い重み付けで平均が取られる形となって平滑化がかかる。さらに、式中のσがエッジ平坦判定部104から入力されるエッジ指標Eに基づいて、図4に示すように制御される。この場合、σが小さいと重み関数W(x,σ)は大きなxに対しても小さい値をとり、xの値の変化に対する重み関数の値の変化も相対的に大きくなり、一方、σが大きいと、重み関数はxの値が多少変化しても相対的に少ししか変化せず、おおむね大きな値を取るような特性があるため、図4に示すようにエッジ指標Eが大きいエッジ部ではσを小さく、エッジ指標Eが小さい平坦部ではσを大きくすることにより、平坦部では注目画素と近傍画素の画素値の差によらず重みの均等度が増し、平滑化効果がより大きくなるとともに、エッジ部では平滑化がかからなくなり、エッジのなまりを少なくできる。
U (x, y) = ΣΣ_ij wij * V (x + i, y + j) / ΣΣwij, (-N <= i, j <= N, N is the neighborhood size) (Equation 1)
wij = W (| V (x + i, y + j) -V (x, y) |, σ)
W (x, σ) = exp (-x * x / (σ * σ))
In this case, since the weight function W (x, σ) increases as x decreases, the neighboring pixel V (x + i, y + j) whose value is close to V (x, y) is heavier according to the calculation of Equation 1. An average is taken by weighting. As a result, the edges are averaged using only the pixels on the same edge as the target pixel in the edge part, and the edges are maintained. In the flat part, all the neighboring pixels are averaged with an equal weight. Will be smoothed. Further, σ in the equation is controlled as shown in FIG. 4 based on the edge index E input from the edge
ノイズ低減部105での計算により求められた画素(x,y)でのノイズ低減後の画素値U(x,y)は、エッジ強調部106に出力される。
The pixel value U (x, y) after noise reduction at the pixel (x, y) obtained by the calculation in the
エッジ強調部106では、ノイズ低減部105から入力されたノイズ低減後画素値を不図示の内部バッファに蓄積する。そして、画素(x,y)でのエッジ強調処理に必要な近傍のノイズ低減画素値が全て内部バッファ内に蓄積されると、エッジ強調処理を行う。具体的には、画素(x,y)近傍のノイズ低減後の画素値U(x+i,y+j) (-M<=i,j<=M,Mは近傍サイズ)に対し、K(x,y) = ΣΣ_ij f(i,j)*U(x+i,y+j)によりエッジ成分を抽出し、エッジ強調結果T(x,y)を、下式により算出する。
The
T(x,y) = U(x,y)+α(E)*K(x,y)
ここで、f(i,j)はエッジ抽出のためのバンドパスフィルタで、αは図5に示すエッジ強調量である。この場合、エッジ強調量αは、エッジ指標Eが小さい場合は小さく、エッジ指標Eが大きい場合は大きくすることで、平坦部ではよりノイズが弱められ、エッジ部ではよりエッジが強調される。
T (x, y) = U (x, y) + α (E) * K (x, y)
Here, f (i, j) is a bandpass filter for edge extraction, and α is an edge enhancement amount shown in FIG. In this case, the edge enhancement amount α is small when the edge index E is small and is large when the edge index E is large, so that the noise is weakened more in the flat portion and the edge is more enhanced in the edge portion.
エッジ強調部106で算出されたエッジ強調結果T(x,y)は記録部107に出力され、記録媒体に記録される。その後、全画素(x,y)について一連の処理が終了すると、デジタルカメラ100は撮像動作を終了して待機状態に入る。
The edge enhancement result T (x, y) calculated by the
このように、かかる実施の形態では、予め撮像系により種々の明るさのパッチを撮影して得られる画像についてパッチ画像の画素値平均(中央値)と標準偏差とのデータペアを撮像系のノイズ特性データとしてノイズモデルテーブル103に記録しておき、撮像系より取得される入力デジタル画像について近傍画素の画素値の中央値Aに対応する標準偏差σをノイズ特性データから推定し、この標準偏差σと中央値Aを持つノイズの正規分布N(A,σ)に対して近傍画素の画素値の分布が近いかを判定し、この判定により得られるエッジ指標Eに基づいてノイズ低減部105でのノイズ低減およびエッジ強調部106でのエッジ強調を実行するようにした。これにより、ノイズの影響を受けることなく平坦部を正確に判別することができるので、エッジ部と平坦部との判別を確実に行うことができ、エッジ強調した良質の画像を取得することができる。また、ノイズの影響を受け易いテクスチャ部も平坦部と誤認することなく判別することができるので、テクスチャ部を強調した良質の画像を取得することもできる。
As described above, in this embodiment, a data pair of the pixel value average (median value) and standard deviation of a patch image is obtained for an image obtained by previously capturing patches of various brightnesses by an imaging system. It is recorded in the noise model table 103 as characteristic data, and a standard deviation σ corresponding to the median value A of neighboring pixel values of the input digital image acquired from the imaging system is estimated from the noise characteristic data, and this standard deviation σ And the normal distribution N (A, σ) of the noise having the median A is determined whether the distribution of the pixel values of the neighboring pixels is close, and the
なお、上述した実施の形態にはさまざまな変形例が想定できる。例えば、近傍バッファ110に読み出す近傍データは、座標(x,y)の周囲のどのような形状の領域でも良く、離散的に配置されていても良い。この場合、エッジ平坦判定部104でのエッジ平坦判定は読み出した形状の領域または離散点の覆う領域に対して行われる。
Various modifications can be assumed for the above-described embodiment. For example, the neighborhood data read to the
また、エッジ指標Eを用いてノイズ低減処理とエッジ強調処理を制御する方法としては、エッジ部と平坦部を判別して処理する任意の公知手法を使用することも可能である。 Further, as a method for controlling the noise reduction processing and the edge enhancement processing using the edge index E, any known method for discriminating and processing the edge portion and the flat portion can be used.
さらに、上述の実施の形態では、モノクロ撮像系の例を述べたが、同様の処理を3板撮像系に適用することも可能である。その場合、エッジ平坦判定はR成分、G成分、B成分のそれぞれを独立のモノクロと見なして処理しても良いし、それぞれのエッジ平坦判定結果を統合した判定結果を生成しても良い。統合の方法としては、カラー画像に対して複数チャンネルの情報を利用してエッジ平坦判定を行う任意の公知手法で用いられている方法が利用できる。 Furthermore, in the above-described embodiment , an example of a monochrome imaging system has been described, but the same processing can be applied to a three-plate imaging system. In this case, the edge flatness determination may be processed by regarding each of the R component, the G component, and the B component as independent monochrome images, or a determination result obtained by integrating the edge flatness determination results may be generated. As an integration method, a method used in any known method for performing edge flatness determination using information on a plurality of channels for a color image can be used.
さらに、上述の実施の形態ではノイズの分布として正規分布を仮定したが、任意の累積分布関数を持つノイズに対しても適用可能である。その場合、適切な累積分布関数を正規分布の累積分布関数に替えてkormogolov-smirnovあるいは公知の任意の分布の検定手法を用いればよい。さらに上述した実施の形態では、確率分布としてノイズの正規分布を用いたが、ポアソン分布などの他の確率分布を用いることもできる。さらに、上述では、正規分布に関するパラメータとして標準偏差σについて述べたが、標準偏差σを二乗した分散を用いても同様に実施できる。 Further, it is assumed a normal distribution as a distribution of the form in the noise of the embodiment described above, is also applicable to noise with any cumulative distribution function. In that case, the appropriate cumulative distribution function may be replaced with the normal distribution cumulative distribution function, and kormogolov-smirnov or any known distribution test method may be used. Further, in the above-described embodiment, the noise normal distribution is used as the probability distribution, but other probability distributions such as a Poisson distribution may be used. Furthermore, in the above description, the standard deviation σ has been described as a parameter relating to the normal distribution.
(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
図7は、本発明の第2の実施の形態にかかる画像処理装置を適用したデジタルカメラの概略構成を示すもので、図1と同一部分には同符号を付して説明を省略する。 FIG. 7 shows a schematic configuration of a digital camera to which the image processing apparatus according to the second embodiment of the present invention is applied. The same parts as those in FIG.
図7において、200はデジタルカメラで、このデジタルカメラ200は、単板撮像系201、入力画像バッファ202、ノイズモデルテーブル103、エッジ平坦判定部204、同時化部205、色変換部206、階調変換部207、YC変換部208、ノイズ低減部209、エッジ強調部210、圧縮部211及び記録部107より構成されている。
In FIG. 7,
単板撮像系201は、原色Bayer撮像素子を備えた単板撮像系からなるもので、被写体の光学像をデジタル画像に変換し、Optical Blackの補正およびホワイトバランスの補正を行う。入力画像バッファ202は、ホワイトバランス後の画像を画素(x,y)ごとに記憶する。エッジ平坦判定部204は、入力画像バッファ202内の各画素(x,y)を順次スキャンし、各画素(x,y)におけるエッジ指標Ey(x,y),Ecr(x,y),Ecb(x,y)を算出する。このエッジ平坦判定部204の詳細は後述する。同時化部205は、各画素位置(x,y)で公知の補間処理を行い、各画素位置でのRGB成分であるR(x,y),G(x,y),B(x,y)を生成する。色変換部206は、同時化部205より入力されたR(x,y),G(x,y),B(x,y)に対し3×3の色変換マトリックスを適用し、適用後の結果R'(x,y),G'(x,y),B'(x,y)を出力する。階調変換部207は、色変換部206での色変換後の結果R'(x,y),G'(x,y),B'(x,y)に、所定の階調変換関数γによる階調変換をほどこし、結果を出力する。YC変換部208は、階調変換部207での階調変換後の結果から輝度成分Y(x,y)と色差成分Cr(x,y),Cb(x,y)を公知の方法で計算し、この結果を出力する。
The single-
ノイズ低減部209は、YC変換部208より入力された輝度成分Y(x,y)および色差成分Cr(x,y),Cb(x,y)に対し、対応するエッジ指標Ey(x,y),Ecr(x,y),Ecb(x,y)が得られた段階でノイズ低減処理を行う。エッジ強調部210は、ノイズ低減部209より入力された色差成分に対しては処理を行わずにそのまま出力し、輝度成分にのみ、上述した第1の実施の形態と同様な処理を行う。圧縮部211は、最終的な輝度成分がエッジ強調部210から入力されると、JPEGなど公知の圧縮処理を行い、この結果を記録部107に出力する。
The
図8は、エッジ平坦判定部204の概略構成を示すもので、近傍バッファ220、RGB統計量算出部221、R-G統計量算出部227、B-G統計量算出部228、G分散算出部222、R-G分散算出部223、B-G分散算出部224、R-G生成部225、B-G生成部226、R-G正規性検定部229、B-G正規性検定部230、G正規性検定部231より構成されている。
FIG. 8 shows a schematic configuration of the edge
近傍バッファ220は、入力画像バッファ202から読み出される座標(x,y)の画素近傍の画素値を一時記憶する。RGB統計量算出部221は、近傍バッファ220内の画素値に対して色成分別の統計量算出を行う。本実施の形態では、統計量として各色成分ごとに中央値Ar,Ag,Abを求める。R-G統計量算出部227及びB-G統計量算出部228は、近傍バッファ220内のR-GおよびB-G成分に対する統計量として、近傍バッファ220内のR-G値の中央値ArgおよびB-G値の中央値Abgを求める。G分散算出部222は、ノイズモデルテーブル103を参照して、中央値Agに対応するノイズ量Ngである標準偏差σgをノイズの正規分布に関するパラメータとして求める。R-G分散算出部223は、同じくノイズモデルテーブル103を参照して、中央値Arに対応するR成分のノイズ量Nrを求め、座標(x,y)近傍での色差R-G成分のノイズの標準偏差σrgを計算する。B-G分散算出部224も、同様で、座標(x,y)近傍での色差B-G成分のノイズの標準偏差σbgを計算する。
The
R-G生成部225及びB-G生成部226は、RGB統計量算出部221の処理が終了後、近傍バッファ220内のRおよびB画素位置でR-GおよびB-G成分を算出する。G正規性検定部231、R-G正規性検定部229及びB-G正規性検定部230は、各々近傍バッファ220内のG成分、R-G成分、B-G成分の画素値分布が正規分布に適合するかどうかの検定を行う。この検定の方法には、上述した第1の実施の形態と異なるAnderson-Darlingの方法が用いられる。
The
次に、このように構成されたデジタルカメラ200の作用を説明する。
Next, the operation of the
いま、デジタルカメラ200の図示しないシャッタが押下されると、単板撮像系201は被写体の光学像をデジタル画像に変換し、Optical Black補正およびホワイトバランスの補正を行った後、入力画像バッファ202に出力する。この場合、カラー画像を得るには3色成分が必要だが、入力画像バッファ202に入力される画像は、図9(a)に示すように、1画素に1種類の色成分しか得られない。そのため、このときのホワイトバランス補正は、Rの得られている画素位置にホワイトバランス係数Wrをかけ、Bの得られている画素位置にホワイトバランス係数Wbをかけることで行われる。
Now, when a shutter (not shown) of the
入力画像バッファ202にホワイトバランス補正後の画像が得られると、同時化部205では、各画素位置(x,y)ごとに公知の補間処理を行い、各画素位置のRGB成分としてR(x,y),G(x,y),B(x,y)を生成して色変換部206に出力する。色変換部206は、入力されたR(x,y),G(x,y),B(x,y)に3×3の色変換マトリックスを適用し、適用後の結果R'(x,y),G'(x,y),B'(x,y)を階調変換部207に出力する。階調変換部207では、色変換後の結果R'(x,y),G'(x,y),B'(x,y)に、所定の階調変換関数γによる階調変換をほどこし、下式に示す結果をYC変換部208に出力する。
When an image after white balance correction is obtained in the
R''(x,y) = γ(R'(x,y)), G''(x,y) = γ(G'(x,y)), B''(x,y) = γ(B'(x,y)),
YC変換部208は、階調変換部207での階調変換後の結果から輝度成分Y(x,y)および色差成分Cr(x,y),Cb(x,y)を公知の方法で計算し、下式に示す結果をノイズ低減部209に出力する。
R '' (x, y) = γ (R '(x, y)), G''(x, y) = γ (G' (x, y)), B '' (x, y) = γ (B '(x, y)),
The YC conversion unit 208 calculates the luminance component Y (x, y) and the color difference components Cr (x, y), Cb (x, y) from the result after the gradation conversion by the
Y(x,y) = 0.3*R''(x,y)+0.6*G''(x,y)+0.1*B''(x,y)
Cr(x,y) = R''(x,y)-Y(x,y)
Cb(x,y) = B''(x,y)-Y(x,y)
一方、ここまでの処理と並行して、エッジ平坦判定部204では、入力画像バッファ202の各画素(x,y)近傍で、輝度成分と色差成分のエッジ指標Ey(x,y),Ecr(x,y),Ecb(x,y)を算出し、ノイズ低減部209およびエッジ強調部210に順次出力する。
Y (x, y) = 0.3 * R`` (x, y) + 0.6 * G '' (x, y) + 0.1 * B '' (x, y)
Cr (x, y) = R`` (x, y) -Y (x, y)
Cb (x, y) = B`` (x, y) -Y (x, y)
On the other hand, in parallel with the processing so far, the edge
この場合、エッジ平坦判定部204では、次のようにしてエッジ指標を求める。この場合、エッジ平坦判定部204は、座標(x,y)の画素近傍の画素値を入力画像バッファ202から近傍バッファ220に読み出す。この場合、近傍バッファ220に読み出したデータは、例えば図9(a)に示すようなものである。
In this case, the edge
次に、RGB統計量算出部221により近傍バッファ220内の画素値に対して色成分別の統計量として、中央値Ar,Ag,Abを求める。この状態で、G分散算出部222は、ノイズモデルテーブル103を参照して、中央値Agに対応するノイズ量Ng(標準偏差σg)を求める。また、R-G分散算出部223でも、同様にノイズモデルテーブル103を参照して、中央値Arに対応するR成分のノイズ量Nrを求め、座標(x,y)近傍での色差R-G成分のノイズの標準偏差σrgを下記から計算する。
Next, the median values Ar, Ag, and Ab are obtained by the RGB
Nr = Wr * Noise(Nr/Wr)
σrg = (Nr*Nr+Ng*Ng)^(1/2)
ここで、関数Noise(x)は、ノイズモデルテーブル103内のデータで規定される折れ線関数であり、上述した第1の実施の形態と同様に、単板撮像系201のノイズ特性を反映したものである。なお、R成分のノイズ量Nrの算出においては、単板撮像系201でホワイトバランス補正され、係数Wrがかかっているために、その影響を補正する計算がなされている。また、R-G成分のノイズ量Nrgの計算においては、R成分の標準偏差σrおよびG成分の標準偏差σgから、正規分布の加法性を用いて標準偏差σrgを計算している。
Nr = Wr * Noise (Nr / Wr)
σrg = (Nr * Nr + Ng * Ng) ^ (1/2)
Here, the function Noise (x) is a polygonal line function defined by the data in the noise model table 103, and reflects the noise characteristics of the single-
B-G分散算出部224についても、同様の計算を行い、座標(x,y)近傍での色差B-G成分のノイズの標準偏差σbgを算出する。その際は、ホワイトバランス係数としてWrのかわりにWbを用い、R成分のノイズ標準偏差σrに変えてB成分のノイズ標準偏差を計算する。
The BG
RGB統計量算出部221の処理が終了すると、R-G生成部225およびB-G生成部226では、G分散算出部222での処理と並行して、図9(b)に示すように、近傍バッファ220内のR画素およびB画素位置でR-GおよびB-G成分を算出する。この場合、各々のR画素位置およびB画素位置で、周囲に4画素あるGのうち一つを選んで、差分R-GおよびB-Gを計算する。どのGを選択するかは任意で、常に右隣のGを選んでも良いし、図9(a)の斜線部分に示したように、Gを選択する位置を画素ごとに変えてもよい。一般的には、Gを選択する方向が近傍バッファ220内で一様でなく、隣接するR画素間またはB画素間で共通のGを選択しないことが望ましい。
When the processing of the RGB
R-G生成部225およびB-G生成部226において近傍バッファ220内のR-GおよびB-G成分が計算されると、R-G統計量算出部227およびB-G統計量算出部228は近傍バッファ220内のR-GおよびB-G成分の統計量として、各々近傍バッファ220内のR-G値の中央値ArgおよびB-G値の中央値Abgを求める。
When the
ここまでの処理が終了すると、G成分、R-G成分、B-G成分各々について、単板撮像系201のノイズ特性から求めた標準偏差σg, σrg, σbgと、中央値Ag,Arg,Abgが得られるので、次に、G正規性検定部231、R-G正規性検定部229、B-G正規性検定部230において各々近傍バッファ220内のG成分、R-G成分、B-G成分の画素値分布が正規分布に適合するかどうかの検定を行う。ここでの検定の方法には、上述した第1の実施の形態と異なり、Anderson-Darlingの方法を用いる。このAnderson-Darlingの方法では、データ列v1,v2,…vNが確率分布f(x)に適合するかどうかを示す指標A2を以下のように計算する。
When the processing so far is completed, the standard deviations σg, σrg, σbg obtained from the noise characteristics of the single-
i) v1からvNを昇順に並べ替えu1からuNとする。 i) Rearrange v1 to vN in ascending order and let u1 to uN.
ii)S = Σ(2k-1)*(log(F(uk)+log(F(uN+1-k))/N を計算する(和は1<=k<=Nについて)
iii)A2 = -N-S
ここで、log(x)はxの自然対数、F(x)は確率分布f(x)の累積分布関数である。
ii) Calculate S = Σ (2k-1) * (log (F (uk) + log (F (uN + 1-k)) / N (sum is 1 <= k <= N)
iii) A2 = -NS
Here, log (x) is a natural logarithm of x, and F (x) is a cumulative distribution function of the probability distribution f (x).
この方法に基づいて、G正規性検定部231では近傍バッファ220内で得られているG成分の値を上記データ列v1からvNとして、正規分布N(Ag,σg)に適合するかどうかをi)からiii)によって計算し、この結果のA2をエッジ指標Eyとする。累積分布関数としては、正規分布N(Ag,σg)の累積分布関数S((x-Ag)/ σg)を用いる。(ここで、Sは平均0、標準偏差1の正規分布の累積分布関数である。)同様に、R-G正規性検定部229では近傍バッファ220内で得られているR-G成分の値を上記のデータ列v1からvNとして正規分布N(Arg,σrg)に適合するかどうかをi)からiii)によって計算し、この結果のA2をエッジ指標Ergとする。さらにB-G正規性検定部230では近傍バッファ220内で得られているB-G成分の値を上記のデータ列v1からvNとして正規分布N(Abg,σbg)に適合するかどうかをi)からiii)によって計算し、この結果のA2をエッジ指標Ebgとする。
Based on this method, the G
ノイズ低減部209では、YC変換部208より入力された輝度成分Y(x,y)および色差成分Cr(x,y),Cb(x,y)に対し、G正規性検定部231、R-G正規性検定部229、B-G正規性検定部230より入力されるエッジ指標Ey(x,y), ECr(x,y), ECb(x,y)が与えられた段階でノイズ低減処理を行い、その結果をエッジ強調部210に出力する。ここでのノイズ低減処理としては第1の実施の形態で述べたと同様にエッジ保存性平滑化を施すが、輝度、色差それぞれに別々に適用し、標準偏差σの値も輝度と色差で異なる下式で表される。
In the
Y'(x,y) = ΣΣ_ij wij*Y(x+i,y+j)/ΣΣwij, (-N<=i,j<=N,Nは近傍サイズ)
wij = W(|Y(x+i,y+j)-Y(x,y)|, σy)
Ck'(x,y) = ΣΣ_ij wij*Ck(x+i,y+j)/ΣΣwij,
wij = W(|Ck(x+i,y+j)-Ck(x,y)|, σck)
(-N<=i,j<=N,Nは近傍サイズ, kはrまたはb)
W(x,σ) = exp(-x*x/(σ*σ))
ここで、σy,σcは図10に示した関数βyおよびβcで、エッジ指標EyおよびEcから下式より算出される。
Y '(x, y) = ΣΣ_ij wij * Y (x + i, y + j) / ΣΣwij, (-N <= i, j <= N, N is the neighborhood size)
wij = W (| Y (x + i, y + j) -Y (x, y) |, σy)
Ck '(x, y) = ΣΣ_ij wij * Ck (x + i, y + j) / ΣΣwij,
wij = W (| Ck (x + i, y + j) -Ck (x, y) |, σck)
(-N <= i, j <= N, N is the neighborhood size, k is r or b)
W (x, σ) = exp (-x * x / (σ * σ))
Here, σy and σc are functions βy and βc shown in FIG. 10, and are calculated from the edge indices Ey and Ec according to the following equations.
σy = βy(Ey(x,y)), σcr = βc(Ecr(x,y)), σcb = βc (Ecb(x,y))
ここでの関数βy,βcは、エッジ指標が小さい場合にβcのほうが大きく、エッジ指標が大きくなるとβcのほうが小さくなる関係にある。これにより、色差成分に対しては輝度成分より極端な平滑化とコントラストの強いエッジに対する極端なエッジ保存が働き、色差成分に対するノイズ低減の特性としてより好ましい処理が実現できる。
σy = βy (Ey (x, y)), σcr = βc (Ecr (x, y)), σcb = βc (Ecb (x, y))
Here, the functions βy and βc have a relationship in which βc is larger when the edge index is small, and βc is smaller when the edge index is larger. As a result, extreme smoothing and extreme edge preservation for edges with strong contrast work for the color difference component, and processing more favorable as noise reduction characteristics for the color difference component can be realized.
エッジ強調部210では、入力された色差成分に対しては処理を行わずにそのまま出力し、輝度成分にのみ、第1の実施の形態と同一の処理を行って出力する。そして、圧縮部211では、最終的な輝度成分と色差成分がエッジ強調部210から入力されると、JPEGなど公知の圧縮処理を行い、この結果を記録部107に出力され、記録媒体に記録される。
The
このようにしても、撮像系により撮像されるカラー画像について第1の実施の形態と同様に、ノイズの影響を受けることなく平坦部を正確に判別することができるので、エッジ部と平坦部との判別を確実に行うことができ、エッジ強調した良質の画像を取得でき、さらにノイズの影響を受け易いテクスチャ部も平坦部と誤認することなく判別することができるので、テクスチャ部を強調した良質の画像を取得することができる。 Even in this case, as in the first embodiment, the flat portion can be accurately determined without being affected by noise in the color image picked up by the image pickup system. It is possible to reliably determine the quality of the image, to obtain a high-quality image with edge enhancement, and to distinguish a texture portion that is easily affected by noise without being misidentified as a flat portion. Images can be acquired.
なお、第2の実施の形態についても様々な変形例を想定できる。例えば、図11はエッジ平坦判定部204の処理を簡略化したもので、図8と同一部分には同符号を付している。この場合、図8に示すR-G分散算出部223、B-G分散算出部224に代えてR分散算出部241、B分散算出部242を設けるとともに、R-G正規性検定部229、B-G正規性検定部230に代えてR正規性検定部243、B正規性検定部244を設け、色差R-G,B-Gに対するエッジ平坦判定を行うかわりにR成分およびB成分のエッジ平坦判定を行い、G成分のエッジ平坦判定と総合して共通の輝度成分・色差成分に共通のエッジ指標を求める構成となっている。
Various modifications can be assumed for the second embodiment. For example, FIG. 11 shows a simplified process of the edge
この構成では、R分散算出部241でR成分のノイズの標準偏差σrを求め、R正規性検定部243において、近傍バッファ220内で得られているR成分が正規分布N(Ar,σr)に適合するかどうか検定し、指標A2をR成分のエッジ指標Erとして得る。同様に、B分散算出部242でB成分のノイズの標準偏差σbを求め、B正規性検定部244において、近傍バッファ220内で得られているB成分が正規分布N(Ab,σb)に適合するかどうか検定し、指標A2をB成分のエッジ指標Ebとして得る。最後に、最大値算出部245においてG成分、R成分、B成分のエッジ指標Eg,Er,Ebの最大値Emaxを求め、輝度成分のエッジ指標Eyおよび色差成分のエッジ指標Ecr,EcbをすべてEmaxとして、ノイズ低減部209およびエッジ強調部210に出力する。
In this configuration, the R
なお、本発明は、上記実施の形態に限定されるものでなく、実施段階では、その要旨を変更しない範囲で種々変形することが可能である。 In addition, this invention is not limited to the said embodiment, In the implementation stage, it can change variously in the range which does not change the summary.
さらに、上記実施の形態には、種々の段階の発明が含まれており、開示されている複数の構成要件における適宜な組み合わせにより種々の発明が抽出できる。例えば、実施の形態に示されている全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題を解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出できる。 Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and is described in the column of the effect of the invention. If the above effect is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
100、200…デジタルカメラ、101、201…撮像系
102…入力画像バッファ、103…ノイズモデルテーブル
104…エッジ平坦判定部、105…ノイズ低減部
106…エッジ強調部、107…記録部、110…近傍バッファ
111…統計量算出部、112…分散算出部
113…正規性検定部、202…入力画像バッファ
204…エッジ平坦判定部、205…同時化部、206…色変換部
207…階調変換部、208…YC変換部、209…ノイズ低減部
210…エッジ強調部、211…圧縮部、220…近傍バッファ
221…RGB統計量算出部、222…R分散算出部
223…R-G分散算出部、224…B-G分散算出部、225…R-G生成部
226…B-G生成部、227…R-G統計量算出部
228…B-G統計量算出部、229…R-G正規性検定部
230…B-G正規性検定部、231…G正規性検定部
241…R分散算出部、242…B分散算出部、243…R正規性検定部
244…B正規性検定部、245…最大値算出部
DESCRIPTION OF
Claims (7)
前記デジタル画像内の注目画素を含む領域における画素値の分布から所定の統計量を算出する手段と、
前記ノイズ特性データおよび前記所定の統計量から、前記注目画素を含む領域におけるノイズの確率分布に関するパラメータの値を算出するパラメータ算出手段と、
前記パラメータの値を用いて前記ノイズの確率分布を算出し、前記注目画素を含む領域における画素値の分布と、前記パラメータの値を用いて算出された前記ノイズの確率分布とが、どの程度合致するかを示す指標値を算出する検定手段と、
を具備したことを特徴とする画像処理装置。 The relationship between the statistic relating to the pixel value of the image obtained by imaging in advance using an imaging system for acquiring a digital image and the parameter value relating to the probability distribution of noise in the image is defined as noise characteristic data. Data holding means for holding;
Means for calculating a predetermined statistic from a distribution of pixel values in a region including the target pixel in the digital image;
Parameter calculation means for calculating a value of a parameter relating to a probability distribution of noise in a region including the target pixel from the noise characteristic data and the predetermined statistic;
Using the values of the parameters to calculate the probability distribution of the noise, the the distribution of pixel values in a region including the pixel of interest, and the probability distribution of the noise which is calculated using the values of the parameters, how matching A test means for calculating an index value indicating whether to perform ,
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009102207A JP5372586B2 (en) | 2009-04-20 | 2009-04-20 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009102207A JP5372586B2 (en) | 2009-04-20 | 2009-04-20 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010252265A JP2010252265A (en) | 2010-11-04 |
JP5372586B2 true JP5372586B2 (en) | 2013-12-18 |
Family
ID=43314057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009102207A Expired - Fee Related JP5372586B2 (en) | 2009-04-20 | 2009-04-20 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5372586B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5863236B2 (en) * | 2010-12-17 | 2016-02-16 | キヤノン株式会社 | Image processing apparatus and image processing method |
US8908989B2 (en) | 2012-11-02 | 2014-12-09 | Board Of Regents, The University Of Texas System | Recursive conditional means image denoising |
WO2014144950A1 (en) * | 2013-03-15 | 2014-09-18 | Olive Medical Corporation | Noise aware edge enhancement |
JP6467178B2 (en) * | 2014-09-30 | 2019-02-06 | 株式会社メガチップス | Image processing apparatus and image processing method |
KR102454986B1 (en) * | 2017-05-23 | 2022-10-17 | 삼성디스플레이 주식회사 | Spot detecting apparatus and method of detecting spot using the same |
WO2024195212A1 (en) * | 2023-03-22 | 2024-09-26 | 浜松ホトニクス株式会社 | Image processing method, image processing device, and image processing program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006087030A (en) * | 2004-09-17 | 2006-03-30 | Olympus Corp | Noise reducer |
-
2009
- 2009-04-20 JP JP2009102207A patent/JP5372586B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010252265A (en) | 2010-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8194160B2 (en) | Image gradation processing apparatus and recording | |
US8269862B2 (en) | Image processing apparatus and image processing method | |
KR101980931B1 (en) | Image processing device, image processing method, and recording medium | |
US8115833B2 (en) | Image-acquisition apparatus | |
US8184924B2 (en) | Image processing apparatus and image processing program | |
US8564862B2 (en) | Apparatus, method and program for reducing deterioration of processing performance when graduation correction processing and noise reduction processing are performed | |
JP5034003B2 (en) | Image processing device | |
JP5372586B2 (en) | Image processing device | |
WO2004019608A1 (en) | Imaging system and image processing program | |
US9185265B2 (en) | Image processing method and image processing apparatus for performing a tone correction to acquire a combined image | |
JP2007094742A (en) | Image signal processing apparatus and image signal processing program | |
US20110052053A1 (en) | Digital image processing apparatus and method | |
JP5781372B2 (en) | Image processing apparatus and imaging apparatus | |
CN104869380A (en) | Image processing apparatus and image processing method | |
EP1764738A1 (en) | Signal processing system and signal processing program | |
CN105960658A (en) | Image processing device, imaging device, image processing method, computer-processable non-temporary storage medium | |
JP2007329619A (en) | Video signal processing apparatus, video signal processing method, and video signal processing program. | |
US8441543B2 (en) | Image processing apparatus, image processing method, and computer program | |
US8026954B2 (en) | System and computer-readable medium for automatic white balancing | |
WO2006109702A1 (en) | Image processing device, imaging device, and image processing program | |
US8351695B2 (en) | Image processing apparatus, image processing program, and image processing method | |
JP2009100302A (en) | Image processing device, image processing method, program, imaging apparatus, and imaging method | |
JP2012065069A (en) | Defect detection and compensation apparatus, program and storage medium | |
US9055232B2 (en) | Image processing apparatus capable of adding soft focus effects, image processing method, and storage medium | |
JP3899144B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5372586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |