[go: up one dir, main page]

JP2001008038A - Image processing method, image processor and multi-band color photographing system - Google Patents

Image processing method, image processor and multi-band color photographing system

Info

Publication number
JP2001008038A
JP2001008038A JP11178223A JP17822399A JP2001008038A JP 2001008038 A JP2001008038 A JP 2001008038A JP 11178223 A JP11178223 A JP 11178223A JP 17822399 A JP17822399 A JP 17822399A JP 2001008038 A JP2001008038 A JP 2001008038A
Authority
JP
Japan
Prior art keywords
edge
image data
image
noise
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11178223A
Other languages
Japanese (ja)
Inventor
Kimitoshi Nagao
公俊 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11178223A priority Critical patent/JP2001008038A/en
Publication of JP2001008038A publication Critical patent/JP2001008038A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image processing method, an image processing unit and a multi-band color photographing system by which the noise component of a multi-band image can be suppressed or eliminated without deteriorating image quality and the sharpness of the image can be enhanced by sharpening the edge of a photographed object. SOLUTION: Processing such as sharpness emphasis, smoothing and edge detection is applied to original image data of a multi-band image (steps 100, 102, 108), edge area weighted data are obtained from the detected edge, and edge/noise mixed component image data are obtained from the image data with emphasized sharpness and image data subject to smoothing processing (step 104). The correlation between original images is obtained by using the image data, an edge storage/noise suppression coefficient is obtained from the edge area weighted data and the correlation value, the coefficient is multiplied with the edge/noise mixed component image data and the product is added to the smoothing image data to obtain processed image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、少なくとも4種以
上の異なる波長領域で同一の被写体を撮影して得られる
マルチバンド画像の粒状や電気的ノイズに起因する画像
上のノイズ(雑音)成分を抑制あるいは除去し、シャー
プネスを強調するマルチバンド画像の画像処理方法、画
像処理装置およびマルチバンドカラー写真システムの技
術分野に属する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multi-band image obtained by photographing the same subject in at least four different wavelength regions, and to reduce noise (noise) components on the image caused by graininess and electrical noise. The present invention belongs to the technical field of an image processing method, an image processing apparatus, and a multi-band color photographic system of a multi-band image that suppresses or removes and enhances sharpness.

【0002】[0002]

【従来の技術】今日、デジタル画像処理の進歩によっ
て、デジタル画像に求められる高品質、高画質の要求は
高い。フィルムによって撮影される撮影画像において
も、被写体がシャープに写り、しかもノイズのない色再
現の良好な画像が要求される。このようなデジタル画像
がカラー画像の場合、赤(R)、緑(G)および青
(B)の3原色の3画像によって形成されるのが一般的
である。
2. Description of the Related Art Today, with the advance of digital image processing, there is a high demand for high quality and high image quality required for digital images. Even in a photographed image taken with a film, an image in which a subject is sharply captured and which has good color reproduction without noise is required. When such a digital image is a color image, it is generally formed by three images of three primary colors of red (R), green (G) and blue (B).

【0003】しかし、絵画等の美術工芸品の分野では、
色の忠実な再現を行なうために、少なくとも4種以上の
異なる波長領域で同一の被写体を撮影した複数の単色画
像から合成して得られる画像、すなわちマルチバンド画
像を用いて整理保存等を行なっている。また、より色再
現の良好な画像を得ることができるように、写真フィル
ムの分光感度やデジタルカメラの撮像素子の分光感度等
の設計を行なう際、被写体の分光反射率を定量的に求め
るためにマルチバンド画像が利用されている。
However, in the field of arts and crafts such as paintings,
In order to faithfully reproduce colors, images are synthesized from a plurality of single-color images obtained by photographing the same subject in at least four different wavelength regions, that is, images are organized and stored using a multiband image. I have. Also, when designing the spectral sensitivity of a photographic film and the spectral sensitivity of an image sensor of a digital camera, etc., in order to obtain images with better color reproduction, it is necessary to quantitatively determine the spectral reflectance of the subject. Multi-band images are used.

【0004】このようなマルチバンド画像を得るために
は、画像撮影手段として、例えば銀塩写真感光材料やC
CD(charge coupled device) 等の固体撮像素子やフォ
トマルチプライヤ等の撮像管等が用いられるが、これら
の手段によって撮影された画像には、いずれにおいても
ノイズ(雑音)が含まれており、画質を低下させる原因
となっている。この撮影画像に含まれるノイズは、例え
ば銀塩写真感光材料を用いた場合、感光材料自体が有す
る粒状であり、また固体撮像素子や撮像管を用いた場
合、ショットノイズや電気回路に起因するノイズによっ
て発生するものである。
In order to obtain such a multi-band image, for example, a silver halide photographic material or C
A solid-state image pickup device such as a CD (charge coupled device) or an image pickup tube such as a photomultiplier is used. Images taken by these means contain noise in any case. Is causing a decrease. For example, when a silver halide photographic light-sensitive material is used, the noise contained in the photographed image is a granular shape of the light-sensitive material itself. Is caused by

【0005】特に、マルチバンド画像においては、マル
チバンド画像を得る際撮影被写体の分光反射率を計算し
て推定する必要があるため、撮影された単色画像の画像
データを他の波長域で撮影された単色画像の画像データ
とともに演算しなければならず、また波長域の異なる単
色画像の画像データを用いてカラー画像等を得る場合に
も、上記画像データを演算しなければならず、そのため
画像データに含まれるノイズ成分も一緒になって演算さ
れてしまう。その結果、ノイズ成分が強調され、被写体
の分光反射率に大きなノイズ成分が入り、マルチバンド
画像やマルチバンド画像を構成する単色画像の画像デー
タを用いて得られるカラー画像等にノイズ成分が強調さ
れて含まれ、RGBの3原色によって得られる従来のカ
ラー画像に比べて画質が劣化するといった問題が発生す
る。
In particular, in the case of a multi-band image, when obtaining a multi-band image, it is necessary to calculate and estimate the spectral reflectance of the photographed subject. Therefore, image data of a photographed monochromatic image is photographed in another wavelength range. The image data must be calculated together with the image data of the single-color image, and when obtaining a color image or the like using the image data of a single-color image having a different wavelength range, the image data must be calculated. Is also calculated together. As a result, the noise component is emphasized, a large noise component is included in the spectral reflectance of the subject, and the noise component is emphasized in a multiband image or a color image or the like obtained using image data of a single color image forming the multiband image. This causes a problem that the image quality is deteriorated as compared with a conventional color image obtained by three primary colors of RGB.

【0006】また、マルチバンド画像は、複数の原画像
を合成することによって得られるため、撮影被写体のエ
ッジのはっきりしないボケ画像を形成し、RGBの3原
色によって得られる従来のカラー画像に対してシャープ
ネスの劣化を起こし易い。
Further, since a multi-band image is obtained by synthesizing a plurality of original images, a blurred image in which the edge of the photographing subject is not clear is formed, and a conventional color image obtained by three primary colors of RGB is used. Deterioration of sharpness easily occurs.

【0007】このようなマルチバンド画像のシャープネ
ス劣化に対して画質を向上させるには、従来のRGBの
3原色によって得られる画像に対する場合と同様に、ラ
プラシアンフィルタやアンシャープマスクによってシャ
ープネス強調を行なうことができる。しかし、ラプラシ
アンフィルタやアンシャープマスクによってシャープネ
ス強調を行なうと、画像に含まれているノイズ成分も強
調されマルチバンド画像の画質は一層劣化するといった
ノイズの問題が発生する。
In order to improve the image quality against such deterioration of the sharpness of a multi-band image, sharpness enhancement is performed by a Laplacian filter or an unsharp mask as in the case of a conventional image obtained by three primary colors of RGB. Can be. However, when sharpness enhancement is performed using a Laplacian filter or an unsharp mask, noise components included in the image are also enhanced, and a noise problem such that the image quality of the multi-band image is further deteriorated occurs.

【0008】このようなノイズの問題に対して、ノイズ
成分の抑制や除去のための画像処理方法として、白黒等
の単色画像のノイズ成分を処理する処理方法やカラー画
像のノイズ成分除去方法等多数の方法が提案されている
一方、撮影画像のノイズ成分を除去しつつ、シャープネ
スを強調する画像処理法も幾つか提案されている。しか
し、これらはいずれもノイズ成分をクリッピングする方
法や、画像データの平均化を行なう方法やぼかす方法を
用いているため、ぼけたノイズパターンが視覚的に不快
に感じられたり、除去してはならない微小な被写体構造
がノイズ成分とともに除去され、不自然な画像となった
り、アーチファクトが生じる等の問題があり、写真のよ
うな審美的な画像には適さないという問題があった。
To deal with such a problem of noise, there are many image processing methods for suppressing or removing noise components, such as a processing method for processing a noise component of a monochrome image such as a monochrome image and a noise component removing method for a color image. While several methods have been proposed, some image processing methods have been proposed to enhance the sharpness while removing noise components of the captured image. However, since these methods all use a method of clipping noise components, a method of averaging image data, or a method of blurring, the blurred noise pattern should not be visually uncomfortable or removed. There is a problem that a minute subject structure is removed together with a noise component, resulting in an unnatural image or an artifact, which is not suitable for an aesthetic image such as a photograph.

【0009】また、シャープネス向上のための画像処理
方法も多数あるが、単にシャープネス強調すると画像と
ともにノイズや粒状も同時に強調されるため、シャープ
ネスは向上してもノイズ成分が悪化した画像となってし
まうといった問題があった。シャープネスを強調しつ
つ、ノイズ成分を除去する画像処理方法も幾つか提案さ
れているが、上述したように不自然な画像となったり、
アーチファクトが生じるといった問題が生じた。
There are also many image processing methods for improving sharpness. However, simply enhancing sharpness simultaneously enhances noise and graininess together with the image, so that even if the sharpness is improved, an image having a deteriorated noise component is obtained. There was such a problem. Some image processing methods for removing noise components while enhancing sharpness have also been proposed. However, as described above, an unnatural image is obtained,
There was a problem that artifacts occurred.

【0010】たとえば、特表昭57−500311号公
報、同57−500354号公報および「アンシャープ
で粒状の目立つ写真画像のディジタル強調方法」、電子
画像処理国際会議録、1982年7月、第179〜18
3頁(P.G.Powell and B.E.Bayer, ''A Method for the
Digital Enhancement of Unsharp,Grainy Photographi
c Images'' ,Proceedings of the International Confe
rence on ElectronicImage Processing,Jul.26-28,198
2,pp.179-183) に開示されたポーウェルおよびバイヤー
らの処理法では、粒状抑制方法として平滑化処理法(ロ
ーパスフィルタ)を用い、シャープネス強調方法として
アンシャープマスク(ハイパスフィルタ)による処理法
を用いている。例えば、銀塩写真感光材料の場合を例に
とって説明すると、平滑化処理はn×n画素の信号値に
Gaussian型等の重み付けを乗じて信号を平滑化すること
によって、粒状を抑制する処理である。シャープネス強
調処理は、先ずm×m画素の画像信号を用いて、中心画
素から周囲画素の方向の微分値を求め、その値が設定し
た閾値より小さい場合は粒状や雑音と見做してコアリン
グ処理で除去し、残った閾値より大きい微分値の和をと
り、1.0以上の定数を乗じて上記の平滑化信号に加算
することによりシャープネス強調を行う。
For example, JP-T-57-500131 and JP-T-57-500354 and "Digital Enhancement of Unsharp and Granular Photographic Images", International Conference on Electronic Image Processing, July 1982, No. 179. ~ 18
Page 3 (PG Powell and BEBayer, '' A Method for the
Digital Enhancement of Unsharp, Grainy Photographi
c Images '', Proceedings of the International Confe
rence on ElectronicImage Processing, Jul. 26-28,198
2, pp. 179-183), a processing method using a smoothing processing method (low-pass filter) as a graininess suppression method and an unsharp mask (high-pass filter) as a sharpness enhancement method. Is used. For example, taking the case of a silver halide photographic material as an example, the smoothing process is performed on the signal value of n × n pixels.
This is a process of suppressing graininess by smoothing the signal by multiplying it by a Gaussian weight or the like. In the sharpness enhancement processing, first, a differential value in the direction from the center pixel to the surrounding pixels is obtained using an image signal of m × m pixels, and if the value is smaller than a set threshold, it is regarded as granular or noise and coring is performed. The difference is removed by processing, and the sum of the differential values larger than the remaining threshold value is calculated, multiplied by a constant of 1.0 or more, and added to the smoothed signal to sharpen the sharpness.

【0011】この処理法では、粒状パターンをぼかして
いるので、粒状パターンの濃淡コントラストは低下する
が、粒状を構成する粒子の集落(モトル)からなる大き
いむらパターンが視覚的には目立つようになったりする
ため、不快な粒状として見えるという欠点がある。また
設定した閾値で粒状と画像の識別を行っている(コアリ
ング処理)ので、コントラストの低い画像信号が粒状と
誤認され、粒状と共に抑制あるいは除去されてしまった
り、除去した信号と強調した画像信号との境界で不連続
性が生じ、画像に不自然なアーティファクトが見られる
という欠点がある。特に、芝生や絨毯等の微細な画像、
および布地等のテクスチャが描写されている画像におい
てこの欠点が現れ、視覚的には極めて不自然で望ましく
ないアーティファクトとなる。
In this processing method, since the granular pattern is blurred, the contrast of the density of the granular pattern is reduced, but a large uneven pattern composed of a settled (mottle) of particles constituting the granular pattern becomes visually noticeable. Or it has the disadvantage of appearing as unpleasant granules. In addition, since the image is discriminated from the image with the set threshold value (coring processing), an image signal having a low contrast is erroneously recognized as a particle, and is suppressed or removed together with the particle, or an image signal emphasized as the removed signal. There is a disadvantage that discontinuity occurs at the boundary between the image and the image and unnatural artifacts are seen in the image. In particular, fine images of grass and carpets,
This drawback appears in textures and in images depicting textures such as fabrics, which are visually very unnatural and undesirable artifacts.

【0012】この問題は、上記銀塩写真感光材料の粒状
性の場合のみならず、固体撮像素子や撮像管を用いた場
合のショットノイズや電気的ノイズに起因する画像デー
タに混入するノイズ成分においても同様に発生する。
This problem is caused not only by the granularity of the silver halide photographic light-sensitive material, but also by noise components mixed in image data caused by shot noise or electric noise when a solid-state image pickup device or an image pickup tube is used. Occurs similarly.

【0013】[0013]

【発明が解決しようとする課題】そこで、本発明は、少
なくとも4種以上の異なる波長領域で同一の被写体を撮
影して得られるマルチバンド画像について、上記問題点
を克服して、画像に含まれる画像撮影手段、例えば銀塩
写真感光材料固有の粒状やCCD等の固体撮像素子やフ
ォトマルチプライヤ等の撮像管等に起因する電気的ノイ
ズに起因したマルチバンド画像のノイズ成分を、画質の
低下を引き起こすことなく抑制や除去ができる一方、撮
影被写体のエッジを鮮鋭化して画像のシャープネスを向
上することができ、しかも視覚的に不快に感じられるノ
イズ成分除去後のパターンが画像に発生することもな
く、本来除去してはならない微細構造をノイズ成分とと
もに除去してしまうこともなく、また画像に不自然なア
ーチファクトが生じることもなく、絵画等の審美的な被
写体をはじめ、一般の被写体を撮影して色・調子再現が
被写体に忠実でかつ像構造(シャープネスとノイズ)の
劣化の少ない審美的な写真画像を得る画像処理方法、画
像処理装置およびこれを用いたマルチバンドカラー写真
システムを提供することを目的とする。
SUMMARY OF THE INVENTION Accordingly, the present invention is directed to a multi-band image obtained by photographing the same subject in at least four or more different wavelength regions by overcoming the above problems and including the multi-band image in the image. A noise component of a multi-band image caused by electrical noise caused by an image capturing means, for example, a grain inherent in a silver halide photographic material, a solid-state image sensor such as a CCD, or an image pickup tube such as a photomultiplier, is used to reduce image quality. While it can be suppressed and removed without causing any problems, it is possible to sharpen the edge of the photographed object and improve the sharpness of the image, and without any noise-eliminating patterns that appear visually unpleasant in the image , The fine structure that should not be removed is not removed together with the noise component, and unnatural artifacts occur in the image An image that captures general subjects, including aesthetic subjects such as paintings, without any problems, and obtains aesthetic photographic images with faithful color and tone reproduction and low image structure (sharpness and noise) degradation It is an object of the present invention to provide a processing method, an image processing apparatus, and a multi-band color photographic system using the same.

【0014】[0014]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、本発明者が以下の点を考慮して発明に至
ったものである。すなわち、被写体の分光分布は一般の
被写体では種々の波長成分を含む広がりを持ち、またマ
ルチバンド写真を撮影する際に波長域を分離するための
カラーフィルタも一般に幾らかの広がりを有しており、
互いに重なりのあるものとなっている。従って、マルチ
バンド写真においては、被写体画像の情報が複数の原画
像に跨がって記録されている。マルチバンド写真におけ
るノイズ成分あるいは粒状は、例えば銀塩フィルムで撮
影する場合は別々のフィルムに撮影するため、フィルム
固有の粒状は無相関となる。また、撮像素子等の電子的
撮像方式によるものでは、同じ撮像素子を用いて撮影す
る場合には時間的なずれがあり、また複数の撮像素子で
同時に撮影する場合には撮像素子が別々であるため、撮
像素子や電子回路によって発生する電気的なノイズは無
相関となる。マルチバンド写真画像においては、被写体
の画像データは各原画像間の相関があり、一方ノイズ成
分は各原画像固有のものであり、相関がないこと利用し
て、画素毎に原画像の画像データを計算し、相関のより
強い画像データは被写体の画像データと判断し、相関の
弱い画像データはノイズ成分(あるいは粒状)の画像デ
ータと判断することによって、被写体の画像データとノ
イズ成分を識別できる。本発明者は、これを用いること
によって、たとえば、相関の程度に反比例(あるいは、
非線形の関係式を用いて)するように、すなわち相関の
弱い画像データをより多く除去することによって、ノイ
ズ成分を除去し、ノイズ成分の無いあるいはノイズ成分
の少ない画像データを得ることができることを見出した
のである。
In order to achieve the above object, the present invention has been made by the present inventor in consideration of the following points. That is, the spectral distribution of a subject has a spread including various wavelength components in a general subject, and a color filter for separating a wavelength range when a multi-band photograph is taken generally has some spread. ,
They overlap each other. Therefore, in a multi-band photograph, information of a subject image is recorded over a plurality of original images. For example, when photographing with a silver halide film, the noise component or the grain in the multi-band photograph is photographed on a separate film, so that the grain peculiar to the film has no correlation. In the case of an electronic imaging method such as an image sensor, there is a time lag when shooting using the same image sensor, and the image sensors are separate when shooting with multiple image sensors simultaneously. Therefore, electrical noise generated by the image sensor and the electronic circuit is uncorrelated. In a multi-band photographic image, the image data of the subject has a correlation between the original images, while the noise component is unique to each of the original images. Is calculated, image data having a stronger correlation is determined to be image data of a subject, and image data having a weak correlation is determined to be image data of a noise component (or a granular shape), whereby image data of a subject and a noise component can be identified. . By using this, the inventor can, for example, be inversely proportional to the degree of correlation (or
(Using a non-linear relational expression), that is, by removing more image data having a weak correlation, it is possible to remove noise components and obtain image data having no noise components or few noise components. It was.

【0015】すなわち、本発明は、少なくとも4種以上
の異なる波長領域で同一の被写体を撮影して得た波長領
域毎の複数の原画像デジタルデータ(原画像データ)に
対し、この原画像データにシャープネス強調処理を行な
ってシャープネス強調画像データを作成し、前記原画像
データに平滑化処理を行って平滑化画像データを作成
し、波長領域に対応した前記シャープネス強調画像デー
タから前記平滑化画像データを減算してエッジ強調成分
とノイズ成分の混在するエッジ・ノイズ混在画像データ
を前記複数の原画像各々について求め、一方、前記原画
像データから被写体のエッジ検出を行って求められるエ
ッジ強度データから被写体のエッジ領域とノイズ領域を
数値化して識別するエッジ領域重み付けデータを求め、
さらに、前記エッジ・ノイズ混在画像データから前記原
画像の各画素位置毎に、前記原画像間の前記エッジ・ノ
イズ混在画像データの相関を表す相関値を計算し、前記
エッジ領域重み付けデータと前記相関値とから、被写体
のエッジ領域ではエッジ強調成分を保存し、ノイズ成分
の支配的な領域ではノイズ成分を抑制するエッジ保存・
ノイズ抑制係数を求め、前記エッジ・ノイズ混在画像デ
ータに前記エッジ保存・ノイズ抑制係数を乗算してエッ
ジ強調・ノイズ抑制画像データを計算し、前記平滑化画
像データに前記エッジ強調・ノイズ抑制画像データを加
算してノイズ成分が抑制され、シャープネスの強調され
た処理画像データを各原画像毎に得ることを特徴とする
画像処理方法を提供するものである。
That is, according to the present invention, a plurality of original image digital data (original image data) for each wavelength region obtained by photographing the same subject in at least four or more different wavelength regions are converted into the original image data. Perform sharpness enhancement processing to create sharpness enhanced image data, perform smoothing processing on the original image data to create smoothed image data, and convert the smoothed image data from the sharpness enhanced image data corresponding to the wavelength region. Edge / noise mixed image data in which an edge emphasis component and a noise component are mixed is obtained for each of the plurality of original images by subtraction, while the edge intensity data obtained by performing edge detection of the object from the original image data is used to calculate the object. Calculate edge area weighting data for discriminating the edge area and the noise area numerically,
Further, for each pixel position of the original image from the mixed edge / noise image data, a correlation value representing the correlation of the mixed edge / noise image data between the original images is calculated, and the edge area weighted data and the correlation value are calculated. From the values, the edge enhancement component is stored in the edge area of the subject, and the edge storage is suppressed in the area where the noise component is dominant.
A noise suppression coefficient is obtained, the edge / noise mixed image data is multiplied by the edge preservation / noise suppression coefficient to calculate edge enhancement / noise suppression image data, and the edge enhanced / noise suppression image data is added to the smoothed image data. Is added to obtain processed image data in which noise components are suppressed and sharpness is enhanced for each original image.

【0016】その際、少なくとも6種以上の異なる波長
領域で同一の被写体を撮影して得た波長領域毎の複数の
原画像デジタルデータに対して画像処理を行なうのが好
ましい。また、前記エッジ強度データは、前記原画像の
各画素を中心とした一定範囲の領域内での画像データの
局所的な標準偏差を各画素について各原画像毎に求め、
この局所的な標準偏差の前記原画像での平均値をとるこ
とで得られるのが好ましく、さらに、前記エッジ領域重
み付けデータは、前記エッジ強度データを正規化した0
以上1以下の数値を、上限値を1としつつ下限値を0以
上1以下とする値に縮小変換することで得られるのが好
ましい。また、前記相関値は、前記複数の原画像での前
記エッジ・ノイズ混在画像データの平均値の絶対値をと
ることで得られるのが好ましく、前記エッジ保存・ノイ
ズ抑制係数は、前記相関値と前記エッジ領域重み付けデ
ータとを乗算して得られるのが好ましい。また、前記処
理画像データは、前記エッジ保存・ノイズ抑制係数に応
じて、エッジ強調成分を保存しつつ、ノイズ成分のみを
選択的に抑制して得られるのが好ましい。
At this time, it is preferable to perform image processing on a plurality of original image digital data for each wavelength region obtained by photographing the same subject in at least six or more different wavelength regions. Further, the edge intensity data is obtained for each original image for each pixel, the local standard deviation of the image data within a certain range area around each pixel of the original image,
Preferably, the local standard deviation is obtained by taking an average value in the original image, and the edge area weighting data is obtained by normalizing the edge intensity data to 0.
It is preferable to obtain the value by reducing the numerical value of 1 or more and 1 or less to a value that sets the upper limit value to 1 and sets the lower limit value to 0 or more and 1 or less. Further, it is preferable that the correlation value is obtained by taking an absolute value of an average value of the edge / noise-mixed image data in the plurality of original images. It is preferably obtained by multiplying the edge area weighting data. Further, it is preferable that the processed image data is obtained by selectively suppressing only a noise component while preserving an edge emphasis component in accordance with the edge storage / noise suppression coefficient.

【0017】また、本発明は、少なくとも4種以上の異
なる波長領域で同一の被写体を撮影して得た波長領域毎
の複数の原画像から構成されるマルチバンド画像の原画
像データに対し画像処理を行なう画像処理装置であっ
て、前記原画像データにシャープネス強調処理を行なっ
てシャープネス強調画像データを作成するシャープネス
強調処理部と、前記原画像データから平滑化処理を行な
って平滑化画像データを作成する平滑化処理部と、前記
原画像データから被写体のエッジ検出を行ってエッジ強
度データを求めるエッジ検出部と、このエッジ検出部で
求められたエッジ強度データより、被写体のエッジ領域
とノイズ領域を数値化して識別するエッジ領域重み付け
データを求めるエッジ領域重み付けデータ演算部と、波
長領域に対応する前記シャープネス強調処理部で得られ
た前記シャープネス強調画像データから前記平滑化処理
部で得られた前記平滑化画像データを減算してエッジ強
調成分とノイズ成分の混在するエッジ・ノイズ混在画像
データを原画像各々について抽出するエッジ・ノイズ混
在成分抽出部と、前記エッジ・ノイズ混在画像データか
ら前記原画像の各画素位置毎に、前記エッジ・ノイズ混
在成分抽出部で得られた前記エッジ・ノイズ混在画像デ
ータの前記原画像間の相関を示す相関値を計算して得る
画像間相関演算部と、前記エッジ領域重み付けデータ演
算部で得られた前記エッジ領域重み付けデータと前記画
像間相関演算部で得られた前記相関値とから、被写体の
エッジ領域では前記エッジ強調成分を保存し、ノイズ成
分の支配的な領域ではノイズ成分を抑制するエッジ保存
・ノイズ抑制係数を求めるエッジ保存・ノイズ抑制係数
演算部と、前記前記エッジ・ノイズ混在成分抽出部で得
られた前記エッジ・ノイズ混在画像データと前記エッジ
保存・ノイズ抑制係数演算部で得られた前記エッジ保存
・ノイズ抑制係数とを用いてエッジ強調・ノイズ抑制画
像データを得るエッジ強調・ノイズ抑制画像データ処理
部と、前記平滑化処理部で得られた前記平滑化画像デー
タと前記エッジ強調・ノイズ抑制画像データ処理部で得
られた前記エッジ強調・ノイズ抑制画像データを加算し
て、ノイズ成分が抑制されシャープネスが強調された処
理画像データを得るノイズ抑制・シャープネス強調処理
演算部とを有することを特徴とする画像処理装置を提供
するものである。
Also, the present invention provides an image processing method for multi-band original image data composed of a plurality of original images for each wavelength region obtained by photographing the same subject in at least four or more different wavelength regions. An image processing device for performing a sharpness enhancement process on the original image data to create sharpness enhanced image data; and a smoothing process from the original image data to create smoothed image data. A smoothing processing unit that performs edge detection of the subject from the original image data to obtain edge strength data; and an edge area and a noise area of the subject based on the edge strength data obtained by the edge detection unit. An edge area weighting data calculation unit for obtaining edge area weighting data to be identified by numerical value, and The smoothed image data obtained by the smoothing processing unit is subtracted from the sharpness-enhanced image data obtained by the sharpness-enhancing processing unit to convert the edge-noise mixed image data in which the edge-emphasized component and the noise component are mixed into the original image. An edge / noise-mixed component extraction unit that extracts each of them; and the edge / noise-mixed image data obtained by the edge / noise-mixed component extraction unit for each pixel position of the original image from the edge / noise-mixed image data An image-to-image correlation operation unit obtained by calculating a correlation value indicating a correlation between the original images, and the edge region weighting data obtained by the edge region weighting data operation unit and the inter-image correlation operation unit obtained. From the correlation value, the edge emphasis component is stored in the edge region of the subject, and the noise component is suppressed in the region where the noise component is dominant. An edge preserving / noise suppressing coefficient calculating unit for obtaining an edge preserving / noise suppressing coefficient, and the edge / noise mixed image data and the edge preserving / noise suppressing coefficient calculating unit obtained by the edge / noise mixed component extracting unit. An edge emphasis / noise suppression image data processing unit for obtaining edge emphasis / noise suppression image data using the obtained edge preservation / noise suppression coefficient, and the smoothed image data obtained by the smoothing processing unit; A noise suppression / sharpness enhancement processing operation unit that adds the edge enhancement / noise suppression image data obtained by the edge enhancement / noise suppression image data processing unit and obtains processed image data in which noise components are suppressed and sharpness is enhanced. The present invention provides an image processing apparatus having the following.

【0018】その際、前記ノイズ抑制・シャープネス強
調処理演算部は、前記エッジ保存・ノイズ抑制係数に応
じて、エッジ強調成分を保存しつつ、ノイズ成分のみを
選択的に抑制するのが好ましい。また、本発明は少なく
とも4種以上の異なる波長領域で同一の被写体を撮影し
て得た波長領域毎の複数の原画像から構成されるマルチ
バンド画像を得るマルチバンドカラー写真システムであ
って、上記マルチバンド画像のノイズ抑制およびシャー
プネス強調のための画像処理装置を含むとともに、被写
体分光反射率分布を得る演算部を備えることを特徴とす
るマルチバンドカラー写真システムを提供するものであ
る。
At this time, it is preferable that the noise suppression / sharpness enhancement processing operation unit selectively suppresses only the noise component while storing the edge enhancement component according to the edge storage / noise suppression coefficient. Further, the present invention is a multi-band color photographic system for obtaining a multi-band image composed of a plurality of original images for each wavelength region obtained by photographing the same subject in at least four or more different wavelength regions, An object of the present invention is to provide a multi-band color photographic system including an image processing device for suppressing noise of a multi-band image and enhancing sharpness, and further including an operation unit for obtaining a spectral reflectance distribution of a subject.

【0019】[0019]

【発明の実施の形態】以下、本発明の画像処理方法、画
像処理装置およびマルチバンドカラー写真システムにつ
いて、添付の図面に示される好適実施例を基に詳細に説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing method, an image processing apparatus, and a multi-band color photographic system according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

【0020】図1に、本発明の画像処理方法を実施し、
本発明の画像処理装置の一実施例でもあるノイズ除去・
シャープネス強調画像処理演算部14を組み込んだマル
チバンド写真システム10を示す。マルチバンド写真シ
ステム10は、被写体を撮影するマルチバンド写真画像
撮影入力装置12から得られたマルチバンド画像を構成
する原画像の原画像データI0iから、画像処理を行い分
光反射率分布取得して、この分光反射率分布から得られ
る画像データを、例えばカラーディスプレイ等の画像表
示装置、画像データ記憶装置、あるいはコンピュータ等
に出力する装置であり、ノイズ除去・シャープネス強調
画像処理演算部14と、被写体の分光反射率分布を算出
して推定する、被写体分光反射率分布演算部16と、被
写体の分光反射率分布の画像データとして出力する被写
体分光反射率分布画像データ出力装置18とを有して構
成される。
FIG. 1 shows an image processing method according to the present invention.
An embodiment of the image processing apparatus according to the present invention,
1 shows a multi-band photographic system 10 incorporating a sharpness enhanced image processing operation unit 14. The multi-band photographic system 10 performs image processing and obtains a spectral reflectance distribution from original image data I 0i of an original image constituting a multi-band image obtained from the multi-band photographic image capturing input device 12 for photographing a subject. An image display device such as a color display, an image data storage device, or a device that outputs image data obtained from the spectral reflectance distribution to a computer or the like. And a subject spectral reflectance distribution calculating unit 16 for calculating and estimating the spectral reflectance distribution of the subject, and a subject spectral reflectance distribution image data output device 18 for outputting as image data of the spectral reflectance distribution of the subject. Is done.

【0021】マルチバンド写真画像撮影入力装置12
は、マルチバンド画像を得るための被写体を撮影する画
像撮影手段であり、マルチバンド画像の原画像データを
マルチバンド写真システム10に送る装置である。例え
ば、撮影用レンズおよび結像した画像を光電的に読みと
るCCDセンサを有し、上記撮影用レンズの前に複数
個、少なくとも4個のカラーフィルタからなるバンドパ
スフィルタを配し、撮影時このバンドパスフィルタを順
次取り替えながら同一被写体を撮影するマルチバンド画
像撮影用デジタルカメラが挙げられる。また、撮影用レ
ンズと分光感度特性の異なる少なくとも4種の波長域で
結像した画像を光電的に読みとることのできる少なくと
も4種のCCDセンサを有した、上記バンドパスフィル
タのないマルチバンド画像撮影用デジタルカメラであっ
てもよい。この場合、CCDセンサはバンドパスフィル
タが組み込まれているものであってもよい。さらには、
マルチバンド写真画像撮影入力装置12は、被写体を少
なくとも4個のカラーフィルタからなるバンドパスフィ
ルタを順次介して銀塩写真感光材料に白黒画像として複
数の原画像を形成させる銀塩写真撮影用カメラと、この
カメラで撮影した上記複数の原画像をデジタル画像デー
タとして得るスキャナとから構成される装置であっても
よい。
Multi-band photographic image capturing input device 12
Is an image photographing means for photographing a subject for obtaining a multi-band image, and is a device for sending original image data of the multi-band image to the multi-band photographic system 10. For example, a photographic lens and a CCD sensor for photoelectrically reading an image formed are provided. A bandpass filter including a plurality of color filters and at least four color filters is disposed in front of the photographic lens. There is a digital camera for photographing a multi-band image in which the same subject is photographed while the pass filters are sequentially replaced. Further, the multi-band image photographing apparatus without the band-pass filter includes at least four kinds of CCD sensors capable of photoelectrically reading an image formed in at least four kinds of wavelength regions having different spectral sensitivity characteristics from the photographing lens. Digital camera. In this case, the CCD sensor may include a bandpass filter. Moreover,
The multi-band photographic image capturing input device 12 includes a silver halide photographing camera that forms a plurality of original images as black and white images on a silver halide photographic light-sensitive material sequentially through a band-pass filter including at least four color filters. And a scanner for obtaining the plurality of original images photographed by the camera as digital image data.

【0022】マルチバンド写真システム10の、ノイズ
除去・シャープネス強調画像処理演算部14は、マルチ
バンド画像のノイズ抑制およびシャープネス強調のため
に本発明の画像処理方法を実施し、また、本発明の画像
処理装置の一実施例を示すもので、原画像データI0i
画像処理を施して、原画像データI0iからノイズが抑制
されシャープネスの強調された処理画像データI1iを得
る部分であり、その構成については後述する。
The noise removal / sharpness-enhanced image processing operation unit 14 of the multi-band photographic system 10 implements the image processing method of the present invention to suppress noise and enhance sharpness of the multi-band image, and also executes the image processing of the present invention. shows one embodiment of a processing apparatus performs image processing on original image data I 0i, a portion to obtain an enhanced processed image data I 1i of sharpness is noise suppressed from the original image data I 0i, the The configuration will be described later.

【0023】被写体分光反射率分布演算部16は、処理
画像データI1iから被写体の分光反射率分布r(x,
y,λ)を推定する部分であり、例えば、銀塩写真の場
合、処理画像データI1iから、銀塩写真感光材料の露光
量に対する濃度の特性曲線を用いて露光量に変換し、そ
の後撮影時の被写体照明光、カラーフィルタ、撮影セン
サである写真フィルムの分光分布と組み合わせて被写体
の分光反射率分布r(x、y、λ)を推定するように構
成される。なお、xおよびyは、画像の注目画素位置で
あり、λは光の波長である。
The subject spectral reflectance distribution calculating unit 16, the spectral reflectance of the subject from the processed image data I 1i distribution r (x,
y, λ). For example, in the case of a silver halide photograph, the processed image data I 1i is converted into an exposure amount using a characteristic curve of the exposure amount of the silver halide photographic material, and then photographed. It is configured to estimate the spectral reflectance distribution r (x, y, λ) of the subject in combination with the illumination light of the subject, the color filter, and the spectral distribution of the photographic film as a photographing sensor. Note that x and y are the positions of the pixel of interest in the image, and λ is the wavelength of light.

【0024】被写体分光反射率分布画像データ出力装置
18は、被写体分光反射率分布演算部16で得られた被
写体の分光反射率分布r(x,y,λ)を、被写体分光
反射率分布画像データ出力装置18に接続されたコンピ
ュータ等に画像データとして出力装置である。コンピュ
ータに入力された被写体分光反射率分布画像データは、
CRTモニタ等の画像表示装置でマルチバンド画像を構
成する各々のバンド画像を黒白画像として表示したり、
色再現・調子再現変換等の画像処理を施してRGBカラ
ー画像データに変換したり、カラー画像として表示した
り、カラープリンタでプリントとして出力する等の様々
な利用に供することができる。
The subject spectral reflectance distribution image data output device 18 converts the subject spectral reflectance distribution r (x, y, λ) obtained by the subject spectral reflectance distribution calculating section 16 into the subject spectral reflectance distribution image data. The output device 18 outputs image data to a computer or the like connected to the output device 18. Subject spectral reflectance distribution image data input to the computer
Each band image constituting the multi-band image is displayed as a black and white image on an image display device such as a CRT monitor,
Image processing such as color reproduction / tone reproduction conversion can be performed to convert the data to RGB color image data, displayed as a color image, or output as a print by a color printer, for various uses.

【0025】さて、ノイズ除去・シャープネス強調画像
処理演算部14は、n種(nは少なくとも4以上)の異
なる波長領域で同一の被写体を撮影した複数の原画像か
ら構成されるマルチバンド画像の原画像の原画像データ
0i(iはマルチバンド画像を構成する原画像の番号
で、iは1以上n以下の整数)に対し,本発明にかかる
画像処理方法を行なう部分であり、図2に示すように、
シャープネス強調処理部14a、平滑化処理部14b、
エッジ検出部14c、エッジ領域重み付けデータ演算部
14d、エッジ・ノイズ混在成分抽出部14e、画像間
相関値演算部14f、エッジ保存・ノイズ抑制係数演算
部14g、エッジ強調・ノイズ抑制画像データ処理部1
4hおよびノイズ抑制・シャープネス強調処理演算部1
4iとを有して構成される。
The noise removal / sharpness-enhanced image processing operation unit 14 generates an original image of a multi-band image composed of a plurality of original images obtained by photographing the same subject in n kinds (n is at least 4 or more) of different wavelength regions. An image processing method according to the present invention is applied to original image data I 0i of an image (i is the number of an original image constituting a multiband image, and i is an integer of 1 or more and n or less). As shown,
A sharpness enhancement processing unit 14a, a smoothing processing unit 14b,
Edge detector 14c, edge area weighted data calculator 14d, edge / noise mixed component extractor 14e, inter-image correlation value calculator 14f, edge storage / noise suppression coefficient calculator 14g, edge enhancement / noise suppressed image data processor 1
4h and noise suppression / sharpness enhancement processing operation unit 1
4i.

【0026】シャープネス強調処理部14aでは、ガウ
シアン型アンシャープマスク(Gaussian USM)やラプラシ
アン(Laplacian) 等による方法によってシャープネス強
調処理が行われ、原画像データI0iにシャープネス強調
を行い、画像入力系のぼけ回復を行い、シャープネス強
調画像データISiを作成する処理部である。画像のシャ
ープネス劣化が軽度なものであれば、画像のシャープネ
スを強調することができる。
[0026] In the sharpness enhancement processing unit 14a, sharpness enhancement by the process according to Gaussian unsharp mask (Gaussian USM) and Laplacian (Laplacian) or the like is performed, the original image data I 0i perform sharpness enhancement on the image input system A processing unit that performs blur recovery and creates sharpness-enhanced image data I Si . If the sharpness degradation of the image is mild, the sharpness of the image can be enhanced.

【0027】例えば、アンシャープマスクは、次式のよ
うに原画像データI0i(x,y)(x,yは、画像中の
注目画素の位置を示す)から、I0i(x,y)を平滑化
した画像データ<I0i(x,y)>を引いて求めたエッ
ジ強調成分I0i(x,y)−<I0i(x,y)>に係数
aを掛けて原画像データI0i(x,y)に加算すること
によって、シャープネス強調画像データISi(x,y)
を求める方法である。 ISi (x,y)=I0i(x,y) +a〔I0i(x,y)−<I0i(x,y)>〕 (1) ここで、aはシャープネス強調の程度を調節する定数で
ある。ラプラシアンは、原画像データI0i(x,y)の
二次微分(ラプラシアン)▽ 2 0i(x,y)を原画像
データから引くことによって、シャープネス強調する方
法で、次式で表される。 ISi(x,y)=I0i(x,y)−▽2 0i(x,y) (2) ラプラシアンによるシャープネス強調の具体的な例とし
ては、下記のような3×3の係数配列が良く用いられ
る。 0 −1 0 −1 −1 −1 1 −2 1 −1 5 −1 −1 9 −1 −2 5 −2 (3) 0 −1 0 −1 −1 −1 1 −2 1
For example, the unsharp mask is given by
Sea urchin image data I0i(X, y) (x, y are
(Indicating the position of the pixel of interest)0iSmoothing (x, y)
Image data <I0i(X, y)>
Di-emphasis component I0i(X, y)-<I0i(X, y)>
multiply the original image data I0iAdd to (x, y)
As a result, the sharpness enhanced image data ISi(X, y)
It is a method of seeking. ISi (X, y) = I0i(X, y) + a [I0i(X, y)-<I0i(X, y)>] (1) where a is a constant for adjusting the degree of sharpness enhancement.
is there. Laplacian is the original image data I0i(X, y)
Second derivative (Laplacian) ▽ TwoI0i(X, y) is the original image
Those who emphasize sharpness by subtracting from data
And expressed by the following equation: ISi(X, y) = I0i(X, y)-▽TwoI0i(X, y) (2) As a specific example of sharpness enhancement by Laplacian
The following 3 × 3 coefficient array is often used.
You. 0 −1 0 −1 −1 −1 1 −2 1 −1 5-1 −1 9-1 −1 −2 5 −2 (3) 0 −1 0 −1 −1 −1 1 −2 1

【0028】この係数配列では、特に強いシャープネス
強調を掛けたときに、画像のエッジに不自然な輪郭が発
生し易い。そこで、そのような欠点を少なくするため
に、本発明では式(4)に示したような正規分布型(Gau
ssian)のぼけ関数を用いたアンシャープマスクを用いる
のが好ましい。 G(x,y)=(1/2πσ2)exp[−(x2 + y2)/2σ2] (4) ここで、σ2 は正規分布関数の広がりを表すパラメータ
であり、マスクの端x=x1 における値とマスクの中心
x=0における値の比、 G(x1,0)/G(0,0)=exp[−x1 2/2σ2] (5) が0.1〜1.0となるように調節することによって、
3×3のアンシャープマスクのシャープさを所望のもの
とすることができる。式(5)の値を1.0に近い値に
すると、式(8)の中央のラプラシアンフィルタとほぼ
同じマスクを作ることができる。マスクのシャープさを
変更するには、この他にマスクの大きさを変更する方法
があり、たとえば5×5、7×7、9×9等のマスクを
用いることによって、シャープネス強調の空間周波数域
の大幅な変更が可能となる。
In this coefficient array, an unnatural contour is likely to occur at the edge of an image when particularly strong sharpness enhancement is applied. Therefore, in order to reduce such a drawback, in the present invention, the normal distribution type (Gau
It is preferable to use an unsharp mask using an ssian) blur function. G (x, y) = (1 / 2πσ 2 ) exp [− (x 2 + y 2 ) / 2σ 2 ] (4) Here, σ 2 is a parameter representing the spread of the normal distribution function, and the ratio of the values at the center x = 0 of the value and the mask in the x = x 1, G (x 1, 0) / G (0,0) = exp [-x 1 2 / 2σ 2] (5) 0.1 By adjusting to be ~ 1.0,
The sharpness of the 3 × 3 unsharp mask can be made desired. When the value of the expression (5) is set to a value close to 1.0, a mask substantially the same as the central Laplacian filter of the expression (8) can be created. In order to change the sharpness of the mask, there is another method of changing the size of the mask. For example, by using a mask of 5 × 5, 7 × 7, 9 × 9, etc., the spatial frequency range of sharpness enhancement is used. Can be changed significantly.

【0029】また、マスクの関数形としても、上記の正
規分布型以外のもの、たとえば、下記式(11)のよう
な指数関数型のマスクを用いることができる。 E(x,y)=exp[−(x2 + y2)1/2/a] (6) ここで、aは式(5)のσ2 と同様にアンシャープマス
クの広がりを表すパラメータであり、マスクの端の値と
マスクの中心値の比、 E(x1,0)/E(0,0)=exp[−x1/a] (7) が0.1〜1.0となるように調節することによって、
3×3のアンシャープマスクのシャープさを所望のもの
とすることができる。式(8)に、E(x1,0)/E(0,0)=
0.3としたときの式(6)の指数関数のマスクの数値例
を示す。 0.18 0.30 0.18 0.30 1.00 0.30 (8) 0.18 0.30 0.18 このマスクから、アンシャープマスクの1例を計算する
と、次式(9)のようになる。 −0.12 −0.22 −0.12 −0.21 2.32 −0.21 (9) −0.12 −0.21 −0.12
As the function form of the mask, a mask other than the normal distribution type, for example, an exponential function type mask as shown in the following equation (11) can be used. E (x, y) = exp [− (x 2 + y 2 ) 1/2 / a] (6) Here, a is a parameter representing the spread of the unsharp mask as in σ 2 in equation (5). And the ratio of the edge value of the mask to the center value of the mask, E (x 1 , 0) / E (0,0) = exp [−x 1 / a] (7) is 0.1 to 1.0. By adjusting to become
The sharpness of the 3 × 3 unsharp mask can be made desired. In equation (8), E (x 1 , 0) / E (0,0) =
A numerical example of a mask of the exponential function of Expression (6) when 0.3 is set is shown. 0.18 0.30 0.18 0.30 1.00 0.30 (8) 0.18 0.30 0.18 When one example of an unsharp mask is calculated from this mask, the following equation (9) is obtained. −0.12 −0.22 −0.12 −0.21 2.32 −0.21 (9) −0.12 −0.21 −0.12

【0030】このようなアンシャープマスクを用いて、
原画像データI0i(x,y)からシャープネス強調画像
データISi(x,y)を求め、得られたシャープネス強
調画像データISi(x,y)は、エッジ・ノイズ混在成
分抽出部14eに送られる。なお、本発明に用いられる
シャープネス強調方法は、上述したものに限定されるわ
けではなく、この他の従来公知のシャープネス強調方
法、例えば空間周波数フィルタリング(Spatial fiteri
ng)等も適用可能である。
Using such an unsharp mask,
Sharpness-enhanced image data I Si (x, y) is obtained from the original image data I 0i (x, y), and the obtained sharpness-enhanced image data I Si (x, y) is sent to the edge / noise mixed component extraction unit 14 e. Sent. It should be noted that the sharpness enhancement method used in the present invention is not limited to the one described above, and other conventionally known sharpness enhancement methods such as spatial frequency filtering (Spatial fiteri).
ng) can also be applied.

【0031】次に、平滑化処理部14bは、原画像デー
タI0i(x,y)から平滑化処理を行なって平滑化画像
データ<I0i(x,y)>を作成する演算部である。平
滑化処理の方法としては、実空間領域の処理と空間周波
数領域の処理を挙げることができ、以下のように種々の
方法があるが、平滑化処理部14bでは、特に限定され
ない。例えば、実空間領域処理では、隣接する画素全体
の和を求め平均値を計算してその値に置き換える方法、
各画素に重み係数、たとえば正規分布型の関数を掛けて
平均値を求める方法、メディアンフィルタのような非線
型な処理を行う方法等の種々の方法が挙げられる。一
方、空間周波数領域の処理では、ローパスフィルタを掛
ける方法がある。たとえば、重み係数を用いる平均化の
方法では下記式(10)を挙げることができる。
Next, the smoothing processing unit 14b is an arithmetic unit that performs smoothing processing from the original image data I 0i (x, y) to create smoothed image data <I 0i (x, y)>. . Examples of the method of the smoothing processing include processing in the real space area and processing in the spatial frequency domain. There are various methods as described below, but the smoothing processing unit 14b is not particularly limited. For example, in the real space area processing, a method of calculating the average value of the sum of all adjacent pixels and replacing the average value with the calculated value,
There are various methods such as a method of multiplying each pixel by a weight coefficient, for example, a normal distribution type function to obtain an average value, and a method of performing a non-linear process such as a median filter. On the other hand, in the processing in the spatial frequency domain, there is a method of applying a low-pass filter. For example, the following formula (10) can be given as an averaging method using a weight coefficient.

【0032】[0032]

【数1】 (Equation 1)

【0033】ただし、Nは平均化のマスクサイズ、wは
重み係数である。w=1.0とすると、単純平均とな
る。この時、処理のマスクとしては、下記のようなN×
N画素のマスクを用いるのが好ましい。具体的には3×
3から5×5、7×7、9×9程度のものを用いるのが
好ましい。 w11 w12 w13・・・・・ w1N w21 w22 w23・・・・・ w2N w31 w32 w33・・・・・ w3N ・ ・ ・ ・ (11) ・ ・ ・ ・ wN1 w N2 w N3・・・・ wNN 隣接する各画素に重み係数、たとえば正規分布型の関数
を掛けて平均値を求め、平滑化画像データ<I0i(x,
y)>を得る。得られた平滑化画像データ<I0i(x,
y)>は、エッジ・ノイズ混在成分抽出部14eに送ら
れる。
Here, N is a mask size for averaging, and w is a weight coefficient. If w = 1.0, a simple average is obtained. At this time, the following N ×
It is preferable to use a mask of N pixels. Specifically 3 ×
It is preferable to use one having about 3 to 5 × 5, 7 × 7, and 9 × 9. w 11 w 12 w 13・ ・ ・ ・ ・ ・ ・ w 1N w 21 w 22 w 23・ ・ ・ ・ ・ ・ ・ w 2N w 31 w 32 w 33・ ・ ・ ・ ・ w 3N・ ・ ・ ・ (11) ・ ・ ・ ・w N1 w N2 w N3 ... w NN Each pixel adjacent thereto is multiplied by a weighting coefficient, for example, a normal distribution type function to obtain an average value, and the smoothed image data <I 0i (x,
y)> is obtained. Obtained smoothed image data <I 0i (x,
y)> is sent to the edge / noise mixed component extraction unit 14e.

【0034】エッジ検出部14cは、原画像データI0i
(x,y)から画像中の被写体エッジの検出を行う部分
であり、NE ×NE 画素の配列を原画像中移動しつつ、
配列内の原画像データI0i(x,y)の値の変動を式
(12)を用いて、その位置毎の局所的な標準偏差σi
(x,y)を順次局所分散として計算することによっ
て、画像中の被写体エッジの検出を行う。画素配列の大
きさ(NE ×NE )は、検出精度および計算負荷を考慮
して適宜決めればよいが、例えば3×3、5×5あるい
は7×7程度の大きさを用いるのが好ましい。
The edge detector 14c outputs the original image data I 0i
This is a part for detecting the edge of the subject in the image from (x, y). While moving the array of N E × N E pixels in the original image,
The variation of the value of the original image data I 0i (x, y) in the array is calculated by using Expression (12), and the local standard deviation σ i at each position is calculated.
By sequentially calculating (x, y) as a local variance, a subject edge in an image is detected. The size (N E × N E ) of the pixel array may be appropriately determined in consideration of the detection accuracy and the calculation load. For example, it is preferable to use a size of about 3 × 3, 5 × 5, or 7 × 7. .

【0035】[0035]

【数2】 なお、<I0i(x,y)>はその配列の平均値で、(Equation 2) <I 0i (x, y)> is the average value of the array,

【数3】 である。(Equation 3) It is.

【0036】なお、エッジ検出部14cのエッジ検出
は、画像データI0i(x,y)の局所的な標準偏差を用
いてエッジの検出を行う局所分散法に限られず、それ以
外の方法、例えば、NE ×NE 画素の配列を移動しつつ
局所的に微分し、その絶対値を求める方法や差分型エッ
ジ検出オペレータであるSobel オペレータやRoberts オ
ペレータ等を用いてエッジ検出を行う方法や、さらにテ
ンプレート型のエッジ検出オペレータとして8方向のエ
ッジパターンに相当する3×3テンプレートを用いるRo
binsonオペレータやKirsh オペレータ等を用いる方法で
あってもよい。また、Laplacian オペレータを用いる方
法であってもよい。
The edge detection performed by the edge detector 14c is not limited to the local dispersion method in which the edge is detected using the local standard deviation of the image data I 0i (x, y). , A method of locally differentiating the array of N E × N E pixels while moving to obtain the absolute value thereof, a method of performing edge detection using a Sobel operator, a Roberts operator, or the like, which is a differential type edge detection operator, Ro using a 3 × 3 template corresponding to an edge pattern in eight directions as a template type edge detection operator
A method using a binson operator, a Kirsh operator, or the like may be used. Alternatively, a method using a Laplacian operator may be used.

【0037】エッジ領域重み付けデータ演算部14d
は、エッジ検出部14cで得られた局所的な標準偏差σ
i (x,y)から、エッジ強度データE(x,y)を求
め、このエッジ強度データE(x,y)からエッジ領域
重み付けデータWE (x,y)を得る部分である。この
エッジ領域重み付けデータWE (x,y)は、その値が
大きいほど(x,y)での画素位置において被写体エッ
ジである確率が高く、値が小さいほど(x,y)での画
素の画像データにノイズ成分が多く含まれると数値的に
判断される画素毎のデータである。
Edge area weighting data calculation section 14d
Is the local standard deviation σ obtained by the edge detector 14c.
From i (x, y), obtaining the edge intensity data E (x, y), is a portion to obtain the edge intensity data E (x, y) from the edge region weight data W E (x, y). In the edge area weighting data W E (x, y), the larger the value is, the higher the probability of being the subject edge at the pixel position at (x, y), and the smaller the value is, the smaller the value of the pixel at (x, y) is. This is data for each pixel that is numerically determined to contain a large amount of noise components in the image data.

【0038】エッジ強度データE(x,y)は、マルチ
バンド画像を構成する原画像各々に得られるn個の局所
的な標準偏差σi (x,y)に対して、下記の式(1
4)のように、原画像での平均値を計算することによっ
てエッジ強度データE(x,y)を求める。
The edge strength data E (x, y) is calculated by the following equation (1) with respect to n local standard deviations σ i (x, y) obtained for each of the original images constituting the multiband image.
The edge intensity data E (x, y) is obtained by calculating the average value in the original image as in 4).

【0039】[0039]

【数4】 (Equation 4)

【0040】このエッジ強度データE(x,y)は、以
下に示す式(15)のように、最大エッジ強度データE
Max で正規化され、0以上1以下の正規化されたエッジ
強度データEN (x,y)を得る。 EN (x,y)=E(x,y)/EMax (15) ここで、Emax は、エッジ強度データE(x,y)の最
大値で、E(x,y)を正規化するための定数である。
Max の決定方法は、式(15)で求めた画像全体のエ
ッジ強度データE(x,y)から下記式(16)のよう
に最大値を求める。 EMax =Max{E(x,y)} (16)
The edge intensity data E (x, y) is expressed by the following formula (15).
The normalized edge strength data E N (x, y) normalized by Max and equal to or larger than 0 and equal to or smaller than 1 is obtained. E N (x, y) = E (x, y) / E Max (15) where E max is the maximum value of the edge strength data E (x, y), and normalizes E (x, y). Is a constant for
The method of determining E Max is to obtain the maximum value from the edge intensity data E (x, y) of the entire image obtained by Expression (15) as in Expression (16) below. E Max = Max {E (x, y)} (16)

【0041】また、画像全体からの最大値を用いず、画
像データの一部分、例えば画像の重要被写体のある確率
の高い中央部分の特定範囲、あるいは全画像から間引い
た画像データ(原画像データの1/4〜1/10程度)
から上記式(14)や(16)を用いて最大値EMax
求めてもよい。この場合、画像中央部分の特定範囲の画
像データや間引いた画像データは、マルチバンド画像の
原画像データを得る前に予め粗い画素密度で得ることの
できる各種処理条件調整用原画像データ(プレスキャン
画像データ)を用いてもよいし、撮影後の画像データか
ら抜き出してもよい。より好ましくは、EMax は、エッ
ジ強度データE(x,y)を大きい値から順番に並べた
際の上位5〜10%以内に位置する値の平均値,例えば
上位10%以内に位置する値の平均値<E(x,y)>
Max10%をEMax とし、E(x,y)がこのEMax を超え
る場合、すべてEMax に置き換える。この場合、平均値
は、画像全体の平均値でも、重要被写体が撮影される場
合の多い中央部分の所定の範囲の平均値でも、あるい
は、間引いた画像データの平均値であってもよい。
Also, instead of using the maximum value from the entire image, a part of the image data, for example, a specific range of a central portion where an important subject of the image has a high probability, or image data thinned out from the entire image (1 of the original image data). / 4 to 1/10)
The maximum value E Max may be calculated using the above equations (14) and (16). In this case, the image data in a specific range in the central portion of the image or the thinned image data is obtained by adjusting various processing condition adjustment original image data (prescan image data) which can be obtained in advance at a coarse pixel density before obtaining the original image data of the multiband image. Image data) or may be extracted from the image data after photographing. More preferably, E Max is an average value of values located within the upper 5% to 10% when the edge strength data E (x, y) is arranged in descending order, for example, a value located within the upper 10%. <E (x, y)>
Max 10% is defined as E Max , and when E (x, y) exceeds this E Max , all are replaced with E Max . In this case, the average value may be an average value of the entire image, an average value of a predetermined range in a central portion where an important subject is often photographed, or an average value of thinned image data.

【0042】このようにして得られる正規化されたエッ
ジ強度データEN (x,y)を用いて、下記式(17)
に従って、エッジ領域重み付けデータWE (x,y)を
求める。 WE (x,y)=1−αE +αE N (x、y) (17) ここで、αE はエッジ領域とノイズ領域の重み付けを設
定する定数であり、オペレータが0より大きく1より小
さい任意の値を設定することができる。エッジ領域重み
付けデータWE (x,y)は、1−αE 以上1以下の値
となり、WE (x,y)が大きいほど、その画素位置で
被写体のエッジ領域である確率が高いと判断され、WE
(x,y)が小さいほど、その画素位置でノイズ領域で
ある確率が高いと判断される。正規化されたエッジ強度
データEN (x,y)が1.0に近い値となる領域で
は、αE の値にかかわらずエッジ領域重み付けデータW
E (x,y)が1.0に近い値となり、後述するように
エッジ強調成分が保存される。一方、正規化されたエッ
ジ強度データEN (x,y)が1.0より小さくなるに
連れ、すなわちノイズ成分が多くなるに連れエッジ領域
重み付けデータWE (x,y)は1−αE に近づき、W
E (x,y)の値に応じて、ノイズ成分が抑制され、除
去される。
Using the normalized edge strength data E N (x, y) obtained in this way, the following equation (17)
, Edge area weighting data W E (x, y) is obtained. W E (x, y) = 1−α E + α E E N (x, y) (17) Here, α E is a constant for setting the weight of the edge area and the noise area. Any smaller value can be set. The edge area weighting data W E (x, y) has a value of 1-α E or more and 1 or less, and it is determined that the greater the value of W E (x, y), the higher the probability that the pixel position is the edge area of the subject. WE
It is determined that the smaller the value of (x, y), the higher the probability that the pixel position is a noise region. In a region where the normalized edge strength data E N (x, y) is close to 1.0, the edge region weighting data W is independent of the value of α E.
E (x, y) becomes a value close to 1.0, and the edge enhancement component is stored as described later. On the other hand, as the normalized edge strength data E N (x, y) becomes smaller than 1.0, that is, as the noise component increases, the edge area weighting data W E (x, y) becomes 1−α E. Approaching W
According to the value of E (x, y), noise components are suppressed and removed.

【0043】このように上記定数αE は、後述するエッ
ジ強調・ノイズ抑制画像データΔI ENI ’(x,y)の
係数となるエッジ領域重み付けデータWE (x,y)の
値を定める上で重要な設定可能な定数である。エッジ強
度データEN (x,y)の値が1.0に近い場合、すな
わち被写体のエッジ成分の支配的な領域では、定数αE
の値に係わらずエッジ領域重み付けデータWE (x,
y)も1.0に近い値を示すが、エッジ強度データEN
(x,y)の値が1.0から小さくなるに連れ、すなわ
ちエッジ成分が少なくなるに連れエッジ領域重み付けデ
ータWE (x,y)も小さくなり、1−αE に近づく。
このとき、αE として1.0に近い値を採用すると、エ
ッジ領域重み付けデータW E (x,y)はエッジ強度デ
ータEN (x,y)とほぼ等しくなり、被写体のエッジ
成分の支配的な領域では後述する式(18)および(2
2)に示されるようにエッジが強調された画像データを
保存するものの、被写体のエッジ成分が全く無くノイズ
成分の支配的な部分では、エッジ領域重み付けデータW
E (x,y)は0に近づき、後述するエッジ・ノイズ混
在画像データΔIENi (x,y)をほぼ完全に除去した
平滑化画像データ<I0i(x,y)>、すなわち、ΔI
ENi (x,y)に若干含まれていた被写体の微細構造が
除去された画像データしか得られず好ましくない。一
方、αE として0.0に近い値を採用すると、ノイズ成
分の抑制や除去は全く行われない画像データしか得られ
ず好ましくない。定数αE の最適な値は、原画像に含ま
れている被写体のエッジ等の情報と画像データに含まれ
るノイズ成分のバランスに応じて変化するが、その範囲
は、0.1より大きく0.9より小さい値とすることが
好ましく、より好ましくは0.3より大きく0.7より
小さい値である。
Thus, the constant αEWill be described later.
Image data ΔI ENI’(X, y)
Edge area weighting data W serving as a coefficientE(X, y)
This is an important constant that can be set when determining the value. Edge strength
Degree data ENIf the value of (x, y) is close to 1.0,
That is, in the region where the edge component of the subject is dominant, the constant αE
Regardless of the value of the edge area weighting data WE(X,
y) also shows a value close to 1.0, but the edge intensity data EN
As the value of (x, y) decreases from 1.0,
As the edge component decreases, the edge area weight
Data WE(X, y) also becomes smaller and 1-αEApproach.
At this time, αEIf a value close to 1.0 is adopted as
Area weighting data W E(X, y) is the edge strength data
Data ENIt is almost equal to (x, y) and the edge of the subject
In the region where the component is dominant, the following equations (18) and (2)
As shown in 2), the image data with the edge enhanced
Saves but no noise at the edge of the subject
In the dominant part of the component, the edge area weighting data W
E(X, y) approaches 0, and the edge noise mixed
Present image data ΔIENi(X, y) almost completely removed
Smoothed image data <I0i(X, y)>, that is, ΔI
ENiThe fine structure of the subject slightly included in (x, y)
It is not preferable because only removed image data is obtained. one
One, αEIf a value close to 0.0 is adopted as the
Only image data that is not suppressed or removed at all.
Not preferred. Constant αEThe optimal value of included in the original image
Information such as the edge of the subject
Varies depending on the balance of the noise components
Should be greater than 0.1 and less than 0.9
Preferred, more preferably greater than 0.3 and greater than 0.7
It is a small value.

【0044】エッジ・ノイズ混在成分抽出部14eは、
シャープネス強調処理部14aから送られてきたシャー
プネス強調画像データISi(x,y)と、平滑化処理演
算部14bから送られてきた平滑化画像データ<I
0i(x,y)>とを用いて、下記式(18)に従ってエ
ッジ・ノイズ混在画像データΔIENi (x,y)を抽出
する部分であり、抽出したエッジ・ノイズ混在画像デー
タΔIENi (x,y)は画像間相関値演算部14fとエ
ッジ強調・ノイズ抑制画像データ処理部14hに送られ
る。 ΔIENi (x,y)= Isi(x,y)ー <I0i(x,y)> (18)
The edge / noise mixed component extraction unit 14e
The sharpness enhanced image data I Si (x, y) sent from the sharpness enhancement processing unit 14a and the smoothed image data <I sent from the smoothing processing operation unit 14b
0i (x, y) by using the>, a portion for extracting the edge noise mixed image data [Delta] I ENi (x, y) according to the following formula (18), extracted edge noise mixed image data [Delta] I ENi (x , Y) are sent to the inter-image correlation value calculation unit 14f and the edge enhancement / noise suppression image data processing unit 14h. ΔI ENi (x, y) = I si (x, y) − <I 0i (x, y)> (18)

【0045】画像相関値演算部14fは、エッジ・ノイ
ズ混在成分抽出部14eから原画像ごとに抽出されたエ
ッジ・ノイズ混在画像データΔIENi (x,y)の原画
像間の相関を表す相関値C(x,y)を下記式(19)
に従って、原画像の各画素の位置毎に得る演算部であ
る。 C(x,y)= | (1/n)Σ ΔIENi (x,y)| (19) すなわち、マルチチャンネル画像を構成するすべての原
画像について、エッジ・ノイズ混在画像データΔIENi
の平均値をとり、その絶対値をとり、各画素の位置毎の
相関値C(x,y)を得る。なお、各画素の位置毎に計
算して得る相関値C(x,y)は、上記(19)式によ
って得られるものに限定されず、他の方法で得られる相
関値を用いてもよい。
The image correlation value calculating section 14f calculates a correlation value representing the correlation between the original images of the mixed image data ΔI ENi (x, y) extracted for each original image from the mixed edge / noise component extracting section 14e. C (x, y) is calculated by the following equation (19).
Is an arithmetic unit that obtains the position of each pixel of the original image. C (x, y) = | (1 / n) ΣΔI ENi (x, y) | (19) That is, for all original images constituting the multi-channel image, image data ΔI ENi with mixed edge and noise
, And the absolute value thereof is obtained to obtain a correlation value C (x, y) for each pixel position. Note that the correlation value C (x, y) obtained by calculating for each pixel position is not limited to the one obtained by the above equation (19), and a correlation value obtained by another method may be used.

【0046】さらに、画像相関値演算部14fは得られ
た相関値C(x,y)から下記式(20)に従って、正
規化された相関値CN (x,y)を得、この正規化され
た相関値CN (x,y)をエッジ保存・ノイズ抑制係数
演算部14gに送る。 CN (x,y)=C(x,y)/CMax (20) ここで、CMax は相関値C(x,y)の画像全体の範囲
から選ばれる最大値としているが、これに限定されず、
画像データの一部、例えば重要被写体が撮影される場合
が多い画像中央部分の特定範囲内から選ばれる相関値C
(x,y)の最大値としてもよい。あるいは、原画像デ
ータを、例えば4分の1から10分の1程度に画像デー
タを間引いた間引き画像データに対して、エッジ・ノイ
ズ混在画像データを作成し、相関値を求め、この相関値
のうちの画像全体の範囲から選ばれる最大値をCMax
してもよい。この場合、重要被写体が撮影される場合が
多い中央部分の特定範囲の画像データや間引き画像デー
タは、マルチバンド画像の原画像データを得る前に予め
粗い画素密度で得ることのできる各種処理条件調整用原
画像データ(プレスキャン画像データ)を用いてもよ
い。例えば上位10%以内に位置する値の平均値<C
(x,y)>Max10%をCMaxとし、C(x,y)がこの
Max を超える場合、すべてCMax に置き換える。この
場合、平均値は、画像全体の平均値でも、重要被写体が
撮影される場合の多い中央部分の所定の範囲の平均値で
も、あるいは、間引いた画像データの平均値であっても
よい。
Further, the image correlation value calculator 14f obtains a normalized correlation value C N (x, y) from the obtained correlation value C (x, y) according to the following equation (20), and obtains the normalized correlation value C N (x, y). The obtained correlation value C N (x, y) is sent to the edge preservation / noise suppression coefficient calculation unit 14g. C N (x, y) = C (x, y) / C Max (20) Here, C Max is a maximum value selected from the entire image range of the correlation value C (x, y). Not limited,
A correlation value C selected from a part of the image data, for example, a specific range in the central part of the image where an important subject is often photographed.
The maximum value of (x, y) may be used. Alternatively, edge / noise mixed image data is created from the original image data for thinned image data obtained by thinning the image data to, for example, about 1/4 to about 1/10, and a correlation value is obtained. The maximum value selected from the range of the entire image may be C Max . In this case, the image data and the thinned image data in a specific range in the central portion where an important subject is often photographed are adjusted in various processing conditions that can be obtained in advance at a coarse pixel density before obtaining the original image data of the multiband image. Original image data (pre-scan image data) may be used. For example, the average value of the values located within the top 10% <C
(X, y)> Max10% is defined as C Max , and when C (x, y) exceeds this C Max , all are replaced with C Max . In this case, the average value may be an average value of the entire image, an average value of a predetermined range in a central portion where an important subject is often photographed, or an average value of thinned image data.

【0047】エッジ保存・ノイズ抑制係数演算部14g
は、画像相関値演算部14fによって得られた相関値C
(x,y)とエッジ領域重み付けデータ演算部14dで
得られたエッジ領域重み付けデータWE(x,y)とか
ら、エッジ領域はエッジ強調成分を保存し、ノイズ領域
ではノイズ成分を抑制するためのエッジ保存・ノイズ抑
制係数PN(x,y)を下記式(21)によって求める部
分である。 PN(x,y)=CN(x,y)WE(x,y) (21) エッジ保存・ノイズ抑制係数PN(x,y)は、エッジ領
域重み付けデータWE(x,y)が大きい場合、各原画
像ごとにできるエッジ・ノイズ混在画像データΔI
ENi(x,y)間の相関値CN(x,y)が大きくかつその
位置では被写体のエッジである確率が高いと判断してエ
ッジ・ノイズ混在画像データΔIENi(x,y)をそのま
ま保存し、逆にエッジ領域重み付けデータWE(x,y)
および相関値CN(x,y)の両者共に小さい場合は、そ
の画素位置での画像データはノイズ成分である確率が高
いと判断して抑制や除去を行うための係数である。
Edge preservation / noise suppression coefficient calculator 14g
Is the correlation value C obtained by the image correlation value calculator 14f.
From (x, y) and the edge area weighting data W E (x, y) obtained by the edge area weighting data calculation unit 14d, an edge enhancement component is stored in the edge area, and a noise component is suppressed in the noise area. This is a part for calculating the edge preservation / noise suppression coefficient P N (x, y) of the following equation (21). P N (x, y) = C N (x, y) W E (x, y) (21) The edge preservation / noise suppression coefficient P N (x, y) is calculated as edge area weighting data W E (x, y). ) Is large, the mixed edge / noise image data ΔI generated for each original image
It is determined that the correlation value C N (x, y) between ENi (x, y) is large and the probability that the position is an edge of the subject is high at that position, and the mixed edge / noise image data ΔI ENi (x, y) is used as it is. Save and conversely, edge area weighting data W E (x, y)
When both the correlation value C N (x, y) are small, the image data at that pixel position is a coefficient for judging that the probability of being a noise component is high and performing suppression or removal.

【0048】エッジ強調・ノイズ抑制画像データ処理部
14hは、エッジ・ノイズ混在成分抽出部14eによっ
て得られたエッジ・ノイズ混在画像データΔIENi(x,
y)に、下記式(22)のように、エッジ保存・ノイズ
抑制係数演算部14gで求められたエッジ保存・ノイズ
抑制係数PN(x,y)を乗算して,ノイズ成分のみを選
択的に除去したエッジ強調・ノイズ抑制画像データΔI
ENI'(x,y)を計算する。 ΔIENI'(x,y)=PN(x,y)ΔIENI(x,y) (22) 得られたエッジ強調・ノイズ抑制画像データΔIENI'
(x,y)は、ノイズ抑制・シャープネス強調処理演算
部14iに送られる。
The edge-enhanced / noise-suppressed image data processing section 14h outputs the mixed edge / noise image data ΔI ENi (x,
y) is multiplied by the edge preservation / noise suppression coefficient P N (x, y) obtained by the edge preservation / noise suppression coefficient calculation unit 14g as in the following equation (22) to selectively select only noise components. Edge-enhanced / noise-suppressed image data ΔI
Calculate ENI '(x, y). ΔI ENI '(x, y) = P N (x, y) ΔI ENI (x, y) (22) The obtained edge emphasis / noise suppression image data ΔI ENI '
(X, y) is sent to the noise suppression / sharpness enhancement processing operation unit 14i.

【0049】ノイズ抑制・シャープネス強調処理演算部
14iは、平滑化処理部14bで得られた平滑化画像デ
ータ<I0i(x,y)>にエッジ強調・ノイズ抑制画像
データ処理部14hで得られたエッジ強調・ノイズ抑制
画像データΔIENI ’(x,y)を下記式(23)のよ
うに加算することによって、ノイズが抑制されてシャー
プネスが強調された処理画像データI1i(x,y)を得
る。 I1i(x,y)=<I0i(x,y)>+ΔIENI ’(x,y) (23) 得られた処理画像データI1i(x,y)は、ノイズ除去
・シャープネス強調画像処理演算部14の出力データと
して、被写体分光反射率分布演算部16に送られる。
The noise suppression / sharpness enhancement processing operation section 14i is obtained by the edge enhancement / noise suppression image data processing section 14h on the smoothed image data <I 0i (x, y)> obtained by the smoothing processing section 14b. By adding the edge-enhanced / noise-suppressed image data ΔI ENI ′ (x, y) as in the following equation (23), the processed image data I 1i (x, y) in which noise is suppressed and sharpness is enhanced Get. I 1i (x, y) = <I 0i (x, y)> + ΔI ENI ′ (x, y) (23) The obtained processed image data I 1i (x, y) is subjected to noise removal and sharpness enhanced image processing. The output data of the calculation unit 14 is sent to the subject spectral reflectance distribution calculation unit 16.

【0050】以上のように、ノイズ除去・シャープネス
強調画像処理演算部14は構成される。
As described above, the noise removal / sharpness emphasized image processing operation unit 14 is configured.

【0051】つぎに、マルチバンド画像のノイズ抑制お
よびシャープネス強調のための本発明の画像処理方法を
実施し、マルチバンド画像のノイズ抑制およびシャープ
ネス強調のための本発明の画像処理装置を組み込んだマ
ルチバンド写真システム10の作用を説明する。まず、
被写体をマルチバンド写真画像撮影入力装置12によっ
てn種(nは4以上)の波長領域で撮影した原画像デー
タI0i(x、y)(iは1以上n以下の整数で、原画像
の番号を示す)を得る。例えば、少なくとも4枚のカラ
ーフィルタからなるバンドパスフィルタを撮影用レンズ
の前に配置し、順次バンドパスフィルタを介して結像し
た画像をCCDセンサによって光電的に読みとるマルチ
バンド画像撮影用デジタルカメラによって、デジタル画
像の各バンドパスフィルタに対応した原画像データI0i
(x,y)を得、ノイズ除去・シャープネス強調画像処
理演算部14に送る。
Next, the image processing method of the present invention for suppressing noise and enhancing sharpness of a multi-band image is performed, and a multi-processing apparatus incorporating the image processing apparatus of the present invention for suppressing noise and enhancing sharpness of a multi-band image is implemented. The operation of the band photograph system 10 will be described. First,
Original image data I 0i (x, y) (i is an integer of 1 or more and n or less, and is the number of the original image) in which a subject is photographed in n kinds (n is 4 or more) of wavelength regions by the multi-band photographic image photographing input device 12. Is shown). For example, a multi-band image photographing digital camera in which a band-pass filter including at least four color filters is arranged in front of a photographing lens, and images formed sequentially through the band-pass filters are photoelectrically read by a CCD sensor. , Original image data I 0i corresponding to each band-pass filter of the digital image
(X, y) is obtained and sent to the noise removal / sharpness emphasized image processing operation unit 14.

【0052】上記マルチバンド画像撮影用デジタルカメ
ラの例の場合、CCDセンサによって光電的に読みとる
際、ショットノイズと電気的ノイズがマルチバンド画像
を構成する複数の原画像各々に画像データにノイズ成分
として混入するが、この画像データに混入するノイズ成
分は、ランダムなノイズであるため、各原画像間で相関
のないノイズ成分となる特徴を有する。また、銀塩写真
感光材料の場合においても、フィルムの粒状性はフィル
ム1枚ずつの固有の粒状パターンであるので、原画像間
で粒状性に相関がない特徴を有する。
In the case of the above digital camera for photographing a multi-band image, when photoelectrically read by a CCD sensor, shot noise and electric noise are included in each of a plurality of original images constituting the multi-band image as noise components in image data. Although mixed, the noise component mixed in the image data is a random noise, and thus has a feature that the noise component has no correlation between the original images. Even in the case of silver halide photographic light-sensitive materials, the graininess of the film is a unique grain pattern for each film, and therefore, there is a feature that the graininess is not correlated between the original images.

【0053】次に、図3に示すように、原画像データI
0i(x,y)は、シャープネス強調処理部14aで、シ
ャープネス強調処理が施される(ステップ100)。例
えば、ガウシアン型アンシャープマスクによる方法の場
合、式(1)のように原画像データI0i(x,y)か
ら、I0i(x,y) を式(11)による正規分布型関数の重
み付け係数を掛けて平均値をとって得られる平滑化画像
データ<I0i(x,y)>を引いて求めたエッジ強調成
分I0i(x,y)−<I0i(x,y)>に係数aを掛け
て原画像データI0i(x,y)に加算することによっ
て、シャープネス強調画像データISi(x,y)を求め
る。シャープネス強調処理の方法は、上記アンシャープ
マスクによる方法に制限されず、ラプラシアン(Laplaci
an) 等による方法等従来公知の方法によって行うことも
できる。ここで、シャープネス強調画像データI
Si(x,y)は、被写体のエッジ成分が強調されるばか
りでなく、ノイズ成分も鮮鋭化される。
Next, as shown in FIG.
0i (x, y) is subjected to sharpness enhancement in the sharpness enhancement processor 14a (step 100). For example, in the case of a method using a Gaussian-type unsharp mask, I 0i (x, y) is weighted from the original image data I 0i (x, y) by a normal distribution function by the equation (11) as shown in the equation (1). The edge enhancement component I 0i (x, y) − <I 0i (x, y)> obtained by subtracting the smoothed image data <I 0i (x, y)> obtained by multiplying the coefficient and taking the average value By multiplying by the coefficient a and adding to the original image data I 0i (x, y), the sharpness enhanced image data I Si (x, y) is obtained. The method of the sharpness enhancement processing is not limited to the method using the unsharp mask, and the Laplacian (Laplaci
an), etc., and can be performed by a conventionally known method. Here, the sharpness enhanced image data I
In Si (x, y), not only the edge component of the subject is emphasized, but also the noise component is sharpened.

【0054】原画像データI0i(x,y)はシャープネ
ス強調(ステップ100)が施されると同時に、他方
で、平滑化処理部14bで平滑化の処理が施される(ス
テップ102)。平滑化処理の方法としては、上述した
ように、実空間領域での処理と空間周波数領域での処理
があり、これらに種々の方法があるが、平滑化処理部1
4bでは、特に限定されない。例えば、実空間領域処理
では、式(10)に示すように隣接する画素全体の平均
値を各画素に重みを持たせて、たとえば正規分布型の関
数による係数を用いて重み付けして平均値を求める。
The original image data I 0i (x, y) is subjected to sharpness enhancement (step 100), and at the same time, smoothed by the smoothing processing unit 14b (step 102). As described above, the method of the smoothing processing includes the processing in the real space domain and the processing in the spatial frequency domain, and there are various methods.
4b is not particularly limited. For example, in the real space region processing, as shown in Expression (10), each pixel is weighted with the average value of all adjacent pixels, and weighted using, for example, a coefficient by a normal distribution type function to calculate the average value. Ask.

【0055】ステップ100で得られたシャープネス強
調画像データISi(x,y)とステップ102で得られ
た平滑化画像データ<I0i(x,y)>とから式(1
8)に従って、エッジ・ノイズ混在成分抽出部14eに
おいてエッジ・ノイズ混在画像データΔIENi (x,
y)を求める(ステップ104)。これによって、被写
体のエッジ強調成分とノイズ成分の含まれた混在画像デ
ータが得られる。
From the sharpness emphasized image data I Si (x, y) obtained in step 100 and the smoothed image data <I 0i (x, y)> obtained in step 102, equation (1)
8), the mixed edge / noise image data ΔI ENi (x,
y) is obtained (step 104). As a result, mixed image data including an edge enhancement component and a noise component of the subject is obtained.

【0056】次に、ステップ104 で得られた原画像ご
とのエッジ・ノイズ混在画像データΔIENi (x,y)
から、式(19)に従って、画像相関値演算部14fに
おいて、原画像間の相関を表す相関値C(x,y)を各
画素の位置毎に計算する(ステップ106)。相関値C
(x,y)は、式(19)に示されるように、画素位置
(x,y)毎にマルチバンド画像を構成する4以上の原
画像のエッジ・ノイズ混在画像データΔIENi の平均値
を採ることによって得られるので、得られた相関値C
(x,y)は安定している。特に、マルチバンド画像を
6画像以上で構成することによって、相関値C(x,
y)をより一層安定させることができるため、マルチバ
ンド画像を6画像以上で構成することが好ましい。
Next, edge / noise mixed image data ΔI ENi (x, y) for each original image obtained in step 104.
Then, in accordance with equation (19), the image correlation value calculation unit 14f calculates a correlation value C (x, y) representing the correlation between the original images for each pixel position (step 106). Correlation value C
(X, y) is the average value of the edge noise mixed image data ΔI ENi of four or more original images constituting the multiband image for each pixel position (x, y), as shown in Expression (19). The obtained correlation value C
(X, y) is stable. In particular, the correlation value C (x,
Since y) can be further stabilized, it is preferable that the multiband image is composed of six or more images.

【0057】また、相関値C(x,y)は、エッジ・ノ
イズ混在画像データΔIENi の平均値を採ることによっ
て得られるので、例えばノイズ成分が多くエッジ成分が
少ない場合、各原画像に含まれるノイズ間には相関がな
いため互いに相殺され、相関値C(x,y)は0に近い
値となる。一方、ノイズ成分が少なくエッジ成分が多い
場合、各原画像間のエッジ成分には強い相関があるた
め、相関値C(x,y)は大きな値を持つ。このよう
に、画像の各画素位置について、各画像間の画像データ
の相関性を利用して、ノイズ成分の支配的な画素位置か
ら、画像処理によって除去してはならないエッジ成分の
支配的な画素位置まで相関値C(x,y)を用いて連続
的に数値化することができる。このような相関値C
(x,y)は、0以上1以下の正規化された相関値CN
(x,y)に処理される。
Since the correlation value C (x, y) is obtained by taking the average value of the mixed image data ΔI ENi of the edge and noise, for example, when the noise component is large and the edge component is small, it is included in each original image. Since there is no correlation between the noises, the noises cancel each other out, and the correlation value C (x, y) becomes a value close to 0. On the other hand, when the noise component is small and the edge component is large, the edge component between the original images has a strong correlation, and thus the correlation value C (x, y) has a large value. As described above, for each pixel position of an image, by using the correlation of the image data between the images, the dominant pixel of the edge component that must not be removed by image processing from the pixel position that is dominant of the noise component The numerical value can be continuously converted to the position using the correlation value C (x, y). Such a correlation value C
(X, y) is a normalized correlation value C N of 0 or more and 1 or less.
(X, y).

【0058】また、原画像データI0i(x,y)はシャ
ープネス強調(ステップ100)や平滑化(ステップ1
02)が施されると同時に、他方エッジ検出部14cに
おいてエッジ検出処理にも用いられる(ステップ10
8)。エッジ検出は、NE ×NE 画素の配列を原画像中
を移動しつつ、配列内の画像データI0i(x,y)の値
の変動を式(12)を用いて、その位置毎の局所的な標
準偏差σi (x,y)を順次局所分散として計算して数
値として求め、画像中の被写体のエッジの検出を行う。
The original image data I 0i (x, y) is sharpened (step 100) or smoothed (step 1).
02), and at the same time, is also used for edge detection processing in the other edge detector 14c (step 10).
8). The edge detection is performed by moving the array of N E × N E pixels in the original image and calculating the fluctuation of the value of the image data I 0i (x, y) in the array using Expression (12) for each position. The local standard deviation σ i (x, y) is sequentially calculated as a local variance, obtained as a numerical value, and the edge of the subject in the image is detected.

【0059】なお、エッジ検出部14cのエッジ検出
は、上記標準偏差を用いる方法に限定されずSobel オペ
レータ、Roberts オペレータ、Robinsonオペレータ、Ki
rsh オペレータまたはLaplacian オペレータ等を用いる
方法であってもよい。
The edge detection by the edge detection unit 14c is not limited to the method using the standard deviation, but is performed by Sobel operator, Roberts operator, Robinson operator, Ki operator.
A method using an rsh operator or a Laplacian operator may be used.

【0060】次に、エッジ領域重み付けデータ演算部1
4dにおいて、ステップ108で得られた局所的な標準
偏差σi (x,y)を用いて、エッジ領域重み付けデー
タの処理を施して、エッジ強度データE(x,y)を求
め、このエッジ強度データE(x,y)からエッジ領域
重み付けデータWE (x,y)を計算し求める(ステッ
プ110)。マルチバンド画像を構成するn個の局所的
な標準偏差σi (x,y)に対して、式(14)のよう
に、原画像での平均値を計算することによってエッジ強
度データE(x,y)を求める。さらに、このエッジ強
度データE(x,y)は、式(15)のように、最大エ
ッジ強度データEMax で正規化され、0以上1以下の正
規化されたエッジ強度データEN (x,y)を得る。正
規化されたエッジ強度データEN (x,y)は、さらに
式(17)に従って、1−αE 以上1以下の値となるエ
ッジ領域重み付けデータWE (x,y)を求める。
Next, the edge area weighting data calculation unit 1
In step 4d, the edge area weighting data is processed using the local standard deviation σ i (x, y) obtained in step 108 to obtain edge strength data E (x, y). Edge area weighting data W E (x, y) is calculated and obtained from the data E (x, y) (step 110). The edge intensity data E (x is calculated by calculating the average value of the original image with respect to the n local standard deviations σ i (x, y) constituting the multiband image as shown in Expression (14). , Y). Further, the edge strength data E (x, y) is normalized by the maximum edge strength data E Max as shown in Expression (15), and normalized edge strength data E N (x, y) of 0 or more and 1 or less. y) is obtained. The normalized edge strength data E N (x, y) further obtains edge area weighting data W E (x, y) having a value equal to or greater than 1−α E and equal to or less than 1 according to Expression (17).

【0061】このように局所的な標準偏差を用いてエッ
ジ領域重み付けデータWE (x,y)を得るため、原画
像データI0i(x,y)の変動が大きい被写体のエッジ
部分のでは局所的な標準偏差が大きくなり、WE (x,
y)は1に近い値を示す。一方、被写体のエッジ成分が
少なく、画像データにノイズ成分が多く含まれる部分で
は、WE (x,y)は最低値1−αE に近くなる。ここ
でαE は、オペレータが0より大きく1より小さい値を
設定することのできる定数であり、布地のような微細構
造を持つ画像に対しても、被写体の微細構造をノイズ成
分として抑制や除去をすることのないように、定数αE
を最適に設定することができる。定数α E は0.1より
大きく0.9より小さい値とすることが好ましく、より
好ましくは0.3より大きく0.7より小さい値であ
る。
As described above, the edge is determined using the local standard deviation.
Area weighting data WEOriginal picture to obtain (x, y)
Image data I0iEdge of subject with large fluctuation of (x, y)
In the part, the local standard deviation becomes large, and WE(X,
y) indicates a value close to 1. On the other hand, the edge component of the subject
Low and where the image data contains many noise components
Is WE(X, y) is the minimum value 1-αEBecome closer to here
And αESets the value greater than 0 and less than 1
It is a constant that can be set and has a fine structure
Even if the image has a fine structure,
The constant αE
Can be set optimally. Constant α EIs from 0.1
It is preferable to set the value to a large value smaller than 0.9.
Preferably a value greater than 0.3 and less than 0.7
You.

【0062】次に、ステップ106で得られた相関値C
(x,y)とステップ110で得られたエッジ領域重み
付けデータWE (x,y)とから、式(21)に従っ
て、エッジ保存・ノイズ抑制係数演算部14gにおい
て、エッジ保存・ノイズ抑制係数PN (x,y)を得る
(ステップ112)。エッジ保存・ノイズ抑制係数PN
(x,y)は、エッジ領域重み付けデータW E (x,
y)が大きい場合、各原画像ごとにできるエッジ・ノイ
ズ混在画像データΔIENi (x,y)間の相関値C
N (x,y)が大きくかつその位置では被写体のエッジ
である確率が高いと判断してエッジ・ノイズ混在画像デ
ータΔIENi(x,y)を保存し、逆にエッジ領域重み
付けデータWE (x,y)および相関値CN (x,y)
の両者共に小さい場合、その画素位置でのエッジ・ノイ
ズ混在画像データΔIENi はノイズ成分である確率が高
いと判断して抑制しさらには除去するための係数であ
る。このように、エッジ保存・ノイズ抑制係数P
N (x,y)は、画像データの中でノイズ成分が支配的
な場合には0に近く、被写体のエッジ成分が支配的な場
合は1に近くなる正規化された相関値CN (x,y)と
ノイズ成分が支配的な場合には1−αE に近くなり、被
写体のエッジ成分が支配的な場合には1に近くなるエッ
ジ領域重み付けデータWE (x,y)とを乗算すること
によって得られるので、明らかにノイズ成分である部分
の画像データは抑制、除去する一方、被写体のエッジ領
域の画像データは抑制、削除することなく、布地等のよ
うな微細構造の画像部分の画像データにおいても微細構
造の画像データを抑制、除去することなく、ノイズ成分
のみを選択的に抑制、除去する画像処理を可能とする。
Next, the correlation value C obtained in step 106
(X, y) and the edge area weight obtained in step 110
Attached data WEFrom (x, y), according to equation (21)
The edge preservation / noise suppression coefficient calculation unit 14g
And the edge preservation / noise suppression coefficient PNGet (x, y)
(Step 112). Edge preservation / noise suppression coefficient PN
(X, y) is the edge area weighting data W E(X,
If y) is large, the edge and noise generated for each original image
Image data ΔIENiCorrelation value C between (x, y)
N(X, y) is large and at that position the edge of the subject
Is judged to be high, the image data
Data ΔIENi(X, y) is saved, and the edge area weight is
Attached data WE(X, y) and correlation value CN(X, y)
If both are small, the edge noise at that pixel position
Image data ΔIENiHas a high probability of being a noise component
Is a coefficient to suppress and further remove
You. Thus, the edge preservation / noise suppression coefficient P
N(X, y) indicates that the noise component is dominant in the image data
Is close to 0 when the edge component of the subject is dominant.
The normalized correlation value C close to 1N(X, y) and
1-α when the noise component is dominantEBecome closer to
When the edge component of the map is dominant, the edge near 1
Area weighting data WEMultiplying by (x, y)
, Which is clearly a noise component
Image data is suppressed and removed, while the edge
The image data in the area is not suppressed or deleted.
Even in image data of an image portion having a fine structure
Noise components without suppressing or removing image data
It is possible to perform image processing for selectively suppressing and removing only the image data.

【0063】次に、エッジ強調・ノイズ抑制画像データ
処理部14hにおいて、ステップ112で得られたエッ
ジ保存・ノイズ抑制係数PN (x,y)を、ステップ1
04によって得られたエッジ・ノイズ混在画像データΔ
ENi (x,y)に、式(22)のように乗算して、エ
ッジ強調成分を保存しノイズ成分のみを選択的に除去し
たエッジ強調・ノイズ抑制画像データΔIENI ’(x,
y)を計算する(ステップ114)。
Next, in the edge emphasis / noise suppression image data processing unit 14h, the edge preservation / noise suppression coefficient P N (x, y) obtained in step 112 is converted to the value in step 1
Edge / noise mixed image data Δ obtained by 04
Equation (22) multiplies I ENi (x, y) to preserve the edge enhancement component and selectively remove only the noise component to remove edge enhancement / noise suppressed image data ΔI ENI ′ (x, y
y) is calculated (step 114).

【0064】最後に、ステップ102で得られた平滑化
画像データ<I0i(x,y)>にステップ114で得ら
れたエッジ強調・ノイズ抑制画像データΔIENI
(x,y)を加算することによって、式(23)のよう
に、ノイズ抑制・シャープネス強調された処理画像デー
タI1i(x,y)を得る。その後、ノイズ除去・シャー
プネス強調画像処理演算部14からの処理画像データI
1i(x,y)として出力され、被写体分光反射率分布演
算部16に送られる。原画像データI0i(x,y)のう
ちノイズ成分が支配的な部分では、エッジ保存・ノイズ
抑制係数PN (x,y)が0に近いため、エッジ強調・
ノイズ抑制画像データΔIENI ’(x,y)は0に近
く、その結果、処理画像データI1i(x,y)は、ノイ
ズ成分の除去されて平滑化された平滑化画像データ<I
0i(x,y)>とほぼ同一の画像データとなり、一方、
被写体のエッジ成分が多い部分では、エッジ保存・ノイ
ズ抑制係数PN (x,y)が1に近いため、エッジの強
調されたエッジ・ノイズ混在画像データΔIENi (x,
y)をそのまま保存して、平滑化画像データ<I
0i(x,y)>に加えられる。また、ノイズ成分および
エッジ成分が混在する部分では、エッジ保存・ノイズ抑
制係数PN (x,y)の値に応じて、すなわちノイズ成
分に相当する割合に応じてエッジ・ノイズ混在画像デー
タΔIENi (x,y)を選択的に抑制、除去する。
Finally, the edge-enhanced / noise-suppressed image data ΔI ENI 'obtained at step 114 is added to the smoothed image data <I 0i (x, y)> obtained at step 102.
By adding (x, y), the processed image data I 1i (x, y) with noise suppression and sharpness enhanced is obtained as shown in Expression (23). Thereafter, the processed image data I from the noise removal / sharpness emphasized image processing operation unit 14
1i (x, y) and sent to the subject spectral reflectance distribution calculation unit 16. In the portion of the original image data I 0i (x, y) where the noise component is dominant, the edge preservation / noise suppression coefficient P N (x, y) is close to 0, so
The noise-suppressed image data ΔI ENI ′ (x, y) is close to 0. As a result, the processed image data I 1i (x, y) has smoothed image data <I
0i (x, y)> is substantially the same as the image data.
Since the edge preservation / noise suppression coefficient P N (x, y) is close to 1 in a portion where the subject has many edge components, the edge-noise mixed image data ΔI ENi (x, y)
y) is stored as it is, and the smoothed image data <I
0i (x, y)>. In a portion where the noise component and the edge component coexist, the edge / noise mixed image data ΔI ENi according to the value of the edge preservation / noise suppression coefficient P N (x, y), that is, the ratio corresponding to the noise component. (X, y) is selectively suppressed and removed.

【0065】被写体分光反射率分布推定演算部16に送
られた処理画像データI1i(x,y)は、被写体分光反
射率分布推定演算部16において、画素毎に被写体分光
反射率分布で表した画像データである被写体の分光反射
率分布r(x、y、λ)への推定が行われる。被写体の
分光反射率分布r(x、y、λ)の推定は、処理画像デ
ータI1i(x,y)、撮影時に用いた被写体照明光の分
光放射輝度E(λ)、各波長領域毎の画像を得るために
用いられるカラーフィルタの分光透過率t(λ)、カメ
ラの撮影センサであるCCD撮像素子あるいは銀塩写真
フィルムの分光感度(カメラレンズの分光透過率も含
む)および光に対する前記センサの応答特性を用いて既
存の方法で行う。次に、被写体分光反射率分布推定演算
部16で得られた被写体の分光反射率分布r(x、y、
λ)を被写体分光反射率分布画像データ出力装置18を
用いて、被写体分光反射率分布画像データ出力装置18
に接続されたコンピュータ等の装置に画像データとして
出力する。コンピュータに入力された被写体の分光反射
率分布r(x、y、λ)の画像データは、CRTモニタ
等の画像表示装置でマルチバンド画像を構成する各々の
波長領域毎のバンド画像を黒白画像として表示したり、
色再現・調子再現変換等の画像処理を施してRGBのカ
ラー画像データに変換したり、カラー画像として表示し
たり、カラープリンタでプリントとして出力する等の様
々な利用に供することができる。
The processed image data I 1i (x, y) sent to the subject spectral reflectance distribution estimation calculating section 16 is represented by the subject spectral reflectance distribution for each pixel in the subject spectral reflectance distribution calculating section 16. Estimation is performed on the spectral reflectance distribution r (x, y, λ) of the subject, which is image data. The spectral reflectance distribution r (x, y, λ) of the subject is estimated by processing the image data I 1i (x, y), the spectral radiance E (λ) of the subject illumination light used at the time of photographing, and the The spectral transmittance t (λ) of a color filter used to obtain an image, the spectral sensitivity (including the spectral transmittance of a camera lens) of a CCD image sensor or a silver halide photographic film as an image sensor of a camera, and the sensor for light. Using the existing response method. Next, the subject's spectral reflectance distribution r (x, y,
[lambda]) using the subject spectral reflectance distribution image data output device 18 and the subject spectral reflectance distribution image data output device 18
Is output as image data to a device such as a computer connected to the computer. Image data of the spectral reflectance distribution r (x, y, λ) of the subject input to the computer is obtained by converting a band image for each wavelength region constituting a multiband image into a black and white image on an image display device such as a CRT monitor. Display,
Image processing such as color reproduction / tone reproduction conversion can be performed to convert the image data into RGB color image data, displayed as a color image, and output as a print by a color printer.

【0066】以上、マルチバンド画像のノイズ抑制およ
びシャープネス強調のための本発明の画像処理方法およ
び本発明の画像処理装置をマルチバンド写真システム1
0に適用した場合について説明したが、上記例に制限さ
れるものではなく、図4に示すようにマルチバンド写真
画像撮影入力装置42および画像出力装置50を組み込
むとともに、原画像データI0i(x,y)からマルチバ
ンド画像のノイズ抑制およびシャープネス強調のための
本発明の画像処理方法を実施して処理画像データI
1i(x,y)を得、これより被写体の分光反射率分布r
(x,y,λ)を得るマルチバンド画像ノイズ除去・シ
ャープネス強調画像処理部44、画像モニタ・画像処理
パラメータ設定部46およびカラー画像再現(色・調
子)処理部48を備える、被写体の撮影からカラー画像
を得るマルチバンド方式カラー写真システム40であっ
てもよい。
As described above, the image processing method of the present invention and the image processing apparatus of the present invention for suppressing noise and enhancing sharpness of a multi-band image are described in the multi-band photographic system 1.
However, the present invention is not limited to the above example. The multi-band photographic image capturing input device 42 and the image output device 50 are incorporated as shown in FIG. 4, and the original image data I 0i (x , Y) to implement the image processing method of the present invention for noise suppression and sharpness enhancement of a multi-band image to process image data I
1i (x, y), from which the spectral reflectance distribution r of the subject is obtained.
A multi-band image noise elimination / sharpness emphasis image processing unit 44 for obtaining (x, y, λ), an image monitor / image processing parameter setting unit 46, and a color image reproduction (color / tone) processing unit 48 The multi-band type color photographic system 40 for obtaining a color image may be used.

【0067】マルチバンド写真画像撮影入力装置42
は、図1に示すマルチバンド写真システム10に接続さ
れるマルチバンド写真画像撮影入力装置12と同一の構
成および同一の作用をするもので、その説明は省略する
が、マルチバンド画像の原画像データI0i(x,y)を
マルチバンド画像ノイズ除去・シャープネス強調画像処
理部44に送るとともに、画像モニタ・画像処理パラメ
ータ設定部46に送られる。
Multi-band photographic image capturing input device 42
Has the same configuration and the same operation as the multi-band photographic image capturing input device 12 connected to the multi-band photographic system 10 shown in FIG. I 0i (x, y) is sent to the multi-band image noise removal / sharpness enhanced image processing unit 44 and also sent to the image monitor / image processing parameter setting unit 46.

【0068】マルチバンド画像ノイズ除去・シャープネ
ス強調画像処理部44は、図1に示すマルチバンド写真
システム10のノイズ除去・シャープネス強調画像処理
演算部14と被写体分光反射率分布演算部16を1つに
まとめた処理部であり、構成および作用は同一であるた
め、その説明は省略するが、推定された被写体の分光反
射率分布r(x,y,λ)はカラー画像再現(色・調
子)処理部48に送られる。
The multi-band image noise elimination / sharpness enhanced image processing unit 44 combines the noise elimination / sharpness enhanced image processing operation unit 14 and the subject spectral reflectance distribution operation unit 16 of the multi-band photographic system 10 shown in FIG. Since the processing unit is an integrated processing unit and has the same configuration and operation, a description thereof will be omitted, but the estimated spectral reflectance distribution r (x, y, λ) of the subject is subjected to a color image reproduction (color / tone) processing. It is sent to the unit 48.

【0069】画像モニタ・画像処理パラメータ設定部4
6は、マルチバンド画像を構成する複数の原画像を画像
表示するとともに、オペレータが表示画面を見ながら、
マルチバンド画像ノイズ除去・シャープネス強調画像処
理部44で行う種々の処理のための設定、例えば、シャ
ープネス処理の方法、平滑化処理の方法やエッジ検出の
方法を選択し、あるいは定数αE やEMax やCMax 等の
設定等や色変換補正や階調補正や濃度補正等の係数やパ
ラメータの設定等を表示画面を見ながらマウスやキーボ
ード等によって行うことができ、これらの設定された条
件は、マルチバンド画像ノイズ除去・シャープネス強調
画像処理部44やカラー画像再現(色・調子)処理部4
8に送られる。カラー画像再現(色・調子)処理部48
は、得られた被写体の分光反射率分布r(x,y,λ)
から、銀塩写真フィルムを用いるカメラやディジタルス
チルカメラで撮影した時のRGBのカラー写真画像デー
タへの変換を行う。被写体の分光反射率分布r(x,
y,λ)から、カメラで撮影した時のRGB画像データ
1 (x,y)への変換は、撮影時の被写体照明光の分
光放射輝度E(λ)、カメラの撮影センサであるCCD
撮像素子(カラーフィルタの分光透過率分布も含む)あ
るいは銀塩写真フィルムの分光感度分布(カメラレンズ
の分光透過率も含む)および光に対する前記センサの応
答特性を用いて、既存の方法で行う。得られたRGB画
像データI1 (x,y)は画像出力装置50に出力され
る。
Image monitor / image processing parameter setting unit 4
6 displays images of a plurality of original images constituting the multi-band image, while the operator looks at the display screen,
Settings for various processes performed by the multi-band image noise removal / sharpness-enhanced image processing unit 44, for example, select a sharpness processing method, a smoothing method, or an edge detection method, or select a constant α E or E Max and it can be performed by C Max settings, etc., color conversion correction, gradation correction, density correction, a mouse or a keyboard while watching the display screen settings of coefficients and parameters such as, those set condition, Multiband image noise removal / sharpness enhanced image processing section 44 and color image reproduction (color / tone) processing section 4
8 Color image reproduction (color / tone) processing unit 48
Is the obtained spectral reflectance distribution r (x, y, λ) of the subject.
Then, the image data is converted into RGB color photographic image data when photographed by a camera using a silver halide photographic film or a digital still camera. The spectral reflectance distribution r (x,
y, λ) is converted into RGB image data I 1 (x, y) when photographed by the camera, the spectral radiance E (λ) of the subject illumination light at the time of photographing, and the CCD which is a photographing sensor of the camera.
An existing method is used using the image sensor (including the spectral transmittance distribution of the color filter) or the spectral sensitivity distribution of the silver halide photographic film (including the spectral transmittance of the camera lens) and the response characteristics of the sensor to light. The obtained RGB image data I 1 (x, y) is output to the image output device 50.

【0070】画像出力装置50は、被写体のマルチバン
ド画像から求めたRGB画像データI1 (x,y)を画
像表示したり、プリント出力を行う通常のCRTモニタ
や液晶モニタ等のカラーディスプレイやデジタルフォト
カラープリンタ等であり、画像データI1 からカラー画
像を得ることができる。
The image output device 50 displays an image of RGB image data I 1 (x, y) obtained from a multi-band image of a subject, and a color display such as a normal CRT monitor or a liquid crystal monitor for performing print output, or a digital display. a photo color printer or the like, from the image data I 1 it is possible to obtain a color image.

【0071】このように、マルチバンド画像のノイズ抑
制およびシャープネス強調のための本発明の画像処理方
法を実施する本発明の画像処理装置は、マルチバンド写
真システムに組み込みマルチバンド写真を得る場合のみ
ならず、その他被写体の分光反射率分布r(x,y,
λ)の推定を行う場合、例えば色再現シミュレーション
を行うための被写体の分光反射率分布r(x,y,λ)
をノイズ成分を含むことなく得る場合にも用いることが
できる。
As described above, the image processing apparatus of the present invention for implementing the image processing method of the present invention for suppressing noise and enhancing sharpness of a multi-band image can be used only when a multi-band photograph is to be incorporated into a multi-band photographic system. And the spectral reflectance distribution r (x, y,
When estimating λ), for example, the spectral reflectance distribution r (x, y, λ) of the subject for performing color reproduction simulation
Can also be used in the case where is obtained without including a noise component.

【0072】以上、本発明の画像処理方法および画像処
理装置について詳細に説明したが、本発明は上記実施例
に限定はされず、本発明の要旨を逸脱しない範囲におい
て、種々の改良および設計の変更を行ってもよいことは
もちろんである。
The image processing method and the image processing apparatus of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various improvements and designs of the present invention can be made without departing from the gist of the present invention. Of course, changes may be made.

【0073】[0073]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、銀塩写真感光材料固有の粒状やCCD素子等の
固体撮像素子や撮像管等に起因するノイズを画質を低下
させることなく除去・抑制することによって、ノイズ成
分の少ない高画質の被写体分光反射率画像データやカラ
ー画像データを得ることができ、しかもカメラレンズ、
写真フィルムやフィルムをデジタル化するスキャナ等の
光学系によって劣化したシャープネスをノイズ成分や粒
状を悪化させずに向上させ、画質の良いマルチバンド写
真画像やカラー画像を得ることができる。しかも、ノイ
ズ成分や被写体のエッジ成分を数値的に表す相関値とエ
ッジ領域重み付けデータを乗算して得られるエッジ保存
・ノイズ抑制係数を用いることで、明らかにノイズ成分
である部分の画像データは抑制、除去する一方、被写体
のエッジ部分の画像データは抑制、削除することなく、
布地等のような微細構造の画像部分の画像データにおい
ても微細構造の画像データを抑制、除去することのない
画像処理を可能とするので、視覚的に不快に感じられる
ノイズ成分除去後のパターンが画像に発生することもな
く、本来除去してはならない微細構造をノイズ成分とと
もに除去してしまうこともなく、また画像に不自然なア
ーチファクトが生じることもなく、絵画等の審美的な被
写体を撮影して審美的な画像を忠実に得ることができ
る。
As described above in detail, according to the present invention, it is possible to reduce the image quality of noise inherent to the silver halide photographic light-sensitive material, a solid-state image pickup device such as a CCD device, or an image pickup tube. By removing / suppressing the image, high-quality subject spectral reflectance image data and color image data with less noise components can be obtained.
The sharpness deteriorated by an optical system such as a photographic film or a scanner for digitizing the film can be improved without deteriorating noise components and graininess, and a multiband photographic image or a color image with good image quality can be obtained. Moreover, by using an edge preservation / noise suppression coefficient obtained by multiplying a noise component or a correlation value numerically representing an edge component of a subject by edge area weighting data, image data of a portion that is clearly a noise component is suppressed. , While removing the image data of the edge part of the subject without suppressing and deleting
Even in the image data of the image portion of the fine structure such as cloth, the image data of the fine structure can be suppressed and the image processing without removing the image data can be performed. Photographs aesthetic subjects such as paintings, without causing microscopic structures that should not be removed, along with noise components, and without causing artifacts in the images. To obtain an aesthetic image faithfully.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 マルチバンド画像のノイズ抑制およびシャー
プネス強調のために本発明の画像処理装置の一実施例を
組み込んだマルチバンド写真システムの概念を示すブロ
ック図である。
FIG. 1 is a block diagram illustrating the concept of a multi-band photographic system incorporating an image processing apparatus according to an embodiment of the present invention for suppressing noise and enhancing sharpness of a multi-band image.

【図2】 図1に示すノイズ除去・シャープネス強調画
像処理演算部の構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of a noise removal / sharpness emphasized image processing operation unit illustrated in FIG. 1;

【図3】 本発明の画像処理方法の一実施例を説明する
フローチャートである。
FIG. 3 is a flowchart illustrating an embodiment of the image processing method of the present invention.

【図4】 マルチバンド画像のノイズ抑制およびシャー
プネス強調のために本発明の画像処理装置の一実施例を
組み込んだマルチバンド方式カラー写真システムの概念
を示すブロック図である。
FIG. 4 is a block diagram showing the concept of a multi-band type color photograph system incorporating an embodiment of the image processing apparatus of the present invention for suppressing noise and enhancing sharpness of a multi-band image.

【符号の説明】[Explanation of symbols]

10 マルチバンド写真システム 12、42 マルチバンド写真画像撮影入力装置 14 ノイズ除去・シャープネス強調画像処理演算部 14a シャープネス強調処理部 14b 平滑化処理部 14c エッジ検出部 14d エッジ領域重み付けデータ演算部 14e エッジ・ノイズ混在成分抽出部 14f 画像間相関値演算部 14g エッジ保存・ノイズ抑制係数演算部 14h エッジ強調・ノイズ抑制画像データ処理部 14i ノイズ抑制・シャープネス強調処理演算部 16 被写体分光反射率分布演算部 18 被写体分光反射率分布画像データ出力装置 40 マルチバンド方式カラー写真システム 44 マルチバンド画像ノイズ除去・シャープネス強調
画像処理 46 画像モニタ・画像処理パラメータ設定部 48 カラー画像再現(色・調子)処理部 50 画像出力装置
Reference Signs List 10 Multi-band photographic system 12, 42 Multi-band photographic image capturing input device 14 Noise removal / sharpness-enhanced image processing operation unit 14a Sharpness-enhancement processing unit 14b Smoothing processing unit 14c Edge detection unit 14d Edge area weighting data operation unit 14e Edge noise Mixed component extraction section 14f Image correlation value calculation section 14g Edge preservation / noise suppression coefficient calculation section 14h Edge enhancement / noise suppression image data processing section 14i Noise suppression / sharpness enhancement processing calculation section 16 Subject spectral reflectance distribution calculation section 18 Subject spectrum Reflectance distribution image data output device 40 Multi-band type color photographic system 44 Multi-band image noise elimination / sharpness enhanced image processing 46 Image monitor / image processing parameter setting unit 48 Color image reproduction (color / tone) processing unit 0 image output device

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】少なくとも4種以上の異なる波長領域で同
一の被写体を撮影して得た波長領域毎の複数の原画像デ
ジタルデータ(原画像データ)に対し、 この原画像データにシャープネス強調処理を行なってシ
ャープネス強調画像データを作成し、 前記原画像データに平滑化処理を行って平滑化画像デー
タを作成し、 波長領域に対応した前記シャープネス強調画像データか
ら前記平滑化画像データを減算してエッジ強調成分とノ
イズ成分の混在するエッジ・ノイズ混在画像データを前
記複数の原画像各々について求め、 一方、前記原画像データから被写体のエッジ検出を行っ
て求められるエッジ強度データから被写体のエッジ領域
とノイズ領域を数値化して識別するエッジ領域重み付け
データを求め、 さらに、前記エッジ・ノイズ混在画像データから前記原
画像の各画素位置毎に、前記原画像間の前記エッジ・ノ
イズ混在画像データの相関を表す相関値を計算し、 前記エッジ領域重み付けデータと前記相関値とから、被
写体のエッジ領域ではエッジ強調成分を保存し、ノイズ
成分の支配的な領域ではノイズ成分を抑制するエッジ保
存・ノイズ抑制係数を求め、 前記エッジ・ノイズ混在画像データに前記エッジ保存・
ノイズ抑制係数を乗算してエッジ強調・ノイズ抑制画像
データを計算し、 前記平滑化画像データに前記エッジ強調・ノイズ抑制画
像データを加算してノイズ成分が抑制され、シャープネ
スの強調された処理画像データを各原画像毎に得ること
を特徴とする画像処理方法。
A plurality of original image digital data (original image data) for each wavelength region obtained by photographing the same subject in at least four or more different wavelength regions are subjected to sharpness enhancement processing on the original image data. Line to create sharpness-enhanced image data, perform smoothing processing on the original image data to create smoothed image data, and subtract the smoothed image data from the sharpness-enhanced image data corresponding to the wavelength region to obtain an edge. Edge / noise mixed image data in which an emphasis component and a noise component are mixed is obtained for each of the plurality of original images. On the other hand, the edge area and noise of the object are obtained from edge intensity data obtained by performing edge detection of the object from the original image data. Calculating edge area weighting data for identifying the area by digitizing the area; Calculating, for each pixel position of the original image from the data, a correlation value representing the correlation of the edge / noise mixed image data between the original images, and calculating the edge of the subject from the edge area weighting data and the correlation value. In the region, the edge enhancement component is stored, and in the region where the noise component is dominant, the edge storage / noise suppression coefficient for suppressing the noise component is obtained.
Multiplying a noise suppression coefficient to calculate edge-enhanced / noise-suppressed image data; and adding the edge-enhanced / noise-suppressed image data to the smoothed image data to suppress noise components and enhance sharpness of the processed image data. Is obtained for each original image.
【請求項2】少なくとも6種以上の異なる波長領域で同
一の被写体を撮影して得た波長領域毎の複数の原画像デ
ジタルデータに対して画像処理を行なう請求項1に記載
の画像処理方法。
2. The image processing method according to claim 1, wherein image processing is performed on a plurality of original image digital data for each wavelength region obtained by photographing the same subject in at least six or more different wavelength regions.
【請求項3】前記エッジ強度データは、前記原画像の各
画素を中心とした一定範囲の領域内での画像データの局
所的な標準偏差を各画素について各原画像毎に求め、こ
の局所的な標準偏差の前記原画像での平均値をとること
で得られる請求項1または2に記載の画像処理方法。
3. The edge intensity data is obtained by calculating a local standard deviation of image data within a certain range around each pixel of the original image for each original image for each pixel. The image processing method according to claim 1, wherein the image processing method is obtained by taking an average value of the standard deviation in the original image.
【請求項4】前記エッジ領域重み付けデータは、前記エ
ッジ強度データを正規化した0以上1以下の数値を、上
限値を1としつつ下限値を0以上1以下とする値に縮小
変換することで得られる請求項3に記載の画像処理方
法。
4. The edge area weighting data is obtained by reducing and converting a numerical value from 0 to 1 obtained by normalizing the edge strength data to a value from 0 to 1 while setting an upper limit value to 1. The image processing method according to claim 3, which is obtained.
【請求項5】前記相関値は、前記複数の原画像での前記
エッジ・ノイズ混在画像データの平均値の絶対値をとる
ことで得られる請求項1〜4のいずれかに記載の画像処
理方法。
5. The image processing method according to claim 1, wherein the correlation value is obtained by taking an absolute value of an average value of the edge / noise mixed image data in the plurality of original images. .
【請求項6】前記エッジ保存・ノイズ抑制係数は、前記
相関値と前記エッジ領域重み付けデータとを乗算して得
られる請求項1〜5のいずれかに記載の画像処理方法。
6. The image processing method according to claim 1, wherein said edge preserving / noise suppressing coefficient is obtained by multiplying said correlation value by said edge area weighting data.
【請求項7】前記処理画像データは、前記エッジ保存・
ノイズ抑制係数に応じて、エッジ強調成分を保存しつ
つ、ノイズ成分のみを選択的に抑制して得られる請求項
1〜6のいずれかに記載の画像処理方法。
7. The image processing apparatus according to claim 1, wherein the processed image data includes
The image processing method according to any one of claims 1 to 6, wherein the image processing method is obtained by selectively suppressing only a noise component while preserving an edge enhancement component according to a noise suppression coefficient.
【請求項8】少なくとも4種以上の異なる波長領域で同
一の被写体を撮影して得た波長領域毎の複数の原画像デ
ジタルデータ(原画像データ)に対し画像処理を行なう
画像処理装置であって、 前記原画像データにシャープネス強調処理を行なってシ
ャープネス強調画像データを作成するシャープネス強調
処理部と、 前記原画像データから平滑化処理を行なって平滑化画像
データを作成する平滑化処理部と、 前記原画像データから被写体のエッジ検出を行ってエッ
ジ強度データを求めるエッジ検出部と、 このエッジ検出部で求められたエッジ強度データより、
被写体のエッジ領域とノイズ領域を数値化して識別する
エッジ領域重み付けデータを求めるエッジ領域重み付け
データ演算部と、 波長領域に対応する前記シャープネス強調処理部で得ら
れた前記シャープネス強調画像データから前記平滑化処
理部で得られた前記平滑化画像データを減算してエッジ
強調成分とノイズ成分の混在するエッジ・ノイズ混在画
像データを原画像各々について抽出するエッジ・ノイズ
混在成分抽出部と、 前記エッジ・ノイズ混在画像データから前記原画像の各
画素位置毎に、前記エッジ・ノイズ混在成分抽出部で得
られた前記エッジ・ノイズ混在画像データの前記原画像
間の相関を示す相関値を計算して得る画像間相関演算部
と、 前記エッジ領域重み付けデータ演算部で得られた前記エ
ッジ領域重み付けデータと前記画像間相関演算部で得ら
れた前記相関値とから、被写体のエッジ領域では前記エ
ッジ強調成分を保存し、ノイズ成分の支配的な領域では
ノイズ成分を抑制するエッジ保存・ノイズ抑制係数を求
めるエッジ保存・ノイズ抑制係数演算部と、 前記前記エッジ・ノイズ混在成分抽出部で得られた前記
エッジ・ノイズ混在画像データと前記エッジ保存・ノイ
ズ抑制係数演算部で得られた前記エッジ保存・ノイズ抑
制係数とを用いてエッジ強調・ノイズ抑制画像データを
得るエッジ強調・ノイズ抑制画像データ処理部と、 前記平滑化処理部で得られた前記平滑化画像データと前
記エッジ強調・ノイズ抑制画像データ処理部で得られた
前記エッジ強調・ノイズ抑制画像データを加算して、ノ
イズ成分が抑制されシャープネスが強調された処理画像
データを得るノイズ抑制・シャープネス強調処理演算部
とを有することを特徴とする画像処理装置。
8. An image processing apparatus for performing image processing on a plurality of original image digital data (original image data) for each wavelength region obtained by photographing the same subject in at least four or more different wavelength regions. A sharpness enhancement processing section that performs sharpness enhancement processing on the original image data to create sharpness enhanced image data; a smoothing processing section that performs smoothing processing from the original image data to create smoothed image data; An edge detector for detecting edge of the subject from the original image data to obtain edge intensity data; and, based on the edge intensity data obtained by the edge detector,
An edge area weighting data calculating unit for obtaining edge area weighting data for discriminating an edge area and a noise area of the subject by numerically identifying; and the smoothing from the sharpness enhanced image data obtained by the sharpness enhancement processing unit corresponding to the wavelength area. An edge / noise mixed component extraction unit for subtracting the smoothed image data obtained by the processing unit and extracting edge / noise mixed image data in which an edge enhancement component and a noise component are mixed for each original image; An image obtained by calculating a correlation value indicating a correlation between the original images of the edge / noise mixed image data obtained by the edge / noise mixed component extraction unit for each pixel position of the original image from the mixed image data An inter-correlation calculation unit, and the edge region weighting data obtained by the edge region weighting data calculation unit From the correlation value obtained by the inter-image correlation calculation unit, the edge emphasizing component is stored in the edge region of the subject, and the edge storing / noise suppressing coefficient for suppressing the noise component is suppressed in the region where the noise component is dominant. A storage / noise suppression coefficient calculation unit; and the edge / noise mixture image data obtained by the edge / noise mixture component extraction unit and the edge storage / noise suppression coefficient obtained by the edge storage / noise suppression coefficient calculation unit An edge emphasis / noise suppression image data processing unit that obtains edge emphasis / noise suppression image data by using the smoothing image data and the edge emphasis / noise suppression image data processing unit obtained by the smoothing processing unit The obtained edge-enhanced / noise-suppressed image data is added to obtain processed image data in which noise components are suppressed and sharpness is enhanced. An image processing apparatus comprising: a noise suppression / sharpness enhancement processing operation unit that obtains the following.
【請求項9】前記ノイズ抑制・シャープネス強調処理演
算部は、前記エッジ保存・ノイズ抑制係数に応じて、エ
ッジ強調成分を保存しつつ、ノイズ成分のみを選択的に
抑制する請求項8に記載の画像処理装置。
9. The noise suppression / sharpness enhancement processing operation unit according to claim 8, wherein only the noise component is selectively suppressed while storing the edge enhancement component according to the edge storage / noise suppression coefficient. Image processing device.
【請求項10】少なくとも4種以上の異なる波長領域で
同一の被写体を撮影して得た複数の原画像を得るマルチ
バンドカラー写真システムであって、 請求項8または9に記載のマルチバンド画像のノイズ抑
制およびシャープネス強調のための画像処理装置を含む
とともに、被写体分光反射率分布を得る演算部を備える
ことを特徴とするマルチバンドカラー写真システム。
10. A multi-band color photographic system for obtaining a plurality of original images obtained by photographing the same subject in at least four or more different wavelength regions, wherein the multi-band color photographic system according to claim 8 or 9 is used. A multi-band color photographic system including an image processing device for noise suppression and sharpness enhancement and an arithmetic unit for obtaining a subject spectral reflectance distribution.
JP11178223A 1999-06-24 1999-06-24 Image processing method, image processor and multi-band color photographing system Withdrawn JP2001008038A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11178223A JP2001008038A (en) 1999-06-24 1999-06-24 Image processing method, image processor and multi-band color photographing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11178223A JP2001008038A (en) 1999-06-24 1999-06-24 Image processing method, image processor and multi-band color photographing system

Publications (1)

Publication Number Publication Date
JP2001008038A true JP2001008038A (en) 2001-01-12

Family

ID=16044751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11178223A Withdrawn JP2001008038A (en) 1999-06-24 1999-06-24 Image processing method, image processor and multi-band color photographing system

Country Status (1)

Country Link
JP (1) JP2001008038A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002030100A3 (en) * 2000-10-06 2002-06-13 Xcounter Ab Noise reduction in images, by adding a pixel to a region (r), adding surrounding pixel pairs to the region if they fulfil a condition and determine a mean value for the region
JP2007310828A (en) * 2006-05-22 2007-11-29 Central Res Inst Of Electric Power Ind Wire abnormality detection method, wire abnormality detection device, and wire abnormality detection program
WO2009044759A1 (en) * 2007-10-05 2009-04-09 Olympus Corporation Image processing device and program
WO2009093386A1 (en) * 2008-01-21 2009-07-30 Olympus Corporation Image processing apparatus, image processing program, computer readable storage medium having image processing program stored therein, and image processing method
JP2013116353A (en) * 2013-03-06 2013-06-13 Fujifilm Corp Image processing apparatus and endoscope system
US9007494B2 (en) 2012-05-09 2015-04-14 Canon Kabushiki Kaisha Image processing apparatus, method for controlling the same and storage medium
WO2020230319A1 (en) * 2019-05-16 2020-11-19 三菱電機株式会社 Image processing device and method, image reading device, program, and recording medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002030100A3 (en) * 2000-10-06 2002-06-13 Xcounter Ab Noise reduction in images, by adding a pixel to a region (r), adding surrounding pixel pairs to the region if they fulfil a condition and determine a mean value for the region
JP2007310828A (en) * 2006-05-22 2007-11-29 Central Res Inst Of Electric Power Ind Wire abnormality detection method, wire abnormality detection device, and wire abnormality detection program
WO2009044759A1 (en) * 2007-10-05 2009-04-09 Olympus Corporation Image processing device and program
JP2009093323A (en) * 2007-10-05 2009-04-30 Olympus Corp Image processing device and program
US8249380B2 (en) 2007-10-05 2012-08-21 Olympus Corporation Image processor and program
WO2009093386A1 (en) * 2008-01-21 2009-07-30 Olympus Corporation Image processing apparatus, image processing program, computer readable storage medium having image processing program stored therein, and image processing method
US9007494B2 (en) 2012-05-09 2015-04-14 Canon Kabushiki Kaisha Image processing apparatus, method for controlling the same and storage medium
JP2013116353A (en) * 2013-03-06 2013-06-13 Fujifilm Corp Image processing apparatus and endoscope system
WO2020230319A1 (en) * 2019-05-16 2020-11-19 三菱電機株式会社 Image processing device and method, image reading device, program, and recording medium
JPWO2020230319A1 (en) * 2019-05-16 2021-10-14 三菱電機株式会社 Image processing equipment and methods, as well as image reading equipment, and programs and recording media.
JP7142772B2 (en) 2019-05-16 2022-09-27 三菱電機株式会社 IMAGE PROCESSING DEVICE AND METHOD, IMAGE READING DEVICE, PROGRAM AND RECORDING MEDIUM

Similar Documents

Publication Publication Date Title
US6667815B1 (en) Method and apparatus for processing images
US7876974B2 (en) Method for improving digital images and an image sensor for sensing the same
US6373992B1 (en) Method and apparatus for image processing
US6055340A (en) Method and apparatus for processing digital images to suppress their noise and enhancing their sharpness
JP4858610B2 (en) Image processing method
JPH0922460A (en) Image processing method and device therefor
JP2001005960A (en) Method and device for processing image
US20110285871A1 (en) Image processing apparatus, image processing method, and computer-readable medium
RU2400815C2 (en) Method of enhancing digital image quality
EP1480449A2 (en) Adaptive coring for video peaking
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP6757407B2 (en) Image processing equipment, image processing method and image processing program
CN101238485B (en) Image processor
US7269295B2 (en) Digital image processing methods, digital image devices, and articles of manufacture
JP2003076985A (en) Image processing method and device
JP4017312B2 (en) Image processing method, image processing apparatus, and recording medium
JP2001008038A (en) Image processing method, image processor and multi-band color photographing system
JP3500302B2 (en) Image processing method and apparatus
JP2007011926A (en) Image processing method and device, and program
JP2000331153A (en) Image processing method and device
JP4274426B2 (en) Image processing method, apparatus, and program
JP3804880B2 (en) Image processing method for noise suppression and sharpness enhancement of digital images
JP2003132352A (en) Image processing method, image processing apparatus, image processing program, and computer-readable recording medium storing the same
JP4043662B2 (en) Image processing method and image processing system for multiband image
JP2000175046A (en) Image processing method and image processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905