[go: up one dir, main page]

JPH0646263A - Picture processing method - Google Patents

Picture processing method

Info

Publication number
JPH0646263A
JPH0646263A JP4194204A JP19420492A JPH0646263A JP H0646263 A JPH0646263 A JP H0646263A JP 4194204 A JP4194204 A JP 4194204A JP 19420492 A JP19420492 A JP 19420492A JP H0646263 A JPH0646263 A JP H0646263A
Authority
JP
Japan
Prior art keywords
data
error
area
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4194204A
Other languages
Japanese (ja)
Inventor
Hideo Kumashiro
秀郎 熊城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP4194204A priority Critical patent/JPH0646263A/en
Publication of JPH0646263A publication Critical patent/JPH0646263A/en
Priority to US08/784,319 priority patent/US5898796A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To provide the picture processing method in which a characteristic of a picture element is discriminated with high accuracy while preventing deterio ration in the gradation. CONSTITUTION:A multi-value input signal corresponding to each picture element obtained by reading an original picture is inputted respectively to a gamma correction section 1 and a picture element characteristic extract section 12. The gamma correction section 1 applies prescribed correction to the input signal to improve the linearity of the area gradation and the picture element characteristic extract section 12 extracts the characteristic of the picture element based on the input signal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は画像処理方法に関し、
特に誤差拡散法等の面積階調法を用いて処理する画像処
理方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method,
In particular, the present invention relates to an image processing method for processing using an area gradation method such as an error diffusion method.

【0002】[0002]

【従来の技術】多値画像データを2値プリンタに出力す
る際の階調表現に誤差拡散法がある。この方法は階調性
と解像度を両立させる優れた方法であるが、さらに原稿
画像の特徴を抽出し、その特徴に応じて誤差拡散パラメ
ータを制御してより高精度で高画質な処理を行なう画像
処理方法が特開昭63−214073号公報等に示され
ている。
2. Description of the Related Art An error diffusion method is used for gradation expression when outputting multivalued image data to a binary printer. This method is an excellent method that achieves both gradation and resolution, but it also extracts the features of the original image and controls the error diffusion parameters according to the features to perform more accurate and high-quality image processing. The treatment method is disclosed in JP-A-63-214073.

【0003】[0003]

【発明が解決しようとする課題】上記のような従来の画
像処理方法では、原稿画像を読取り、これをA/D変換
した後補正回路においてCCDセンサの感度ムラや照明
光源による照明ムラを補正するためのシェーディング補
正等が行なわれている。そして、補正後のデータに基づ
いて特徴抽出部において注目画素の特徴(エッジや濃度
等)を抽出し、それによって誤差のフィードバック量が
制御されている。
In the conventional image processing method as described above, the original image is read, and after A / D conversion of the original image, the correction circuit corrects the sensitivity unevenness of the CCD sensor and the illumination unevenness due to the illumination light source. Shading correction and the like are performed. Then, the feature extraction unit extracts the feature (edge, density, etc.) of the pixel of interest based on the corrected data, and the feedback amount of the error is controlled thereby.

【0004】しかし、このような画像処理方法では、ド
ット密度の解像度の低いプリンタやCRTに出力する
と、高濃度データでドット密度が大きくなってしまい、
ドットの潰れ等によって理論値よりもシャドウ領域での
階調性が劣化してしまう。
However, in such an image processing method, when outputting to a printer or CRT having a low dot density resolution, the dot density becomes high with high density data,
Gradation of dots or the like deteriorates the gradation in the shadow region more than the theoretical value.

【0005】一方、この階調性の劣化を防止すべく画像
データを補正してこの補正データに基づいて画素の特徴
を抽出しようとすると精度の低い特徴判別となる。
On the other hand, if the image data is corrected to prevent the deterioration of the gradation and the feature of the pixel is extracted based on the corrected data, the feature determination with low accuracy is performed.

【0006】この発明は上記のような課題を解決するた
めになされたもので、階調性の劣化を防止しつつ、かつ
精度の高い画素の特徴判別を可能とする画像処理方法を
提供することを目的とする。
The present invention has been made in order to solve the above problems, and provides an image processing method capable of preventing deterioration of gradation and accurately discriminating pixel features. With the goal.

【0007】[0007]

【課題を解決するための手段】この発明に係る画像処理
方法は、画像を構成する連続した画素毎の濃度データを
順次読取り、読取られた濃度データに面積階調法を適用
することによって、画像から多値化された画像データを
得る画像処理方法において、面積階調性の線形性を改善
するために読取られた濃度データに所定の補正を加える
とともに、補正前の濃度データに基づいて画素の特徴を
抽出することを特徴とするものである。
According to an image processing method of the present invention, by sequentially reading density data of continuous pixels forming an image and applying an area gradation method to the read density data, In the image processing method for obtaining multi-valued image data from, the predetermined density is added to the read density data in order to improve the linearity of the area gradation property, and the pixel data is corrected based on the density data before the correction. The feature is that the feature is extracted.

【0008】[0008]

【作用】この発明においては、読取られた濃度データに
所定の補正がされるとともに、補正前の濃度データで画
素の特徴が抽出される。
According to the present invention, the read density data is subjected to the predetermined correction, and the characteristics of the pixel are extracted from the density data before the correction.

【0009】[0009]

【実施例】図1はこの発明の一実施例による画像処理装
置の構成を示すシステムブロック図である。
1 is a system block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention.

【0010】以下図を参照して、この構成および各ブロ
ックの機能について説明する。まず、原稿画像からイメ
ージリーダ(IR)等で多値(M値)データに変換され
た画像信号は、γ補正部1によって、ドットのつぶれ等
による階調表現の非線形性が予め補正される。このよう
に補正するのは、プリンタまたはCRT等に、N値化デ
ータを出力する際、出力装置の特性上あまりにも高密度
にドットを打つと、そのドットのつぶれによって、結果
として面積階調性が劣化してしまうので、これを防止す
るためである。
The configuration and the function of each block will be described below with reference to the drawings. First, the image signal converted from the original image into multi-valued (M-valued) data by an image reader (IR) or the like is corrected in advance by the γ correction unit 1 for the non-linearity of gradation expression due to dot collapse or the like. This correction is performed when dots are printed at too high a density when outputting N-valued data to a printer or CRT due to the characteristics of the output device. Is to prevent this.

【0011】図2はこのγ補正に用いるROMテーブル
の特性を示す図である。図において、破線は理想特性を
示し、実線は実際に出力されるデータの特性を示し、一
点鎖線は、このγ補正特性を示すものである。すなわち
入力画像においては、256階調の濃度データが得られ
た場合であっても、出力特性においては、そのままその
データにあわせてドットを打つと、高濃度な部分にあっ
ては、ドット同士が密接するため、その階調特性が再現
されなくなる。したがって、図でDで示す部分のデータ
(高濃度データ領域)は使わないダイナミックレンジ変
換を施す処理を行なう。このようにダイナミックレンジ
変換を行なうことによって、得られた画像データの8ビ
ットのデータは、実質上7ビットのデータとなり、1ビ
ット程度のデータの劣化が免れないことになる。
FIG. 2 is a diagram showing the characteristics of the ROM table used for this γ correction. In the figure, the broken line shows the ideal characteristic, the solid line shows the characteristic of the actually output data, and the dashed-dotted line shows the γ correction characteristic. That is, even if density data of 256 gradations is obtained in the input image, if the dots are printed in accordance with the output characteristics as they are in the output characteristics, the dots are separated from each other in the high density portion. Due to the close contact, the gradation characteristics cannot be reproduced. Therefore, the processing of applying the dynamic range conversion is performed without using the data of the portion indicated by D in the figure (high density data area). By performing the dynamic range conversion in this way, the 8-bit data of the obtained image data becomes substantially 7-bit data, and the deterioration of about 1-bit data cannot be avoided.

【0012】したがって、図1において、γ補正部1の
出力は画像データとしての精度の劣化がある。そのた
め、そのデータを用いて画素特徴抽出部12に出力する
ことは、そこでの精度のよい画素の特徴を抽出すること
ができない。したがって、この実施例においては、γ補
正部1に入力する前の画像データ(多値入力信号)を直
接画素特徴抽出部12に入力するようにして、精度の高
い抽出を可能としている。
Therefore, in FIG. 1, the output of the γ correction unit 1 is deteriorated in accuracy as image data. Therefore, outputting the data to the pixel feature extraction unit 12 using the data cannot extract the pixel feature with high accuracy. Therefore, in this embodiment, the image data (multi-valued input signal) before being input to the γ correction unit 1 is directly input to the pixel feature extraction unit 12, which enables highly accurate extraction.

【0013】次にγ補正部1で、γ補正されたデータ
は、誤差補正部2に入力されて、そこでN値(M≧N)
化によって生じる誤差分が誤差拡散法を用いて補正さ
れ、さらにN値化処理部3においてN値信号化される。
Next, the γ-corrected data in the γ-correction unit 1 is input to the error-correction unit 2 where an N value (M ≧ N).
The error component caused by the conversion is corrected by using the error diffusion method, and further converted into an N-value signal in the N-value conversion processing unit 3.

【0014】ここでN値化処理のために用いられるしき
い値の設定の方式について説明する。
Here, a method of setting a threshold value used for the N-value conversion process will be described.

【0015】記録系が多値レベルDi =i/(q−
1),(i=0,1,2,…,q−1:qは階調数)を
表示できるものとすると、誤差分を補正された注目画素
Fm,nをiに対するしきい値Ti =(Di −D0 )/
2と比較し、多値化出力レベルPm,nを次式のように
決定する。
The recording system has multi-valued levels D i = i / (q-
1), (i = 0, 1, 2, ..., Q-1: q is the number of gradations), the target pixel Fm, n whose error is corrected is set to a threshold value T i for i. = (D i −D 0 ) /
In comparison with 2, the multilevel output level Pm, n is determined by the following equation.

【0016】 Pm,n=Di :Fm,n≧Ti Pm,n=Di -1:Ti -1≦Fm,n<Ti ここで、N=4すなわち多値として4値で出力する場合
について、図3を参照してこの多値化出力レベルの決定
方法について説明する。
Pm, n = D i : Fm, n ≧ T i Pm, n = D i −1 : T i −1 ≦ Fm, n <T i Here, N = 4, that is, multi-valued four-value output A method of determining the multilevel halftoning output level will be described with reference to FIG.

【0017】ここで、出力値をD3 =255,D2 =1
75,D1 =85およびD0 =0とすると、しきい値は
上記の式に基づいて、T3 =128,T2 =85および
1=43となる。
Here, the output value is D 3 = 255, D 2 = 1
Given 75, D 1 = 85 and D 0 = 0, the thresholds are T 3 = 128, T 2 = 85 and T 1 = 43 based on the above equation.

【0018】このようにしきい値を設定することによっ
て、多値化出力レベルPm,nが取り得る入力画像値の
範囲は以下の通りとなる。
By setting the threshold value in this way, the range of input image values that the multilevel halftoning output level Pm, n can take is as follows.

【0019】 Pm,n=255:128≦Fm,n≦255 Pm,n=175:85 ≦Fm,n<128 Pm,n= 85:43 ≦Fm,n<85 Pm,n= 0:0 ≦Fm,n<43 となる。これによって、N値化誤差Em,nの絶対値の
範囲は、上記の出力値によって、 Pm,n=255:0<|Em,n|≦128 Pm,n=175:0<|Em,n|<42 Pm,n= 85:0<|Em,n|<42 Pm,n= 0:0<|Em,n|<42 となる。この結果から、すべての濃度データレベルが均
等に出現するような画像データに対して、N値化誤差E
m,nの発生する確率が出力値によって異なることを示
している。これによって、各画素毎の誤差が分散し、写
真画像のような濃度変化の激しい中間調画像に対して入
力画像値Fm,nが多値化出力レベルPm,nに近い時
に生じる擬似階調を抑制することができる。
Pm, n = 255: 128 ≦ Fm, n ≦ 255 Pm, n = 175: 85 ≦ Fm, n <128 Pm, n = 85: 43 ≦ Fm, n <85 Pm, n = 0: 0 ≦ Fm, n <43. As a result, the range of the absolute value of the N-valued error Em, n is: Pm, n = 255: 0 <| Em, n | ≦ 128 Pm, n = 175: 0 <| Em, n | <42 Pm, n = 85: 0 <| Em, n | <42 Pm, n = 0: 0 <| Em, n | <42. From this result, the N-value conversion error E is detected for the image data in which all the density data levels appear evenly.
It is shown that the probabilities of occurrence of m and n differ depending on the output value. As a result, the error for each pixel is dispersed, and the pseudo gradation generated when the input image value Fm, n is close to the multi-value output level Pm, n with respect to the halftone image having a large density change such as a photographic image. Can be suppressed.

【0020】図において、実線は、D0 〜D3 の出力値
に対応するものであり、破線は、しきい値T1 〜T3
対応するものである。たとえば入力画像値の値が255
と、しきい値T3 すなわち128との間にあるような場
合、この多値化出力レベルPmnの値はD3 すなわち2
55の値となる。
In the figure, the solid line corresponds to the output values of D 0 to D 3 , and the broken line corresponds to the threshold values T 1 to T 3 . For example, if the input image value is 255
And the threshold value T 3 or 128, the value of the multi-valued output level Pmn is D 3 or 2
The value is 55.

【0021】図4はN(4)値の場合のN値化処理部3
の具体的内容を示した回路図である。
FIG. 4 shows an N-value conversion processing unit 3 for N (4) values.
It is a circuit diagram showing the specific content of.

【0022】この回路は、256値の8ビットデータを
4値の2ビットデータ化するものである。
This circuit converts 256-value 8-bit data into 4-value 2-bit data.

【0023】図において、入力M値画像データは比較器
21,22および23の各々の端子Aに入力する。比較
器21の端子Bには、データ“128”が入力し、比較
器22の端子Bにはデータ“85”が入力し、比較器2
3の端子Bにはデータ“43”が入力する。一方、比較
器21,22,23の各々の出力は、デコーダ24の端
子a,b,cの各々に入力する。比較器においては、端
子Aに入力されたデータと、端子Bに入力されたデータ
とが比較され、A>Bのときには、データ“1”がデコ
ーダ24に出力され、A≦Bのときは、データ“0”が
デコーダ24に出力される。図5はデコーダ24のデコ
ーダ真理表を示したものである。
In the figure, the input M-value image data is input to each terminal A of the comparators 21, 22 and 23. Data “128” is input to the terminal B of the comparator 21, data “85” is input to the terminal B of the comparator 22, and the comparator 2
Data “43” is input to the terminal B of No. 3. On the other hand, the outputs of the comparators 21, 22, and 23 are input to the terminals a, b, and c of the decoder 24, respectively. In the comparator, the data input to the terminal A is compared with the data input to the terminal B. When A> B, the data “1” is output to the decoder 24, and when A ≦ B, The data “0” is output to the decoder 24. FIG. 5 shows a decoder truth table of the decoder 24.

【0024】このような回路構成を用いることによっ
て、入力された256階調の画像データが、4値のデー
タとして出力される。
By using such a circuit configuration, the input image data of 256 gradations is output as 4-valued data.

【0025】次に、誤差補正部2から出力された誤差補
正画像データと、N値化処理部3から出力されたN値化
信号とに基づいて、N値化された際のN値化誤差が誤差
算出部4において算出される。
Next, based on the error-corrected image data output from the error correction unit 2 and the N-valued signal output from the N-valued processing unit 3, the N-valued error when N-valued Is calculated in the error calculation unit 4.

【0026】図6はこの誤差算出部4の具体的回路構成
として、Nを4とした4値化処理をした場合の具体的回
路構成を示す図である。
FIG. 6 is a diagram showing a specific circuit configuration of the error calculating section 4 in the case where a four-valued process in which N is 4 is performed.

【0027】なお、この回路では具体的には N(4)値化誤差=Fm,n−Pm,n を計算するものである。In this circuit, specifically, N (4) valued error = Fm, n-Pm, n is calculated.

【0028】図において、誤差補正画像データFm,n
は、減算器32の端子Aに入力される。マルチプレクサ
31には、データ“0”,“85”,“175”および
“255”データが入力し、図4で示した2ビットの各
々のデータD0およびD1の値によって図7の真理表に
基づいて入力されたデータに対応する端子(X1〜X
4)が選択される。選択された端子に対応したデータが
減算器32の端子Bに入力される。減算器32において
は、端子Aに入力されたデータと、端子Bに入力された
データとの差分が求められる。そして、減算器32は、
その差分の結果によって、差分の値の正負を示す符号と
差分の絶対値を示す算出誤差絶対値とからなる算出誤差
データを出力する。
In the figure, error-corrected image data Fm, n
Is input to the terminal A of the subtractor 32. Data "0", "85", "175", and "255" data are input to the multiplexer 31, and based on the 2-bit data D0 and D1 shown in FIG. 4, based on the truth table of FIG. Corresponding to the input data (X1-X
4) is selected. The data corresponding to the selected terminal is input to the terminal B of the subtractor 32. In the subtractor 32, the difference between the data input to the terminal A and the data input to the terminal B is obtained. Then, the subtractor 32
Based on the result of the difference, calculation error data including a sign indicating whether the difference value is positive or negative and a calculation error absolute value indicating the absolute value of the difference is output.

【0029】一方、γ補正部1に入力する前の多値入力
信号は、画素特徴抽出部12にも入力されて、画素単位
での特徴(文字/写真、エッジ等)が抽出される。この
抽出方法としては、MAX−MIN検出回路や一次微分
フィルタ等の公知の技術を用いればよい。
On the other hand, the multi-valued input signal before being input to the γ correction unit 1 is also input to the pixel feature extraction unit 12 and the features (characters / photographs, edges, etc.) in pixel units are extracted. As this extraction method, a known technique such as a MAX-MIN detection circuit or a first-order differential filter may be used.

【0030】図8は、このMAX−MIN検出回路の具
体的構成を示す図である。図において、注目画素の周辺
領域内の画素データは、MAX検出回路41およびMI
N検出回路42に入力される。MAX検出回路41は、
注目画素の周辺領域内の最大画素値MAXを検出する回
路であり、MIN検出回路は注目画素の周辺領域内の最
小画素値MINを検出する回路である。MAX検出回路
41から出力された画素値MAXは、減算器43の端子
Aに入力し、MIN検出回路42から出力された画素値
MINは、減算器43の端子Bに入力する。減算器43
において、端子Aに入力された画素値と、端子Bに入力
された画素値との差が計算され、その差の値(MAX−
MIN)が出力される。
FIG. 8 is a diagram showing a specific structure of the MAX-MIN detection circuit. In the figure, the pixel data in the peripheral area of the pixel of interest is the MAX detection circuit 41 and MI.
It is input to the N detection circuit 42. The MAX detection circuit 41 is
The MIN detection circuit is a circuit that detects the maximum pixel value MAX in the peripheral area of the target pixel, and the MIN detection circuit is a circuit that detects the minimum pixel value MIN in the peripheral area of the target pixel. The pixel value MAX output from the MAX detection circuit 41 is input to the terminal A of the subtractor 43, and the pixel value MIN output from the MIN detection circuit 42 is input to the terminal B of the subtractor 43. Subtractor 43
At, the difference between the pixel value input to the terminal A and the pixel value input to the terminal B is calculated, and the difference value (MAX-
MIN) is output.

【0031】図9は図8の回路によって求められた、最
大画素値MAX,最小画素値MINおよびその差の値
(MAX−MIN)の各々に基づいて、原稿の画素単位
での特徴を判別するための基本的な種類の原稿の特徴を
示した図である。
FIG. 9 determines the characteristics of the original in pixel units based on the maximum pixel value MAX, the minimum pixel value MIN, and the difference value (MAX-MIN) obtained by the circuit of FIG. FIG. 6 is a diagram showing characteristics of a basic type of document for the purpose of FIG.

【0032】すなわち、最大画素値MAXと最小画素値
MINとの値によって、文字領域、写真領域、文
字/写真中間領域、濃い文字/写真中間領域または
薄い文字/写真中間領域の原稿であると判別することが
できる。
That is, according to the values of the maximum pixel value MAX and the minimum pixel value MIN, it is determined that the original is a character area, a photograph area, a character / photo intermediate area, a dark character / photo intermediate area or a light character / photo intermediate area. can do.

【0033】誤差算出部4によって算出された算出誤差
データは、画素特徴抽出部12の出力に応答して、第1
利得演算部5において、注目画素の特徴に応じたルール
による利得演算処理が施される。このとき、図6で示さ
れているように、算出誤差データは正成分か負成分かが
判明しているため、これらの正負に分けて利得演算を施
すことによって、高精度な制御が行なわれる。具体的に
はこのルールは、 (1) 注目画素が文字領域であれば、解像度を重視し
た方が好ましいので、利得=0として、算出誤差データ
を正成分、負成分ともに全く誤差拡散処理に全くフィー
ドバックさせないようにする。
The calculated error data calculated by the error calculation unit 4 is responsive to the output of the pixel feature extraction unit 12 to generate the first error data.
The gain calculation unit 5 performs a gain calculation process according to a rule according to the feature of the pixel of interest. At this time, as shown in FIG. 6, it is known whether the calculation error data is a positive component or a negative component. Therefore, by performing gain calculation by dividing these positive and negative components, highly accurate control is performed. . Specifically, this rule is as follows: (1) If the pixel of interest is a character region, it is preferable to prioritize the resolution. Therefore, the gain error is 0, and the calculated error data for the positive component and the negative component are completely in error diffusion processing. Avoid giving feedback.

【0034】(2) 注目画素が写真領域であれば、階
調性を重視した方がよいので、利得=1とし、算出誤差
データを正成分、負成分ともに誤差拡散処理に完全にフ
ィードバックさせる。
(2) If the pixel of interest is a photographic region, it is better to attach importance to gradation, so that gain = 1 is set, and the calculated error data for both positive and negative components is completely fed back to the error diffusion process.

【0035】(3) 注目画素が文字/写真中間領域で
あれば、コントラストと階調性をバランスした方が好ま
しいので、利得=0.5として、算出誤差データを正成
分、負成分ともに半分だけ誤差拡散処理にフィードバッ
クさせる。
(3) When the pixel of interest is in the character / photo intermediate region, it is preferable to balance the contrast and gradation, so that the gain error is set to 0.5 and the calculation error data is reduced to half for both positive and negative components. It is fed back to the error diffusion process.

【0036】(4) 注目画素が濃い文字/写真中間領
域であれば、高濃度部は解像度を重視し、低濃度部は階
調性を重視した方が好ましいので、算出誤差データの正
成分利得=0.5とし、負成分利得=0とし、結果とし
て正成分の誤差データだけ誤差拡散処理にフィードバッ
クさせる。
(4) When the pixel of interest is a dark character / photo intermediate region, it is preferable that the high-density portion emphasizes the resolution and the low-density portion emphasizes the gradation. Therefore, the positive component gain of the calculation error data is obtained. = 0.5, negative component gain = 0, and as a result, only the positive component error data is fed back to the error diffusion processing.

【0037】(5) 注目画素が薄い文字/写真中間領
域であれば、高濃度部は階調性を重視し、低濃度部は解
像度を重視した方が好ましいので、算出誤差データの正
成分利得=0とし、負成分得=0.5とし、結果として
負成分の誤差データだけを誤差拡散処理にフィードバッ
クさせる。
(5) When the pixel of interest is a light character / photograph intermediate region, it is preferable to emphasize the gradation in the high density portion and emphasize the resolution in the low density portion. = 0, negative component gain = 0.5, and as a result, only the negative component error data is fed back to the error diffusion processing.

【0038】このようにすることによって、注目画素の
原稿の特徴に応じた適切な誤差拡散処理を可能とし、精
度の高い高画質な画像を得ることができる。
By doing so, it is possible to perform an appropriate error diffusion process according to the characteristics of the original of the pixel of interest, and it is possible to obtain a high-quality and high-quality image.

【0039】次に、第1利得演算部5から出力された格
納誤差データに、画素特徴抽出部12によって抽出され
た画像の特徴を示す属性フラグを付加する。このように
するのは、その誤差がどのような種類の原稿によって生
じたものかを属性フラグによって明らかにし、後の処理
において高精度な誤差補正を行なうためである。
Next, an attribute flag indicating the feature of the image extracted by the pixel feature extraction unit 12 is added to the stored error data output from the first gain calculation unit 5. This is done in order to clarify what kind of original the error was caused by the attribute flag and to perform highly accurate error correction in the subsequent processing.

【0040】格納誤差データそのものは8ビットのデー
タよりなり、符号ビットを1ビット用いることによっ
て、図10において、Eで示すように9ビットのデータ
として扱われている。しかし、画像データの精度自体が
もともと8ビットであるとしても、シェーリング補正や
その他の処理によって、先で述べたように1〜2ビット
程度はデータの精度が劣化するので、誤差データの有効
ビットは符号ビットを含んで7ビット程度で十分であ
る。そこで、8ビットのメモリ領域において、残りの1
ビットに上記の属性フラグを割当てることが可能であ
る。なお、属性フラグは以下の式によって算出される。
The stored error data itself consists of 8-bit data, and is treated as 9-bit data as indicated by E in FIG. 10 by using 1-bit sign bit. However, even if the accuracy of the image data is originally 8 bits, the accuracy of the data is degraded by about 1 to 2 bits due to the shaling correction and other processing as described above. About 7 bits including the sign bit is sufficient. Therefore, in the 8-bit memory area, the remaining 1
It is possible to assign the above attribute flags to the bits. The attribute flag is calculated by the following formula.

【0041】 属性フラグ=1:Th≦MAX−MIN(文字画像領
域) 属性フラグ=0:Th>MAX−MIN(写真画像領
域) (Th:しきい値)このように属性フラグを定めること
によって、図10の例での属性フラグ付き誤差データ
は、文字画像領域のデータを表わし、最後の8ビット目
のデータに、符号ビットが格納されていることになる。
Attribute flag = 1: Th ≦ MAX-MIN (character image area) Attribute flag = 0: Th> MAX-MIN (photo image area) (Th: threshold value) By defining the attribute flag in this way, The error data with an attribute flag in the example of FIG. 10 represents the data of the character image area, and the sign bit is stored in the last 8th bit data.

【0042】図11は第1利得演算部5と、属性フラグ
付加部6とを組合せた回路の具体例を示した図である。
FIG. 11 is a diagram showing a specific example of a circuit in which the first gain calculating section 5 and the attribute flag adding section 6 are combined.

【0043】図に示すように、このような演算は、条件
に対して出力が1対1に対応しているので、すべての組
合せをROMテーブル51に記憶させることによって、
簡単に実現することができる。なお、ROMテーブル5
1に入力される符号および、算出誤差絶対値は、図10
の例であれば、データEで示した部分に対応するもので
ある。
As shown in the figure, such an operation has one-to-one correspondence with the output with respect to the condition. Therefore, by storing all the combinations in the ROM table 51,
It can be easily achieved. The ROM table 5
The sign input to 1 and the absolute value of the calculation error are shown in FIG.
In the case of the example, it corresponds to the portion indicated by the data E.

【0044】属性フラグ付加部6から出力された属性フ
ラグ付き格納誤差データは、誤差格納部7において数ラ
イン分保持され、さらに属性フラグ分離部8によって、
誤差データと属性フラグとに分離される。そして、属性
フラグ分離部8によって分離された属性フラグは、エリ
ア特徴抽出部11に入力され、そこで注目画素の属性フ
ラグによる特徴と、その周辺画素の属性フラグによる特
徴とに基づいてエリア的特徴が抽出される。
The stored error data with the attribute flag output from the attribute flag addition unit 6 is held in the error storage unit 7 for several lines, and further, by the attribute flag separation unit 8.
It is separated into error data and attribute flags. Then, the attribute flags separated by the attribute flag separation unit 8 are input to the area feature extraction unit 11, where the area-based features are identified based on the features of the attribute flag of the pixel of interest and the features of the attribute flags of the surrounding pixels. To be extracted.

【0045】この抽出動作について以下に具体例を示し
て説明する。図13に示すように、属性フラグ付き誤差
データは誤差格納部7のFIFOメモリに数ライン分保
持され、その出力は属性フラグ分離部8において分離さ
れ、属性フラグのデータは、デジタルフィルタよりなる
エリア特徴抽出部11に入力される。このデジタルフィ
ルタの具体的内容を示しているのが図12である。すな
わち、注目画素およびその周辺画素の属性フラグの特徴
量は、この属性フラグ重み付けデジタルフィルタによっ
て重みを付けられ、その結果がエリア属性判別結果とし
て、多値(0〜33)出力される。図12から明白なよ
うに、このデジタルフィルタの重み付けは、注目画素
(丸で囲った係数に対応する)に近いほどその重みを大
きくとって、エリア的特徴の誤判別を抑制している。な
お、属性フラグは“1”が文字画像領域を示すことか
ら、エリア属性判別が33に近いほど原稿画像が文字画
像領域に近く、その値が0に近いほど写真画像領域に近
いことを示している。
This extraction operation will be described below by showing a specific example. As shown in FIG. 13, the error data with the attribute flag is held in the FIFO memory of the error storage unit 7 for several lines, the output thereof is separated by the attribute flag separation unit 8, and the data of the attribute flag is an area formed by a digital filter. It is input to the feature extraction unit 11. FIG. 12 shows the specific contents of this digital filter. That is, the feature quantities of the attribute flags of the pixel of interest and its peripheral pixels are weighted by this attribute flag weighting digital filter, and the result is output as multi-valued (0 to 33) as the area attribute determination result. As is clear from FIG. 12, the weighting of this digital filter is larger as it is closer to the pixel of interest (corresponding to the circled coefficient), and erroneous discrimination of area features is suppressed. Since the attribute flag "1" indicates a character image area, the closer the area attribute determination is to 33, the closer the original image is to the character image area, and the closer the value is to 0, the closer to the photographic image area. There is.

【0046】一方、属性フラグ分離部8において、分離
された誤差データは、上述のエリア属性判別結果に基づ
いて、それぞれの属性にあった係数の誤差重み付けデジ
タルフィルタによって周辺画素の誤差データの重み付け
がされる。このデジタルフィルタの選定基準としては、 21≦エリア属性判別結果→デジタルフィルタ係数=文
字領域用 11≦エリア属性判別結果<21→デジタルフィルタ係
数=文字/写真中間領域用 0≦エリア属性判別結果<11→デジタルフィルタ係数
=写真領域用 とすればよい。この重み付けデジタルフィルタの係数の
具体例が図14に示されている。
On the other hand, the error data separated by the attribute flag separation unit 8 is weighted to the error data of the peripheral pixels by the error weighting digital filter of the coefficient corresponding to each attribute based on the above area attribute discrimination result. To be done. The selection criteria of this digital filter are as follows: 21 ≦ area attribute determination result → digital filter coefficient = character area 11 ≦ area attribute determination result <21 → digital filter coefficient = character / photo intermediate area 0 ≦ area attribute determination result <11 → Digital filter coefficient = for photo area. A specific example of the coefficients of this weighted digital filter is shown in FIG.

【0047】すなわち図14のには、写真領域用誤差
フィルタの具体的な係数が示されている。なお、*は注
目画素に対応する部分であり、このように、写真領域で
は階調性を重視するために画素周辺の広いエリアの誤差
データを考慮している。
That is, FIG. 14 shows specific coefficients of the error filter for the photograph area. Note that * is a portion corresponding to the pixel of interest, and in this way, in the photographic region, the error data of a wide area around the pixel is considered in order to emphasize the gradation.

【0048】図14のは、文字/写真中間領域用誤差
フィルタの具体的な係数の例を示したものである。ここ
では、文字/写真中間領域なので、階調性と解像度をバ
ランスさせるために写真領域用誤差フィルタよりは狭い
範囲の周辺画素の誤差データを考慮している。
FIG. 14 shows an example of specific coefficients of the character / photo intermediate area error filter. Here, since it is the character / photo intermediate region, error data of peripheral pixels in a narrower range than the error filter for the photo region is considered in order to balance gradation and resolution.

【0049】図14のは、文字領域用誤差フィルタの
具体的係数の例を示したものである。ここでは、文字領
域なので解像度を重視するためにごく狭い範囲の周辺画
素の誤差データしか考慮していない。
FIG. 14 shows an example of specific coefficients of the character area error filter. Here, since it is a character area, only the error data of the peripheral pixels in a very narrow range is considered in order to emphasize the resolution.

【0050】図15は、この誤差重み付けフィルタ9の
具体的な構成を示すブロック図である。
FIG. 15 is a block diagram showing a specific structure of the error weighting filter 9.

【0051】図において、属性フラグ分離部8から出力
された誤差データは、写真領域誤差重み付けフィルタ6
1、文字/写真中間領域誤差重み付けフィルタ62およ
び文字領域誤差重み付けフィルタ63の各々に入力して
フィルタ処理された後その各々の出力は、フィルタ選択
回路64に入力する。フィルタ選択回路64には、エリ
ア特徴抽出部11から出力されたエリア属性判別結果が
入力され、その結果に基づいて、いずれかの重み付けフ
ィルタの出力が選択され、その内容が、第2利得演算部
10に出力される。
In the figure, the error data output from the attribute flag separating unit 8 is the photographic region error weighting filter 6
1, the character / photo intermediate region error weighting filter 62 and the character region error weighting filter 63 are input and filtered, and their respective outputs are input to the filter selection circuit 64. The area selection result output from the area feature extraction unit 11 is input to the filter selection circuit 64, and the output of one of the weighting filters is selected based on the result, and the content thereof is the second gain calculation unit. It is output to 10.

【0052】次に、誤差重み付けフィルタ9によって算
出された補正用誤差データは、第2利得演算部10にお
いて、エリア特徴抽出部11の出力によるエリア属性判
別結果に基づいて、誤差の利得演算が行なわれる。すな
わち、注目画素がエリア的に文字画像領域に含まれるも
のであれば、利得=0として補正用誤差データを0とし
た単純N値化を行なう。一方、注目画素がエリア的に文
字/写真中間画像領域に含まれるものであれば、利得=
0.5とし、補正用誤差データを半分だけ用いて誤差拡
散処理を行なう。さらに、注目画素がエリア的に写真画
像領域に含まれるものであれば、利得=1とし、補正用
誤差データをすべて用いて誤差拡散処理を行なう。
Next, the error data for correction calculated by the error weighting filter 9 is subjected to error gain calculation in the second gain calculating section 10 based on the area attribute discrimination result by the output of the area feature extracting section 11. Be done. That is, if the pixel of interest is included in the character image area in area, simple N-value conversion is performed with the gain = 0 and the correction error data set to zero. On the other hand, if the pixel of interest is included in the character / photo intermediate image area areawise, gain =
The error diffusion process is performed by setting 0.5 and using only half the correction error data. Further, if the target pixel is included in the photographic image area in an area, the gain is set to 1, and the error diffusion process is performed using all the correction error data.

【0053】要約すると、誤差格納時の利得演算は注目
画素毎の特徴によって行ない、一方、周辺画素の誤差デ
ータによって注目画素の補正用誤差データを算出する誤
差重み付けフィルタ出力データに対しては、周辺画素の
特徴も考慮したエリア属性判別結果に基づいて利得演算
を行なう。このようにすることによって、誤判別の少な
い精度の高い領域判別による誤差拡散処理が可能とな
る。
In summary, the gain calculation at the time of storing the error is performed by the feature of each pixel of interest, while the output of the error weighting filter for calculating the correction error data of the pixel of interest is calculated by the error data of the peripheral pixel. The gain calculation is performed based on the area attribute discrimination result that also takes the pixel characteristics into consideration. By doing so, it is possible to perform error diffusion processing by highly accurate area discrimination with few misjudgments.

【0054】図16は第2利得演算部10の具体的構成
を示している図である。図において誤差重み付けフィル
タ出力とエリア属性判別結果とをROMテーブル71に
入力させ、そこで上記の利得に基づいて演算された誤差
データを誤差補正部2に出力する。
FIG. 16 is a diagram showing a specific configuration of the second gain calculation section 10. In the figure, the output of the error weighting filter and the area attribute discrimination result are input to the ROM table 71, and the error data calculated based on the gain is output to the error correction unit 2.

【0055】このように第2利得演算部10から出力さ
れた誤差データに基づいて、誤差補正部2において、誤
差の補正が行なわれる。
In this way, the error correction unit 2 corrects the error based on the error data output from the second gain calculation unit 10.

【0056】なお、上記実施例では、誤差拡散法につい
て適用しているが、面積階調法であればディザ法等によ
る画像処理にも適用できる。
In the above embodiment, the error diffusion method is applied, but the area gradation method can also be applied to the image processing such as the dither method.

【0057】[0057]

【発明の効果】この発明は以上説明したとおり、読取ら
れた濃度データに所定の補正がされるとともに補正前の
濃度データで画素の特徴が抽出されるので、高画質でか
つ高精度な画像処理が可能となる。
As described above, according to the present invention, since the read density data is subjected to the predetermined correction and the characteristics of the pixel are extracted from the density data before the correction, the image processing with high image quality and high accuracy can be performed. Is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例が適用される画像処理装置
の全体構成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of an image processing apparatus to which an embodiment of the present invention is applied.

【図2】図1のγ補正部1における、補正特性を示した
グラフである。
FIG. 2 is a graph showing correction characteristics in the γ correction unit 1 of FIG.

【図3】図1のN値化処理部3における具体例として示
した4値化処理の内容を示す図である。
FIG. 3 is a diagram showing the contents of 4-valued processing shown as a specific example in the N-valued processing unit 3 of FIG.

【図4】図3の具体例に対応させたN値化処理部3の具
体的構成を示す図である。
FIG. 4 is a diagram showing a specific configuration of an N-value conversion processing unit 3 corresponding to the specific example of FIG.

【図5】図4で示したデコーダのデコーダ真理表であ
る。
5 is a decoder truth table of the decoder shown in FIG.

【図6】図1の誤差算出部4の具体例における構成を示
した図である。
FIG. 6 is a diagram showing a configuration of a specific example of an error calculating section 4 in FIG.

【図7】図6のマルチプレクサの、マルチプレクサ真理
表である。
7 is a multiplexer truth table for the multiplexer of FIG.

【図8】図1の画素特徴抽出部12の具体的内容を示し
た図である。
FIG. 8 is a diagram showing specific contents of a pixel feature extraction unit 12 of FIG.

【図9】図8の出力に基づいて、原稿画像の特徴を判別
するための画像領域の特性を示した図である。
9 is a diagram showing the characteristics of an image area for determining the characteristics of a document image based on the output of FIG.

【図10】図1の属性フラグ付加部における属性フラグ
付き誤差データの生成方法を示した図である。
10 is a diagram showing a method of generating error data with an attribute flag in the attribute flag addition section of FIG.

【図11】図1の属性フラグ付加部6における具体的構
成を示した図である。
11 is a diagram showing a specific configuration of an attribute flag adding section 6 of FIG.

【図12】図1のエリア特徴抽出部において用いられる
属性フラグ重み付けデジタルフィルタの係数の具体例を
示した図である。
12 is a diagram showing a specific example of coefficients of an attribute flag weighting digital filter used in the area feature extraction unit of FIG.

【図13】図1の誤差格納部7、属性フラグ分離部8お
よびエリア特徴抽出部11の具体的構成を示した図であ
る。
13 is a diagram showing a specific configuration of an error storage unit 7, an attribute flag separation unit 8 and an area feature extraction unit 11 in FIG.

【図14】図1の誤差重み付けフィルタ9の、各領域特
性に対応した誤差フィルタの具体例を示した図である。
14 is a diagram showing a specific example of an error filter corresponding to each area characteristic of the error weighting filter 9 of FIG.

【図15】図1の誤差重み付けフィルタ9の具体的構成
を示した図である。
15 is a diagram showing a specific configuration of the error weighting filter 9 of FIG.

【図16】図1の第2利得演算部10の具体的構成を示
した図である。
16 is a diagram showing a specific configuration of a second gain calculation section 10 in FIG.

【符号の説明】[Explanation of symbols]

1 γ補正部 2 誤差補正部 3 N値化処理部 4 誤差算出部 5 第1利得演算部 6 属性フラグ付加部 7 誤差格納部 8 属性フラグ分離部 9 誤差重み付けフィルタ 10 第2利得演算部 11 エリア特徴抽出部 12 画素特徴抽出部 なお、各図中同一符号は同一または相当部分を示す。 1 γ correction unit 2 error correction unit 3 N-value conversion processing unit 4 error calculation unit 5 first gain calculation unit 6 attribute flag addition unit 7 error storage unit 8 attribute flag separation unit 9 error weighting filter 10 second gain calculation unit 11 area Feature Extraction Unit 12 Pixel Feature Extraction Unit In the drawings, the same reference numerals indicate the same or corresponding parts.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像を構成する連続した画素毎の濃度デ
ータを順次読取り、読取られた濃度データに面積階調法
を適用することによって、画像から多値化された画像デ
ータを得る画像処理方法において、 面積階調性の線形性を改善するために読取られた濃度デ
ータに所定の補正を加えるとともに、前記補正前の濃度
データに基づいて画素の特徴を抽出することを特徴とす
る、画像処理方法。
1. An image processing method for obtaining multi-valued image data from an image by sequentially reading density data of continuous pixels forming an image and applying an area gradation method to the read density data. In the image processing, the image data is characterized by adding predetermined correction to the read density data in order to improve the linearity of the area gradation property, and extracting the feature of the pixel based on the density data before the correction. Method.
JP4194204A 1992-07-21 1992-07-21 Picture processing method Pending JPH0646263A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4194204A JPH0646263A (en) 1992-07-21 1992-07-21 Picture processing method
US08/784,319 US5898796A (en) 1992-07-21 1997-01-16 Method of processing image having value of error data controlled based on image characteristic in region to which pixel belongs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4194204A JPH0646263A (en) 1992-07-21 1992-07-21 Picture processing method

Publications (1)

Publication Number Publication Date
JPH0646263A true JPH0646263A (en) 1994-02-18

Family

ID=16320690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4194204A Pending JPH0646263A (en) 1992-07-21 1992-07-21 Picture processing method

Country Status (1)

Country Link
JP (1) JPH0646263A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0414903A4 (en) * 1988-12-14 1992-06-03 Kabushiki Kaisha Yakult Honsha New thioproline derivative

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0414903A4 (en) * 1988-12-14 1992-06-03 Kabushiki Kaisha Yakult Honsha New thioproline derivative

Similar Documents

Publication Publication Date Title
JP3313399B2 (en) Image processing device
JP3437226B2 (en) Image processing method and apparatus
JPS5810966A (en) Method of determining optimum threshold value for processing threshold of image element and adaptive threshold processor
JP3335830B2 (en) Image processing device
JPH02253765A (en) Picture processor
JP2815157B2 (en) Image processing device
US5898796A (en) Method of processing image having value of error data controlled based on image characteristic in region to which pixel belongs
JP3752805B2 (en) Image processing device
JPH0646263A (en) Picture processing method
JP3203780B2 (en) Image processing method and image processing apparatus
JPH0646266A (en) Picture processing method
US6842267B1 (en) Image processing method
JP3215146B2 (en) Image processing device
JP3780664B2 (en) Image processing apparatus and image processing method
JP2851662B2 (en) Image processing device
JP3178077B2 (en) Binarization processing method
JP3346111B2 (en) Image processing device
JP3157870B2 (en) Image processing method
JPH06245065A (en) Picture reader
JPH0554190A (en) Picture processor
JPH0217982B2 (en)
JPH02210963A (en) Picture processor
JPH0326065A (en) Picture processing unit
JPH0575859A (en) Mtf correction device
JPS6180962A (en) Picture signal processor

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020312