[go: up one dir, main page]

JP2002281313A - Image processor and image forming apparatus having the same - Google Patents

Image processor and image forming apparatus having the same

Info

Publication number
JP2002281313A
JP2002281313A JP2001073596A JP2001073596A JP2002281313A JP 2002281313 A JP2002281313 A JP 2002281313A JP 2001073596 A JP2001073596 A JP 2001073596A JP 2001073596 A JP2001073596 A JP 2001073596A JP 2002281313 A JP2002281313 A JP 2002281313A
Authority
JP
Japan
Prior art keywords
pixel
image
data
pixels
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001073596A
Other languages
Japanese (ja)
Inventor
Takamoto Nabeshima
孝元 鍋島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001073596A priority Critical patent/JP2002281313A/en
Publication of JP2002281313A publication Critical patent/JP2002281313A/en
Pending legal-status Critical Current

Links

Landscapes

  • Dot-Matrix Printers And Others (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor to make the edge of an image drawn in a dot area possible to be viewed more clearly. SOLUTION: When an object is judged as the one in the dot area and as the one adjacent to an edge pixel to constitute the edge of the image such as a character image, smoothing is performed to data of the object pixel by using the respective smoothing filters 481 to 488, the data to which the smoothing is performed by the filter by which the smoothing is performed without reference to the data of the edge pixel is outputted as data after the smoothing of the object pixel among pieces of data to which the smoothing is performed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置に関
し、特にデジタル画像データに基づいて画像を形成する
画像形成装置において画質の劣化を抑制する技術に関す
る。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus, and more particularly to a technique for suppressing deterioration of image quality in an image forming apparatus for forming an image based on digital image data.

【0002】[0002]

【従来の技術】デジタル画像データに基づいて画像を形
成する画像形成装置では、例えば文字画像や網点画像な
ど、画像の種類に応じて、該当部分の画素に対して各種
の画像処理を行うことにより、画質の向上を図ることが
行われている。より具体的には、網点領域と判定された
画素については、モアレの発生を防止するために平滑化
処理(スムージング処理)を行い、エッジ領域と判定さ
れた画素については、エッジ強調処理を行うのが一般的
である。
2. Description of the Related Art In an image forming apparatus for forming an image based on digital image data, various types of image processing are performed on pixels of a corresponding portion according to the type of the image, for example, a character image or a halftone image. Thus, the image quality has been improved. More specifically, a smoothing process (smoothing process) is performed on a pixel determined as a halftone dot region to prevent occurrence of moire, and an edge enhancement process is performed on a pixel determined as an edge region. It is common.

【0003】スムージング処理の方法としては、スムー
ジング処理の対象となる画素(以下、「対象画素」とい
う。)を中心とした、例えば3画素*3画素からなるフ
ィルタを設定し、当該フィルタに含まれる各画素の濃度
値について重み付け加算による移動平均を行うことによ
って滑らかな再現画像のデータを作成する方法が従来か
ら知られている。
[0003] As a method of the smoothing processing, a filter composed of, for example, 3 pixels * 3 pixels centering on a pixel to be subjected to the smoothing processing (hereinafter referred to as "target pixel") is set and included in the filter. 2. Description of the Related Art A method of creating data of a smooth reproduced image by performing a moving average by weighted addition on the density value of each pixel has been conventionally known.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
画像処理装置を用いると、網点領域内に描かれた文字画
像については、当該文字画像のエッジが鮮鋭に見えない
場合が生じるという問題がある。すなわち、従来は網点
領域と判定された全ての画素について、各画素を対象画
素として同一のフィルタを用いてスムージング処理して
おり、そのため3画素*3画素のフィルタを用いた場
合、例えば図15に示す画像において、画素901を対
象画素とすると、周辺画素8個の中に文字画像領域の3
つの画素(902、903、904)が含まれることに
なる。一方、対象画素を画素905とすると、周辺画素
に文字画像領域の画素は全く含まれない、すなわち網点
領域の画素だけということになる。
However, when a conventional image processing apparatus is used, there is a problem that a character image drawn in a halftone dot region may not have sharp edges. . That is, conventionally, for all pixels determined to be a halftone dot area, smoothing processing is performed using the same filter with each pixel as a target pixel. Therefore, when a filter of 3 pixels * 3 pixels is used, for example, FIG. Assuming that pixel 901 is the target pixel in the image shown in FIG.
One pixel (902, 903, 904) will be included. On the other hand, if the target pixel is the pixel 905, the surrounding pixels do not include any pixels in the character image area, that is, only the pixels in the halftone dot area.

【0005】一般に、文字画像は、濃度が非常に高い画
素が連続して存在しており、網点領域は、濃度の高い画
素(図15で斜線を引いた画素)が濃度の低い画素(斜
線を引いていない画素)中に孤立して存在している場合
が多い。そのため同一のフィルタを用いて濃度値を演算
すると、周辺画素に文字画像領域の画素が含まれる画素
901の濃度値は、周辺画素が網点領域だけの画素90
2に比べて高くなってしまう。つまり、図15の画素9
03、901、905について見ると、その順に濃度が
段々下がっていくことになり、結果的に文字画像のエッ
ジ部から網点領域に掛けての濃度勾配がゆるくなって、
エッジが鮮鋭に見えない、いいかえればぼやけて見える
場合が生じることになる。
In general, a character image is composed of pixels having extremely high density continuously. In a halftone dot region, pixels having high density (pixels shaded in FIG. 15) are replaced with pixels having low density (shaded lines). (Pixels not subtracted with) in many cases. Therefore, when the density value is calculated using the same filter, the density value of the pixel 901 whose peripheral pixels include the pixels of the character image area is calculated as the pixel 90 whose peripheral pixels are only the halftone area.
It will be higher than 2. That is, pixel 9 in FIG.
Looking at 03, 901, and 905, the density gradually decreases in that order, and as a result, the density gradient from the edge part of the character image to the halftone dot area becomes loose,
Edges may not look sharp, or in other words, may appear blurry.

【0006】上記のような問題は、網点領域内に描かれ
た画像に限られず、例えば写真画像などの濃度平坦領域
に文字等の画像が描かれている場合に、当該濃度平坦領
域をより滑らかに再現するために当該領域についてスム
ージング処理を施す際にも生じ得る。本発明は、かかる
問題点に鑑みてなされたものであって、網点領域等に描
かれた文字画像等のエッジがより鮮鋭に見えるように処
理することにより、画質の劣化を抑制できる画像処理装
置、及び当該画像処理装置を用いた画像形成装置を提供
することを目的としている。
The above problem is not limited to an image drawn in a halftone dot area. For example, when an image such as a character is drawn in a flat density area such as a photographic image, the density flat area is more likely to be displayed. This may also occur when performing a smoothing process on the area in order to reproduce smoothly. The present invention has been made in view of the above-described problems, and has been made in consideration of the above-described problems, and has been made in consideration of an image processing capable of suppressing deterioration of image quality by performing processing so that edges of a character image or the like drawn in a halftone dot area or the like look sharper. It is an object to provide an apparatus and an image forming apparatus using the image processing apparatus.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る画像処理装置は、対象画素を含む所定
の範囲内に存する画素のデータに重み付けを行い、重み
付けされた画素のデータに基づいて当該対象画素のデー
タを平滑化する平滑化手段を備える画像処理装置であっ
て、前記対象画素を含む所定の範囲内の各画素につい
て、文字画像領域内に存する画素であるか否かを判定す
る文字画像領域判定手段を備え、前記平滑化手段は、対
象画素が文字画像領域内でないと判定され、かつ前記所
定の範囲内に文字画像領域内と判定された画素が存する
場合に、当該画素に対する重み付け量を、当該画素が文
字画像領域内でないとした場合における重み付け量より
も小さくすることを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention weights data of pixels within a predetermined range including a target pixel, and outputs data of the weighted pixels. An image processing apparatus comprising a smoothing means for smoothing the data of the target pixel based on (i), wherein each pixel within a predetermined range including the target pixel is a pixel existing in a character image area or not. Character image area determining means for determining, the smoothing means, when the target pixel is determined not to be in the character image area, and when there is a pixel determined to be in the character image area within the predetermined range, It is characterized in that the weighting amount for the pixel is made smaller than the weighting amount when the pixel is not in the character image area.

【0008】また、網点領域内に存する画素であるか否
かを判定する網点領域判定手段を備え、前記平滑化手段
は、対象画素が網点領域内と判定された場合には、前記
文字画像領域内と判定された画素に対する重み付け量
を、当該画素が網点領域内とした場合における重み付け
量よりも小さくすることを特徴とする。また、前記文字
画像領域内と判定された画素のデータに対する重み付け
量がゼロであることを特徴とする。
[0008] The image processing apparatus further includes a halftone dot region determining means for determining whether or not the pixel exists in the halftone dot region. It is characterized in that the weighting amount for a pixel determined to be in the character image area is smaller than the weighting amount when the pixel is in the halftone dot area. Further, a weighting amount for data of a pixel determined to be within the character image area is zero.

【0009】ここで、「重み付け量がゼロ」とは、重み
付け量がゼロとされた画素のデータが重み付けされると
きの処理において参照されなくなることを意味する。ま
た、前記所定の範囲内の、対象画素に対して所定の位置
関係にある画素に対する重み付け量がゼロとなる構成の
フィルタを複数種類備え、前記平滑化手段は、前記複数
種類のフィルタの内、文字画像領域内と判定された画素
に対する重み付け量がゼロとなるように構成されたフィ
ルタを利用して平滑化を行うことを特徴とする。
Here, "the weighting amount is zero" means that the data of the pixel having the weighting amount of zero is not referred to in the processing when the data is weighted. Further, within the predetermined range, a plurality of types of filters having a weighting amount for pixels having a predetermined positional relationship with respect to the target pixel are provided with a plurality of types of filters, and the smoothing unit includes, among the plurality of types of filters, It is characterized in that smoothing is performed using a filter configured so that the weighting amount for pixels determined to be within the character image area becomes zero.

【0010】また、本発明は、画像処理装置により平滑
化されたデータに基づいて画像を形成する画像形成装置
であって、当該画像処理装置として、上記本発明に係る
画像処理装置を備えることを特徴とする。
According to the present invention, there is provided an image forming apparatus for forming an image based on data smoothed by the image processing apparatus, wherein the image processing apparatus includes the image processing apparatus according to the present invention. Features.

【0011】[0011]

【発明の実施の形態】以下、本発明に係る画像処理装置
及び画像形成装置の実施の形態について、図面を参照し
ながら説明する。 (1)画像形成装置の全体構成 図1は、画像形成装置の一例としてのフルカラー複写機
(以下、単に「複写機」という。)1の全体構成を示す
概略断面図である。
Embodiments of an image processing apparatus and an image forming apparatus according to the present invention will be described below with reference to the drawings. (1) Overall Configuration of Image Forming Apparatus FIG. 1 is a schematic cross-sectional view showing the overall configuration of a full-color copying machine (hereinafter, simply referred to as “copier”) 1 as an example of an image forming apparatus.

【0012】複写機1は、画像読取部200で原稿を読
み取って得たデジタル画像データを用いて画像形成部3
00で画像を形成するものであって、画像読取部200
の上部には自動原稿送り装置100が設けられている。
通常は、自動原稿送り装置100により画像読み取り位
置に搬送された原稿を画像読取部200で読み取り、得
られた画像データを画像形成部300に転送し、画像形
成部300において記録シート上に画像を形成する。も
っとも、外部インターフェース207によってパーソナ
ル・コンピュータ(PC)等の外部機器との接続が可能
である。これによって、画像読取部200で読み取って
得た画像データを外部機器に出力するスキャナ機能や、
外部機器から入力された画像データを用いて画像形成部
300で画像を形成するプリンタ機能を実現することが
できる。
The copying machine 1 uses an image forming unit 3 using digital image data obtained by reading an original by an image reading unit 200.
00 to form an image, the image reading unit 200
An automatic document feeder 100 is provided at the upper part of FIG.
Normally, the document conveyed to the image reading position by the automatic document feeder 100 is read by the image reading unit 200, and the obtained image data is transferred to the image forming unit 300, and the image forming unit 300 prints an image on a recording sheet. Form. Of course, the external interface 207 allows connection with an external device such as a personal computer (PC). Thereby, a scanner function of outputting image data obtained by reading by the image reading unit 200 to an external device,
It is possible to realize a printer function of forming an image in the image forming unit 300 using image data input from an external device.

【0013】自動原稿送り装置100は、原稿トレイ1
01にセットされた原稿を画像読取部200の画像読み
取り位置に搬送し、原稿の読み取りを行った後に原稿を
原稿排出トレイ103上に排出する。原稿の搬送動作
は、図示しない操作パネルからの指示に従って行われ、
原稿の排出動作は画像読取部200からの読み取り終了
信号に従って行われる。複数枚の原稿がセットされてい
る場合には、これらの制御信号が連続的に発生され、原
稿の搬送、読み取り、排出の各動作が順次実行される。
The automatic document feeder 100 includes a document tray 1
The document set at 01 is transported to the image reading position of the image reading unit 200, and after reading the document, the document is discharged onto the document discharge tray 103. The document transport operation is performed according to an instruction from an operation panel (not shown).
The document discharging operation is performed according to a reading completion signal from the image reading unit 200. When a plurality of originals are set, these control signals are continuously generated, and the operations of conveying, reading, and discharging the originals are sequentially performed.

【0014】画像読取部200では、原稿ガラス208
上に載置された原稿を露光ランプ201で照射し、3枚
のミラー2021〜2023を含むミラー群202、及
びレンズ203を介して反射光をCCDセンサ204上
に結像させる。露光ランプ201及び第1ミラー202
1は、スキャンモータ209により、複写倍率に応じた
速度Vで矢印A方向に駆動され、これによって、原稿ガ
ラス208上の原稿を全面にわたって走査する。露光ラ
ンプ201及び第1ミラー2021のスキャンにともな
い、第2ミラー2022及び第3ミラー2023は、速
度V/2で同じく矢印A方向に移動する。露光ランプ2
01の位置は、ホーム位置からの移動量、即ちスキャン
モータ209のステップ数とスキャンホームセンサ21
0の検出信号とにより算出され、制御される。
In the image reading section 200, the original glass 208
The original placed above is irradiated with an exposure lamp 201, and reflected light is imaged on a CCD sensor 204 via a mirror group 202 including three mirrors 2021 to 2023 and a lens 203. Exposure lamp 201 and first mirror 202
1 is driven by a scan motor 209 in the direction of arrow A at a speed V corresponding to the copy magnification, thereby scanning the entire surface of the original on the original glass 208. With the scanning of the exposure lamp 201 and the first mirror 2021, the second mirror 2022 and the third mirror 2023 also move in the direction of the arrow A at the speed V / 2. Exposure lamp 2
The position 01 is the amount of movement from the home position, that is, the number of steps of the scan motor 209 and the scan home sensor 21.
It is calculated and controlled by the 0 detection signal.

【0015】CCDセンサ204に入射した原稿の反射
光は、CCDセンサ204内で電気信号に変換され、画
像処理部205において、アナログ処理、AD変換、及
びデジタル画像処理等が行われ、外部インターフェース
207や画像形成部300に送られる。原稿ガラス20
8上の原稿読み取り位置とは別に、白色のシェーディン
グ補正板206が配置されており、原稿上の画像情報の
読み取りに先立って、シェーディング補正用の補正デー
タの作成のために、このシェーディング補正板を読み取
る。
The reflected light of the document incident on the CCD sensor 204 is converted into an electric signal in the CCD sensor 204, and is subjected to analog processing, AD conversion, digital image processing, and the like in an image processing unit 205. And the image forming unit 300. Original glass 20
In addition to the original reading position on the original 8, a white shading correction plate 206 is arranged. Prior to reading image information on the original, the shading correction plate 206 is used to generate correction data for shading correction. read.

【0016】次に、画像形成部300について説明す
る。まず、露光及びイメージングについて説明する。画
像読取部200又は外部インターフェース207から送
られてきた画像データは、C(シアン)、M(マゼン
タ)、Y(イエロー)、K(ブラック)の各色の印字用
データに変換され、図示しない各露光ヘッドの制御部に
送られる。各露光ヘッド制御部では、送られてきた画像
データの画素値に応じてレーザを発光させる。そして、
射出されたレーザ光をポリゴンミラー301により1次
元走査し、各イメージングユニット302C、302
M、302Y、302K内の感光体表面を露光する。
Next, the image forming section 300 will be described. First, exposure and imaging will be described. The image data sent from the image reading unit 200 or the external interface 207 is converted into printing data of each color of C (cyan), M (magenta), Y (yellow), and K (black), It is sent to the control unit of the head. Each exposure head control unit emits a laser according to the pixel value of the sent image data. And
The emitted laser light is one-dimensionally scanned by a polygon mirror 301, and each imaging unit 302C, 302
The surfaces of the photoconductors in M, 302Y and 302K are exposed.

【0017】各イメージングユニット302C〜302
K内には、感光体を中心として電子写真プロセスを行う
ために必要なエレメントが配置されており、C、M、
Y、K用の各感光体が時計回りに回転することにより、
電子写真プロセスが連続的に行われる。画像形成に必要
な各イメージングユニット302C〜302Kは、各色
ごとに一体化され、本体に着脱自在な構造となってい
る。各イメージングユニット302C〜302K内の感
光体表面に、前記した露光によって形成された潜像は、
各色の現像器により現像される。現像により形成された
感光体表面のトナー像は、用紙搬送ベルト304内に感
光体と対向して配置された転写チャージャ303C〜3
03Kにより、用紙搬送ベルト304上を搬送される記
録シートに転写される。
Each of the imaging units 302C-302
In K, elements necessary for performing an electrophotographic process centering on a photoreceptor are arranged, and C, M,
By rotating each photoconductor for Y and K clockwise,
The electrophotographic process is performed continuously. Each of the imaging units 302C to 302K required for image formation is integrated for each color, and has a structure that is detachable from the main body. A latent image formed by the above-described exposure on the surface of the photoconductor in each of the imaging units 302C to 302K is
Each color is developed by a developing device. The toner images formed on the surface of the photoconductor formed by development are transferred to transfer chargers 303 </ b> C to 303 </ b> C arranged in the paper transport belt 304 so as to face the photoconductor.
At 03K, the image is transferred to a recording sheet conveyed on the sheet conveying belt 304.

【0018】次に、記録シートの給紙、搬送、及び定着
について説明する。転写される側の記録シートは以下の
順序で転写位置に供給され、その上に画像が形成され
る。給紙カセット310a〜310cの中には様々なサ
イズの記録シートがセットされており、所望のサイズの
記録シートが各給紙カセット310a〜310cに取り
付けられている給紙ローラ312a〜312cにより搬
送路へ供給される。
Next, the feeding, conveyance, and fixing of a recording sheet will be described. The recording sheet to be transferred is supplied to the transfer position in the following order, and an image is formed thereon. Recording sheets of various sizes are set in the sheet cassettes 310a to 310c, and recording sheets of a desired size are transported by sheet feeding rollers 312a to 312c attached to the sheet cassettes 310a to 310c. Supplied to

【0019】搬送路へ供給された記録シートは、搬送ロ
ーラ対313により用紙搬送ベルト304上に送られ
る。ここでは、タイミングセンサ306により、用紙搬
送ベルト304上の基準マークを検出し、搬送される記
録シートの搬送タイミング合わせが行われる。また、イ
メージングユニット302C〜302Kの記録シート搬
送方向最下流には、レジスト補正センサ312が主走査
方向に沿って3個配置されており、用紙搬送ベルト30
4上にレジストパターンを形成した際に、このセンサ3
12によってC、M、Y、Kの各色の画像の主走査方向
及び副走査方向の色ずれ量を検出し、プリントイメージ
制御部(PIC部)での描画位置補正と画像歪み補正を
行うことによって、記録シート上の色ずれを防止してい
る。そして、転写された記録シート上のトナー像は、定
着ローラ対307により加熱溶融されて記録シート上に
定着された後、排紙トレイ311上に排出される。
The recording sheet supplied to the transport path is transported onto a paper transport belt 304 by a transport roller pair 313. Here, the timing sensor 306 detects a reference mark on the sheet conveyance belt 304, and adjusts the conveyance timing of the conveyed recording sheet. At the most downstream of the imaging units 302C to 302K in the recording sheet conveyance direction, three registration correction sensors 312 are arranged along the main scanning direction.
When a resist pattern is formed on
12 detects the amount of color misregistration in the main scanning direction and the sub-scanning direction of the image of each color of C, M, Y, and K, and performs the drawing position correction and the image distortion correction in the print image control unit (PIC unit). This prevents color shift on the recording sheet. Then, the transferred toner image on the recording sheet is heated and melted by the fixing roller pair 307 to be fixed on the recording sheet, and then discharged onto the discharge tray 311.

【0020】なお、両面コピーの場合には、記録シート
裏面への画像形成のため、定着ローラ対307によりト
ナー像が定着された記録シートは用紙反転ユニット30
9により反転され、両面ユニット308により導かれる
ことにより、再度搬送径路に給紙される。なお、用紙搬
送ベルト304は、ベルト待避ローラ305の上下の移
動により、C、M、Yの各イメージングユニット302
C、302M、302Yから待避でき、用紙搬送ベルト
304と各色の感光体との間を非接触状態にすることが
できる。即ち、モノクロ画像の形成時には、各イメージ
ングユニット302C、302M、302Yの駆動を停
止することができるため、感光体その他の摩耗を防止す
ることができる。
In the case of double-sided copying, the recording sheet on which the toner image is fixed by the fixing roller pair 307 is used to form an image on the back surface of the recording sheet.
9 and is guided by the duplex unit 308 to be fed again to the transport path. The paper transport belt 304 is moved up and down by a belt retracting roller 305 to move the C, M, and Y imaging units 302.
C, 302M, and 302Y can be evacuated, and the paper transport belt 304 and the photoconductor of each color can be brought into a non-contact state. That is, when a monochrome image is formed, the driving of each of the imaging units 302C, 302M, and 302Y can be stopped, so that abrasion of the photoconductor and the like can be prevented.

【0021】(2)画像処理部205の構成 次に、画像読取部200に設けられる画像処理部205
の信号処理の内容について説明する。図2及び図3は、
画像処理部205の構成を示す機能ブロック図である。
図2に示されるCCDセンサ204は、原稿面からの反
射光の強さに応じて、原稿画像をR、G、Bの各色に分
解した電気信号に変換する。CCDセンサ204の読み
取り解像度は、400dpi、600dpi、800d
pi、1200dpiなどに切り替えることができる。
AD変換部401は、基準駆動パルス生成部411から
出力されるタイミング信号に基づいて、CCDセンサ2
04から出力されるアナログ信号をR、G、Bの各色情
報ごとに8ビットつまり256階調のデジタルデータに
変換する。
(2) Configuration of Image Processing Unit 205 Next, the image processing unit 205 provided in the image reading unit 200
The content of the signal processing will be described. FIG. 2 and FIG.
FIG. 3 is a functional block diagram illustrating a configuration of an image processing unit 205.
The CCD sensor 204 shown in FIG. 2 converts an original image into electrical signals separated into R, G, and B colors according to the intensity of light reflected from the original surface. The reading resolution of the CCD sensor 204 is 400 dpi, 600 dpi, 800d
Pi, 1200 dpi, etc.
The A / D conversion unit 401 receives the CCD sensor 2 based on the timing signal output from the reference drive pulse generation unit 411.
The analog signal output from the converter 04 is converted into digital data of 8 bits, that is, 256 gradations for each color information of R, G, and B.

【0022】シェーディング補正部402では、R、
G、Bの各色の画像データの主走査方向の光量むらをな
くすための補正を行う。シェーディング補正のために
は、各色ごとに独立して、シェーディング補正板206
を読み取って得たデータを、内部のシェーディングメモ
リに基準データとして格納しておく。具体的には、原稿
の走査時に、基準データを逆数変換して画像データと乗
算を行うことによって補正を行うことができる。
In the shading correction unit 402, R,
Correction for eliminating unevenness in the amount of light in the main scanning direction of the image data of each color of G and B is performed. For shading correction, the shading correction plate 206 is independently provided for each color.
Are stored as reference data in an internal shading memory. Specifically, the correction can be performed by reciprocal conversion of the reference data and multiplication with the image data when scanning the document.

【0023】ライン間補正部403では、R、G、Bの
各センサチップのスキャン方向の読み取り位置を合わせ
るために、スキャン速度に応じて、内部のフィールドメ
モリを用いて各色の画像データをライン単位でディレイ
制御する。光学レンズによって生じる色収差現象によっ
て、主走査側の原稿端部側ほどR、G、Bの各色の読み
取り位相差が大きくなる。この影響によって、単なる色
ずれ以外に後述するACS判定などで誤判別を引き起こ
す恐れがある。そこで、色収差補正部404では、R、
G、Bの位相差を彩度情報に基づいて補正する。
The line-to-line correction unit 403 converts the image data of each color in line units using an internal field memory according to the scanning speed in order to match the reading position of each of the R, G, and B sensor chips in the scanning direction. To control the delay. Due to the chromatic aberration phenomenon caused by the optical lens, the reading phase difference of each color of R, G, and B becomes larger toward the document end on the main scanning side. Due to this effect, erroneous determination may be caused by ACS determination, which will be described later, other than simple color shift. Therefore, the chromatic aberration correction unit 404 uses R,
The phase difference between G and B is corrected based on the saturation information.

【0024】変倍・移動制御部406では、R、G、B
の各色の画像データごとに、変倍用ラインメモリを2個
用いて、1ラインごとに入出力を交互動作させ、そのラ
イト・リードタイミングを独立して制御することで主走
査方向の変倍・移動処理を行う。即ち、メモリへの書き
込み時のデータを間引くことにより縮小を、メモリから
の読み出し時にデータの水増しを行うことにより拡大を
行う。なお、この制御において、変倍率に応じて縮小側
ではメモリの書き込み前に、拡大側ではメモリの読み出
し後に、それぞれ補間処理を行い、画像欠損やガタツキ
を防止している。このブロック上の制御とスキャン制御
とを組合せて、拡大と縮小とだけでなく、センタリン
グ、イメージリピート、綴じ代縮小などの処理を行う。
In the scaling / movement control unit 406, R, G, B
By using two scaling line memories for each image data of each color, input and output are alternately operated for each line, and the writing / reading timing is controlled independently, so that scaling in the main scanning direction can be performed. Perform a move process. That is, reduction is performed by thinning out data at the time of writing to the memory, and expansion is performed by padding the data at the time of reading from the memory. In this control, interpolation processing is performed on the reduction side before writing to the memory and on the enlargement side after reading out the memory in accordance with the magnification to prevent image loss and rattling. By combining the control on this block and the scan control, not only enlargement and reduction, but also processing such as centering, image repeat, and binding margin reduction are performed.

【0025】ヒストグラム生成部412及び自動カラー
選択(ACS)判定部413では、原稿をコピーする動
作に先立ち、予備スキャンして得られたR、G、B各色
の画像データから明度データを作成し、そのヒストグラ
ムをメモリ上に作成する一方、彩度データによって1ド
ットごとにカラードットか否かを判定し、原稿上で51
2ドット四方のメッシュごとのカラードット数をメモリ
上に作成する。この結果に基づいて、コピー下地レベル
自動制御(AE処理)及びカラーコピー動作かモノクロ
コピー動作かの自動カラー選択(ACS処理)を行う。
The histogram generation unit 412 and the automatic color selection (ACS) determination unit 413 create brightness data from R, G, and B color image data obtained by preliminary scanning prior to the operation of copying a document. While the histogram is created in the memory, it is determined whether or not each dot is a color dot based on the saturation data.
The number of color dots for each two-dot square mesh is created on the memory. Based on this result, automatic copy base level control (AE processing) and automatic color selection (ACS processing) for color copy operation or monochrome copy operation are performed.

【0026】ラインバッファ部414では、画像読取部
200で読み取ったR、G、Bの各色の画像データを1
ライン分記憶できるメモリを有し、AD変換部401で
のCCDセンサ204の自動感度補正や自動クランプ補
正のための画像解析用に画像データのモニタが行えるよ
うになっている。HVC変換部421では、データセレ
クタ422を介して入力されたR、G、Bの各色のデー
タから、3*3の行列演算によって、明度(Vデータ)
及び色差信号(Cr、Cbデータ)に一旦変換する。
The line buffer unit 414 stores the image data of each color of R, G, and B read by the image reading unit 200 in one line.
It has a memory that can store the data for each line, and can monitor image data for image analysis for automatic sensitivity correction and automatic clamp correction of the CCD sensor 204 in the AD conversion unit 401. The HVC conversion unit 421 performs brightness (V data) by a 3 * 3 matrix operation from the data of each color of R, G, and B input via the data selector 422.
And color difference signals (Cr, Cb data).

【0027】次に、AE処理部423において、先に述
べた下地レベル制御値に基づいてVデータを補正し、操
作パネル上で設定された彩度レベル及び色相レベルに応
じてCr、Cbデータの補正を行う。その後、逆HVC
変換部424において、3*3の逆行列演算を行い、
R、G、Bの各色のデータに再変換する。図3に示され
る色補正部430では、LOG補正部431でR、G、
Bの各色のデータを濃度データ(DR、DG、DBデー
タ)に変換後、墨量抽出部432において、DR、D
G、DBデータの最小色レベルを原稿下色成分として検
出し、同時に、R、G、Bの各色の最大色と最小色の階
調レベル差を原稿彩度データとして検出する。
Next, the AE processing unit 423 corrects the V data based on the background level control value described above, and outputs the Cr and Cb data according to the saturation level and the hue level set on the operation panel. Make corrections. Then, reverse HVC
The conversion unit 424 performs a 3 * 3 inverse matrix operation,
The data is reconverted into data of each color of R, G, B. In the color correction unit 430 shown in FIG.
After converting the data of each color B into density data (DR, DG, DB data), the black amount extraction unit 432 outputs
The minimum color level of the G and DB data is detected as the lower color component of the document, and at the same time, the gradation level difference between the maximum color and the minimum color of each of the R, G, and B colors is detected as document saturation data.

【0028】DR、DG、DBデータは、マスキング演
算部433で3*6の非線型行列演算処理されて、プリ
ンタの各色トナーにマッチングした色データ(C、M、
Y、Kデータ)に変換される。下地除去・墨加刷処理部
(UCR・BP処理部)434は、先に述べた原稿下色
成分(Min(R,G,B))に対して、原稿彩度デー
タに応じたUCR・BP係数を算出し、乗算処理によっ
てUCR・BP量を決定し、マスキング演算後のC、
M、Yデータから下色除去量(UCR)を差分して、
C、M、YデータとKデータを算出する。また、モノク
ロデータ生成部435で、R、G、Bの各色のデータか
ら明度成分を作成し、LOG補正してブラックデータ
(DVデータ)を出力する。最後に、色データ選択部4
36でカラーコピー用画像であるC、M、Y、Kデータ
とモノクロコピー用画像であるDVデータ(C、M、Y
は白)を選択する。
The DR, DG, and DB data are subjected to 3 * 6 non-linear matrix operation processing by the masking operation unit 433, and color data (C, M,
(Y, K data). A base color removal / black addition processing unit (UCR / BP processing unit) 434 converts the under color component (Min (R, G, B)) of the original into a UCR / BP corresponding to the original saturation data. The coefficient is calculated, the UCR / BP amount is determined by a multiplication process, and C,
By subtracting the undercolor removal amount (UCR) from the M and Y data,
Calculate C, M, Y data and K data. Further, the monochrome data generation unit 435 creates a lightness component from the data of each color of R, G, and B, performs LOG correction, and outputs black data (DV data). Finally, the color data selection unit 4
At 36, C, M, Y, K data as color copy images and DV data (C, M, Y) as monochrome copy images
Is white).

【0029】領域判別部440は、データセレクタ42
2を介して入力されるR、G、Bの各色の画像データに
基づいて、各画素について、文字画像、罫線などの線画
など背景画像との濃度差(強度差)が比較的大きいエッ
ジ部を有する画像(以下、総称して「文字画像」とい
う。)のエッジ領域の画素であるか否か、網点領域に存
在する画素であるか否か等を判別し、判別結果を示す領
域判別信号S10〜S13を出力する。領域判別部44
0の詳細な構成については後述する。
The area discriminating section 440 is connected to the data selector 42
Based on the image data of each color of R, G, and B input through the interface 2, an edge portion having a relatively large density difference (intensity difference) from a background image such as a character image or a line drawing such as a ruled line is determined for each pixel. An area determination signal indicating whether the pixel is an edge area pixel of an image (hereinafter, referred to as a “character image”) or a pixel existing in a halftone dot area; S10 to S13 are output. Area determination unit 44
The detailed configuration of 0 will be described later.

【0030】画像補正部460は、色補正部430から
のC、M、Y、Kの各データに対して、第1のスムージ
ング処理、第2のスムージング処理およびエッジ強調処
理を施し、領域判別部440から出力される領域判別信
号に基づいて、第1のスムージング処理を施したもの
を出力する、第2のスムージング処理を施したものを
出力する、エッジ強調処理を施したものを出力する、
いずれの処理も施さないで出力する、の内のいずれか
を選択し、当該選択した補正処理が施されたものをプリ
ントイメージ制御I/F(インターフェース)465に
転送する。
The image correction unit 460 performs a first smoothing process, a second smoothing process, and an edge enhancement process on each of the C, M, Y, and K data from the color correction unit 430, and performs an area determination unit. Based on the area discrimination signal output from 440, outputs a signal subjected to the first smoothing processing, outputs a signal subjected to the second smoothing processing, outputs a signal subjected to the edge enhancement processing,
Output without performing any processing is selected, and the one subjected to the selected correction processing is transferred to the print image control I / F (interface) 465.

【0031】ここで、第1のスムージング処理は、網点
画像に対して従来から施されている平滑化処理であり、
第2のスムージング処理は、本発明の特徴的な処理であ
って、第1のスムージング処理で用いられるスムージン
グフィルタとは異なる構成のフィルタを用いて平滑化処
理するものである。第1と第2のスムージング処理のス
ムージングフィルタの構成、およびどのような領域判別
信号が出力された場合に、どの補正処理を施したものを
出力するかについては後に詳細に説明する。また、画像
補正部460は、C、M、Y、Kのデータを、図2に示
すデータセレクタ466を介して画像インターフェース
部467に送る。
Here, the first smoothing process is a smoothing process conventionally performed on a halftone image,
The second smoothing process is a characteristic process of the present invention, and performs a smoothing process using a filter having a different configuration from the smoothing filter used in the first smoothing process. The configuration of the smoothing filter of the first and second smoothing processes and what correction processing is performed when an area discrimination signal is output will be described later in detail. Further, the image correction unit 460 sends the data of C, M, Y, and K to the image interface unit 467 via the data selector 466 shown in FIG.

【0032】画像インターフェース部467は、外部装
置と画像データの入出力を行う部分である。画像インタ
ーフェース部467によって、R、G、Bの各色のデー
タの同時入出力、及びC、M、Y、Kのデータの順次入
出力が可能である。外部機器側は、複写機1のスキャナ
機能やプリンタ機能を利用することができる。 (3)領域判別部440の構成 図4は、領域判別部440の構成を示す図である。
The image interface section 467 is a section for inputting and outputting image data to and from an external device. The image interface unit 467 enables simultaneous input and output of data of each color of R, G, and B, and sequential input and output of data of C, M, Y, and K. The external device can use the scanner function and the printer function of the copier 1. (3) Configuration of Area Determining Unit 440 FIG. 4 is a diagram illustrating a configuration of the area determining unit 440.

【0033】領域判別部440は、R、G、Bの各色の
データから、領域判別の対象画素(以下、単に「対象画
素」ともいう。)が、どのような領域に存在するものか
を判別し、領域判別信号S10〜S13を画像補正部4
60に出力する。領域判別部440は、明度/彩度検出
部441、網点検出部444、エッジ検出部447、お
よびエッジ周辺領域検出部448を有しており、各部の
出力を以後の論理回路で処理することにより、領域判別
信号S10〜S13を出力している。以下、各部の処理
内容について詳細に説明する。
The area discriminating section 440 discriminates, from the data of each of the colors R, G, and B, what kind of area the target pixel for area discrimination (hereinafter, simply referred to as “target pixel”) exists. Then, the area determination signals S10 to S13 are transmitted to the image correction unit 4
Output to 60. The area discriminating section 440 has a lightness / chroma detecting section 441, a halftone dot detecting section 444, an edge detecting section 447, and an edge peripheral area detecting section 448. The output of each section is processed by a subsequent logic circuit. Output region determination signals S10 to S13. Hereinafter, the processing contents of each unit will be described in detail.

【0034】明度/彩度検出部441は、R、G、B各
色のデータ(反射光データ)をLab変換し、彩度デー
タ及び明度(L)データS1を生成する。本実施の形態
では、彩度データに関する詳細な説明は省略する。網点
検出部444は、孤立点検出部442と孤立点カウント
部443からなり、孤立点検出部442は、まず、対象
画素を中心とした所定の大きさ、例えば5画素*5画素
のウィンドウを設定し、明度/彩度検出部441から送
られてくる当該対象画素とその周辺画素の明度(L)デ
ータS1を比較し、その比較結果に基づき、当該対象画
素が孤立点に該当するか否かを判定し、その判定結果を
示す信号S2を出力する。
The lightness / saturation detecting unit 441 performs Lab conversion of the data (reflected light data) of each of the R, G, and B colors to generate chroma data and lightness (L) data S1. In the present embodiment, a detailed description of the saturation data is omitted. The halftone dot detecting section 444 includes an isolated point detecting section 442 and an isolated point counting section 443. The isolated point detecting section 442 firstly sets a window of a predetermined size centered on the target pixel, for example, 5 pixels * 5 pixels. After setting, the target pixel transmitted from the lightness / saturation detection unit 441 is compared with the lightness (L) data S1 of the surrounding pixels, and based on the comparison result, whether the target pixel is an isolated point is determined. And outputs a signal S2 indicating the result of the determination.

【0035】孤立点カウント部443は、対象画素を中
心とした所定の大きさのウィンドウを設定し、孤立点検
出部442の出力信号S2に基づいて、当該ウィンドウ
内の孤立点、ここでは黒孤立点(明度の高い画素を背景
として明度の低い画素が孤立して存在する場合の孤立
点)の数をカウントする。カウントされた黒孤立点の数
を予め設定された閾値REF1と比較し、孤立点の数が
閾値REF1よりも多い場合に領域判別信号S10をハ
イとし、それ以外の場合にS10をローとする。S10
がハイであった場合、当該対象画素は網点領域内の画素
であることを示す。なお、この網点検出部444の構成
については、例えば特開2000−59616号公報に
詳しい。
The isolated point counting section 443 sets a window of a predetermined size centering on the target pixel, and, based on the output signal S2 of the isolated point detecting section 442, an isolated point within the window, here a black isolated The number of points (isolated points in the case where pixels with low lightness are isolated with respect to pixels with high lightness as background) is counted. The number of counted black isolated points is compared with a preset threshold value REF1, and if the number of isolated points is larger than the threshold value REF1, the area determination signal S10 is set to high; otherwise, S10 is set to low. S10
Is high, it indicates that the target pixel is a pixel in the dot area. The configuration of the dot detection unit 444 is described in detail in, for example, JP-A-2000-59616.

【0036】一方、エッジ検出部447は、エッジ量算
出部445とエッジカウント部446からなり、エッジ
量算出部445は、対象画素を中心とした所定の大きさ
のウィンドウを設定し、明度/彩度検出部441にて生
成された明度(L)データS1から、1次微分又は2次
微分によりエッジ量を算出する。そして、算出されたエ
ッジ量を予め設定されている所定の閾値REF2と比較
し、エッジ量がREF2より大きければ、当該対象画素
を文字画像のエッジ領域(以下、「文字エッジ領域」と
いう。)内の画素と判断して出力信号(エッジ信号)S
3をハイとし、それ以外の場合はエッジ領域内ではない
としてエッジ信号S3をローとする。
On the other hand, the edge detecting section 447 comprises an edge amount calculating section 445 and an edge counting section 446. The edge amount calculating section 445 sets a window of a predetermined size centering on the target pixel, and sets the brightness / color. The edge amount is calculated from the lightness (L) data S1 generated by the degree detection unit 441 by primary differentiation or secondary differentiation. Then, the calculated edge amount is compared with a predetermined threshold value REF2 set in advance, and if the edge amount is larger than REF2, the target pixel is located in an edge area of a character image (hereinafter, referred to as a “character edge area”). Output signal (edge signal) S
3 is set to high, and otherwise, the edge signal S3 is set to low because it is not within the edge area.

【0037】エッジカウント部446は、対象画素を中
心とした所定の大きさ、例えば5画素*5画素のウィン
ドウを設定し、エッジ量算出部445からのエッジ信号
S3に基づいて、当該ウィンドウ内に存在する文字エッ
ジ領域内と判断された画素の数をカウントする。そし
て、カウントされた結果の値が所定の閾値REF3より
多いか否かを判断し、多いと判断した場合に当該対象画
素を文字エッジ領域の画素と決定して出力信号S13を
ハイとし、多くないと判断した場合は、文字エッジ領域
の画素でないと決定して領域判別信号S13をローとす
る(以下、文字エッジ領域の画素と決定された画素を
「エッジ画素」という。)。
The edge counting section 446 sets a window of a predetermined size around the target pixel, for example, 5 pixels × 5 pixels, and based on the edge signal S 3 from the edge amount calculation section 445, sets the window within the window. The number of pixels determined to be within the existing character edge area is counted. Then, it is determined whether or not the value of the counted result is greater than a predetermined threshold value REF3. If it is determined that the value is greater, the target pixel is determined to be a pixel in the character edge area, and the output signal S13 is set to high. When it is determined that the pixel is not a pixel in the character edge area, the area determination signal S13 is set to low (hereinafter, a pixel determined to be a pixel in the character edge area is referred to as an “edge pixel”).

【0038】このようにウインドウ内に存在するエッジ
画素の数をカウントして所定の閾値REF3より多いか
否かを判断するのは、次の理由による。すなわち、文字
エッジ領域では、エッジ画素が連続して存在している可
能性が高いはずであり、そうであれば、当該ウインドウ
内には、エッジ画素が所定数以上含まれているはずであ
る。したがって、カウントされた結果の値が上記閾値R
EF3以下である場合には、文字エッジ領域に該当しな
い可能性が高いこと、また文字画像に接している網点領
域内の画素に該当する可能性もあることから、可能な限
り誤判別を防止することが好ましいからである。連続す
る可能性が高いことを考慮して、文字エッジ領域の画素
か否かを決定する条件に、さらに連続するエッジ画素の
数が所定値以上であるか否かを判断するという条件を加
えるようにすれば、より正確な判別を実現できる。
The reason why the number of edge pixels existing in the window is counted to determine whether the number of edge pixels is larger than the predetermined threshold value REF3 is as follows. That is, in the character edge region, there is a high possibility that edge pixels are continuously present, and in that case, a predetermined number or more of edge pixels should be included in the window. Therefore, the value of the counted result is equal to the threshold R
If EF3 or less, erroneous determination is prevented as much as possible because there is a high possibility that the image does not correspond to the character edge region, and there is also a possibility that it corresponds to a pixel in the halftone dot region that is in contact with the character image It is because it is preferable to do. Considering that it is highly likely to be continuous, a condition for determining whether or not the number of continuous edge pixels is a predetermined value or more is added to the condition for determining whether or not the pixel is in the character edge area. By doing so, more accurate determination can be realized.

【0039】また、本実施の形態では、網点領域内に存
在する文字画像のエッジ領域(以下、「網点中文字エッ
ジ領域」という。)をより判断しやすくするため、無地
(白地)に文字画像が存在する場合における文字エッジ
領域を判断するために通常用いられる閾値よりも、上記
REF2の値を小さくしている。これは、網点中文字エ
ッジ領域においては、網点の下地に文字のエッジが存在
するため、無地に存在する場合に比べてエッジ量が低め
になることから、閾値を小さく設定してエッジを検出し
やすくすることが好ましいからである。
Further, in the present embodiment, in order to make it easier to determine the edge area of the character image existing in the halftone dot area (hereinafter referred to as "character edge area in halftone dot"), a plain (white) background is used. The value of the REF2 is set to be smaller than a threshold value usually used for determining a character edge region when a character image exists. This is because, in the character edge region in the halftone dot, since the character edge exists on the background of the halftone dot, the edge amount is lower than that in the case of the plain color, so the threshold is set small and the edge is set. This is because it is preferable to make the detection easy.

【0040】エッジ周辺領域検出部448は、対象画素
を中心とした所定の大きさ、本実施の形態では縦3画素
*横3画素の大きさのウィンドウを設定し、当該ウイン
ドウ内の対象画素以外の他の画素の中に、エッジ画素が
存在するか否かを判断し、存在すると判断した場合は、
当該対象画素を、エッジ画素の周辺の領域(以下、「エ
ッジ周辺領域」という。)に存在する画素(以下、「エ
ッジ周辺画素」という。)であると判定し、出力信号S
21をハイとする。一方、エッジ画素が存在しないと判
断した場合は、S21をローとする。このエッジ周辺領
域検出部448の動作を図5を用いて具体的に説明す
る。
The edge peripheral area detecting section 448 sets a window of a predetermined size centered on the target pixel, in this embodiment, a size of 3 pixels vertically × 3 pixels horizontally, and sets a window other than the target pixel in the window. Among the other pixels, it is determined whether or not an edge pixel exists.
The target pixel is determined to be a pixel (hereinafter, referred to as “edge peripheral pixel”) existing in a region around the edge pixel (hereinafter, referred to as “edge peripheral region”), and the output signal S is determined.
Let 21 be high. On the other hand, when it is determined that there is no edge pixel, S21 is set to low. The operation of the edge peripheral area detecting section 448 will be specifically described with reference to FIG.

【0041】図5は、網点領域内に存在する文字画像の
エッジの一部を縦5画素*横5画素の範囲に分解して示
した模式図である。ここでは、V11、V21・・V5
1およびV12、V22・・V52の10画素が、文字
画像領域の画素であり、エッジ画素と判定され、それ以
外の他の15画素が、網点領域に属する画素であるとし
て説明する。
FIG. 5 is a schematic diagram showing a part of the edge of the character image existing in the halftone dot area in a range of 5 pixels vertically × 5 pixels horizontally. Here, V11, V21... V5
It is assumed that 10 pixels 1 and V12, V22,..., V52 are pixels in the character image area and are determined to be edge pixels, and the other 15 pixels are pixels belonging to the dot area.

【0042】このような画像において、例えば対象画素
をV33とした場合、縦3画素*横3画素の大きさのウ
ィンドウ内に3つのエッジ画素V22、V32、V42
が存在するので、V33は、エッジ周辺画素であると判
定される。一方で、V34を対象画素とすると、当該ウ
インドウ内にはエッジ画素が一つも存在しなくなるの
で、エッジ周辺画素ではないと判定されることになる。
これより、同図の画像において網点領域内の画素の内、
エッジ周辺画素と判定されるのは、V13、V23・・
V53が対象画素になった場合となる。
In such an image, for example, when the target pixel is V33, three edge pixels V22, V32, and V42 are set in a window having a size of three vertical pixels * three horizontal pixels.
Is present, V33 is determined to be an edge peripheral pixel. On the other hand, assuming that V34 is the target pixel, no edge pixel is present in the window, so that it is determined that the pixel is not an edge peripheral pixel.
Thus, in the image of FIG.
V13, V23,... Are determined as edge peripheral pixels.
This is the case when V53 has become the target pixel.

【0043】図4に戻って、AND回路449は、領域
判別信号S10及びS13の双方がハイであるときに、
領域判別信号S11をハイとする。すなわち、S11が
ハイである場合に、対象画素は、網点画像中に存在する
文字画像のエッジ画素であると判定されることとなる。
AND回路451は、出力信号S21およびS22(S
13がインバータ450で反転された信号)の双方がハ
イであるときに、領域判別信号S12をハイとする。す
なわち、S12がハイである場合に、対象画素は、エッ
ジ周辺画素であると判定されることになる。なお、S2
1とS22の信号の論理和をとるようにしたのは、次の
理由による。すなわち、エッジ周辺領域検出部448に
おいて、エッジ周辺画素であると判定された画素であっ
ても、例えば図5の構成においては、3画素*3画素の
ウインドウを用いると、エッジ画素として判定されたV
32を対象画素としたとき、当該V32がエッジ周辺画
素としても判定されることになってしまい、結果的にエ
ッジ周辺画素とエッジ画素とを区別することができない
場合が生じるからである。そこで、本実施の形態では、
論理和をとって、対象画素がエッジ画素と判定されずエ
ッジ周辺画素として判定された場合に、領域判別信号S
12がハイになるように構成することで、エッジ画素と
エッジ周辺画素とを区別するようにしている。
Returning to FIG. 4, when both the area discrimination signals S10 and S13 are high, the AND circuit 449 outputs
The area determination signal S11 is set to high. That is, when S11 is high, the target pixel is determined to be an edge pixel of the character image existing in the halftone dot image.
The AND circuit 451 outputs the output signals S21 and S22 (S
When both of the signals 13 are inverted by the inverter 450) are high, the area determination signal S12 is set to high. That is, when S12 is high, the target pixel is determined to be an edge peripheral pixel. Note that S2
The logical sum of the signal of 1 and S22 is obtained for the following reason. That is, in the configuration of FIG. 5, for example, in the configuration of FIG. 5, even if a pixel is determined to be an edge peripheral pixel by the edge peripheral region detection unit 448, the pixel is determined to be an edge pixel. V
This is because when the target pixel is 32, V32 is also determined as an edge peripheral pixel, and as a result, it may not be possible to distinguish between the edge peripheral pixel and the edge pixel. Therefore, in the present embodiment,
If the target pixel is determined not to be an edge pixel but to be a peripheral pixel by taking a logical sum, the region determination signal S
12 is set to be high, so that the edge pixel and the edge peripheral pixel are distinguished.

【0044】(4)画像補正部460の処理内容 図6は、画像補正部460の構成を示す図である。同図
に示すように、画像補正部460は、スムージング処理
部461、462、エッジ強調処理部463およびセレ
クタ464からなる。画像補正部460には、色補正部
430からのC、M、Y、Kの各濃度データが入力さ
れ、当該データはそのままセレクタ464の0、1、
2、3、7番端子に入力されると共に、スムージング処
理部461、462、エッジ強調処理部463に入力さ
れる。
(4) Processing Contents of Image Correction Unit 460 FIG. 6 is a diagram showing the configuration of the image correction unit 460. As shown in the figure, the image correction unit 460 includes smoothing processing units 461 and 462, an edge enhancement processing unit 463, and a selector 464. The image correction unit 460 receives the respective density data of C, M, Y, and K from the color correction unit 430, and the data is directly input to the selector 464 by the 0, 1,.
The signals are input to the terminals Nos. 2, 3, and 7, and are also input to the smoothing processing units 461 and 462 and the edge enhancement processing unit 463.

【0045】スムージング処理部461は、網点画像を
スムージング処理するのに従来から用いられている公知
のスムージング用のフィルタ、例えば図7に示すような
縦3画素*横3画素のフィルタを用いて、周辺画素の濃
度値の重み付け加算による移動平均を行って対象画素の
濃度データにスムージング処理を施し、セレクタ464
へ送出する。上記「第1のスムージング処理」は、この
スムージング処理部461において行われるスムージン
グ処理のことである。
The smoothing processing unit 461 uses a well-known smoothing filter conventionally used for smoothing a halftone dot image, for example, a filter of 3 × 3 pixels as shown in FIG. Then, a smoothing process is performed on the density data of the target pixel by performing a moving average by weighted addition of the density values of the peripheral pixels, and the selector 464.
Send to The “first smoothing process” is a smoothing process performed by the smoothing processing unit 461.

【0046】一方、スムージング処理部462は、当該
対象画素の濃度データに対して一のフィルタだけではな
く、複数、ここでは8個のフィルタ(図9参照)を用い
て別々にスムージング処理を施し、その中から所定の条
件を満たす一のフィルタを用いてスムージング処理され
たものをセレクタ464へ送出する。上記「第2のスム
ージング処理」は、本スムージング処理部462におい
て行われるスムージング処理のことである。スムージン
グ処理部462の構成については、後述する。
On the other hand, the smoothing processing section 462 separately performs smoothing processing on the density data of the target pixel using not only one filter but also a plurality of filters, here eight filters (see FIG. 9). The signal subjected to the smoothing processing using one filter satisfying a predetermined condition is sent to the selector 464. The “second smoothing process” is a smoothing process performed by the present smoothing processing unit 462. The configuration of the smoothing processing unit 462 will be described later.

【0047】エッジ強調処理部463は、エッジ強調処
理するのに従来から用いられている公知のフィルタを用
いて、当該対象画素の濃度データにエッジ強調処理を施
し、セレクタ464へ送出する。セレクタ464は、領
域判別部440から送られてくる領域判別信号S10、
S11、S12のハイ/ローの組み合わせによって、入
力端子0〜7に入力される信号の内、いずれの信号を一
の出力端子から出力するかを選択し、選択した信号をプ
リントイメージ制御I/F465へ出力させるものであ
る。
The edge emphasis processing section 463 performs an edge emphasis process on the density data of the target pixel by using a known filter conventionally used for the edge emphasis process, and sends the data to the selector 464. The selector 464 receives the area determination signal S10 sent from the area determination unit 440,
According to the combination of S11 and S12, a signal to be output from one output terminal is selected from the signals input to the input terminals 0 to 7, and the selected signal is printed image control I / F 465. Output to

【0048】下記の(表1)は、セレクタ464による
処理内容をまとめたものである。
The following (Table 1) summarizes the processing contents of the selector 464.

【0049】[0049]

【表1】 [Table 1]

【0050】上記(表1)に示したように、本実施の形
態の画像補正部460は、対象画素が網点領域内の画素
であってエッジ周辺領域以外の領域に存在する画素と判
定された場合(領域判別信号S10がハイ、S11がロ
ー、S12がローの場合)、入力端子4番に入力されて
いる信号を出力する。すなわち、スムージング処理部4
61による第1のスムージング処理が施されたデータを
出力することになる。
As shown in the above (Table 1), the image correction unit 460 of the present embodiment determines that the target pixel is a pixel in the halftone dot region and a pixel existing in a region other than the edge peripheral region. (When the area determination signal S10 is high, S11 is low, and S12 is low), the signal input to the input terminal 4 is output. That is, the smoothing processing unit 4
The data that has been subjected to the first smoothing process by 61 will be output.

【0051】一方、対象画素が網点領域内におけるエッ
ジ周辺領域(以下、「網点中文字エッジ周辺領域」とい
う。)に存在する画素と判定された場合(領域判別信号
S10がハイ、S11がロー、S12がハイの場合)、
入力端子5番に入力されている信号を出力する。すなわ
ち、スムージング処理部462による第2のスムージン
グ処理が施されたデータが出力されることになる。
On the other hand, when it is determined that the target pixel is a pixel existing in an edge peripheral area in the halftone dot area (hereinafter, referred to as "character edge peripheral area in halftone dot") (the area determination signal S10 is high and S11 is high). Low, when S12 is high),
The signal input to the input terminal 5 is output. That is, the data subjected to the second smoothing processing by the smoothing processing unit 462 is output.

【0052】また、対象画素が網点中文字エッジ領域内
の画素と判定された場合(領域判別信号S10がハイ、
S11がハイ、S12がローの場合)、入力端子6番に
入力されている信号を出力する。すなわち、エッジ強調
処理部463によるエッジ強調処理が施されたデータが
出力されることになる。なお、上記以外の領域の画素、
例えば網点領域内でもなく文字エッジ領域内でもない画
素などについては、本実施の形態では、何も処理を行わ
ずそのまま(スルーさせて)出力する。
When the target pixel is determined to be a pixel in the character edge area in the halftone dot (the area determination signal S10 is high,
When S11 is high and S12 is low), the signal input to the input terminal 6 is output. That is, the data subjected to the edge enhancement processing by the edge enhancement processing unit 463 is output. In addition, the pixels in the region other than the above,
For example, in the present embodiment, pixels which are neither in the halftone dot region nor in the character edge region are output without any processing (through).

【0053】すなわち、本実施の形態では、各画素それ
ぞれについてその濃度データにスムージング処理部46
1による第1のスムージング処理、スムージング処理部
462による第2のスムージング処理、およびエッジ強
調処理部463によるエッジ強調処理が施されるが、各
処理部により施された3つの濃度データおよび何も処理
されない濃度データの内、プリントイメージ制御I/F
465へ送られるのは、領域判別部440からの信号S
10〜S12に基づいてセレクタ464により選択され
たものだけとなる。
That is, in this embodiment, the smoothing processing section 46 applies the density data to each pixel.
1, the first smoothing process, the second smoothing process by the smoothing processing unit 462, and the edge enhancement process by the edge enhancement processing unit 463 are performed. Print image control I / F
The signal S sent from the area discriminating unit 440 is sent to the
Only those selected by the selector 464 based on 10 to S12.

【0054】図8は、スムージング処理部462の構成
を示す図である。同図に示すように、スムージング処理
部462は、ラインバッファ470、フィルタ処理部4
71〜478、方向検出回路479およびセレクタ48
0からなる。ラインバッファ470は、フィルタ処理部
471〜478におけるフィルタ処理に必要なライン分
のデータを一時的に蓄積する。
FIG. 8 is a diagram showing the configuration of the smoothing processing unit 462. As shown in the drawing, the smoothing processing unit 462 includes a line buffer 470, a filter processing unit 4
71 to 478, direction detection circuit 479 and selector 48
Consists of zero. The line buffer 470 temporarily accumulates data for the lines required for the filter processing in the filter processing units 471 to 478.

【0055】フィルタ処理部471は、図9に示す3画
素*3画素のスムージングフィルタ481を用い、周辺
画素の濃度値の重み付け加算による移動平均を行って対
象画素の濃度をスムージング処理し、スムージング処理
された濃度データを出力する回路である。具体的には、
縦3画素*横3画素のマトリクスで構成される画像の場
合、その画像のi行目、j列目(1≦i≦3、1≦j≦
3)の画素Vijの濃度データをDijとし、同様にス
ムージングフィルタ481のi行目、j列目の画素の係
数をKijとしたときに、対象画素V22の濃度データ
D22を、 D22=Σ(Dij*Kij)/Σ(Kij)・・・(式1) に基づいて演算し、平滑化するものである。例えば、図
5に示す画像において対象画素をV33としたときに、
フィルタ481を用いると、V33の濃度データD33
は、D33=(D23*2+D24*2+D33*4+
D34*2+D43*2+D44*2)/(2+2+4
+2+2+2)となる。
The filter processing unit 471 performs smoothing processing on the density of the target pixel by performing a moving average by weighted addition of the density values of peripheral pixels using a smoothing filter 481 of 3 * 3 pixels shown in FIG. Is a circuit for outputting the obtained density data. In particular,
In the case of an image composed of a matrix of 3 vertical pixels × 3 horizontal pixels, the i-th row and the j-th column (1 ≦ i ≦ 3, 1 ≦ j ≦
When the density data of the pixel Vij in 3) is Dij, and similarly, the coefficient of the pixel in the i-th row and the j-th column of the smoothing filter 481 is Kij, the density data D22 of the target pixel V22 is D22 = Σ (Dij * Kij) / Σ (Kij) (Equation 1) is calculated and smoothed. For example, when the target pixel is V33 in the image shown in FIG.
When the filter 481 is used, the density data D33 of V33
Is D33 = (D23 * 2 + D24 * 2 + D33 * 4 +
D34 * 2 + D43 * 2 + D44 * 2) / (2 + 2 + 4
+ 2 + 2 + 2).

【0056】同様に、フィルタ処理部472〜478
は、スムージングフィルタ482〜488を用いて平滑
化した濃度データをそれぞれ出力する。これにより、一
のデータに対して8個のスムージング処理されたデータ
が生成されてセレクタ480へ出力されることになる。
なお、各スムージングフィルタ481〜488は、対象
画素となる中心画素の周囲にフィルタリングするときの
係数(重み付け量)が「0」となる画素を3つ含んでお
り、対象画素からみて上、下、左、右および右上、右
下、左下、左上の8つの方向にそれぞれ重み付けされる
方向が変わるように、当該係数「0」の位置が設定され
ている。このような構成にした理由については、後述す
る。
Similarly, filter processing units 472 to 478
Output density data smoothed using the smoothing filters 482 to 488, respectively. As a result, eight pieces of smoothed data are generated for one piece of data and output to the selector 480.
Note that each of the smoothing filters 481 to 488 includes three pixels whose coefficient (weighting amount) becomes “0” when filtering around the center pixel serving as the target pixel. The position of the coefficient “0” is set so that the weighting direction changes in eight directions, left, right and upper right, lower right, lower left, and upper left. The reason for such a configuration will be described later.

【0057】次に、方向検出回路479の構成を図10
を用いて説明する。図10に示すように、方向検出回路
479は、ラインバッファ490、フィルタ処理部49
1〜498、MAX選択回路499からなり、エッジ画
素が連続することにより形成される列(以下、「エッジ
画素列」という。)が対象画素に対してどの方向に位置
しているかを検出する。
Next, the configuration of the direction detection circuit 479 is shown in FIG.
This will be described with reference to FIG. As shown in FIG. 10, the direction detection circuit 479 includes a line buffer 490 and a filter processing unit 49.
1 to 498, and a MAX selection circuit 499, and detects in which direction a row formed by continuation of edge pixels (hereinafter, referred to as an “edge pixel row”) is positioned with respect to the target pixel.

【0058】ラインバッファ490は、フィルタ処理部
491〜498におけるフィルタ処理に必要なライン分
のデータを一時的に蓄積する。フィルタ処理部491
は、図11に示す縦5画素*横5画素のフィルタ501
を用い、対象画素の濃度データについてフィルタリング
を行う。同様に、フィルタ処理部492〜498は、フ
ィルタ502〜508を用いてフィルタリングを行う。
フィルタリングによる演算の方法は、上記スムージング
フィルタ481等と同様である。すなわち、上記変数
i、jの範囲がそれぞれ1≦i≦5、1≦j≦5にな
り、対象画素をV33としたときに、その濃度データD
33は、D33=Σ(Dij*Kij)/Σ(Kij)
となる。
The line buffer 490 temporarily accumulates data for the lines necessary for the filter processing in the filter processing sections 491 to 498. Filter processing unit 491
Is a filter 501 of 5 × 5 pixels shown in FIG.
Is used to filter the density data of the target pixel. Similarly, the filter processing units 492 to 498 perform filtering using the filters 502 to 508.
The method of operation by filtering is the same as that of the smoothing filter 481 and the like. That is, when the range of the variables i and j is 1 ≦ i ≦ 5 and 1 ≦ j ≦ 5, and the target pixel is V33, the density data D
33 is D33 = Σ (Dij * Kij) / Σ (Kij)
Becomes

【0059】ここで、各フィルタ501〜508は、エ
ッジ画素列が対象画素に接している場合において、その
エッジ画素列と、係数「1」となる画素列とが一致した
ときにフィルタリングされたときの演算値が最も大きく
なるように、係数「1」の画素の位置が設定されてい
る。したがって、例えば図5に示す画像において、対象
画素をV33としたときに、フィルタ処理部491〜4
98により処理が行われると、フィルタ501を用いた
ときの演算値が最も大きくなる。同様に、対象画素がV
23である場合にも、フィルタ501を用いたときの演
算値が最も大きくなる。また、対象画素V33に対し、
仮にエッジ画素がV14、V23、V32、V41であ
る場合には、V14、V23、V32、V41の各画素
と同じ位置関係になる画素に係数「1」が設定されるフ
ィルタ507を用いたときの演算値が最も大きくなる。
Here, each of the filters 501 to 508 performs filtering when the edge pixel row is in contact with the target pixel and the edge pixel row matches the pixel row having the coefficient “1”. The position of the pixel having the coefficient “1” is set such that the calculated value of “1” becomes the largest. Therefore, for example, when the target pixel is set to V33 in the image shown in FIG.
When the processing is performed by 98, the calculated value when the filter 501 is used becomes the largest. Similarly, if the target pixel is V
Also in the case of 23, the calculated value when the filter 501 is used becomes the largest. Further, for the target pixel V33,
If the edge pixels are V14, V23, V32, and V41, a filter 507 in which a coefficient “1” is set to a pixel having the same positional relationship as each of the pixels V14, V23, V32, and V41 is used. The calculated value is the largest.

【0060】すなわち、対象画素がエッジ画素列に接し
ている場合には、各フィルタ処理部491〜498にお
いて演算された値の内、その値が最も大きくなるフィル
タ処理部のフィルタに設定された係数「1」の画素列
が、実質的に対象画素に対するエッジ画素列の位置を表
わしていることになる。以下、フィルタ501〜508
における係数「1」の各画素列を、対象画素に対するエ
ッジ画素列の位置を表わしたものとして、各エッジ画素
列の対象画素に対する位置を、フィルタ501・・・5
08の順に第1・・・第8の位置ということにする。
That is, when the target pixel is in contact with the edge pixel column, the coefficient set in the filter of the filter processing unit having the largest value among the values calculated by the respective filter processing units 491 to 498. The pixel row of “1” substantially represents the position of the edge pixel row with respect to the target pixel. Hereinafter, filters 501 to 508
, The position of each edge pixel column with respect to the target pixel is represented by a filter 501... 5
08 to the first to eighth positions.

【0061】MAX選択回路499は、フィルタ処理部
491〜498からの出力値の内、その値が最大となる
フィルタ処理部がどれであるかを判断し、その判断結果
から対象画素に対するエッジ画素列の位置を特定し、そ
の位置を示す信号、例えば第1の位置であれば「1」、
第2の位置であれば「2」・・第8の位置であれば
「8」を示す信号を3ビットの信号にしてセレクタ48
0へ出力する。
The MAX selection circuit 499 determines which of the output values from the filter processing units 491 to 498 is the filter processing unit having the maximum value, and from the result of the determination, determines the edge pixel row for the target pixel. And a signal indicating the position, for example, “1” for the first position,
If the position is the second position, the signal indicating "2" if the position is the eighth position, the signal indicating "8" is converted into a 3-bit signal, and the selector 48
To output to 0.

【0062】図8に戻って、セレクタ480は、方向検
出回路479からの信号を受信し、その信号が例えば
「1」、すなわち対象画素に対するエッジ画素列の位置
が第1の位置である場合には、フィルタ処理部471か
らの信号を選択してセレクタ464へ出力する。また
「2」であればフィルタ処理部472からの信号を選択
し、同様に「3」・・・「8」であれば、フィルタ処理
部473・・・478からの信号を選択してセレクタ4
64へ出力する。
Returning to FIG. 8, the selector 480 receives a signal from the direction detection circuit 479. When the signal is, for example, “1”, that is, when the position of the edge pixel row with respect to the target pixel is the first position. Selects a signal from the filter processing unit 471 and outputs the signal to the selector 464. If "2", the signal from the filter processing unit 472 is selected. Similarly, if "3"... "8", the signal from the filter processing unit 473.
64.

【0063】すなわち、セレクタ480は、スムージン
グフィルタ471〜478の内、方向検出回路479に
より対象画素に対してエッジ画素列と特定された位置に
係数「0」の画素が位置するフィルタを用いてスムージ
ング処理されたデータを選択することになる。このよう
な構成にしたのは、網点中文字エッジ周辺領域に属する
画素を対象画素としてスムージング処理を施す場合に
は、当該対象画素に隣接する網点中文字エッジ領域に属
する画素の濃度データを参照しないようにして、エッジ
が従来よりも強調されるようにするためである。
That is, the selector 480 performs smoothing using a filter in which a pixel having a coefficient “0” is located at a position specified as an edge pixel row with respect to the target pixel by the direction detection circuit 479 among the smoothing filters 471 to 478. You will select the processed data. This configuration is such that, when performing smoothing processing on a pixel belonging to a character edge peripheral area in a halftone dot as a target pixel, the density data of a pixel belonging to a halftone dot character edge area adjacent to the target pixel is used. This is because the reference is not referred to and the edge is emphasized more than before.

【0064】すなわち、例えば、スムージングフィルタ
481であれば、対象画素に隣接する左、左上、左下に
位置する各画素に対応する係数が「0」になっている。
したがって、図5に示す画像において、各画素V11〜
V55のスムージング処理する前の濃度データが、例え
ば図12に示すようになっており(数値が高い程、濃度
が高いことを示す。)、画素V33(斜線を引いた画
素)が網点中文字エッジ周辺領域内の画素であり、画素
V22、V32、V42が網点中文字エッジ領域内の画
素であると判定された場合、V33を対象画素としたと
き、このスムージングフィルタ481を用いると、網点
中文字エッジ領域内の画素V22、V32、V42の濃
度データ「255」が全く参照されず、上記式よりス
ムージング後の濃度データD33は、「72.9」にな
る。
That is, for example, in the case of the smoothing filter 481, the coefficient corresponding to each pixel located on the left, upper left, and lower left adjacent to the target pixel is “0”.
Therefore, in the image shown in FIG.
The density data before the smoothing process of V55 is, for example, as shown in FIG. 12 (the higher the numerical value, the higher the density.), And the pixel V33 (the hatched pixel) is the character in the halftone dot. If it is determined that the pixels V22, V32, and V42 are pixels in the character edge area in the halftone dot, the pixel V22, V32, and V42 are pixels in the edge peripheral area. The density data "255" of the pixels V22, V32, and V42 in the character edge area in the dot is not referred to at all, and the density data D33 after smoothing is "72.9" from the above equation.

【0065】これに対し、従来は、網点領域の画素につ
いては、エッジ周辺領域の画素であってもなくても一様
に、例えば図7に示すようなスムージングフィルタを用
いているので、V33を対象画素としたとき、3つの画
素V22、V32、V42の濃度データも演算結果に反
映されてしまい、上記式よりスムージング後の濃度デ
ータD33は、スムージングフィルタ481を用いる場
合よりも大きくなり「128」となる。
On the other hand, conventionally, a smoothing filter as shown in FIG. 7 is used uniformly for pixels in the halftone dot region regardless of whether they are pixels in the edge peripheral region. Is used as a target pixel, the density data of the three pixels V22, V32, and V42 are also reflected in the calculation result, and the density data D33 after smoothing is larger than that when the smoothing filter 481 is used according to the above equation. ".

【0066】すなわち、本実施の形態のスムージングフ
ィルタ481を用いれば、画素V33のスムージング後
の濃度データD33は、隣接する網点中文字エッジ領域
の画素V32との濃度差が従来よりも大きくなる。画素
V32との濃度差が大きくなるということは、その分エ
ッジが強調されたことと同じことがいえるので、文字画
像を見たときにそのエッジが従来よりも鮮鋭に見えると
いう効果を奏することになる。
That is, if the smoothing filter 481 of the present embodiment is used, the density difference between the density data D33 of the pixel V33 after smoothing and the pixel V32 of the character edge area in the adjacent halftone dot becomes larger than in the related art. The fact that the difference in density from the pixel V32 becomes large can be said to be the same as the emphasis of the edge, so that when the character image is viewed, the edge appears sharper than before. Become.

【0067】このことは、他の網点中文字エッジ周辺領
域内の画素についても同じことである。例えば、V23
が対象画素のときには、本実施の形態では、上述したよ
うに方向検出回路479によりエッジ画素列が第1の位
置を示す信号がセレクタ480へ送られるので、スムー
ジングフィルタ481が用いられてスムージングされた
データが出力されることになる。この場合、上記式よ
り、網点中文字エッジ領域内の画素V12、V22、V
32の濃度データが参照されないことになり、V33の
ときと同じくスムージング後の濃度データD23は「7
2.9」となる。一方、従来では、各画素V12、V2
2、V32の濃度データが参照されて「128」とな
る。
This is the same for the pixels in the area around the character edge in other halftone dots. For example, V23
Is a target pixel, in the present embodiment, a signal indicating the first position of the edge pixel row is sent to the selector 480 by the direction detection circuit 479 as described above, so that smoothing was performed using the smoothing filter 481. Data will be output. In this case, according to the above equation, the pixels V12, V22, V
32 is not referred to, and the density data D23 after smoothing is "7" as in the case of V33.
2.9 ”. On the other hand, conventionally, each pixel V12, V2
2. The density data of V32 is referred to and becomes "128".

【0068】図13は、図5に示す各画素V11〜V5
5のスムージングする前の濃度データが図12に示す場
合において、網点中文字エッジ領域の画素の濃度データ
を参照しない本発明の場合と、参照する従来の場合と
で、網点領域内のV23、V33、V43およびV2
4、V34、V44について、それぞれを対象画素とし
たときのスムージング後の濃度データを具体的に示した
図である。
FIG. 13 shows each of the pixels V11 to V5 shown in FIG.
In the case where the density data before smoothing shown in FIG. 5 is shown in FIG. 12, V23 in the halftone dot region is different between the case of the present invention in which the density data of the pixel in the character edge region in the halftone dot is not referred and the conventional case of reference. , V33, V43 and V2
FIG. 4 is a diagram specifically showing density data after smoothing when each of V, V34, and V44 is a target pixel.

【0069】図13(a)は、従来の場合を示してお
り、図13(b)は、本発明の場合を示している。な
お、図13(b)では、画素V24、V34、V44に
ついては、従来のスムージングフィルタを用いてフィル
タリングしたときの濃度データを示している。これは、
本実施の形態では、上述の図6のところで説明したよう
に、対象画素が網点領域内の画素であってエッジ周辺画
素以外の画素である場合、スムージング処理部461に
よる第1のスムージング処理が施されたデータがセレク
タ464から出力されることになるからである。
FIG. 13A shows the case of the prior art, and FIG. 13B shows the case of the present invention. FIG. 13B shows density data of pixels V24, V34, and V44 when filtering is performed using a conventional smoothing filter. this is,
In the present embodiment, as described with reference to FIG. 6 described above, when the target pixel is a pixel in the halftone dot region and is a pixel other than the edge peripheral pixel, the first smoothing process by the smoothing processing unit 461 is performed. This is because the applied data is output from the selector 464.

【0070】図14(a)は、図12に示す各画素の濃
度値を棒グラフで表わした図であり、図14(b)は、
図13(a)に示す各画素のスムージング後の濃度値を
棒グラフで表わした図であり、図14(c)は、図13
(b)に示す各画素のスムージング後の濃度値を棒グラ
フで表わした図である。図13(a)と(b)および図
14(b)と(c)より、網点中文字エッジ周辺領域内
の画素V23、V33、V43の濃度データD23、D
33、D43を従来の場合と本発明の場合を比べると明
らかなように、本発明の方が従来よりも低くなると共
に、網点領域内の隣接する画素V24、V34、V44
の濃度とほぼ等しくなっている。すなわち、網点中文字
エッジ領域の画素との濃度差が大きくなった分、エッジ
がよりシャープ(鮮鋭)に見えるようになると共に、網
点領域内においては隣接する画素V24、V34、V4
4との濃度差が従来よりも小さくなるので、より平滑化
されて見えるようになるという効果を得られる。
FIG. 14A is a diagram showing the density values of the respective pixels shown in FIG. 12 in the form of a bar graph, and FIG.
FIG. 14C is a diagram showing a bar graph of the density value of each pixel shown in FIG. 13A after smoothing, and FIG.
FIG. 7 is a bar graph showing density values after smoothing of each pixel shown in FIG. 13 (a) and 13 (b) and FIGS. 14 (b) and 14 (c), the density data D23, D43 of the pixels V23, V33, V43 in the area around the character edge in the halftone dot.
As is clear from the comparison between the conventional case and the case of the present invention, 33 and D43 are lower in the present invention than in the conventional case, and adjacent pixels V24, V34 and V44 in the halftone dot region.
Is almost equal to the concentration. That is, as the density difference from the pixels in the character edge region in the halftone dot increases, the edges appear more sharp (sharp), and adjacent pixels V24, V34, V4 in the halftone dot region.
4 is smaller than that in the related art, so that an effect of making the image look smoother can be obtained.

【0071】(5)変形例 (5−1)上記実施の形態では、第2のスムージング処
理におけるスムージングフィルタ481〜488とし
て、縦3画素*横3画素の大きさのものを用いたが、ス
ムージングフィルタのサイズ(大きさ)は、これに限ら
れず、画像の解像度やスムージング処理の強度などを考
慮して決定される。例えば、縦5画素*横5画素の大き
さの場合、係数「0」の位置は、スムージングフィルタ
481に対するフィルタであれば、中央の画素V33か
ら左側に位置するV11・・V51およびV12・・V
52の10個となり、また、スムージングフィルタ48
8に対するフィルタであれば、V25、V34、V4
3、V52、V35、V44、V53、V45、V5
4、V55の10個となる。すなわち、上記実施の形態
と同様に、エッジ画素の濃度データが参照されない位置
に「0」が設定されることになる。
(5) Modifications (5-1) In the above embodiment, as the smoothing filters 481 to 488 in the second smoothing processing, those having a size of 3 pixels vertically × 3 pixels horizontally are used. The size (size) of the filter is not limited to this, and is determined in consideration of the resolution of the image, the strength of the smoothing process, and the like. For example, in the case of a size of 5 vertical pixels × 5 horizontal pixels, the position of the coefficient “0” is V11 ·· V51 and V12 ·· V located on the left side of the center pixel V33 if it is a filter for the smoothing filter 481.
52, and a smoothing filter 48
8 for V25, V34, V4
3, V52, V35, V44, V53, V45, V5
4, V55. That is, similarly to the above embodiment, “0” is set at a position where the density data of the edge pixel is not referred to.

【0072】なお、スムージングフィルタ481〜48
8を縦5画素*横5画素の大きさにしても、エッジ周辺
領域検出部448においてエッジ周辺画素を検出するの
に用いるウインドウの大きさが縦3画素*横3画素の大
きさのままであれば、当該縦5画素*横5画素のスムー
ジングフィルタは、エッジ画素に隣接する画素(図5で
は、V13、V23・・V53)が対象画素になったと
きにだけ用いられることになる。
Note that the smoothing filters 481-48
8 is 5 pixels long × 5 pixels wide, even if the size of the window used for detecting the edge surrounding pixels in the edge surrounding area detection unit 448 is 3 pixels long × 3 pixels wide. If so, the smoothing filter of 5 vertical pixels × 5 horizontal pixels is used only when the pixels adjacent to the edge pixels (V13, V23,..., V53 in FIG. 5) are the target pixels.

【0073】スムージングフィルタ481〜488を縦
5画素*横5画素の大きさにするのに合わせて、上記ウ
インドウの大きさを縦5画素*横5画素の大きさに広げ
ることもできる。この場合、ウインドウが大きくなった
分、エッジ周辺領域も広くなり、エッジ画素の周囲を取
り囲む2画素分の幅の範囲、例えば図5ではV13、V
23・・V53に加えてV14、V24・・V54もエ
ッジ周辺画素として判定されることになる。したがっ
て、これらの画素が対象画素になった場合、当該画素に
対しては、縦5画素*横5画素の大きさのスムージング
フィルタによる第2のスムージング処理が施されること
になる。
According to the size of the smoothing filters 481 to 488 being 5 pixels * 5 pixels, the size of the window can be expanded to 5 pixels * 5 pixels. In this case, as the window becomes larger, the edge peripheral area becomes wider, and a width range of two pixels surrounding the periphery of the edge pixel, for example, V13, V13 in FIG.
V54, V24,..., V54 in addition to 23... V53 are also determined as edge peripheral pixels. Therefore, when these pixels become target pixels, the pixels are subjected to a second smoothing process using a smoothing filter having a size of 5 vertical pixels × 5 horizontal pixels.

【0074】上記したように、縦5画素*横5画素の大
きさになったスムージングフィルタも、縦3画素*横3
画素の場合と同様にエッジ画素の濃度データを参照しな
いように係数「0」の位置が設定されるので、エッジ周
辺画素と判定された各画素が対象画素になったときの濃
度値は、他の網点領域の画素とほぼ同じ濃度値となるよ
うに平滑化処理されることになる。
As described above, the smoothing filter having the size of 5 vertical pixels × 5 horizontal pixels also has 3 vertical pixels × 3 horizontal pixels.
Since the position of the coefficient “0” is set so as not to refer to the density data of the edge pixel as in the case of the pixel, the density value when each pixel determined as an edge peripheral pixel becomes the target pixel is Are smoothed so as to have almost the same density values as the pixels in the halftone dot region.

【0075】また、スムージングフィルタ481〜48
8に設定される「0」以外の係数については、上記の値
に限られることはなく、解像度等を考慮して決定され
る。 (5−2)上記実施の形態では、エッジ周辺画素が対象
画素の場合、エッジ画素の濃度を参照しないようにして
平滑化処理するため、各スムージングフィルタ481〜
488は、8個の周辺画素の内、3つの画素の係数が
「0」となるように設定されたが、当該係数は「0」に
限られない。エッジをさらに強調する場合には、当該3
つの画素の係数を例えば「−1」に設定したり、あるい
は網点領域内における各画素の濃度のさらなる平滑化を
図るために、当該3つの画素の係数を例えば「0.1」
に設定した方が画質の点から都合がよい場合もあり得る
からである。また、3つの画素の係数を異なるように設
定してもよい。
The smoothing filters 481 to 48
The coefficient other than “0” set to 8 is not limited to the above value, and is determined in consideration of the resolution and the like. (5-2) In the above embodiment, when the edge peripheral pixel is the target pixel, the smoothing process is performed without referring to the density of the edge pixel.
488 is set so that the coefficients of three pixels among the eight peripheral pixels are “0”, but the coefficients are not limited to “0”. To further emphasize the edge,
In order to set the coefficient of one pixel to, for example, “−1” or to further smooth the density of each pixel in the halftone dot area, the coefficient of the three pixels is set to, for example, “0.1”.
This is because it may be more convenient in terms of image quality to set. Further, the coefficients of the three pixels may be set differently.

【0076】すなわち、網点領域にある画素を対象画素
としてスムージング処理する際に、当該対象画素を含む
3画素*3画素の範囲内に存在する画素の中に、エッジ
画素と判定された画素がある場合、当該エッジ画素に対
する係数(重み付け量)を、当該エッジ画素が網点領域
内の画素であると判定された場合における係数よりも小
さくして演算するようにすれば、少なくとも従来よりは
エッジを強調できるという効果を得ることができる。
That is, when the pixel in the halftone dot region is subjected to the smoothing process as a target pixel, a pixel determined to be an edge pixel is included in pixels within a range of 3 * 3 pixels including the target pixel. In some cases, if the coefficient (weighting amount) for the edge pixel is set to be smaller than the coefficient when the edge pixel is determined to be a pixel in the halftone dot region, the calculation is performed at least in the conventional case. Can be obtained.

【0077】なお、スムージングフィルタのサイズを大
きくした場合に、例えばエッジ周辺領域内の、エッジ画
素に隣接する画素を対象画素とすると、当該フィルタに
よりフィルタリングされる範囲内には、文字画像のベタ
部分が含まれることもある。このような場合には、当該
範囲内における画素について、文字画像(エッジ画素を
含む。)領域に属する画素であるか否かを判定するよう
に構成し、当該範囲内に文字画像領域内と判定された画
素がある場合に、当該画素に対する係数を、当該画素が
網点領域内の画素であると判定された場合における係数
よりも小さくするようにすれば、上記同様の効果を得ら
れることになる。
When the size of the smoothing filter is increased, for example, if a pixel adjacent to the edge pixel in the peripheral area of the edge is set as a target pixel, a solid portion of the character image is within a range to be filtered by the filter. May be included. In such a case, it is configured to determine whether or not the pixels within the range belong to the character image (including the edge pixels) region, and determine that the pixel is within the character image region within the range. When there is a pixel that has been set, if the coefficient for the pixel is set to be smaller than the coefficient when the pixel is determined to be a pixel in the halftone dot region, the same effect as described above can be obtained. Become.

【0078】ここで、文字画像領域内の画素であるか否
かの判断は、文字エッジ領域については、上記エッジ検
出部447で行える。ベタ領域については、例えば判断
対象の画素がエッジ画素でなく、かつ孤立点でなく、さ
らにその画素およびその画素を中心とした所定の範囲内
に属する全画素の濃度が所定の濃度(例えば、プリント
されるべき用紙の地肌の濃度)よりも高い場合を条件と
して行うことができる。
Here, the determination as to whether or not a pixel is within the character image area can be made by the edge detection section 447 for the character edge area. For the solid region, for example, the pixel to be determined is not an edge pixel and is not an isolated point, and the density of the pixel and all pixels belonging to a predetermined range centered on the pixel is a predetermined density (for example, print density). (The density of the background of the paper to be performed).

【0079】(5−3)上記実施の形態では、網点画像
内に文字画像が描かれている場合について説明したが、
本発明は、この場合に限られず、例えば濃度変化の少な
い濃度平坦領域内に文字画像が描かれている場合にも適
用できる。濃度平坦領域は、通常、画像を滑らかにする
ために当該領域内における各画素についてスムージング
処理が施されており、この場合にも本発明を適用すれば
文字画像のエッジを実質的に強調することができるから
である。すなわち、本発明は、網点画像や濃度平坦領域
などのスムージング処理の対象となる領域内に文字画像
が描かれている場合全般に適用でき、対象画素について
スムージング処理する場合に、その周辺画素に文字画像
領域内と判定された画素が存する場合、当該画素に対す
る重み付け量を、当該画素が文字画像領域内の画素でな
い、すなわち網点領域等のスムージング処理対象の画素
であるとした場合における重み付け量よりも小さくすれ
ば上記エッジ強調の効果を得られることになる。なお、
濃度平坦領域に適用する場合、上記網点検出部444に
代わりに対象画素が濃度平坦領域に存するか否かを判断
する濃度平坦領域判断部が領域判別部440に配置され
る。濃度平坦領域であるか否かの判断は、特開平9−2
38261号公報などに詳細が記載されているので、こ
こでの説明は省略する。
(5-3) In the above embodiment, the case where a character image is drawn in a halftone image has been described.
The present invention is not limited to this case, and can be applied to, for example, a case where a character image is drawn in a density flat region where a density change is small. Normally, the flat density area is subjected to smoothing processing for each pixel in the area in order to smooth the image. In this case, the edge of the character image is substantially enhanced by applying the present invention. Because it can be. That is, the present invention can be generally applied to a case where a character image is drawn in an area to be subjected to smoothing processing such as a halftone dot image or a flat density area. When there is a pixel determined to be in the character image area, the weighting amount for the pixel is determined assuming that the pixel is not a pixel in the character image area, that is, a pixel to be subjected to smoothing processing such as a halftone dot area. If it is smaller than this, the effect of the edge enhancement can be obtained. In addition,
When the present invention is applied to a flat density region, a flat density region determining unit that determines whether the target pixel exists in the flat density region is arranged in the region determining unit 440 instead of the halftone dot detecting unit 444. Judgment as to whether or not the area is a flat density area is described in
Since the details are described in, for example, Japanese Patent No. 38261, description thereof is omitted here.

【0080】(5−4)上記実施の形態では、各画素の
濃度データに各スムージングフィルタ481〜488に
よる重み付けがなされたが、例えば各画素のR、G、B
色による明度データに重み付けを行い、そのデータに基
づいてC、M、Y、K色の濃度データを求めるようにす
ることもできる。 (5−5)上記実施の形態の画像補正部460では、一
の画素の濃度データについて、スムージング処理部46
1、462、エッジ強調処理部463による各処理を並
行して行い、領域判別部440による判別結果に基づい
て出力すべきデータを選択するようにしたが、例えば領
域判別部440による判別結果に基づいて、動作させる
べき処理部を選択するようにしてもよい。このことは、
スムージング処理部462におけるフィルタ処理部47
1〜478によるスムージング処理においても同様であ
る。すなわち、方向検出回路479からの検出結果に基
づいて、動作させるべきフィルタ処理部を選択するよう
にしてもよい。
(5-4) In the above embodiment, the density data of each pixel is weighted by each of the smoothing filters 481 to 488. For example, R, G, and B of each pixel are weighted.
It is also possible to weight the brightness data by color and to obtain the density data of C, M, Y, K colors based on the data. (5-5) In the image correction unit 460 of the above embodiment, the smoothing processing unit 46 performs processing on the density data of one pixel.
1, 462 and the respective processes by the edge enhancement processing unit 463 are performed in parallel, and data to be output is selected based on the determination result by the area determination unit 440. For example, based on the determination result by the area determination unit 440, Then, a processing unit to be operated may be selected. This means
Filter processing section 47 in smoothing processing section 462
The same applies to the smoothing processing by 1 to 478. That is, the filter processing unit to be operated may be selected based on the detection result from the direction detection circuit 479.

【0081】[0081]

【発明の効果】以上のように、本発明に係る画像処理装
置によれば、対象画素が文字画像領域内でないと判定さ
れ、対象画素を含む所定の範囲内に文字画像領域内と判
定された画素が存在する場合、当該画素に対する重み付
け量を、当該画素が文字画像領域内でないとした場合に
おける重み付け量よりも小さくするので、当該対象画素
の平滑化処理後における濃度が従来よりも低くなって、
エッジが従来よりも強調されて見えるようになり、もっ
て画質の劣化を抑制することができるという効果があ
る。
As described above, according to the image processing apparatus of the present invention, it is determined that the target pixel is not within the character image area, and that the target pixel is determined to be within the character image area within a predetermined range including the target pixel. When a pixel exists, the weighting amount for the pixel is set to be smaller than the weighting amount when the pixel is not included in the character image area, so that the density of the target pixel after the smoothing process is lower than before. ,
The edge is more emphasized than in the related art, so that there is an effect that deterioration in image quality can be suppressed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】複写機1の全体構成を示す概略断面図である。FIG. 1 is a schematic cross-sectional view illustrating an entire configuration of a copying machine 1.

【図2】画像処理部205の構成を示す機能ブロック図
である。
FIG. 2 is a functional block diagram illustrating a configuration of an image processing unit 205.

【図3】画像処理部205の構成を示す機能ブロック図
である。
FIG. 3 is a functional block diagram illustrating a configuration of an image processing unit 205.

【図4】領域判別部440の構成を示す図である。FIG. 4 is a diagram showing a configuration of an area determination unit 440.

【図5】網点領域内に存在する文字画像のエッジの一部
を5画素*5画素の範囲に分解して示した模式図であ
る。
FIG. 5 is a schematic diagram showing a part of an edge of a character image existing in a halftone dot area, which is decomposed into a range of 5 pixels × 5 pixels.

【図6】画像補正部460の構成を示す図である。FIG. 6 is a diagram illustrating a configuration of an image correction unit 460.

【図7】従来のスムージングフィルタの構成例を示す図
である。
FIG. 7 is a diagram illustrating a configuration example of a conventional smoothing filter.

【図8】スムージング処理部462の構成を示す図であ
る。
FIG. 8 is a diagram showing a configuration of a smoothing processing unit 462.

【図9】スムージング処理部462で用いられる3画素
*3画素のスムージングフィルタ481〜488の構成
例を示す図である。
FIG. 9 is a diagram illustrating a configuration example of smoothing filters 481 to 488 of 3 pixels * 3 pixels used in a smoothing processing unit 462.

【図10】方向検出回路479の構成を示す図である。FIG. 10 is a diagram showing a configuration of a direction detection circuit 479.

【図11】方向検出回路479において用いられるフィ
ルタ501〜508の構成例を示す図である。
11 is a diagram illustrating a configuration example of filters 501 to 508 used in a direction detection circuit 479. FIG.

【図12】図5に示す各画素V11〜V55のスムージ
ング処理する前の濃度データを示す図である。
12 is a diagram illustrating density data of pixels V11 to V55 illustrated in FIG. 5 before smoothing processing is performed.

【図13】(a)は、図5に示す各画素V11〜V55
のスムージングする前の濃度データが図12に示す場合
において、網点領域内の各画素を従来のスムージングフ
ィルタを用いて平滑化処理したときの濃度値を示す図で
あり、(b)は、本発明のスムージングフィルタを用い
たときの濃度値を示す図である。
13A is a diagram illustrating pixels V11 to V55 illustrated in FIG.
FIG. 13B is a diagram showing a density value when each pixel in the halftone dot region is smoothed using a conventional smoothing filter in a case where the density data before smoothing is shown in FIG. It is a figure which shows the density value at the time of using the smoothing filter of this invention.

【図14】(a)は、図12に示す各画素の濃度値を棒
グラフで表わした図であり、(b)は、図13(a)に
示す各画素のスムージング後の濃度値を棒グラフで表わ
した図であり、(c)は、図13(b)に示す各画素の
スムージング後の濃度値を棒グラフで表わした図であ
る。
14 (a) is a graph showing the density value of each pixel shown in FIG. 12 in a bar graph, and FIG. 14 (b) is a graph showing the density value of each pixel shown in FIG. 13 (a) after smoothing. FIG. 13C is a diagram showing a bar graph of the density value of each pixel shown in FIG. 13B after smoothing.

【図15】従来のスムージング処理を説明するために用
いる画像の一部を5画素*5画素の範囲に分解して示し
た図である。
FIG. 15 is a diagram in which a part of an image used for explaining a conventional smoothing process is decomposed into a range of 5 pixels * 5 pixels.

【符号の説明】[Explanation of symbols]

200 画像読取部 205 画像処理部 440 領域判別部 441 明度/彩度検出部 442 孤立点検出部 443 孤立点カウント部 444 網点検出部 445 エッジ量算出部 446 エッジカウント部 447 エッジ検出部 448 エッジ周辺領域検出部 460 画像補正部 461、462 スムージング処理部 463 エッジ強調処理部 464、480 セレクタ 471〜478、491〜498 フィルタ処理部 479 方向検出回路 481〜488 スムージングフィルタ 499 MAX選択回路 501〜508 フィルタ 200 Image reading unit 205 Image processing unit 440 Area discriminating unit 441 Brightness / chroma detecting unit 442 Isolated point detecting unit 443 Isolated point counting unit 444 Halftone dot detecting unit 445 Edge amount calculating unit 446 Edge counting unit 447 Edge detecting unit 448 Edge periphery Area detection section 460 Image correction section 461, 462 Smoothing processing section 463 Edge enhancement processing section 464, 480 Selector 471-478, 491-498 Filter processing section 479 Direction detection circuit 481-488 Smoothing filter 499 MAX selection circuit 501-508 Filter

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/40 H04N 1/40 F Fターム(参考) 2C062 AA24 2C262 AA24 AB13 BB01 BC13 DA03 DA11 EA04 EA07 EA08 5B057 AA11 BA02 CA01 CA02 CA07 CA08 CA12 CA16 CB01 CB02 CB07 CB08 CB12 CB16 CC01 CE03 CE05 CE06 CH08 5C077 LL19 MP01 MP02 MP06 MP08 PP02 PP03 PP27 PP28 PP47 PP68 PQ12 SS02 TT06 5L096 AA02 AA03 AA06 DA01 EA06 FA43 FA44 GA02 GA03 GA17Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) H04N 1/40 H04N 1/40 F F term (reference) 2C062 AA24 2C262 AA24 AB13 BB01 BC13 DA03 DA11 EA04 EA07 EA08 5B057 AA11 BA02 CA01 CA02 CA07 CA08 CA12 CA16 CB01 CB02 CB07 CB08 CB12 CB16 CC01 CE03 CE05 CE06 CH08 5C077 LL19 MP01 MP02 MP06 MP08 PP02 PP03 PP27 PP28 PP47 PP68 PQ12 SS02 TT06 5L096 AA02 AA03 AA06 DA01 EA06 FA43 FA04 GA02

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 対象画素を含む所定の範囲内に存する画
素のデータに重み付けを行い、重み付けされた画素のデ
ータに基づいて当該対象画素のデータを平滑化する平滑
化手段を備える画像処理装置であって、 前記対象画素を含む所定の範囲内の各画素について、文
字画像領域内に存する画素であるか否かを判定する文字
画像領域判定手段を備え、 前記平滑化手段は、対象画素が文字画像領域内でないと
判定され、かつ前記所定の範囲内に文字画像領域内と判
定された画素が存する場合に、当該画素に対する重み付
け量を、当該画素が文字画像領域内でないとした場合に
おける重み付け量よりも小さくすることを特徴とする画
像処理装置。
1. An image processing apparatus comprising: a smoothing unit that weights data of pixels within a predetermined range including a target pixel and smoothes the data of the target pixel based on the weighted pixel data. And for each pixel within a predetermined range including the target pixel, a character image region determining unit that determines whether or not the pixel is present in a character image region. When the pixel is determined not to be within the image area, and a pixel determined to be within the character image area exists within the predetermined range, the weighting amount for the pixel is determined by the weighting amount when the pixel is determined not to be within the character image area. An image processing apparatus characterized in that the image processing apparatus is smaller than the image processing apparatus.
【請求項2】 網点領域内に存する画素であるか否かを
判定する網点領域判定手段を備え、 前記平滑化手段は、対象画素が網点領域内と判定された
場合には、前記文字画像領域内と判定された画素に対す
る重み付け量を、当該画素が網点領域内とした場合にお
ける重み付け量よりも小さくすることを特徴とする請求
項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, further comprising: a halftone dot determining unit configured to determine whether the target pixel is within a halftone dot region. 2. The image processing apparatus according to claim 1, wherein a weighting amount for a pixel determined to be in the character image area is smaller than a weighting amount when the pixel is in a halftone dot area.
【請求項3】 前記文字画像領域内と判定された画素の
データに対する重み付け量がゼロであることを特徴とす
る請求項1もしくは2に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein a weighting amount for data of a pixel determined to be within the character image area is zero.
【請求項4】 前記所定の範囲内の、対象画素に対して
所定の位置関係にある画素に対する重み付け量がゼロと
なる構成のフィルタを複数種類備え、 前記平滑化手段は、前記複数種類のフィルタの内、文字
画像領域内と判定された画素に対する重み付け量がゼロ
となるように構成されたフィルタを利用して平滑化を行
うことを特徴とする請求項1ないし3のいずれかに記載
の画像処理装置。
4. A plurality of types of filters having a configuration in which a weighting amount for pixels having a predetermined positional relationship with respect to a target pixel within the predetermined range is zero, and wherein the smoothing unit includes the plurality of types of filters. The image according to any one of claims 1 to 3, wherein smoothing is performed using a filter configured such that a weighting amount for a pixel determined to be within the character image area becomes zero. Processing equipment.
【請求項5】 画像処理装置により平滑化されたデータ
に基づいて画像を形成する画像形成装置であって、 前記画像処理装置として、請求項1ないし4のいずれか
に記載の画像処理装置を備えることを特徴とする画像形
成装置。
5. An image forming apparatus for forming an image based on data smoothed by an image processing apparatus, wherein the image processing apparatus includes the image processing apparatus according to claim 1. An image forming apparatus comprising:
JP2001073596A 2001-03-15 2001-03-15 Image processor and image forming apparatus having the same Pending JP2002281313A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001073596A JP2002281313A (en) 2001-03-15 2001-03-15 Image processor and image forming apparatus having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001073596A JP2002281313A (en) 2001-03-15 2001-03-15 Image processor and image forming apparatus having the same

Publications (1)

Publication Number Publication Date
JP2002281313A true JP2002281313A (en) 2002-09-27

Family

ID=18930994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001073596A Pending JP2002281313A (en) 2001-03-15 2001-03-15 Image processor and image forming apparatus having the same

Country Status (1)

Country Link
JP (1) JP2002281313A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004214977A (en) * 2002-12-27 2004-07-29 Sharp Corp Image processing apparatus, image forming apparatus and image processing method equipped therewith image processing program and recording medium
JP2004312421A (en) * 2003-04-08 2004-11-04 Pfu Ltd Image reading device
JP2005017562A (en) * 2003-06-25 2005-01-20 Kyocera Mita Corp Image forming apparatus and image forming system
JP2005039484A (en) * 2003-07-18 2005-02-10 Kyocera Mita Corp Image processor
JP2006262204A (en) * 2005-03-17 2006-09-28 Fuji Xerox Co Ltd Image processing apparatus and image processing method
WO2007125732A1 (en) * 2006-04-28 2007-11-08 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display, and integrated circuit
JP2007310635A (en) * 2006-05-18 2007-11-29 Akuseru:Kk Image processing apparatus and image processing method
JP2008035499A (en) * 2006-06-30 2008-02-14 Canon Inc Image processing apparatus, image processing method, program, and recording medium
US7881549B2 (en) 2005-10-12 2011-02-01 Panasonic Corporaiton Visual processing device, display device, visual processing method, program, and integrated circuit
US7894684B2 (en) 2006-04-19 2011-02-22 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US7916352B2 (en) 2006-06-30 2011-03-29 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and recording medium
JP2012015719A (en) * 2010-06-30 2012-01-19 Nec Access Technica Ltd Region separation device, image formation apparatus, region separation method, and region separation program
JP2013038545A (en) * 2011-08-05 2013-02-21 Fuji Xerox Co Ltd Image processing apparatus and image processing method
JP2015088910A (en) * 2013-10-30 2015-05-07 株式会社沖データ Image processing device
JP2018133788A (en) * 2017-02-17 2018-08-23 ブラザー工業株式会社 Image processing apparatus and computer program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004214977A (en) * 2002-12-27 2004-07-29 Sharp Corp Image processing apparatus, image forming apparatus and image processing method equipped therewith image processing program and recording medium
JP2004312421A (en) * 2003-04-08 2004-11-04 Pfu Ltd Image reading device
JP2005017562A (en) * 2003-06-25 2005-01-20 Kyocera Mita Corp Image forming apparatus and image forming system
JP2005039484A (en) * 2003-07-18 2005-02-10 Kyocera Mita Corp Image processor
JP2006262204A (en) * 2005-03-17 2006-09-28 Fuji Xerox Co Ltd Image processing apparatus and image processing method
US7881549B2 (en) 2005-10-12 2011-02-01 Panasonic Corporaiton Visual processing device, display device, visual processing method, program, and integrated circuit
US8311357B2 (en) 2005-10-12 2012-11-13 Panasonic Corporation Visual processing device, display device, visual processing method, program, and integrated circuit
US7894684B2 (en) 2006-04-19 2011-02-22 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US8406547B2 (en) 2006-04-19 2013-03-26 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US8401324B2 (en) 2006-04-28 2013-03-19 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7903898B2 (en) 2006-04-28 2011-03-08 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
CN102238314A (en) * 2006-04-28 2011-11-09 松下电器产业株式会社 Visual processing apparatus, visual processing method, program, recording medium, display, and integrated circuit
WO2007125732A1 (en) * 2006-04-28 2007-11-08 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display, and integrated circuit
US7881550B2 (en) 2006-04-28 2011-02-01 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
CN102238314B (en) * 2006-04-28 2013-06-12 松下电器产业株式会社 Visual processing apparatus, visual processing method, program, recording medium, display, and integrated circuit
JP2007310635A (en) * 2006-05-18 2007-11-29 Akuseru:Kk Image processing apparatus and image processing method
US7916352B2 (en) 2006-06-30 2011-03-29 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and recording medium
JP2008035499A (en) * 2006-06-30 2008-02-14 Canon Inc Image processing apparatus, image processing method, program, and recording medium
JP2012015719A (en) * 2010-06-30 2012-01-19 Nec Access Technica Ltd Region separation device, image formation apparatus, region separation method, and region separation program
JP2013038545A (en) * 2011-08-05 2013-02-21 Fuji Xerox Co Ltd Image processing apparatus and image processing method
JP2015088910A (en) * 2013-10-30 2015-05-07 株式会社沖データ Image processing device
JP2018133788A (en) * 2017-02-17 2018-08-23 ブラザー工業株式会社 Image processing apparatus and computer program

Similar Documents

Publication Publication Date Title
JP4269521B2 (en) Image processing apparatus and image forming apparatus
JP3777785B2 (en) Image processing device
JP3700381B2 (en) Image processing device
JP3713574B2 (en) Image processing apparatus, image processing method, and program
JPH11352744A (en) Image forming device
JPH11348352A (en) Image formation apparatus
JPH11266372A (en) Color image processor
JP2002281313A (en) Image processor and image forming apparatus having the same
JPH10341341A (en) Image processor
US7099045B2 (en) Image processing apparatus, image forming apparatus, and image processing method for judging pixels in edge area of character in halftone-dot area
JP3477858B2 (en) Image processing apparatus and image data processing method
JP3302041B2 (en) Image processing device
JP3777813B2 (en) Halftone image discrimination method and image processing apparatus
JP3738566B2 (en) Halftone image discrimination method and image processing apparatus
JP2002262078A (en) Image processing unit and image forming device
JP4158345B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JPH08149323A (en) Image processor
JP2000287077A (en) Method and device for discriminating dot image
JP3316077B2 (en) Background density level detector
JP3297452B2 (en) Image processing apparatus and image processing method
JPH11266360A (en) Image processor
JP4389995B2 (en) Image processing apparatus and image forming apparatus
JP3729131B2 (en) Image forming apparatus
JP2002125121A (en) Image processing method and image processing unit, and image forming device provided with them
JP2002057886A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050614