JP6303458B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6303458B2 JP6303458B2 JP2013251672A JP2013251672A JP6303458B2 JP 6303458 B2 JP6303458 B2 JP 6303458B2 JP 2013251672 A JP2013251672 A JP 2013251672A JP 2013251672 A JP2013251672 A JP 2013251672A JP 6303458 B2 JP6303458 B2 JP 6303458B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- pixel
- contour
- edge
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
画像形成装置は、形成される画像の中間調の再現性を高めるため、画像データをスクリーン処理することが一般的である。
文字又は図形の画像は、スクリーン処理によって輪郭にジャギーが生じることがあるため、ジャギーを軽減する目的で文字又は図形の輪郭を強調することも行われている。
輪郭強調時、周辺画素との画素値の差が閾値よりも大きい画素を輪郭強調の対象として、画素値の調整が行われる。
In general, an image forming apparatus screen-processes image data in order to improve reproducibility of a halftone of an image to be formed.
Since an image of a character or a graphic may be jaggy on the contour by screen processing, the contour of the character or the graphic is also emphasized for the purpose of reducing jaggy.
At the time of contour emphasis, the pixel value is adjusted by setting a pixel whose difference in pixel value from surrounding pixels is larger than a threshold as a target of contour emphasis.
複数の色により画像を形成する場合、閾値を各色共通の一定値とすると、輪郭強調によって違和感のある画像となることがある。
例えば、C(シアン)、M(マジェンタ)、Y(イエロー)及びK(黒)の4色が用いられる場合、Y色は視認性が低いため、Y色の画素値の差が大きくても、観察者はその差を小さく感じて輪郭であると認識しないことが多い。輪郭と認識されないため、本来なら輪郭強調が不要であるが、各色共通の閾値であると、他の視認性が高い色に合わせて閾値が下げられるため、Y色の画素値の差が輪郭として認識されない差であっても輪郭強調されてしまう。その結果、観察者の比視感度と対応しない、違和感のある画像となってしまう。
When an image is formed with a plurality of colors, if the threshold value is set to a constant value common to each color, an image with a sense of incongruity may be obtained due to edge enhancement.
For example, when four colors C (cyan), M (magenta), Y (yellow), and K (black) are used, the Y color has low visibility, so even if the difference in pixel values of the Y color is large, The observer often feels the difference small and does not recognize it as a contour. Since it is not recognized as a contour, contour enhancement is not necessary. However, if the threshold value is common to each color, the threshold value is lowered in accordance with other highly visible colors, so the difference in pixel values of the Y color becomes the contour. Even if the difference is not recognized, the outline is emphasized. As a result, the image becomes uncomfortable and does not correspond to the specific visual sensitivity of the observer.
また、輪郭の色味を保つためには、画素値の差が大きい色だけでなく、すべての色の画素値を調整して輪郭強調する必要があるが、すべての色の画素値を調整すると、背景上に視認性が低い文字等が重ねられた画像において、モアレが生じることがある。
例えば、視認性が低いY色の文字が、他の色の背景上に重ねられた画像において、文字の色味はY色と背景の色からなる。そのため、Y色の画素値の差が閾値以上であり、文字の輪郭強調が行われる場合、文字に重なる背景部分の輪郭も強調され、目立ってしまう。背景が中間調である場合、この強調された背景の輪郭と、スクリーン処理によって文字に隣接して形成された背景のスクリーンとが干渉し、モアレが生じる。
In addition, in order to maintain the color tone of the contour, it is necessary to enhance the contour by adjusting the pixel values of all colors as well as the color having a large difference in pixel values. Moire may occur in an image in which characters with low visibility are superimposed on the background.
For example, in an image in which a Y-color character with low visibility is superimposed on a background of another color, the color of the character is composed of a Y color and a background color. For this reason, when the difference between the Y pixel values is equal to or greater than the threshold and the outline of the character is emphasized, the outline of the background portion that overlaps the character is also emphasized and becomes conspicuous. When the background is a halftone, the emphasized background outline interferes with the background screen formed adjacent to the character by the screen processing, and moire occurs.
このような意図しない輪郭強調を避けるため、各色の比視感度に応じて輪郭強調するか否かを決定する方法が提案されている(例えば、特許文献1参照)。
この方法によれば、注目画素の画素値から周辺画素の画素値を差し引いた正のエッジ強度と、周辺画素の画素値から注目画素の画素値を差し引いた負のエッジ強度と、を色ごとに求め、各色のエッジ強度を各色の比視感度に応じて重み付けて加算する。重み付けられた正負のエッジ強度の加算値をそれぞれ比較することにより、輪郭強調するか否かを決定している。
In order to avoid such unintentional edge enhancement, a method for determining whether or not edge enhancement is performed according to the relative visibility of each color has been proposed (see, for example, Patent Document 1).
According to this method, the positive edge strength obtained by subtracting the pixel value of the peripheral pixel from the pixel value of the target pixel and the negative edge strength obtained by subtracting the pixel value of the target pixel from the pixel value of the peripheral pixel are determined for each color. Then, the edge intensity of each color is weighted and added according to the relative visibility of each color. It is determined whether or not the edge is emphasized by comparing the weighted positive and negative edge intensity addition values.
しかしながら、上述の方法によれば、異なる色であるが、比視感度及び画素値が同じ色の背景が、文字等の輪郭に隣接する場合、重み付けられた正負のエッジ強度の加算値が同値となるため、輪郭強調の対象とならない。輪郭が強調されないため、各色の画像が中間調である場合には、スクリーン処理によって輪郭にジャギーが発生する場合がある。 However, according to the above-described method, when a background of different colors but having the same specific visibility and pixel value is adjacent to the outline of a character or the like, the weighted positive / negative edge strength addition value is the same value. Therefore, it is not a target for edge enhancement. Since the contour is not emphasized, when the image of each color is a halftone, jaggy may occur in the contour due to the screen processing.
本発明の課題は、ジャギーを抑え、比視感度に応じた輪郭強調を行うことである。 An object of the present invention is to suppress jaggy and perform edge enhancement according to specific visual sensitivity.
請求項1に記載の発明によれば、
各画素の周辺画素との画素値の差を色ごとに算出し、得られた各色の画素値の差を色ごとに決定された閾値と比較した結果に応じて、色ごとにエッジを検出するエッジ検出部と、
前記エッジ検出部により、いずれかの色においてエッジが検出された画素を輪郭として決定する輪郭決定部と、
前記輪郭として決定された画素のすべての色の画素値を、前記輪郭を強調するように調整する輪郭処理部と、
を備え、
前記エッジ検出部は、前記画素値の差が前記閾値よりも大きい場合にエッジを検出し、
前記色ごとに決定された閾値は、各色のなかで視認性が最も低い色の閾値が、他の色の閾値よりも大きくなるように決定され、
前記視認性が最も低い色の閾値が、前記輪郭に隣接する背景の画素の各色の画素値及び当該背景に形成されるスクリーンの種類に応じて決定されている
ことを特徴とする画像処理装置が提供される。
According to the invention of claim 1,
The difference between the pixel values of each pixel and the surrounding pixels is calculated for each color, and an edge is detected for each color according to the result of comparing the obtained pixel value difference for each color with a threshold value determined for each color. An edge detector;
A contour determining unit that determines, as a contour, a pixel in which an edge is detected in any color by the edge detecting unit;
A contour processing unit that adjusts pixel values of all colors of the pixels determined as the contour so as to enhance the contour;
Equipped with a,
The edge detection unit detects an edge when the difference between the pixel values is larger than the threshold value,
The threshold value determined for each color is determined such that the threshold value of the color having the lowest visibility among the colors is larger than the threshold values of the other colors.
An image processing apparatus , wherein the threshold value of the color having the lowest visibility is determined according to a pixel value of each color of a background pixel adjacent to the contour and a type of a screen formed on the background. Provided.
請求項2に記載の発明によれば、
各画素の画素値を、各画素の位置に対応する閾値と比較し、2値化又は多値化された画素値を得るスクリーン処理部を備え、
前記輪郭処理部は、前記輪郭として決定された画素に対しては、前記輪郭を強調するように調整された画素値を出力し、前記輪郭として決定されなかった画素に対しては、前記スクリーン処理部により得られた画素値を出力することを特徴とする請求項1に記載の画像処理装置が提供される。
According to invention of Claim 2,
A screen processing unit that compares the pixel value of each pixel with a threshold corresponding to the position of each pixel and obtains a binarized or multi-valued pixel value,
The contour processing unit outputs a pixel value adjusted to emphasize the contour for the pixel determined as the contour, and the screen processing for the pixel not determined as the contour. The image processing apparatus according to claim 1, wherein the pixel value obtained by the unit is output.
請求項3に記載の発明によれば、
各画素の周辺画素との画素値の差を色ごとに算出し、得られた各色の画素値の差を色ごとに決定された閾値と比較した結果に応じて、色ごとにエッジを検出するエッジ検出工程と、
前記エッジ検出工程により、いずれかの色においてエッジが検出された画素を輪郭として決定する輪郭決定工程と、
前記輪郭として決定された画素のすべての色の画素値を、前記輪郭を強調するように調整する輪郭処理工程と、
を含み、
前記エッジ検出工程は、前記画素値の差が前記閾値よりも大きい場合にエッジを検出し、
前記色ごとに決定された閾値は、各色のなかで視認性が最も低い色の閾値が、他の色の閾値よりも大きくなるように決定され、
前記視認性が最も低い色の閾値が、前記輪郭に隣接する背景の画素の各色の画素値及び当該背景に形成されるスクリーンの種類に応じて決定されている
ことを特徴とする画像処理方法が提供される。
According to invention of Claim 3 ,
The difference between the pixel values of each pixel and the surrounding pixels is calculated for each color, and an edge is detected for each color according to the result of comparing the obtained pixel value difference for each color with a threshold value determined for each color. An edge detection process;
A contour determination step for determining, as a contour, a pixel in which an edge is detected in any color by the edge detection step;
A contour processing step of adjusting pixel values of all colors of the pixels determined as the contour so as to enhance the contour;
Only including,
The edge detection step detects an edge when the difference between the pixel values is larger than the threshold value,
The threshold value determined for each color is determined such that the threshold value of the color having the lowest visibility among the colors is larger than the threshold values of the other colors.
An image processing method , wherein the threshold value of the color having the lowest visibility is determined according to a pixel value of each color of a background pixel adjacent to the contour and a type of a screen formed on the background. Provided.
本発明によれば、単独の色の差に着目してエッジを検出することができる。輪郭に隣接する背景の色が輪郭と異なる色であれば、色の比視感度及び画素値が同じあっても輪郭強調の対象とすることができ、輪郭強調によってジャギーを抑えることができる。また、各色の比視感度に応じて、エッジの検出に用いる閾値を決定することができ、比視感度に応じた輪郭強調が可能である。 According to the present invention, an edge can be detected by paying attention to a single color difference. If the color of the background adjacent to the contour is different from the contour, even if the specific visibility and the pixel value of the color are the same, the contour can be subjected to contour enhancement, and jaggy can be suppressed by contour enhancement. In addition, a threshold used for edge detection can be determined according to the relative visibility of each color, and contour enhancement according to the relative visibility can be performed.
以下、本発明の画像処理装置及び画像処理方法の実施の形態について、図面を参照して説明する。 Embodiments of an image processing apparatus and an image processing method of the present invention will be described below with reference to the drawings.
図1は、本実施の形態の画像処理装置Gが搭載された画像形成装置10の構成を機能ごとに示している。
画像形成装置10は、図1に示すように、制御部11、記憶部12、操作部13、表示部14、通信部15、画像読取部16、画像生成部17、画像処理装置G及び画像形成部18を備えている。
FIG. 1 shows the configuration of an image forming apparatus 10 equipped with the image processing apparatus G of the present embodiment for each function.
As illustrated in FIG. 1, the image forming apparatus 10 includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, a communication unit 15, an image reading unit 16, an image generation unit 17, an image processing device G, and an image forming unit. A portion 18 is provided.
制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えている。制御部11は、記憶部12に記憶されているプログラムを読み出し、当該プログラムに従って画像形成装置10の各部を制御する。
例えば、制御部11は、画像処理装置Gによりビットマップ形式の画像データを生成させて、当該画像データに基づいて、画像形成部18によりトナーを用いて用紙上に画像を形成させる。
The control unit 11 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The control unit 11 reads a program stored in the storage unit 12 and controls each unit of the image forming apparatus 10 according to the program.
For example, the control unit 11 causes the image processing apparatus G to generate bitmap format image data, and based on the image data, the image forming unit 18 forms an image on a sheet using toner.
記憶部12は、制御部11が読み取り可能なプログラム、ファイル等を記憶している。
記憶部12としては、ハードディスク、ROM(Read Only Memory)等の記憶媒体を用いることができる。
The storage unit 12 stores programs, files, and the like that can be read by the control unit 11.
As the storage unit 12, a storage medium such as a hard disk or a ROM (Read Only Memory) can be used.
操作部13は、操作キー、表示部14と一体に構成されたタッチパネル等を備え、これらの操作に応じた操作信号を制御部11に出力する。ユーザーは、操作部13により、ジョブの設定、処理内容の変更等の入力操作を行うことができる。 The operation unit 13 includes an operation key, a touch panel configured integrally with the display unit 14, and the like, and outputs operation signals corresponding to these operations to the control unit 11. The user can perform input operations such as job setting and processing content change by the operation unit 13.
表示部14は、LCD(Liquid Crystal Display)等であることができ、制御部11の指示に従って操作画面等を表示する。 The display unit 14 can be an LCD (Liquid Crystal Display) or the like, and displays an operation screen or the like according to instructions from the control unit 11.
通信部15は、制御部11の指示に従い、ネットワーク上のコンピューター、例えばユーザー端末、サーバー、他の画像形成装置等と通信する。通信部15は、例えばユーザー端末から送信されたPDL(Page Description Language)データを受信する。 The communication unit 15 communicates with a computer on the network, for example, a user terminal, a server, another image forming apparatus, etc. according to an instruction from the control unit 11. For example, the communication unit 15 receives PDL (Page Description Language) data transmitted from a user terminal.
画像読取部16は、スキャナーを備え、ユーザーによりセットされた原稿を当該スキャナーにより読み取って、R(赤)、G(緑)及びB(青)の各色の画像データを生成する。 The image reading unit 16 includes a scanner, reads an original set by a user with the scanner, and generates image data of each color of R (red), G (green), and B (blue).
画像生成部17は、通信部15が受信したPDLデータをラスタライズ処理して、ビットマップ形式の画像データを、C(シアン)、M(マジェンタ)、Y(イエロー)及びK(黒)の色ごとに生成する。
画像生成部17は、PDLデータを解析して、各画素の属性を示す属性データを生成することができる。画像生成部17は、例えば文字のベクトルデータにより描画する領域の画素を文字の属性に、線、四角形等の図形のベクトルデータにより描画する領域の画素を図形の属性に、JPEG等のファイルにより描画する領域の画素を写真の属性に、それぞれ決定することができる。属性は上記文字、図形及び写真に限らず、任意に設定することができる。
The image generation unit 17 rasterizes the PDL data received by the communication unit 15 and converts the bitmap format image data into C (cyan), M (magenta), Y (yellow), and K (black) colors. To generate.
The image generation unit 17 can analyze the PDL data and generate attribute data indicating the attribute of each pixel. For example, the image generation unit 17 draws a pixel of a region to be rendered by vector data of a character as a character attribute, a pixel of a region to be rendered by vector data of a graphic such as a line or a rectangle as a graphic attribute, and renders by a file such as JPEG The pixel of the area to be used can be determined as the attribute of the photograph. The attributes are not limited to the characters, graphics, and photographs, and can be set arbitrarily.
また、画像生成部17は、画像読取部16により得られた各色R、G及びBの画像データを色変換処理して、各色C、M、Y及びKの画像データを生成する。
画像生成部17は、生成された画像データを解析して各画素の属性を決定してもよい。例えば、テンプレートマッチングにより文字又は図形の画像領域を抽出し、当該画像領域の属性を文字又は図形に決定することができる。
The image generation unit 17 performs color conversion processing on the image data of each color R, G, and B obtained by the image reading unit 16 to generate image data of each color C, M, Y, and K.
The image generation unit 17 may analyze the generated image data and determine the attribute of each pixel. For example, an image region of a character or a graphic can be extracted by template matching, and the attribute of the image region can be determined as a character or a graphic.
画像処理装置Gは、画像生成部17から入力されたC、M、Y及びKの画像データに対し、γ補正処理、スクリーン処理及び輪郭処理を施す。 The image processing apparatus G performs γ correction processing, screen processing, and contour processing on the C, M, Y, and K image data input from the image generation unit 17.
画像形成部18は、画像処理装置Gから入力された各色C、M、Y及びKの画像データに基づいて、用紙上にトナーで画像を形成する。
具体的には、画像形成部18は、C、M、Y及びKの色ごとに設けられた露光部、感光体、現像部等の他、転写体、定着装置等を備えている。
画像形成部18は、露光部により、画像データの各画素の画素値に応じて変調されたレーザービームを、帯電する感光体上に照射して静電潜像を形成し、現像部によりトナーを供給して現像する。画像形成部18は、各感光体上に形成された各色の画像を転写体上に重ねて転写し、当該転写体から用紙上に画像を転写する。画像形成部18は、画像が転写された用紙を、定着装置により加熱及び加圧して定着処理する。
The image forming unit 18 forms an image with toner on a sheet based on the image data of each color C, M, Y, and K input from the image processing apparatus G.
Specifically, the image forming unit 18 includes a transfer member, a fixing device, and the like in addition to an exposure unit, a photosensitive member, a developing unit, and the like provided for each of C, M, Y, and K colors.
The image forming unit 18 irradiates the charged photosensitive member with a laser beam modulated according to the pixel value of each pixel of the image data by the exposure unit to form an electrostatic latent image, and the developing unit applies toner. Supply and develop. The image forming unit 18 transfers the image of each color formed on each photoconductor in an overlapping manner on the transfer body, and transfers the image from the transfer body onto the sheet. The image forming unit 18 heats and pressurizes the sheet with the image transferred thereon by a fixing device, and performs a fixing process.
図2は、上記画像処理装置Gの構成を機能ごとに示している。
画像処理装置Gは、図2に示すように、エッジ検出部1、輪郭決定部2、γ補正部3、スクリーン処理部4、コントーン処理部5及び輪郭処理部6を備えている。
FIG. 2 shows the configuration of the image processing apparatus G for each function.
As shown in FIG. 2, the image processing apparatus G includes an edge detection unit 1, a contour determination unit 2, a γ correction unit 3, a screen processing unit 4, a contone processing unit 5, and a contour processing unit 6.
エッジ検出部1は、画像データの各画素の周辺画素との画素値の差を色ごとに算出し、得られた各色の画素値の差を色ごとに決定された閾値と比較した結果に応じて、色ごとにエッジを検出する。エッジとは、濃淡、明るさ又は色の変化が大きい場所をいう。
具体的には、エッジ検出部1は、図2に示すように、C、M、Y及びKの色ごとに設けられたエッジ強度算出部101及び比較部102を備えている。
The edge detection unit 1 calculates the pixel value difference between each pixel of the image data and the surrounding pixels for each color, and compares the obtained pixel value difference for each color with a threshold value determined for each color. The edge is detected for each color. An edge means a place where a change in shading, brightness, or color is large.
Specifically, as illustrated in FIG. 2, the edge detection unit 1 includes an edge strength calculation unit 101 and a comparison unit 102 provided for each of C, M, Y, and K colors.
エッジ強度算出部101は、画素ごとに、C、M、Y及びKの色ごとのエッジ強度PED[ch]を算出する。[]内のchは、C、M、Y又はKの色を表す変数である。 The edge strength calculation unit 101 calculates edge strength PED [ch] for each color of C, M, Y, and K for each pixel. Ch in [] is a variable representing a color of C, M, Y, or K.
エッジ強度算出部101は、画像データの各画素を注目画素として1画素ごとに抽出し、当該注目画素の周囲に位置する8つの周辺画素を抽出する。
図3は、注目画素A0と、周辺画素A1〜A8とを表している。各画素A0〜A8の各色の画素値をA0[ch]〜A8[ch]と表す。
The edge strength calculation unit 101 extracts each pixel of the image data as a target pixel for each pixel, and extracts eight peripheral pixels located around the target pixel.
FIG. 3 shows a target pixel A0 and peripheral pixels A1 to A8. The pixel values of the respective colors of the pixels A0 to A8 are represented as A0 [ch] to A8 [ch].
エッジ強度算出部101は、下記式に示すように、注目画素A0の各色の画素値A0[ch]から周辺画素A1〜A8の各色の画素値A1[ch]〜A8[ch]をそれぞれ引いた差E1[ch]〜E8[ch]を求める。
E1[ch]=A0[ch]−A1[ch]
E2[ch]=A0[ch]−A2[ch]
E3[ch]=A0[ch]−A3[ch]
E4[ch]=A0[ch]−A4[ch]
E5[ch]=A0[ch]−A5[ch]
E6[ch]=A0[ch]−A6[ch]
E7[ch]=A0[ch]−A7[ch]
E8[ch]=A0[ch]−A8[ch]
The edge intensity calculation unit 101 subtracts the pixel values A1 [ch] to A8 [ch] of each color of the peripheral pixels A1 to A8 from the pixel value A0 [ch] of each color of the target pixel A0 as shown in the following equation. The difference E1 [ch] to E8 [ch] is obtained.
E1 [ch] = A0 [ch] -A1 [ch]
E2 [ch] = A0 [ch] -A2 [ch]
E3 [ch] = A0 [ch] -A3 [ch]
E4 [ch] = A0 [ch] -A4 [ch]
E5 [ch] = A0 [ch] -A5 [ch]
E6 [ch] = A0 [ch] -A6 [ch]
E7 [ch] = A0 [ch] -A7 [ch]
E8 [ch] = A0 [ch] -A8 [ch]
各差E1[ch]〜E8[ch]は、注目画素と各周辺画素A1〜A8との間におけるエッジの強さを表すので、エッジ強度算出部101は、各差E1[ch]〜E8[ch]のいずれかをエッジ強度PED[ch]として決定することができる。
なかでも、各差E1[ch]〜E8[ch]のうちの最大値が、最も認識されやすいエッジの強さを表すため、エッジ強度算出部101は、当該最大値をエッジ強度PED[ch]として決定することが好ましい。
なお、PED[ch]が、PED[ch]<0を満たす場合、エッジ強度算出部101は、PED[ch]を0に決定する。
Since each difference E1 [ch] to E8 [ch] represents the strength of the edge between the target pixel and each of the surrounding pixels A1 to A8, the edge strength calculation unit 101 uses each difference E1 [ch] to E8 [ ch] can be determined as the edge strength PED [ch].
Especially, since the maximum value among the differences E1 [ch] to E8 [ch] represents the edge strength that is most easily recognized, the edge strength calculation unit 101 uses the maximum value as the edge strength PED [ch]. It is preferable to determine as
When PED [ch] satisfies PED [ch] <0, the edge strength calculation unit 101 determines PED [ch] as 0.
比較部102は、各色のエッジ強度算出部101から入力されたエッジ強度PED[ch]を、色ごとに決定された閾値Th[ch]と比較する。
比較部102は、エッジ強度PED[ch]が閾値Th[ch]より大きい場合、1のエッジ信号ED[ch]を輪郭決定部2に出力する。1のエッジ信号ED[ch]は、注目画素A0と周辺画素A1〜A8間にエッジが検出されたことを示す。
The comparison unit 102 compares the edge strength PED [ch] input from the edge strength calculation unit 101 of each color with a threshold Th [ch] determined for each color.
The comparison unit 102 outputs one edge signal ED [ch] to the contour determination unit 2 when the edge strength PED [ch] is larger than the threshold Th [ch]. The edge signal ED [ch] of 1 indicates that an edge is detected between the target pixel A0 and the peripheral pixels A1 to A8.
なお、輪郭強調は、スクリーン処理によってジャギーが生じやすい文字又は図形に対して有効である。よって、輪郭強調の対象を、輪郭強調が有効な文字又は図形のみとする場合、比較部102は、エッジ強度PED[ch]が閾値Th[ch]より大きく、さらに注目画素A0の属性データが文字又は図形の属性を示す場合に、1のエッジ信号ED[ch]を出力するようにしてもよい。 Note that contour enhancement is effective for characters or figures that are prone to jaggy due to screen processing. Therefore, when only the characters or figures for which outline enhancement is effective are selected as the outline enhancement target, the comparison unit 102 has the edge strength PED [ch] larger than the threshold Th [ch], and the attribute data of the pixel of interest A0 is the character. Alternatively, one edge signal ED [ch] may be output in the case of indicating a graphic attribute.
また、比較部102は、エッジ強度PED[ch]が閾値Th[ch]以下である場合、0のエッジ信号ED[ch]を輪郭決定部2に出力する。0のエッジ信号[ch]は、注目画素A0と周辺画素A1〜A8間にエッジが検出されなかったことを示す。 Further, the comparison unit 102 outputs the edge signal ED [ch] of 0 to the contour determination unit 2 when the edge strength PED [ch] is equal to or less than the threshold value Th [ch]. The edge signal [ch] of 0 indicates that no edge is detected between the target pixel A0 and the peripheral pixels A1 to A8.
各色の閾値Th[ch]は、各色に応じて任意に決定することができるが、比視感度に応じて決定されていることが好ましい。
これにより、比視感度に応じたエッジ検出及び輪郭強調を行うことができ、視覚的に自然な画像を得ることができる。
The threshold Th [ch] for each color can be arbitrarily determined according to each color, but is preferably determined according to relative luminous sensitivity.
As a result, edge detection and contour enhancement according to specific visual acuity can be performed, and a visually natural image can be obtained.
なかでも、各色C、M、Y及びKのうち、比視感度が最も低いY色の閾値Th[Y]が、他の色の閾値Th[C]、Th[M]及びTh[K]よりも大きくなるように決定されていることが好ましい。
例えば、画素値が0〜255の範囲内にある場合、比視感度が最も高いK色の閾値Th[K]を51に、次に比視感度が高いM色及びC色の閾値Th[M]及びTh[C]をそれぞれ128に、最も比視感度が低いY色の閾値Th[Y]を200に決定することができる。
これにより、視認性が低く、輪郭として認識される画素値の差が他の色よりも大きいY色については、輪郭と認識される程度のエッジ強度PED[Y]が無ければ、輪郭強調の対象とならないようにエッジ検出を行うことができる。
Among them, among the colors C, M, Y, and K, the Y color threshold Th [Y] having the lowest specific visibility is more than the thresholds Th [C], Th [M], and Th [K] of other colors. It is preferable that it is determined to be larger.
For example, when the pixel value is in the range of 0 to 255, the K color threshold Th [K] with the highest specific visibility is set to 51, and the M and C color thresholds Th [M] with the next highest specific visibility are set. ] And Th [C] can be determined to 128, respectively, and the Y threshold Th [Y] having the lowest specific visibility can be determined to 200.
As a result, for a Y color with low visibility and a pixel value difference recognized as an outline larger than other colors, if there is no edge strength PED [Y] that can be recognized as an outline, the outline enhancement target Edge detection can be performed so as not to occur.
上記視認性が最も低い色の閾値Th[Y]は、輪郭に隣接する背景の各色の画素値及びスクリーン処理部4により当該背景に形成されるスクリーンの種類に応じて決定されていることが好ましい。
色味の再現性の低下を防ぐため、輪郭強調時には輪郭強調の対象とされた画素のすべての色の画素値が調整される。この調整によって、例えば文字が背景上に重ねられた画像は、文字だけでなく、文字に重なる背景の輪郭も強調され、この強調された背景の輪郭と、スクリーン処理によって文字に隣接して形成された背景のスクリーンとが干渉し、モアレが生じることがある。この場合、上述のように背景に応じて閾値Th[Y]を決定することにより、強調された背景の輪郭と、当該輪郭に隣接する背景のスクリーンとの接触を減らして、モアレを抑えることができる。
The threshold value Th [Y] of the color having the lowest visibility is preferably determined according to the pixel value of each color of the background adjacent to the contour and the type of screen formed on the background by the screen processing unit 4. .
In order to prevent a decrease in color reproducibility, the pixel values of all colors of the pixels subjected to the contour emphasis are adjusted during the contour emphasis. With this adjustment, for example, an image in which characters are superimposed on the background emphasizes not only the characters but also the background outline that overlaps the characters and is formed adjacent to the characters by screen processing. May interfere with the background screen and cause moire. In this case, by determining the threshold Th [Y] according to the background as described above, the contact between the emphasized background contour and the background screen adjacent to the contour can be reduced, and moire can be suppressed. it can.
背景の画素値が大きいほど、背景のスクリーンの濃度が高くなるため、輪郭と接触した場合にモアレが目立ちやすい。よって、背景の画素値が大きいほど、輪郭強調の対象外となるように閾値Th[Y]をより大きく決定することにより、輪郭強調により生じるモアレを抑えることができる。
また、スクリーンの種類には、ドットスクリーン、ラインスクリーン等があり、スクリーンの種類によって輪郭との接触頻度が変わる。よって、輪郭との接触が増えるスクリーンの種類であれば、輪郭強調の対象外となるように閾値Th[Y]をより大きく決定することにより、輪郭強調により生じるモアレを抑えることができる。
The larger the background pixel value, the higher the density of the background screen, so that moire tends to stand out when touching the contour. Therefore, the moire caused by the contour enhancement can be suppressed by determining the threshold Th [Y] to be larger so that the background pixel value is larger than the target of the contour enhancement.
The screen types include dot screens and line screens, and the frequency of contact with the contour changes depending on the type of screen. Therefore, in the case of a screen type in which contact with the contour increases, moire caused by contour emphasis can be suppressed by determining the threshold Th [Y] to be larger than the target of contour emphasis.
例えば、背景のC色の画素値が125であり、背景に形成されるスクリーンの種類が190線のドットスクリーンである場合、文字と背景のY色の画素値の差が100以上となる場合に輪郭強調されるように、Y色の閾値Th[Y]を225(255=125+100)に決定することができる。 For example, when the background C color pixel value is 125 and the screen formed on the background is a 190-line dot screen, the difference between the character and background Y color pixel values is 100 or more. The Y color threshold Th [Y] can be determined to be 225 (255 = 125 + 100) so that the outline is enhanced.
輪郭決定部2は、エッジ検出部1により、いずれかの色においてエッジが検出された画素を輪郭として決定する。
具体的には、輪郭決定部2は、各色の比較部102から入力されたエッジ信号ED[ch]のいずれかが1である場合、注目画素A0が輪郭を構成する画素であると決定し、1の出力制御信号EDCNを輪郭処理部6に出力する。1の出力制御信号EDCNは、注目画素A0が輪郭であり、輪郭強調の対象であることを示す。
また、輪郭決定部2は、各色の比較部102から入力されたエッジ信号ED[ch]のすべてが0である場合、注目画素A0は輪郭を構成する画素ではないと決定し、0の出力制御信号EDCNを輪郭処理部6に出力する。0の出力制御信号EDCNは、注目画素A0が輪郭ではなく、輪郭強調の対象外であることを示す。
The contour determination unit 2 determines a pixel in which an edge is detected in any color by the edge detection unit 1 as a contour.
Specifically, the contour determination unit 2 determines that the pixel of interest A0 is a pixel constituting the contour when any of the edge signals ED [ch] input from the comparison unit 102 of each color is 1, 1 output control signal EDCN is output to the contour processing unit 6. The output control signal EDCN of 1 indicates that the pixel of interest A0 is an outline and is an object of outline enhancement.
Further, the contour determining unit 2 determines that the pixel of interest A0 is not a pixel constituting the contour when all of the edge signals ED [ch] input from the comparing units 102 of the respective colors are 0, and the output control of 0 is performed. The signal EDCN is output to the contour processing unit 6. The output control signal EDCN of 0 indicates that the target pixel A0 is not a contour but is not subject to contour enhancement.
図4は、上述したエッジ検出部1と輪郭決定部2の処理手順を示している。
エッジ検出部1に画像データが入力されると、C、M、Y及びKのそれぞれの色に対応するエッジ強度算出部101が、1画素ごとに各色の画素値を入力する。
図4に示すように、各色のエッジ強度算出部101は、入力された各画素のエッジ強度PED[ch]を算出する(ステップS1)。算出されたエッジ強度PED[ch]は、各色に対応する比較部102に出力される。
FIG. 4 shows a processing procedure of the edge detection unit 1 and the contour determination unit 2 described above.
When image data is input to the edge detection unit 1, the edge intensity calculation unit 101 corresponding to each color of C, M, Y, and K inputs a pixel value of each color for each pixel.
As shown in FIG. 4, the edge strength calculation unit 101 for each color calculates the edge strength PED [ch] of each input pixel (step S1). The calculated edge strength PED [ch] is output to the comparison unit 102 corresponding to each color.
各色の比較部102は、入力されたエッジ強度PED[ch]を、各色の閾値Th[ch]と比較する(ステップS2〜S5)。
各色の比較部102は、エッジ強度PED[ch]が閾値Th[ch]より大きい場合(ステップS2;Y、S3;Y、S4;Y、S5;Y)、1のエッジ信号ED[ch]を輪郭決定部2に出力する(ステップS6)。
一方、エッジ強度PED[ch]が閾値Th[ch]以下である場合(ステップS2;N、S3;N、S4;N、S5;N)、各色の比較部102は0のエッジ信号ED[ch]を輪郭決定部2に出力する(ステップS7)。
The comparison unit 102 for each color compares the input edge strength PED [ch] with the threshold value Th [ch] for each color (steps S2 to S5).
When the edge intensity PED [ch] is larger than the threshold Th [ch] (steps S2; Y, S3; Y, S4; Y, S5; Y), the comparison unit 102 for each color receives one edge signal ED [ch]. It outputs to the outline determination part 2 (step S6).
On the other hand, when the edge strength PED [ch] is less than or equal to the threshold Th [ch] (steps S2; N, S3; N, S4; N, S5; N), the comparison unit 102 for each color outputs an edge signal ED [ch of 0. ] Is output to the contour determining unit 2 (step S7).
輪郭決定部2は、各色の比較部102から入力されたエッジ信号ED[ch]のいずれかが1であれば(ステップS8;N)、1の出力制御信号EDCNを出力する(ステップS9)。
一方、各色の比較部102から入力されたエッジ信号ED[ch]のすべてが0である場合(ステップS8;Y)、輪郭決定部2は0の出力制御信号EDCNを出力する(ステップS10)。
The contour determination unit 2 outputs one output control signal EDCN if any of the edge signals ED [ch] input from the comparison unit 102 for each color is 1 (step S8; N) (step S9).
On the other hand, when all the edge signals ED [ch] input from the comparison units 102 for each color are 0 (step S8; Y), the contour determination unit 2 outputs an output control signal EDCN of 0 (step S10).
γ補正部3は、各色の画像データにγ補正処理を施す。
γ補正部3は、形成される画像の階調特性が、目標とする階調特性と一致するように、各画素の階調値を補正する。具体的には、γ補正部3は、入力された階調値に対して補正された階調値を出力するLUT(Look Up Table)を備え、各画素の階調値に対応する、補正された階調値を当該LUTから取得する。
The γ correction unit 3 performs γ correction processing on the image data of each color.
The γ correction unit 3 corrects the gradation value of each pixel so that the gradation characteristic of the formed image matches the target gradation characteristic. Specifically, the γ correction unit 3 includes an LUT (Look Up Table) that outputs a gradation value corrected with respect to the input gradation value, and is corrected corresponding to the gradation value of each pixel. The obtained gradation value is acquired from the LUT.
スクリーン処理部4は、γ補正部3によりγ補正処理された画像データをスクリーン処理する。
スクリーン処理部4は、n×m画素のそれぞれに対して閾値が設定されたディザマトリクスを画像データの各画素と照らし合わせ、各画素のディザマトリクスにおける位置に対応する閾値を取得する。スクリーン処理部4は、各画素の画素値が取得した閾値よりも大きければ、スクリーン処理後の画素値を最大値とし、閾値以下であれば最小値として、各画素の画素値を2値化する。
The screen processing unit 4 screen-processes the image data that has been subjected to the γ correction processing by the γ correction unit 3.
The screen processing unit 4 compares a dither matrix in which a threshold is set for each of n × m pixels with each pixel of the image data, and acquires a threshold corresponding to the position of each pixel in the dither matrix. The screen processing unit 4 binarizes the pixel value of each pixel as a maximum value if the pixel value of each pixel is greater than the acquired threshold value, and as a minimum value if the pixel value is less than or equal to the threshold value. .
スクリーン処理部4は、n×m画素のそれぞれに対して2つの閾値が設定されたディザマトリクスを用いることにより、各画素の画素値を多値化することもできる。この場合、スクリーン処理部4は、2つの閾値のうち、小さい方の閾値よりも画素値が小さければ、スクリーン処理後の画素値を最小値とし、大きい方の閾値よりも画素値が大きければ最大値とする。また、スクリーン処理部4は、画素値が2つの閾値の範囲内にあれば、スクリーン処理後の画素値を、2つの閾値の線形補間により、最小値より大きく最大値より小さい中間調値とする。 The screen processing unit 4 can also multi-value the pixel value of each pixel by using a dither matrix in which two threshold values are set for each of n × m pixels. In this case, the screen processing unit 4 sets the pixel value after the screen processing to the minimum value if the pixel value is smaller than the smaller threshold value of the two threshold values, and the maximum if the pixel value is larger than the larger threshold value. Value. If the pixel value is within the range of the two threshold values, the screen processing unit 4 sets the pixel value after the screen processing to a halftone value that is larger than the minimum value and smaller than the maximum value by linear interpolation of the two threshold values. .
コントーン処理部5は、γ補正処理された画像データをコントーン処理する。コントーン処理は、γ補正処理された画像データをそのまま輪郭処理部6へ出力する処理である。すなわち、各画素のコントーン処理後の画素値は、γ補正処理後の画素値そのものである。 The contone processing unit 5 performs contone processing on the image data that has been subjected to the γ correction processing. The contone process is a process for outputting the image data subjected to the γ correction process to the contour processing unit 6 as it is. That is, the pixel value after contone processing of each pixel is the pixel value itself after γ correction processing.
輪郭処理部6は、輪郭決定部2により輪郭として決定された画素のすべての色の画素値を、輪郭を強調するように調整する輪郭処理を行う。
すべての色の画素値を調整することにより、輪郭強調による輪郭の色味の再現性の低下を防ぐことができる。
The contour processing unit 6 performs contour processing for adjusting the pixel values of all the colors of the pixels determined as the contour by the contour determining unit 2 so as to enhance the contour.
By adjusting the pixel values of all colors, it is possible to prevent a decrease in the reproducibility of the contour color due to contour enhancement.
輪郭処理部6には、スクリーン処理部4及びコントーン処理部5のそれぞれから、各画素のスクリーン処理後の画素値とコントーン処理後の画素値が同期して入力される。また、これら画素値の入力タイミングと同期して、輪郭決定部2から各画素の出力制御信号EDCNが入力される。
輪郭処理部6は、1の出力制御信号EDCNが入力された画素に対しては、コントーン処理後の画素値を出力し、0の出力制御信号EDCNが入力された画素に対しては、スクリーン処理後の画素値を出力する。
スクリーン処理後の画素値は、所定間隔でドットが形成されるように決定されているため、輪郭の元の画素値が最小値より大きくても、最小値で出力される場合がある。よって、コントーン処理後の画素値、すなわち元の画素値をそのまま出力することにより、輪郭の画素値が最小値より大きくなるように調整して、輪郭を強調することができる。
The pixel value after screen processing and the pixel value after contone processing of each pixel are input to the contour processing unit 6 from each of the screen processing unit 4 and the contone processing unit 5 in synchronization. In addition, the output control signal EDCN of each pixel is input from the contour determination unit 2 in synchronization with the input timing of these pixel values.
The contour processing unit 6 outputs the pixel value after the contone process for the pixel to which the output control signal EDCN of 1 is input, and performs the screen process for the pixel to which the output control signal EDCN of 0 is input. The later pixel value is output.
Since the pixel value after the screen processing is determined so that dots are formed at a predetermined interval, the pixel value may be output at the minimum value even if the original pixel value of the contour is larger than the minimum value. Therefore, by outputting the pixel value after the contone process, that is, the original pixel value as it is, the contour pixel value can be adjusted to be larger than the minimum value and the contour can be emphasized.
なお、輪郭処理部6は、1の出力制御信号EDCNが入力された画素に対しては、スクリーン処理後の画素値とコントーン処理後の画素値のうち、大きい方の画素値を出力することもできる。これにより、輪郭をより強く強調することが可能である。
例えば、図5(a)は、中間調の画素値を有する元画像を示している。図5(b)は、図5(a)に示す元画像の輪郭と決定された画素に対してコントーン処理後の画素値を出力し、それ以外の画素に対してスクリーン処理後の画素値を出力することにより得られた画像を示している。図5(b)において、スクリーン処理後の画素値は、コントーン処理後の画素値よりも大きい。
一方、図5(c)は、輪郭と決定された画素に対してはスクリーン処理後の画素値とコントーン処理後の画素値のうちの大きい方を出力して得られた画像を示している。いずれか大きい方の画素値を出力しているため、図5(b)に示す画像に比べて、図5(c)に示す画像の方が輪郭をより強く強調できている。
The contour processing unit 6 may output the larger pixel value of the pixel value after the screen processing and the pixel value after the contone processing for the pixel to which one output control signal EDCN is input. it can. Thereby, it is possible to emphasize a contour more strongly.
For example, FIG. 5A shows an original image having halftone pixel values. FIG. 5B outputs the pixel values after the contone processing for the pixels determined as the contour of the original image shown in FIG. 5A, and the pixel values after the screen processing for the other pixels. The image obtained by outputting is shown. In FIG. 5B, the pixel value after the screen processing is larger than the pixel value after the contone processing.
On the other hand, FIG. 5C shows an image obtained by outputting the larger one of the pixel value after the screen processing and the pixel value after the contone processing for the pixel determined to be the contour. Since the larger pixel value is output, the outline of the image shown in FIG. 5C can be emphasized more strongly than the image shown in FIG. 5B.
なお、輪郭を強調する手法はこれに限定されず、輪郭処理部6が、1の出力制御信号EDCNが入力された画素については、当該画素の画素値に応じて画素値を増大させるように調整してもよい。 Note that the method for emphasizing the contour is not limited to this, and the contour processing unit 6 adjusts the pixel to which the output control signal EDCN is input so as to increase the pixel value according to the pixel value of the pixel. May be.
図6〜図8は、画像処理装置Gによる輪郭強調の実施例及び比較例を示している。
図6は、3の数字と背景とからなる元画像f10を画像処理して得られた画像f11〜f14を示している。
元画像f10は、画素値の取り得る範囲が0〜255であり、数字のC、M、Y及びKの画素値が、それぞれ60、36、153及び0である。また、背景のC、M、Y及びKの画素値が、それぞれ128、0、0及び0である。
6 to 8 show examples and comparative examples of edge enhancement by the image processing apparatus G. FIG.
FIG. 6 shows images f11 to f14 obtained by performing image processing on the original image f10 including the number 3 and the background.
The original image f10 has a pixel value range of 0 to 255, and the pixel values of the numbers C, M, Y, and K are 60, 36, 153, and 0, respectively. The background C, M, Y, and K pixel values are 128, 0, 0, and 0, respectively.
画像f11は、元画像f10に対し、画像処理Aを施して得られた画像である。
画像処理Aは、上記画像処理装置Gにおいて、輪郭処理部6により輪郭処理せずに、すべての画素に対してスクリーン処理後の画素値を出力する画像処理である。
輪郭が強調されていないため、スクリーン処理された数字と背景の境界にジャギーが生じている。
The image f11 is an image obtained by performing image processing A on the original image f10.
Image processing A is image processing in which the image processing apparatus G outputs pixel values after screen processing for all pixels without performing contour processing by the contour processing unit 6.
Since the outline is not emphasized, there is a jaggy at the boundary between the screened number and the background.
画像f12は、元画像f10に対し、画像処理Bを施して得られた画像である。
画像処理Bは、上記画像処理装置Gのエッジ検出部1において、色ごとの閾値Th[ch]ではなく、全色共通の1つの閾値を用いてエッジを検出する以外は、上記画像処理装置Gと同様の画像処理である。
画像処理Bにおいて、全色共通の閾値として51が用いられた場合、数字のC色及びY色の画素値は閾値51よりも大きいため、数字の輪郭が強調された画像f12が得られる。
The image f12 is an image obtained by performing image processing B on the original image f10.
The image processing B is the image processing apparatus G except that the edge detection unit 1 of the image processing apparatus G detects an edge using one threshold common to all colors instead of the threshold Th [ch] for each color. Is the same image processing.
In the image processing B, when 51 is used as a threshold value common to all colors, the pixel values of the numbers C and Y are larger than the threshold value 51, so that an image f12 in which the outline of numbers is emphasized is obtained.
画像f13は、元画像f10に対し、画像処理Cを施して得られた画像である。
画像処理Cは、上記画像処理装置Gのエッジ検出部1によるエッジの検出方法を、次の検出方法に代えた以外は、上記画像処理装置Gと同様の画像処理である。
The image f13 is an image obtained by performing image processing C on the original image f10.
The image processing C is the same image processing as that of the image processing apparatus G except that the edge detection method by the edge detection unit 1 of the image processing apparatus G is replaced with the following detection method.
画像処理Cでは、エッジ強度PED[ch]に加えて、エッジ強度RED[ch]を色ごとに求める。エッジ強度RED[ch]は、各周辺画素A1〜A8の画素値A1[ch]〜A8[ch]から注目画素A0の画素値A0[ch]を引いた差のうち、絶対値が最も大きい差である。次に、下記式(1)及び式(2)により、各色のエッジ強度PED[ch]及びRED[ch]を比視感度に応じて重み付けて加算し、総合的なエッジ強度PED[All]及びRED[All]を得る。そして、PED[All]>RED[All]を満たす場合、エッジを検出する。 In the image processing C, in addition to the edge strength PED [ch], the edge strength RED [ch] is obtained for each color. The edge strength RED [ch] is the difference having the largest absolute value among the differences obtained by subtracting the pixel value A0 [ch] of the target pixel A0 from the pixel values A1 [ch] to A8 [ch] of the peripheral pixels A1 to A8. It is. Next, according to the following formulas (1) and (2), the edge strengths PED [ch] and RED [ch] of each color are weighted and added according to the relative luminous sensitivity, and the total edge strength PED [All] and Obtain RED [All]. If PED [All]> RED [All] is satisfied, an edge is detected.
PED[All]=PED[C]×Wc+PED[M]×Wm
+PED[Y]×Wy+PED[K]×Wk・・・(1)
RED[All]=RED[C]×Wc+RED[M]×Wm
+RED[Y]×Wy+RED[K]×Wk・・・(2)
〔上記式(1)及び式(2)において、Wc、Wm、Wy及びWkは、C、M、Y及びKの色ごとに設定された重み付け係数であり、Wc+Wm+Wy+Wk=1を満たす。Wc、Wm、Wy及びWkは、比視感度に応じて決定することができる。〕
PED [All] = PED [C] × Wc + PED [M] × Wm
+ PED [Y] × Wy + PED [K] × Wk (1)
RED [All] = RED [C] × Wc + RED [M] × Wm
+ RED [Y] × Wy + RED [K] × Wk (2)
[In the above formulas (1) and (2), Wc, Wm, Wy, and Wk are weighting coefficients set for each of C, M, Y, and K, and satisfy Wc + Wm + Wy + Wk = 1. Wc, Wm, Wy, and Wk can be determined according to the relative visibility. ]
画像処理Cにおいて、比視感度に応じて、上記重み付け係数Wc、Wm、Wy及びWkとして、それぞれ2/8、2/8、1/8及び3/8が用いられた場合、元画像f10の数字の輪郭におけるPED[All]及びRED[All]は、次のとおりである。
PED[All]=(60−128)×2/8+(36−0)×2/8+(153−0)×1/8+(0−0)×3/8≒11
RED[All]=(128−60)×2/8+(0−36)×2/8+(0−153)×1/8+(0−0)×3/8≒−11
PED[All]>RED[All]を満たすため、数字の輪郭が強調された画像f13が得られる。
In image processing C, when 2/8, 2/8, 1/8, and 3/8 are used as the weighting coefficients Wc, Wm, Wy, and Wk, respectively, according to the relative visibility, PED [All] and RED [All] in the outline of numbers are as follows.
PED [All] = (60−128) × 2/8 + (36−0) × 2/8 + (153-0) × 1/8 + (0−0) × 3 / 8≈11
RED [All] = (128-60) × 2/8 + (0-36) × 2/8 + (0-153) × 1/8 + (0-0) × 3 / 8≈-11
In order to satisfy PED [All]> RED [All], an image f13 in which the outline of a numeral is emphasized is obtained.
画像f14は、元画像f10に対し、画像処理Dが施された画像である。
画像処理Dは、上記画像処理装置Gと同じ画像処理である。画像処理Dにおいて、各色の閾値Th[C]、Th[M]、Th[Y]及びTh[K]として、それぞれ51、51、200及び51を用いると、数字のC色の画素値が閾値を超えるため、数字の輪郭が強調された画像f14が得られる。
The image f14 is an image obtained by performing image processing D on the original image f10.
The image processing D is the same image processing as that of the image processing apparatus G. In the image processing D, when 51, 51, 200, and 51 are used as the threshold values Th [C], Th [M], Th [Y], and Th [K] for each color, Therefore, the image f14 in which the outline of the numbers is emphasized is obtained.
画像f11と、画像f12〜f14とを比較すると、輪郭処理を行うことによって、数字の輪郭が強調され、ジャギーが解消されていることが分かる。 Comparing the image f11 with the images f12 to f14, it can be seen that by performing the contour processing, the numerical contour is enhanced and jaggy is eliminated.
図7は、4の数字が背景上に重ねられた元画像f20に対し、上記画像処理A〜Dをそれぞれ施して得られた画像f11〜f14を示している。
元画像f20は、画素値の取り得る範囲が0〜255であり、数字のC、M、Y及びKの画素値が、それぞれ128、0、100及び0である。また、背景のC、M、Y及びKの画素値が、それぞれ228、0、0及び0である。
FIG. 7 shows images f11 to f14 obtained by performing the image processing A to D on the original image f20 in which the numeral 4 is superimposed on the background.
The original image f20 has a pixel value range of 0 to 255, and the pixel values of the numbers C, M, Y, and K are 128, 0, 100, and 0, respectively. The background C, M, Y, and K pixel values are 228, 0, 0, and 0, respectively.
画像処理Aによれば、数字の輪郭が強調されないため、数字と背景の境界にジャギーが生じた画像f21が得られるが、数字のY色の視認性が低いため、ジャギー自体が認識されにくい。
画像処理Bによれば、数字と背景のY色の画素値の差が閾値より大きいため、数字の輪郭が強調されるが、数字の輪郭だけでなく、数字に重なる背景部分の輪郭も強調された画像f22が得られる。数字に重なる背景部分の強調された輪郭と、スクリーン処理によって数字の輪郭に隣接して形成された背景のスクリーンが周期的に干渉し、輪郭部分にモアレが生じている。
According to the image processing A, since the outline of the numeral is not emphasized, an image f21 in which jaggy occurs at the boundary between the numeral and the background is obtained. However, since the visibility of the Y color of the numeral is low, the jaggy itself is difficult to be recognized.
According to the image processing B, the difference between the number and the Y pixel value of the background is larger than the threshold value, so that the outline of the number is emphasized, but not only the outline of the number but also the outline of the background portion that overlaps the number An image f22 is obtained. The emphasized outline of the background portion that overlaps with the numeral and the background screen formed adjacent to the outline of the numeral by the screen processing periodically interfere, and moire occurs in the outline portion.
一方、画像処理Cによれば、Y色の重み付け係数Wyが他の色よりも小さく、数字と背景のY色の画素値の差が大きくても、比視感度に応じて重み付けられるため、エッジ強度PED[All]及びRED[All]への影響が小さい。その結果、PED[All]>RED[All]を満たさず、輪郭強調されない画像f23が得られる。
また、画像処理Dによれば、Y色の閾値Th[Y]が大きく、数字と背景のY色の画素値の差が閾値未満であり、エッジが検出されないため、輪郭強調されない画像f24が得られる。
On the other hand, according to the image processing C, even if the weighting coefficient Wy of Y color is smaller than the other colors and the difference between the pixel values of the number and the Y color of the background is large, the weighting is performed according to the relative visibility. The influence on strength PED [All] and RED [All] is small. As a result, an image f23 that does not satisfy PED [All]> RED [All] and is not edge-enhanced is obtained.
Also, according to the image processing D, the Y color threshold Th [Y] is large, the difference between the number and the Y pixel value of the background is less than the threshold, and no edge is detected. It is done.
輪郭強調された画像f22を、輪郭強調されない画像f21、f23及びf24と比較すると、Y色の画素値の差が輪郭として認識されないため、輪郭強調されると、観察者の比視感度と対応せず、違和感のある画像となってしまうことが分かる。
画像処理CはY色の重み付け係数Wcを下げ、画像処理DはY色の閾値Th[Y]を大きくすることにより、Y色の画素値の差が大きくても輪郭として認識される程度の差でなければ、輪郭強調されないように調整しており、比視感度に応じた輪郭強調を行っている。
When the edge-enhanced image f22 is compared with the non-edge-enhanced images f21, f23, and f24, the difference in pixel value of Y color is not recognized as an edge. Thus, it can be seen that the image becomes uncomfortable.
Image processing C lowers the Y color weighting coefficient Wc, and image processing D increases the Y color threshold Th [Y], so that even if there is a large difference in Y color pixel values, the difference is recognized as an outline. Otherwise, the contour is adjusted so as not to be emphasized, and the contour is enhanced according to the relative visibility.
図8は、1の数字の画像を含む元画像f30に対し、上記画像処理A〜Dをそれぞれ施して得られた画像f31〜f34を示している。
元画像f30は、画素値の取り得る範囲が0〜255であり、数字のC、M、Y及びKの画素値が、それぞれ0、128、0及び0である。また、背景のC、M、Y及びKの画素値が、それぞれ128、0、0及び0である。数字と背景の色は、それぞれ異なるM色及びC色であるが、各色M及びC色の比視感度及び画素値は同じである。
FIG. 8 shows images f31 to f34 obtained by performing the image processing A to D on the original image f30 including the number 1 image, respectively.
The original image f30 has a range of pixel values from 0 to 255, and the pixel values of the numbers C, M, Y, and K are 0, 128, 0, and 0, respectively. The background C, M, Y, and K pixel values are 128, 0, 0, and 0, respectively. The numbers and background colors are different M and C colors, respectively, but the relative visibility and pixel values of the respective colors M and C are the same.
画像処理Aによれば、数字の輪郭が強調されないため、数字と背景の境界にジャギーが生じた画像f31が得られる。
画像処理Bによれば、数字と背景のM色の画素値の差が閾値を超えるため、数字の輪郭が強調された画像f32が得られる。
画像処理Cによれば、PED[All]=RED[All]=0であり、PED[All]>RED[All]を満たさないため、輪郭が強調されない画像f33が得られる。画像f31と同様に、ジャギーが生じている。
画像処理Dによれば、数字と背景のM色の画素値の差が閾値を超えるため、画像f32と同様に、数字の輪郭が強調された画像f34が得られる。
According to the image processing A, since the outline of a number is not emphasized, an image f31 in which jaggy occurs at the boundary between the number and the background is obtained.
According to the image processing B, since the difference between the number and the M pixel value of the background exceeds the threshold value, an image f32 in which the outline of the number is emphasized is obtained.
According to the image processing C, since PED [All] = RED [All] = 0 and PED [All]> RED [All] is not satisfied, an image f33 whose contour is not emphasized is obtained. Similar to the image f31, jaggy has occurred.
According to the image processing D, since the difference between the number and the M pixel value of the background exceeds the threshold value, an image f34 in which the outline of the number is emphasized is obtained similarly to the image f32.
画像f31及びf33を画像f32及びf34と比較すると、比視感度がY色より高いC色及びM色が隣り合うと、輪郭に生じるジャギーが目立ちやすいため、輪郭強調によりジャギーを抑えることが好ましい。
しかし、異なる色であって、比視感度及び画素値が同じ色が隣り合う場合、画像処理Cのエッジ検出方法によってはエッジが検出されないため、輪郭強調することができない。
一方、画像処理Dによれば、色ごとに独立してエッジを検出するため、輪郭と背景の色の関係によらず、エッジを検出することができ、輪郭強調することができる。
When the images f31 and f33 are compared with the images f32 and f34, if the C and M colors having higher relative visibility than the Y color are adjacent to each other, the jaggy generated in the contour is conspicuous. Therefore, it is preferable to suppress the jaggy by contour enhancement.
However, when colors having different specific colors and the same specific visibility and pixel value are adjacent to each other, the edge cannot be emphasized because the edge is not detected by the edge detection method of the image processing C.
On the other hand, according to the image processing D, since the edge is detected independently for each color, the edge can be detected regardless of the relationship between the outline and the background color, and the outline can be emphasized.
図9は、Y色の画素値の大きさと輪郭強調の関係を示している。
図9において、画像f41〜f45は、4の数字が背景上に重ねられた画像であって、数字のY色の画素値がそれぞれ150、175、200、225及び255である元画像に対し、上記画像処理Dを施して得られた画像である。各元画像の数字のY色以外のC、M及びKの画素値は、それぞれ128、0及び0であり、背景のC、M、Y及びKの画素値は、それぞれ128、0、0及び0である。
FIG. 9 shows the relationship between the size of the Y-color pixel value and the contour emphasis.
In FIG. 9, images f41 to f45 are images in which the number 4 is superimposed on the background, and the Y-color pixel values of the numbers are 150, 175, 200, 225, and 255, respectively. It is an image obtained by performing the image processing D. The pixel values of C, M, and K other than the Y color of the numbers of the original images are 128, 0, and 0, respectively, and the pixel values of the background C, M, Y, and K are 128, 0, 0, and 0.
Y色の閾値Th[Y]が200であるため、数字のY色の画素値が200以下では、数字の輪郭が強調されない画像f41〜f43が得られる。数字のY色の画素値が200を超えると、数字の輪郭が強調された画像f44及びf45が得られる。
図9に示すように、Y色の画素値が大きくなるほど、背景のC色が認識されにくくなるため、数字の輪郭が強調されても、数字とともに強調された背景部分の輪郭と、輪郭に隣接する背景のスクリーンとの干渉が少ないことが分かる。
Since the threshold value Th [Y] for Y color is 200, images f41 to f43 in which the outline of the number is not emphasized are obtained when the pixel value of the number Y color is 200 or less. When the pixel value of the Y color of the number exceeds 200, images f44 and f45 in which the outline of the number is emphasized are obtained.
As shown in FIG. 9, as the Y pixel value increases, the C color of the background becomes difficult to recognize. Therefore, even if the outline of the number is emphasized, the outline of the background portion that is emphasized together with the number and the outline are adjacent to each other. It can be seen that there is little interference with the background screen.
以上のように、画像処理装置Gは、各画素の周辺画素との画素値の差を色ごとに算出し、得られた各色の画素値の差を色ごとに決定された閾値と比較した結果に応じて、色ごとにエッジを検出するエッジ検出部1と、エッジ検出部1により、いずれかの色においてエッジが検出された画素を輪郭として決定する輪郭決定部2と、輪郭として決定された画素のすべての色の画素値を、輪郭を強調するように調整する輪郭処理部6と、を備える。 As described above, the image processing apparatus G calculates the difference between the pixel values of each pixel and the surrounding pixels for each color, and compares the obtained pixel value difference for each color with the threshold value determined for each color. Accordingly, the edge detection unit 1 that detects an edge for each color, the edge detection unit 1 that determines a pixel in which an edge is detected in any color as the contour, and the contour is determined as the contour. A contour processing unit 6 that adjusts the pixel values of all the colors of the pixels so as to enhance the contour.
色ごとにエッジを検出することにより、単独の色の差に着目してエッジを検出することができる。輪郭に隣接する背景の色が輪郭と異なる色であれば、色の比視感度及び画素値が同じあっても輪郭強調の対象とすることができ、輪郭強調によってジャギーを抑えることができる。
また、各色の比視感度に応じて、各色の閾値Th[ch]を決定することができ、比視感度に応じた輪郭強調が可能である。
By detecting the edge for each color, it is possible to detect the edge by paying attention to the difference of a single color. If the color of the background adjacent to the contour is different from the contour, even if the specific visibility and the pixel value of the color are the same, the contour can be subjected to contour enhancement, and jaggy can be suppressed by contour enhancement.
Further, the threshold Th [ch] for each color can be determined according to the relative luminous sensitivity of each color, and contour enhancement according to the specific luminous sensitivity is possible.
上記実施の形態は本発明の好適な一例であり、これに限定されない。本発明の主旨を逸脱しない範囲で適宜変更可能である。
例えば、制御部11がプログラムを読み取ることにより、上記画像処理装置Gの処理内容を制御部11により実行させることもできる。また、画像形成装置10に限らず、汎用のPC等のコンピューターにより当該プログラムを読み取らせて、上記画像処理装置Gの処理内容を実行させることもできる。
プログラムのコンピューター読み取り可能な媒体としては、ROM、フラッシュメモリー等の不揮発性メモリー、CD-ROM等の可搬型記録媒体を適用することが可能である。また、当該プログラムのデータを、通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。
The above embodiment is a preferred example of the present invention, and the present invention is not limited to this. Modifications can be made as appropriate without departing from the spirit of the present invention.
For example, when the control unit 11 reads a program, the processing content of the image processing apparatus G can be executed by the control unit 11. Further, not only the image forming apparatus 10 but also a computer such as a general-purpose PC can read the program and execute the processing contents of the image processing apparatus G.
As a computer-readable medium for the program, a non-volatile memory such as a ROM and a flash memory, and a portable recording medium such as a CD-ROM can be applied. A carrier wave is also used as a medium for providing the program data via a communication line.
10 画像形成装置
11 制御部
12 記憶部
G 画像処理装置
1 エッジ検出部
2 輪郭決定部
3 γ補正部
4 スクリーン処理部
5 コントーン処理部
6 輪郭処理部
17 画像生成部
18 画像形成部
DESCRIPTION OF SYMBOLS 10 Image forming apparatus 11 Control part 12 Memory | storage part G Image processing apparatus 1 Edge detection part 2 Contour determination part 3 γ correction part 4 Screen processing part 5 Contone processing part 6 Contour processing part 17 Image generation part 18 Image formation part
Claims (3)
前記エッジ検出部により、いずれかの色においてエッジが検出された画素を輪郭として決定する輪郭決定部と、
前記輪郭として決定された画素のすべての色の画素値を、前記輪郭を強調するように調整する輪郭処理部と、
を備え、
前記エッジ検出部は、前記画素値の差が前記閾値よりも大きい場合にエッジを検出し、
前記色ごとに決定された閾値は、各色のなかで視認性が最も低い色の閾値が、他の色の閾値よりも大きくなるように決定され、
前記視認性が最も低い色の閾値が、前記輪郭に隣接する背景の画素の各色の画素値及び当該背景に形成されるスクリーンの種類に応じて決定されている
ことを特徴とする画像処理装置。 The difference between the pixel values of each pixel and the surrounding pixels is calculated for each color, and an edge is detected for each color according to the result of comparing the obtained pixel value difference for each color with a threshold value determined for each color. An edge detector;
A contour determining unit that determines, as a contour, a pixel in which an edge is detected in any color by the edge detecting unit;
A contour processing unit that adjusts pixel values of all colors of the pixels determined as the contour so as to enhance the contour;
Equipped with a,
The edge detection unit detects an edge when the difference between the pixel values is larger than the threshold value,
The threshold value determined for each color is determined such that the threshold value of the color having the lowest visibility among the colors is larger than the threshold values of the other colors.
The image processing apparatus according to claim 1, wherein the threshold value of the color having the lowest visibility is determined according to a pixel value of each color of a background pixel adjacent to the contour and a type of a screen formed on the background .
前記輪郭処理部は、前記輪郭として決定された画素に対しては、前記輪郭を強調するように調整された画素値を出力し、前記輪郭として決定されなかった画素に対しては、前記スクリーン処理部により得られた画素値を出力することを特徴とする請求項1に記載の画像処理装置。 A screen processing unit that compares the pixel value of each pixel with a threshold corresponding to the position of each pixel and obtains a binarized or multi-valued pixel value,
The contour processing unit outputs a pixel value adjusted to emphasize the contour for the pixel determined as the contour, and the screen processing for the pixel not determined as the contour. The image processing apparatus according to claim 1, wherein the pixel value obtained by the unit is output.
前記エッジ検出工程により、いずれかの色においてエッジが検出された画素を輪郭として決定する輪郭決定工程と、
前記輪郭として決定された画素のすべての色の画素値を、前記輪郭を強調するように調整する輪郭処理工程と、
を含み、
前記エッジ検出工程は、前記画素値の差が前記閾値よりも大きい場合にエッジを検出し、
前記色ごとに決定された閾値は、各色のなかで視認性が最も低い色の閾値が、他の色の閾値よりも大きくなるように決定され、
前記視認性が最も低い色の閾値が、前記輪郭に隣接する背景の画素の各色の画素値及び当該背景に形成されるスクリーンの種類に応じて決定されている
ことを特徴とする画像処理方法。 The difference between the pixel values of each pixel and the surrounding pixels is calculated for each color, and an edge is detected for each color according to the result of comparing the obtained pixel value difference for each color with a threshold value determined for each color. An edge detection process;
A contour determination step for determining, as a contour, a pixel in which an edge is detected in any color by the edge detection step;
A contour processing step of adjusting pixel values of all colors of the pixels determined as the contour so as to enhance the contour;
Only including,
The edge detection step detects an edge when the difference between the pixel values is larger than the threshold value,
The threshold value determined for each color is determined such that the threshold value of the color having the lowest visibility among the colors is larger than the threshold values of the other colors.
An image processing method , wherein the threshold value of the color having the lowest visibility is determined according to a pixel value of each color of a background pixel adjacent to the contour and a type of a screen formed on the background .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013251672A JP6303458B2 (en) | 2013-12-05 | 2013-12-05 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013251672A JP6303458B2 (en) | 2013-12-05 | 2013-12-05 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015109573A JP2015109573A (en) | 2015-06-11 |
JP6303458B2 true JP6303458B2 (en) | 2018-04-04 |
Family
ID=53439632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013251672A Expired - Fee Related JP6303458B2 (en) | 2013-12-05 | 2013-12-05 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6303458B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7211238B2 (en) * | 2019-04-16 | 2023-01-24 | 株式会社リコー | Edge detection device, tilt correction device, reading device, image processing device, and edge detection method |
CN113936017B (en) * | 2021-10-27 | 2025-02-07 | 锐芯微电子股份有限公司 | Image processing method and device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3725255B2 (en) * | 1996-08-01 | 2005-12-07 | 株式会社リコー | Digital image processing device |
JP3834484B2 (en) * | 2001-05-25 | 2006-10-18 | シャープ株式会社 | Image processing method, image processing apparatus, image forming apparatus, and computer-readable recording medium |
JP4189467B2 (en) * | 2004-05-27 | 2008-12-03 | コニカミノルタビジネステクノロジーズ株式会社 | Image processing device |
JP4988624B2 (en) * | 2008-02-22 | 2012-08-01 | 株式会社リコー | Image processing apparatus, image processing method, and recording medium |
-
2013
- 2013-12-05 JP JP2013251672A patent/JP6303458B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015109573A (en) | 2015-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4902837B2 (en) | How to convert to monochrome image | |
JP4189467B2 (en) | Image processing device | |
CN103581637B (en) | Image processing equipment and image processing method | |
JP5874721B2 (en) | Image processing apparatus, image correction method, and program | |
KR102015926B1 (en) | Image processing apparatus, control method of image processing apparatus, and storage medium | |
JP2009070128A (en) | Image processor and image processing method | |
JP2009266233A (en) | Image processor and image processing method | |
US10348932B2 (en) | Image processing apparatus, method of controlling the same, and non-transitory computer-readable storage medium that decrease the lightness of pixels, except for a highlight region, based on a generated lightness histogram | |
JP2008199080A (en) | Image processor, and image processing method | |
US9237249B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and recording medium | |
JP5499981B2 (en) | Image processing device | |
JP4111190B2 (en) | Image processing device | |
JP7447193B2 (en) | Image processing device and image processing method | |
JP6131613B2 (en) | Image forming apparatus and image processing method | |
JP6303458B2 (en) | Image processing apparatus and image processing method | |
JP6882083B2 (en) | Image processing device, image forming device, image processing method and program | |
US10388021B2 (en) | Image processing apparatus, image forming apparatus and program | |
US8565548B2 (en) | Image processing apparatus which performs anti-aliasing on input image data and image processing method thereof | |
JP4570534B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and computer program | |
US10798267B2 (en) | Image processing to set output pixel values subject to edge or thin line correction | |
JP2007088741A (en) | Image processing apparatus and image processing method | |
JP6935708B2 (en) | Image processing equipment, image forming equipment, and programs | |
JP6337618B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017135609A (en) | Image processing apparatus, image processing method, and program | |
US9143654B2 (en) | Image processing apparatus, image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6303458 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |