JP3723666B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP3723666B2 JP3723666B2 JP20671697A JP20671697A JP3723666B2 JP 3723666 B2 JP3723666 B2 JP 3723666B2 JP 20671697 A JP20671697 A JP 20671697A JP 20671697 A JP20671697 A JP 20671697A JP 3723666 B2 JP3723666 B2 JP 3723666B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- unit
- data
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000015572 biosynthetic process Effects 0.000 claims description 14
- 238000005755 formation reaction Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims 1
- 230000015654 memory Effects 0.000 description 104
- 238000000034 method Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 29
- 238000000605 extraction Methods 0.000 description 25
- 238000006243 chemical reaction Methods 0.000 description 13
- 101150072448 thrB gene Proteins 0.000 description 12
- 239000000284 extract Substances 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000004042 decolorization Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Images
Landscapes
- Facsimile Scanning Arrangements (AREA)
- Storing Facsimile Image Data (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像データが文字領域か中間調領域かを識別して領域識別信号を発生する画像処理装置に関する。
【0002】
【従来の技術】
従来、この種の画像処理装置として、例えば特開平3−203464号公報に示すように原稿の1回目の読み取り時の画像データが文字領域か中間調領域かを識別した領域識別信号をメモリに記憶し、原稿の2回目以降の読み取り時にはこのメモリに記憶された領域識別信号を使用する方法が知られている。
【0003】
【発明が解決しようとする課題】
ところで、複写機では、1枚の原稿を1/2に分割した用紙2枚分の画像データや、2枚の原稿の画像データを感光体上に形成して2枚の用紙に複写するいわゆる2面取りモードが知られている。しかしながら、このような用紙2枚分の画像データの領域識別信号をメモリに記憶させると、用紙と用紙の間の不要な領域識別信号もメモリに記憶させる必要があるので、メモリ容量を大きくしなければならないという問題点がある。なお、上記問題点を解決するために用紙と用紙の間の時にはメモリアクセスを禁止する方法が考えられるが、この場合にはメモリアクセス制御が複雑になるという問題点がある。
【0004】
本発明は上記従来の問題点に鑑み、感光体上に用紙2枚分の画像を形成するいわゆる2面取りを行う場合に、領域識別信号を記憶するメモリの容量を少なくすることができ、また、メモリアクセス制御を簡単にすることができる画像処理装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明は上記目的を達成するために、画像データが文字領域か又は中間調領域かを示す領域識別信号に基づいてその画像データの画像処理を行う画像処理装置において、原稿画像を読み取る原稿読み取り手段と、前記原稿読み取り手段により読み取られた画像データを記憶する画像記憶手段と、前記原稿読み取り手段により読み取られた画像データ又は前記画像記憶手段に記憶された画像データが文字領域か又は中間調領域かを画素毎に識別する領域識別手段と、前記領域識別手段により識別された領域識別信号を記憶する領域識別信号記憶手段と、前記領域識別手段により識別された領域識別信号又は前記領域識別信号記憶手段に記憶されている領域識別信号を選択する選択手段と、原稿2枚分の画像を感光体上に作像する場合に、前記原稿読み取り手段が1枚目の原稿を1回だけ読み取り、次いで2枚目の原稿を作像数だけ読み取るように制御し、1枚目の原稿の読み取り時に前記原稿読み取り手段により読み取られた画像データを前記画像記憶手段に書き込み、1枚目の各作像時には前記画像記憶手段に書き込まれている画像データに基づいて前記領域識別手段により識別された領域識別信号を前記選択手段が選択して出力し、2枚目の1回目の作像時には前記原稿読み取り手段により読み取られた画像データに基づいて前記領域識別手段により識別された領域識別信号を前記選択手段が選択して出力すると共に前記領域識別信号記憶手段に書き込み、2枚目の2回目以降の作像時には前記領域識別信号記憶手段に記憶された領域識別信号を読み出して前記選択手段が選択するように制御する制御手段とを備えたことを特徴とする。
【0007】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。図1は本発明に係る画像処理装置の一実施形態を備えた複写機を示すブロック図、図2は図1の画像処理部を詳細に示すブロック図、図3は図2の原稿認識部を詳細に示すブロック図、図4は図3の原稿認識部の参照画素を示す説明図、図5は画像データの濃度変化を示す説明図、図6は図5の画像データのエッジ量を示す説明図、図7は画像データの一例として白地上の網点と網点上の文字を示す説明図、図8は図3のパターンマッチング部の参照画素を示す説明図、図9は図3のパターンマッチング部の伝播方向を示す説明図、図10及び図11は図3のパターンマッチング部(A,B,B’)の処理を説明するためのフローチャート、図12は図3のパターンマッチング部(B,B’)の処理を説明するためのフローチャート、図13は図4の膨張部の補間処理を示す説明図、図14は第2の実施形態のパターンマッチング部(B,B’)の処理を説明するためのフローチャート、図15はディテール強調処理を示す説明図である。
【0008】
図16は図1の複写機における圧板1to1メモリモード(画像メモリ使用)の処理を示す説明図、図17は図1の複写機における圧板1to1スキャナモード(画像メモリ不使用)の処理を示す説明図、図18は図1の複写機における2面取りモード(画像メモリ使用)の処理を示す説明図、図19は図1の複写機における2面取りモード(画像メモリ不使用)の処理を示す説明図、図20は図1の複写機におけるADF1to1モードの処理を示す説明図である。
【0009】
図1に示す複写機は、原稿を読み取り、読み取りデータをRGBデジタルデータとして出力する画像読み取り部1と、図2に詳しく示すような画像処理部2と、画像処理部2により処理されたカラー画像を用紙上に出力する画像記録部3を有する。図2において、RGBγ補正部11は原稿読み取り部1からのRGBデータのグレーバランスの補正と濃度への変換を行い、その処理データをメモリ部10を介して遅延部12と原稿認識部13に出力する。メモリ部10はRGBデータを原稿の最大サイズ分の半分(例えばA4サイズ)分の容量を有し、また、画像の回転もこのメモリ部10を行って行う。遅延部12は原稿認識部13の出力結果と同期をとるためにRGBデータを遅延してRGBフィルタ部14に出力する。
【0010】
原稿認識部13は図3に示すように線画認識部13aと色判定部13bを有し、線画認識部13aはRGBγ補正部11からのRGBデータに基づいて文字領域か又は絵柄領域かを判定し、2ビットの文字/絵柄判定信号C/P(「3」=「11」が文字、「1」=「01」が絵柄上の文字、「0」=「00」が絵柄)を出力する。色判定部13bはRGBγ補正部11からのRGBデータに基づいて有彩領域か又は無彩領域かを判定し、1ビットの有彩/無彩判定信号B/C(Hが無彩、Lが有彩)を出力する。なお、有彩/無彩判定信号B/Cは4×4画素を1ブロックとして1画素に対応している。
【0011】
文字/絵柄判定信号C/PはRGBフィルタ部14、色補正部15、UCR部16、変倍部17、CMYBkフィルタ部18、CMYBkγ補正部19及び階調処理部20に対してカスケード接続により画像データに同期して印加され、また、有彩/無彩判定信号B/CはRGBフィルタ部14、色補正部15、UCR部16に対してカスケード接続により画像データRGBまたはCMYに同期して印加される。各ブロック14〜20はこれらの文字/絵柄判定信号C/Pと有彩/無彩判定信号B/Cに基づいて文字処理、絵柄処理を行う。
【0012】
RGBフィルタ部14は遅延部12からのRGBデータをMTF補正するN×N画素のフィルタであり、文字/絵柄判定信号C/Pが「3」(文字)の時には鮮鋭化処理を行い、「0」(絵柄)の時には平滑化処理を行い、「1」(絵柄上の文字)の時には入力データを処理せずにそのまま出力する。色補正部15はRGBフィルタ部14により処理されたRGBデータを一次マスキング法などによりC、M、Yデータに変換し、UCR部16は画像データの色再現性を向上させるために色補正部15により変換されたC、M、Yデータの共通部分をUCR(加色除去)処理することによりBkデータを生成する。
【0013】
UCR部16はまた、文字/絵柄判定信号C/Pが「3」以外の時にはスケレトンブラックのBkデータを生成し、「3」の時にはフルブラックのBkデータを生成する。UCR部16はまた、文字/絵柄判定信号C/Pが「3」(文字)であって有彩/無彩判定信号B/CがH(無彩)の時には、黒文字を黒成分のみで表現するためにC、M、Yデータをイレースする。UCR部16は変倍部17に対して、画像読み取り部1が1枚の原稿を4回読み取って画像記録部2に対して面順次で出力するために、これらのC、M、Y、Bkの1つの信号IMGを面順次で出力する。
【0014】
変倍部17は主走査方向の拡大、縮小、等倍処理を行い、CMYBkフィルタ部19はN×N画素のフィルタであって画像記録部3の周波数特性や、文字/絵柄判定信号C/Pに基づいて鮮鋭化処理又は平滑化処理を行う。CMYBkγ補正部20は画像記録部3の周波数特性や文字/絵柄判定信号C/Pに基づいてγカーブを変更し、具体的には文字/絵柄判定信号C/Pが「0」(絵柄)の時には画像を忠実に再現するγに、「0」以外の時にはγを立たせてコントラストを強調する。
【0015】
階調処理部21は画像記録部3の階調特性や文字/絵柄判定信号C/Pに基づいてディザ処理等の量子化を行い、具体的には文字/絵柄判定信号C/Pが「0」(絵柄)の時には階調重視の処理を行い、「0」以外の時には解像度重視の処理を行う。
【0016】
要約すると、
・C/P=「0」(絵柄)のとき
RGBフィルタ部14 →平滑化処理
UCR部16 →スケレトンブラック
CMYBkフィルタ部18→リニア(階調性)を重視したγカーブ選択
CMYBkγ補正部19 →画像を忠実に再現するγカーブ選択
階調処理部20 →階調重視
・C/P=「3」(文字)のとき
RGBフィルタ部14 →強調処理
UCR部16 →フルブラック
CMYBkフィルタ部18→強調処理
CMYBkγ補正部19 →γを立たせてコントラストを強調
階調処理部20 →解像度重視
・C/P=「3」(文字)且つB/C=Hのとき(黒文字処理)
黒文字の回りに位置ずれにより色が付くことを防止するためにYMCデータを印字しない。なお、このときのBkデータのRGBフィルタを色文字のときより強めに行って、くっきりさせてもよい。
【0017】
・C/P=「1」(絵柄上の文字)のとき
RGBフィルタ部14 →弱強調処理または入力データをそのまま出力するスルー処理
UCR部16 →フルブラック,このときには、黒文字処理のような処理を行わず、YMCデータを印字する。
【0018】
CMYBkフィルタ部18→強調処理
CMYBkγ補正部19 →γを立たせてコントラストを強調
階調処理部20 →解像度重視
次に、図3を参照して線画認識部13aと色判定部13bについて詳しく説明する。先ず、線画認識部13aはモノクロ化部41と、ラプラシアン部42と、パターンマッチング部(A,B,B’)43、44、44’と、以下2系統A、Bの孤立点除去部(A,B)45、46と、画素密度変換部(A,B)47、48と、ページメモリ(A,B)49、50と、セレクタ(A,B)51、52と孤立ブロック除去部(A,B)53、54と、膨張部(A,B)55、56と、ANDゲート(A,B)76、77を有する。セレクタ(A,B)51、52はそれぞれ、画素密度変換部(A,B)47、48又はページメモリ(A,B)49、50の出力を選択して孤立ブロック除去部(A,B)53、54に出力する。
【0019】
線画認識部13aはまたエッジ抽出部70を有し、エッジ抽出部70は白孤立点除去部71と、黒孤立点除去部72と、輪郭抽出部73と、膨張縮小部74とラインディレイ部75を有する。ラインディレイ部75の出力信号は共通にANDゲート(A,B)76、77の一方の各入力端子に印加され、ANDゲート(A,B)76、77の他方の各入力端子にはそれぞれ膨張部(A,B)55、56の各出力信号が印加される。系統AのANDゲート(A)76からは文字/絵柄判定信号C/PのMSB(C/P・A)が出力され、系統BのANDゲート(B)77からはLSB(C/P・B)が出力される。
【0020】
各ブロックについて詳細に説明すると、先ず、モノクロ化部41はRGBデータを輝度データ等に変換することによりモノクロ化する。なお、輝度データの代わりに、RGBデータの中で最も濃いデータを選択してもよいし、また、Gデータを輝度データとして用いてもよい。ここで、モノクロ化部41の出力データは数値が大きくなると濃く、小さくなると薄いことを示す。
【0021】
ラプラシアン部42は線画のエッジを抽出すると共に白領域と黒領域を検出し、白(w)領域を検出することにより白地上の線画の抽出データとする。白領域の検出方法は図4に示すマトリクスの内、3×3画素のブロックを用い、先ず、次のような論理により注目画素a11を含む周辺データが閾値thw より小さいときに白領域候補とする。
【0022】
なお、このパターンは直交パターンであるが、斜めなどのパターンを追加してもよい。ここで、太線用と細線用の白領域候補を検出するための閾値thw は異なる値を使用し、図5に示すように「太線用白領域候補」では一般的な白地の値thw2を設定し、「細線用白領域候補」では一般的な白地よりやや低い(白寄りの)値thw1を設定する。その理由は絵柄(印刷物の網点や複写機の万線)のハイライト(明るいほう)が「白領域候補」になるのを避けるためである。
【0023】
次いで、「白領域候補」から更に「白領域」を算出するために以下のようにラプラシアンを求める。
【0024】
ここで、iは主走査方向と副走査方向のMTFの違いや、変倍時や回転時の補正を行うための重み係数である。このときのxの値が以下のような値ならば白領域とする。
【0025】
−N<x<N
ここでは、太線用と細線用の閾値は別個にしなくてもよい。このようにして「細線用白領域」と「太線用白領域」を検出し、また。これにより絵柄上のハイライト側の小網点や万線パターンを抽出しないように除去している。
【0026】
次に、「太線用白領域」を補正する。その理由は、例えば白黒反転した文字(白が文字で周囲が黒)の原稿の場合には、複写機のような光学的読み取り装置により読み取ると、フレア(白1点ではなく、周辺が黒の影響を受ける)などにより白データが通常よりやや黒寄りになることがある。そこで、例えば白領域のマトリクスを3×3とすると以下のような補正を行う。
【0027】
これを「補正白領域候補」とし、上述したラプラシアンにより「補正白領域」を算出する。ここで、閾値thw は図5に示すように太線の閾値thw2より黒寄りの値thw3であり、また、Nは上述した太線用白領域の値Nより小さくする。Nを小さくする理由は、白データの変化量が少ない安定したデータを抽出するためである。これにより抽出した「補正白領域」を上述した「太線用白領域」に補正し、これを「太線用補正白領域」とする。つまり「太線用補正白領域」とは「補正白領域」か又は「太線用白領域」である。また、ここでも絵柄上のハイライト側の小網点や万線パターンを抽出しないように除去している。
【0028】
同様に、黒領域を検出することにより、黒地上の線画の抽出データとする。黒領域の検出方法は図4に示すマトリクスの内、3×3画素のブロックを用い、先ず、次のように論理により注目画素a11を含む周辺データが閾値thb より大きいときに「黒領域候補」とする。
【0029】
また、このパターンは直交パターンであるが、斜めなどのパターンを追加してもよい。ここで、「黒領域候補」の閾値thb は図5に示すように、一般的な黒地の値(文字として強調したい濃度)を設定する(thb >thw3)。次いで、白の場合と同様に、「黒領域候補」から更に「黒領域」を算出するために前述した式(1)によりラプラシアンを求める。
【0030】
また、式(1)により図6に示すようにエッジ量xを求める。ここで、式(1)における重み係数iは、選択的な係数であり、ハードウエアを設計する際にゲート規模が小さくなるような係数
に設定される(固定少数点演算)。
【0031】
また、このように係数iを設定することにより、主走査方向と副走査方向のMTF(光学系と走行系)などのぼけを修正することができる。なお、メモリ部10において画像データを90°回転する場合にも、係数iは回転に応じてセットされる。ここで、主走査方向と副走査方向のMTFは異なっており、また、複写機では副走査方向の変倍を読み取り装置の読み取り面積(速度)により行っているため、副走査方向のMTFは変倍率に応じて異なる。
【0032】
そこで、本実施形態では主走査方向の変倍部17が原稿認識部13の後段であるので問題は発生しない。更に、本実施形態では副走査方向の倍率が大きいとき、例えば200%のときには式(1)に示すマトリクスを選択可能にすることによりエッジ量xを求めるようにしてもよい。そして、このラプラシアン部42は後段のパターンマッチング部(A,B,B’)43、44、44’とエッジ抽出部70に対して、白領域信号w(太線用と細線用)(白領域でH)と、黒領域信号k(黒領域でH)とエッジ量xを含む信号RAPを出力する。
【0033】
エッジ抽出部70はラプラシアン部42の出力信号RAPに基づいてエッジの抽出を行う。このとき図6に示すように、黒パターン(k)は黒領域またはエッジ量xが閾値thRbより大きいものをHとし、白パターン(w)は黒パターン(k)以外とする。
【0034】
エッジ抽出部70では先ず、白孤立点除去部71が次のような論理により注目画素が白であり且つ周辺画素が黒の時に注目画素を黒に補正する(注目画素w22 )
次に、黒孤立点除去部72は次のような論理により、孤立している黒の点を除去する(注目画素はk01 )。
【0035】
続く輪郭抽出部73は、黒と白の孤立点を除去した後に処理を行うので、輪郭(エッジ)を良好に抽出することができる。抽出論理は例えば次の通りである。
w11 and (k00 or k01 or k02 or k10 or k12 or k20 or k21 or k22 )
続く膨張縮小部74は輪郭抽出部73により抽出された輪郭を膨張し、次いで縮小するために、孤立しているブロックを隣または周辺のブロックと連結させるためにN×NのOR処理(膨張処理)を行い、その後にM×MのAND処理(収縮処理)を行う。なお、N−M分が膨張分であり、一例として7×7(N=7)の膨張処理を以下に示す。
【0036】
次に、一例として3×3(M=3)の収縮処理を以下に示す。
【0037】
この処理により孤立領域を減らして膨張処理を行っている。このように膨張されたエッジ抽出信号はラインディレイ部75を介してANDゲート76、77に印加される。
【0038】
パターンマッチング部(A)43では「黒領域周辺の白領域」を抽出する。ここで、白領域パターン(W)は「補正太線用白領域」の信号であり、黒パターン(K)は黒領域信号kとする。そして、一例として図4に示す7×7画素のマトリクスを用い、
に基づいて水平成分、垂直成分を抽出し、同様に、斜め成分のパターンも抽出する。したがって、このように「黒領域上の白領域」を抽出することにより、黒領域が多いので網点を線画と誤認識することなく「黒領域の線画」を抽出することができる。
【0039】
また、「黒領域」、「太線補正白領域」、「細線白領域」の大小関係をコード化してもよい。ここで、情報量はコード化しない場合には3ビット×nラインとなるが、一例として「黒領域」をB、「太線補正白領域」をW1、「細線白領域」をW2として次のようにコード化すると2ビット×nラインとなるので情報量を圧縮することができる。
【0040】
Bのとき →コード「1」=(01)
W2のとき →コード「2」=(10)
W1で且つW2でないとき →コード「3」=(11)
BでもW1でもW2でないとき→コード「0」=(00)
このようなコードを展開するときには逆の処理を行えばよく、また、大小関係は固定ではなく、入れ替えることができるようにした方が良いことは勿論である。
【0041】
パターンマッチング部(A)43の処理は、図8及び図9に示すように主走査方向X(=i)及び副走査方向Y(=j)における注目画素Pijにおいてパターンマッチングを行う。また、パターンマッチング処理は図10及び図11に示すように、副走査方向カウンタjと主走査方向カウンタiをインクリメントしながら行い、一致する場合に出力信号PM1をH、一致しない場合に出力信号PM1をLにする。そして、この出力信号PM1はパターンマッチング部(B,B’)44、44’と孤立点除去部45、46に印加される。
【0042】
パターンマッチング部(B)44では細線の検出を行う。ここで、細線とは1mm以下の線幅により構成されている文字、線画を意味する。また、図6に示すように、黒パターン(k)は黒領域またはエッジ量xが閾値thRbより大きいものをHとし、白パターン(w)は細線用白領域またはエッジ量xが閾値thRwより小さい(マイナス成分であるので絶対値は大きい)ものをHとする。なお、閾値thRb、thRwは倍率や、原稿の種類(カラー、白黒、印刷写真、印画紙写真、複写原稿、地図など)、調整キーなどで変更するようにしてもよい。
【0043】
エッジ成分で補正する理由は細線のコントラストを上げるためであり、細線のパターンの一例を以下に示すと、
に基づいて水平成分、垂直成分を抽出し、同様に、斜め成分のパターンも抽出する。したがって、このように黒パターンの両側が白パターンにより挟み込まれている場合に「細線候補」として抽出する。
【0044】
パターンマッチング部(B)44は図8〜図10に示すように主走査方向X(=i)及び副走査方向Y(=j)における注目画素Pijにおいて副走査方向カウンタjと主走査方向カウンタiをインクリメントしながら、図12に示すパターンマッチング処理を行う。図12に示すMFBは主走査方向の先端で「0」となる状態変数であり、SFB(i)は1ライン前の主走査方向の1ライン分の状態変数であってMFB=8が「網点上の文字」を示し、MFB=16が「白地上の文字」を示す。
【0045】
先ず、ステップS11において現在の状態変数MFB<1ライン前の状態変数SFB(i)をチェックし、SFB(i)が大きい場合にはMFB=SFB(i)にセットする(ステップS12)。次いで、パターンマッチング部(A)43の出力PM1をチェックし(ステップS13)、PM1=on(H)であればステップS14以下に分岐し、他方、PM1=off(L)であればステップS18に進む。PM1=Hすなわち「黒領域上の白領域」の場合にはMFBの値が「0」より大きければ変更する。具体的には0<MFB≦7ならばMFB=8に変更し(ステップS14→S16→S17→S18)、また、8<MFBならばMFB=16に変更する(ステップS14→S15→S18)。
【0046】
ステップS18では「白地領域」か否かを判定する。ここで、「白地領域」の判定は、ラプラシアン部42の出力RAPの「細線用白領域」をaとして下記となるときに「白地領域」と判定する。
【0047】
a00 and a01 and a02 and a10 and a11 and a12 and a20 and a21 and a22ステップS18において「白地領域」と判定した場合には、孤立点除去部45、46に対してそれぞれ出力する信号「1」、「2」をoff(L)にし(ステップS19)、次いでMFB=16に変更し(ステップS20)、ステップS36に進む。
【0048】
他方、ステップS18において「白地領域」と判定しない場合には、前述した「細線パターン」と一致するか否かを判定する(ステップS20)。そして、一致しない場合には出力「1」「2」をoff(L)にし(ステップS22)、次いでMFB=0でなければMFBを1つデクリメントし(ステップS23→S24)、ステップS36に進む。
【0049】
他方、ステップS21において「細線パターン」と一致した場合には、ステップS25においてMFB>8か否かを判定する。そして、MFB>8の場合には出力「1」「2」をon(H)にし(ステップS26)、次いでMFBを4つインクリメントし(ステップS27)、次いでMFB>16であればMFB=16に変更し(ステップS28→S29)、ステップS36に進む。
【0050】
他方、ステップS25においてMFB>8でない場合にはステップS30においてMFB=0か否かを判定し、MFB=0の場合には出力「1」「2」をoff(L)にし(ステップS31)、ステップS36に進む。他方、ステップS30においてMFB=0でない場合には出力「2」をon(H)、出力「1」をoff(L)にし(ステップS32)、次いでMFBを4つインクリメントし(ステップS33)、次いでMFB>8であればMFB=8に変更し(ステップS34→S35)、ステップS36に進む。
【0051】
ステップS36では1ライン前の状態変数SFB(i)をMFBに更新し、次いで更新した1ライン前の状態変数の当該画素SFB(i)とその前の画素SFB(i−1)のデータを比較し(ステップS37)、SFB(i)>SFB(i−1)であればSFB(i)=SFB(i−1)に変更し(ステップS37→S38)、この処理を終了する。
【0052】
この処理を主走査方向に順次行うと、状態変数MFBは図9に示す3つの矢印方向▲1▼〜▲3▼に伝播する。すなわちステップS36に示す更新処理(SFB(i)=MFB)により、下方向▲1▼のように、P(i,j) からP(i+1,j) に伝播し、ステップS38に示す処理{SFB(i)=SFB(i−1)}により、斜め左下方向▲2▼のように、P(i,j) からP(i+1,j+1) に伝播する。
【0053】
この処理によりステップS18の白地判定又はステップS13のパターンマッチングにおいて、状態変数をセットすることにより白地上の極細線を検出することが可能になり、また、絵柄上の網点を誤検出することを防止することができる。更にステップS21の細線パターンのパターンマッチングにより状態変数を再セットするので、文字のかたまりも良好に抽出することができる。
【0054】
また、異なる出力「1」「2」を出力するので、「白地上の文字」と「網点上の文字」を切り分けて出力することができる。また、図9に示すように副走査方向の矢印方向は「0」又は+方向のみであるので、主走査方向1ライン毎に行う処理には、1ライン分の状態変数と、パターンマッチングで必要なライン数のメモリを備えるだけで足り、したがって、ページメモリを設けることなく処理することができる。孤立点除去部45、46それぞれに対する出力「1」「2」の違いは状態変数の違いであり、これにより図7に示す画像の例では罫線は出力「1」「2」共に「細線」と判断することができ、網点上の文字は、状態変数の大きい出力「2」のみが「細線」と判断することができる。
【0055】
パターンマッチング部(B’)44’では反転細線を検出し、ここでは黒字上の白抜きの細線を検出する。ハードウエアの構成はパターンマッチング部(A)43と同一であるが、入力データは黒と白が逆になる。また、細線のパターンと白地領域は論理が逆になり、白領域の代わりに黒領域が用いられ、これにより、パターンマッチングは黒領域に囲まれた白領域に対して行われる。但し、抽出するための閾値は異なり、これにより、反転細線を良好に抽出することができる。
【0056】
孤立点除去部(A)45の入力データは、パターンマッチング部(A)43の出力PM1と、パターンマッチング部(B)44の出力「1」とパターンマッチング部(B’)44’の出力「1」である。孤立点除去部(B)46の入力データは、パターンマッチング部(A)43の出力PM1と、パターンマッチング部(B)44の出力「2」とパターンマッチング部(B’)44’の出力「2」である。
【0057】
ここで、線画は連続した線から成るが、孤立点除去部45、46は同一の回路で構成されて、網点を線画と誤検出した場合に生じた孤立点を除去する。なお、パターンマッチング部43、44、44’のいずれか1つが抽出パターンであれば抽出パターンとし、例えば4×4のマトリクスを用いたパターンマッチングにおいて抽出パターンが2以上の場合には、中心画素(a22でもa33でもよい)を抽出パターンとして補正し、孤立点除去部45、46の各出力PM2,PM3=H(抽出パターン)とする。なお、これにより孤立点を除去すると同時に膨張(拡大)している。
【0058】
画素密度変換部47、48も共に同一ロジック回路で構成されている。ここで、前段までの回路では画素単位で処理していたが、この画素密度変換部47、48ではブロック(4×4画素)単位で処理を行うために画素単位のデータをブロック単位のデータに変換する。この変換では4×4の単純間引き処理を行うが、孤立点除去部45、46において実質上4×4の膨張処理を行っているのでデータは欠落しない。
【0059】
画素密度変換部(A)47の出力はページメモリ(A)49とセレクタ(A)51に印加され、ページメモリ(A)49の出力はセレクタ(A)51に印加される。画素密度変換部(B)48の出力はページメモリ(B)50とセレクタ(B)52に印加され、ページメモリ(B)50の出力はセレクタ(B)52に印加される。また、色判定部57の出力はページメモリ(C)58とセレクタ(C)59に印加され、ページメモリ(C)58の出力はセレクタ(C)59に印加される。ページメモリ49、50、58は同一の構成であって主走査方向1200ドット×副走査方向1736ライン(約2Mビット)で構成され、解像度を主、副走査方向共に16ドット/mmとするとA3サイズ及びDLT用紙より大きなサイズを有する。
【0060】
そして、第1スキャン時には入力データがブロック(4×4画素)単位でページメモリ49、50、58に記憶されると同時に、それぞれセレクタ51、52、59を介して出力される。次いで、第2スキャン時以降ではページメモリ49、50、58に記憶されていた第1スキャン時のデータがセレクタ51、52、59を介して出力される。したがって、第1スキャン時における線画抽出のデータC/Pと色判定結果B/Cが第2スキャン時以降において用いられるので、スキャン毎の線画抽出結果C/Pと色判定結果B/Cのバラツキをなくすことができる。
【0061】
孤立ブロック除去部53、54は同一の回路であって同一の機能を有し、周辺データから孤立しているブロックを除去する。セレクタ51、52からのデータに対して例えば5×5ブロックのマトリクスを用いて、中心ブロックのみがon(H)=抽出パターンであって他のブロックがoff(L)であるときこのブロックは孤立しているのでoff(L)にする。
【0062】
膨張部55、56も同様に同一の回路であって同一の機能を有し、孤立しているブロックを隣、または周辺のブロックと連結させるためにN×NのOR処理(膨張処理)を行い、その後にM×MのAND処理(収縮処理)を行う。そして、例えば5×5の補間処理を行う。なお、M−Nが膨張処理である。一例として3×3(N=3)ブロック(=12×12画素)の膨張処理を以下に示す。
【0063】
また、一例として5×5(M=5)ブロックの収縮処理を以下に示す。
【0064】
その後に、100dpiのギザギザが残っているので5×5の補間処理を行う。ここで、図13に示す実線が100dpiのデータを示し、破線が補間後のデータとなる。5×5のマトリクスを用いた場合には、以下のように線画として抽出したデータが以下の論理式を満たすとき、注目画素a22のデータを反転する。
【0065】
但し、「/」は反転演算子を示す。
【0066】
このように抽出パターンを膨張することにより、文字の交点などを繋ぎ、更に線画とその周辺の線画処理を行う。なお、上述したパターンマッチングは十字の交点は抽出できないが、この膨張処理により連結することができる。ここで、線画の周辺を線画と見なすのは、黒文字処理と空間フィルタを良好に作用させるためである。特に、この膨張処理によりカタログの使用説明、仕様表のように罫線の中に網点があっても罫線を良好に抽出することができる。また、白地を含む罫線を文字として抽出し、網点上の文字に対しては白地上の文字とは別の判定結果を出力するので、(白地上の)文字と網点上の文字に対して別の処理を行うことができる。更に、黒地上の白抜き細線も良好な画像となる。
【0067】
次いで、膨張部55、56の膨張結果とエッジ抽出部70の抽出結果をそれぞれANDゲート76、77により論理積することにより、すなわち文字領域(C/P A,C/P B)と判定した部分と、エッジとして抽出した信号を論理積することにより文字のエッジを良好に抽出することができる。このとき、例えば400DPIでエッジ抽出を行うことによりエッジの位置精度を向上させることができる。ここで、400DPIのエッジ抽出信号を孤立点除去部45、46の出力ではなく、単にエッジとしているのは、メモリ10に蓄えないでスキャン毎にデータのバラツキがないようにするためである。
【0068】
次に、図14を参照して第2の実施形態を説明する。上記第1の実施形態の図12に示す細線検出処理では出力「1」「2」の判定を行っているが、第2の実施形態では出力「2」の判定条件を変更して絵柄上の文字(罫線)を抽出するようにしている。図14に示すステップS11〜S38は図12と同一であるが、ステップS21とS22〜S24、S32の間にステップS41〜S44が追加されている。
【0069】
すなわち、ステップS21において「細線パターン」と一致しない場合には、ステップS41において後述する「細線パターン1」と一致するか否かを判定する。そして、「細線パターン1」と一致しない場合にはステップS22に進み、他方、一致する場合にはステップS42においてMFB>8か否かを判定する。そして、MFB>8の場合にはステップS44に分岐して出力「2」をon、出力「1」をoffにし、ステップS24に進む。他方、ステップS42においてMFB>8でない場合にはステップS43においてMFB=0か否かを判定し、MFB=0の場合にはステップS22に進み、他方、MFB=0でない場合にはステップS32に進む。
【0070】
「細線パターン1」は前述した「細線パターン」と同一でも、同一でなくてもよい。ここで、図6に示すように、黒パターン(k)は黒領域またはエッジ量xが閾値thRbより大きいものをHとし、白パターン(w)は細線用白領域またはエッジ量xが閾値thRwより小さい(マイナス成分であるので絶対値は大きい)ものをHとする。つまり、エッジ量xの成分で補正する理由は、細線のコントラストを上げるためである。そこで、「細線パターン1」では閾値thRb、thRwの少なくとも一方を「細線パターン」より抽出し易い値に設定する。但し、「細線パターン」と「細線パターン1」のマッチングパターンが異なる場合には、「細線パターン」の方が抽出し易いように設定しておく。
【0071】
また、「細線パターン」と「細線パターン1」のパターンマッチング結果と、閾値thRw、thRbの情報量はコード化しない場合には3ビット×nラインとなるが、次のようにコード化すると2ビット×nラインとなるので圧縮することができる。
【0072】
「細線パターン」の閾値thRw、thRbをそれぞれthRw、thRb
「細線パターン1」の閾値thRw、thRbをそれぞれthRw1 、thRb1 として大小関係が
thRw <thRw1 <thRb1 =thRb
である場合には、
P<thRw →コード「0」
thRw<P<thRw1 →コード「1」
thRw1 <P<thRb→コード「2」
thRb<P →コード「3」
ここで、Pはエッジ量である。同様に、このようなコードを展開するときには逆の処理を行えばよく、また、大小関係は固定ではなく、入れ替えることができるようにした方が良いことは勿論である。
【0073】
上記方法により、状態変数を用いて白地上のパターンと、網点上や色地上のパターンを切り替えることができ、しかも状態変数を共通に使用することができる。なお、網点上の文字を良好に抽出することができれば、図14に示すステップS41において網点上の文字を抽出する際の状態変数MFBを参照しなくてもよく、この場合、ステップS43では常に一致していると判断することにより、網点上の文字と白地上の文字を分離するようにしてもよい。その結果、特に、カタログの使用説明、仕様表のように罫線の中に網点があっても罫線を良好に抽出することができる。また、白地を含む罫線は文字として抽出し、網点上の文字は白地上の文字とは別の判別処理を行うので、第1の実施形態より精度を向上させることができ、また、(白地上の)文字と網点上の文字に対して別の画像処理を行うことができる。
【0074】
また、図9ではP(i,j+1) 、P(i+1,j) 、P(i+1,j-1) の3つの伝播方向▲1▼〜▲3▼のみが示されているが、特にP(i+1,j-1) の方向▲2▼に関しては−1の方向のみならず−2、−3の方向を追加して状態変数の伝播方向の主走査方向性をなくす方がよい。更に、画像データの全てをページメモリに記憶して画像処理を行う装置では、状態変数の伝播方向は360°にすることが良いことは勿論である。
【0075】
図15はアンシャープマスキングによるディテール強調処理を示している。図15(a)は処理対象の主信号を、(b)はアンシャープ信号を、(c)はアンシャープマスク信号を、(d)はディテール強調済み信号を示し、エッジ特性に基づいて補正を行う。本実施形態ではラプラシアン部42において図15(c)に示すアンシャープマスク信号を用いてエッジ量の補正を行うが、代わりに図15(d)に示すディテール強調済み信号や他の信号を用いてもよい。
【0076】
ここで、パターンマッチング部(A)43では白地上の黒(輪郭)を抽出するが網点(網かけ)上の文字は抽出せず、パターンマッチング部(B)44により白地上の罫線と、網点上または色地上の文字を別々に抽出する。また、漢字の「書」のような混み入った文字もパターンマッチング部(B)44により抽出する。なお、MFBの上限値が「8」のときを「網点上の文字」とし、MFBの上限値が「16」のときを「白地上の文字」としたが、本発明はこの値に限定されない。
【0077】
また、網点上の文字と白地上の文字を分離して判別する理由は、罫線内に網掛けが存在する場合にその中の文字の誤検出を避けるためであり、また、罫線が細い場合にはその近くに文字が存在する可能性があるためであり、更に、罫線の幅が太くなるにつれて文字がその近くに存在する可能性が減少するからである。したがって、上記実施形態によれば、小さい文字や線画、白地上の画数の多い文字や網点上の文字を別々に抽出することができる。また、副走査方向の反映方向が一方向であるので、ラスタスキャン方式の読み出し方法に適しており、特にハードウエア化に適し、更に、画像データに対して容易に反映させることができる。
【0078】
また、本発明は線画のエッジを検出するアルゴリズムに関し、特に印刷物特有の網点を検出して除去することはしないので、ジェネレーションコピー(複写物の複写物)などのように網点を含まない原稿に特に有効である。更に、抽出したパターンに対して、画素単位の孤立点除去部45、46により小さな領域の誤判定を防止し、その後は孤立ブロック除去部53、54により大きなブロック(4×4画素)単位で広い範囲の孤立ブロックを除去するので、誤判定を防止することができる。この場合、膨張部55、56によりブロック単位の粗い画素密度を元の画素密度に変換するので、ブロック単位の粗い画素は無くなる。
【0079】
ここで、単純な膨張を行うと、孤立した領域が大きくなるだけであるが、膨張部55、56では膨張量をXとしてX=M−N、すなわちM画素膨張してその後にN画素収縮しているので(X<Mであるので)、孤立した領域を連結させることができる。更に、粗い密度(ブロック単位)のままで膨張させるので、ハードウエアの規模を小さくすることができる。
【0080】
また、第1スキャン時の判定結果を第2スキャン時以降にも用いるので、各スキャン時の線画判定結果と色判定結果が必ず一致し、したがって、各スキャン時の画像処理をバラツキなく行うことができる。更に、ページメモリ49、50、58に記憶されるデータは各画像処理回路に対する最終の信号ではなく、画素密度が粗いデータであるので、データ量を減少させることができる。
【0081】
ここで、線画判定結果用のページメモリ(以下、線画判定結果メモリ)49、50には第1スキャン時の判定結果を記憶して第2スキャン時以降にも用い、第2スキャンに以降した後は線画判定結果メモリ49、50内の線画判定結果を読み出すことにより、スキャン(読み取り)後のバラツキはエッジ抽出部70によるもののみになるので、文字絵柄判定信号C/Pを安定化することができる。
【0082】
本発明に係る複写機では次のような5つの動作モードを有する。
【0083】
1.圧板1to1メモリモード(画像メモリ使用)
このモードは画像サイズがメモリ部(以下、ページメモリ49、50と区別するために画像メモリと言う。)10に格納可能なA4サイズ以下の場合のモードであり、図16に示すように1回のスキャンによるRGBデータを画像メモリ10に格納し、画像メモリ10から4回(図のように3回でもよい)読み出すことによりK、C、M、Yの4回の作像を行う。
【0084】
このモードでは画像メモリ10を使用するので、この4回の各作像時に線画認識部13aが画像メモリ10に格納されている同一のデータを処理すれば、スキャナによる読み取りバラツキが発生しないことから、線画判定結果メモリ49、50を書き込みモードのみに設定して読み出しを行わないことにより、すなわち第1〜第4スキャン時共にセレクタ(A,B)51、52がそれぞれ画素密度変換部(A,B)47、48の出力を選択することにより、線画判定結果メモリ49、50を使用しない。
【0085】
但し、この圧板1to1メモリモードでは、線画判定結果メモリ49、50を第1スキャン時に書き込みモードに設定し、第2スキャン時以降には読み出しモードに設定することにより、すなわちセレクタ(A,B)51、52がそれぞれ線画判定結果メモリ49、50の出力を選択することにより、線画判定結果メモリ49、50を使用しても問題は発生しない。線画判定結果メモリ49、50の読み出し開始位置の初期化は作像毎である。
【0086】
2.圧板1to1スキャナモード(画像メモリ不使用)
このモードは画像サイズが画像メモリ10に格納可能なA4サイズを超える場合のモードであり、図17に示すように画像メモリ10を用いずに4回スキャンすることによりK、C、M、Yの4回の作像を行う。
【0087】
このモードでは画像メモリ10を使用しないので、4回の各作像時に線画認識部13aが個々のスキャン時に読み取られた画像データを使用するとスキャナによる読み取りバラツキが発生することから、第1スキャン時に線画判定結果メモリ49、50を書き込みモードに設定すると共にセレクタ(A,B)51、52がそれぞれ画素密度変換部(A,B)47、48の出力を選択し、第2〜第4スキャン時に線画判定結果メモリ49、50を読み出しモードに設定すると共にセレクタ(A,B)51、52がそれぞれ線画判定結果メモリ49、50の出力を選択する。これにより、スキャナによる読み取りバラツキの影響を防止することができるので、文字、写真の判定結果を安定化することができる。線画判定結果メモリ49、50の読み出し開始位置の初期化は、スキャン時または作像毎である。
【0088】
3.2面取りモード(画像メモリ使用)
これは画像メモリ10を用いて1枚の原稿を1/2に分割する2面取りを行うモードであり、画像メモリ10に格納可能なA4サイズ以下の1枚の原稿を1回のスキャンで読み取る。先ず、読み取られた1枚分のRGBデータを画像メモリ10に格納すると共に前半1/2のサイズのRGBデータに基づいて第1面分のK画像を作像する。次いで画像メモリ10に格納されている後半1/2のサイズのRGBデータに基づいて第2面分のK画像を作像する。
【0089】
以下同様にして、画像メモリ10に格納されている前半1/2のデータに基づいて第1面分のC画像を作像し、次いで後半1/2のデータに基づいて第2面分のC画像を作像し、次いで前半1/2のデータに基づいて第1面分のM画像を作像し、次いで後半1/2のデータに基づいて第2面分のM画像を作像し、次いで前半1/2のデータに基づいて第1面分のY画像を作像し、次いで後半1/2のデータに基づいて第2面分のY画像を作像する。
【0090】
この2×4回の各作像時には、線画認識部13aは画像メモリ10に格納されている同一のデータを処理するので、スキャナによる読み取りバラツキが発生しないことから、線画判定結果メモリ49、50を書き込みモードのみに設定して読み出しを行わないことにより、セレクタ(A,B)51、52がそれぞれ画素密度変換部(A,B)47、48の出力を選択することにより、線画判定結果メモリ49、50を使用しない。また、線画判定結果メモリ49、50を使用しないので、用紙と用紙の間の不要な線画判定信号により線画判定結果メモリ49、50の容量が不足することもない。
【0091】
4.2面取りモード(画像メモリ不使用)
これは画像メモリ10を用いないで1枚の原稿を1/2に分割する2面取りを行うモードであり、1枚の原稿を8回のスキャンで読み取る。先ず、1枚の原稿を1回目のスキャンで読み取り、このデータの前半1/2に基づいて第1面分のK画像を作像する。次いで1枚の原稿を2回目のスキャンで読み取り、このデータの後半1/2に基づいて第2面分のK画像を作像する。
【0092】
以下同様に、3回目のスキャンで読み取って前半1/2に基づいて第1面分のC画像を作像し、次いで4回目のスキャンで読み取って後半1/2に基づいて第2面分のC画像を作像し、次いで5回目のスキャンで読み取って前半1/2に基づいて第1面分のM画像を作像し、次いで6回目のスキャンで読み取って後半1/2に基づいて第2面分のM画像を作像し、次いで7回目のスキャンで読み取って前半1/2に基づいて第1面分のY画像を作像し、次いで8回目のスキャンで読み取って後半1/2に基づいて第2面分のY画像を作像する。
【0093】
この2×4回の各作像時には、線画認識部13aは個々のスキャン時に読み取られた画像データを処理するので、これを使用するとスキャナによる読み取りバラツキが発生することから、線画判定結果メモリ49、50を第1スキャン時(第1面分のK画像の作像時)に書き込みモードに設定すると共にセレクタ(A,B)51、52がそれぞれ画素密度変換部(A,B)47、48の出力を選択し、第2スキャン時以降(第2面分のK画像の作像時からの残り7スキャン)では読み出しモードに設定すると共にセレクタ(A,B)51、52がそれぞれ線画判定結果メモリ49、50の出力を選択する。また、このモード切り替えは1回目から2回目のスキャン切り替え時に行えばよいので、簡単な制御で用紙と用紙の間の不要な線画判定信号を線画判定結果メモリ49、50に書き込まないようにすることができる。
【0094】
5.ADF1to1モード
このモードは、2枚の原稿をADFにより自動給紙してその画像データを感光体上に形成して2枚の用紙に複写する2面取りモードに応用することができるモードであり、1枚目の原稿は1回のスキャンで読み取って画像メモリ10に格納し、2枚目の原稿は4回のスキャンで読み取って画像メモリ10には格納しない。
【0095】
先ず、1回目のスキャンにより1枚目の原稿を読み取って画像メモリ10に格納し、次いでこのデータに基づいて第1面分のK画像を作像する。次いで自動給紙された2枚目の原稿を2回目のスキャンにより読み取って第2面分のK画像を作像する。次いで画像メモリ10に格納されているデータに基づいて第1面分のC画像を作像し、次いで3回目のスキャンにより2枚目の原稿を読み取って第2面分のC画像を作像する。以下同様に、画像メモリ10に格納されているデータに基づいて第1面分のM画像を作像し、次いで4回目のスキャンにより2枚目の原稿を読み取って第2面分のM画像を作像し、次いで画像メモリ10に格納されているデータに基づいて第1面分のY画像を作像し、次いで5回目のスキャンにより2枚目の原稿を読み取って第2面分のY画像を作像する。
【0096】
この2×4回の各作像時には、線画認識部13aは1枚目の原稿については画像メモリ10に格納されている同一のデータを処理するのでスキャナによる読み取りバラツキが発生しないが、2枚目の原稿については個々のスキャン時に読み取られた画像データを処理するのでこれを使用するとスキャナによる読み取りバラツキが発生する。
【0097】
そこで、線画判定結果メモリ49、50を1枚目の原稿については書き込みモードのみに設定して読み出しを行わないことにより、セレクタ(A,B)51、52がそれぞれ画素密度変換部(A,B)47、48の出力を選択し、線画判定結果メモリ49、50を使用しない。また、2枚目の原稿については線画判定結果メモリ49、50を第1スキャン時に書き込みモードに設定してセレクタ(A,B)51、52がそれぞれ画素密度変換部(A,B)47、48の出力を選択し、第2スキャン時以降では線画判定結果メモリ49、50を読み出しモードに設定してセレクタ(A,B)51、52がそれぞれ線画判定結果メモリ49、50の出力を選択し、線画判定結果メモリ49、50を使用する。
【0098】
したがって、この場合にも同様に、このモード切り替えはスキャナの読み取り時に切り替えればよいので、簡単な制御で用紙と用紙の間の不要な線画判定信号を線画判定結果メモリ49、50に書き込まないようにすることができる。なお、上記説明ではK、C、M、Yの合計4回の作像を行う場合を例にしたが、本発明はこれに限定されず、例えば1回の作像で白黒複写を行う場合にも適用することができる。
【0099】
【発明の効果】
以上説明したように本発明によれば、1枚目の原稿は1回のスキャンで読み取って画像メモリに格納し、2枚目の原稿は4回のスキャンで読み取って画像メモリ10には格納しないので、メモリは1面分だけで済み、メモリ容量を少なくすることができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の一実施形態を備えた複写機を示すブロック図である。
【図2】図1の画像処理部を詳細に示すブロック図である。
【図3】図2の原稿認識部を詳細に示すブロック図である。
【図4】図3の原稿認識部の参照画素を示す説明図である。
【図5】画像データの濃度変化を示す説明図である。
【図6】図5の画像データのエッジ量を示す説明図である。
【図7】画像データの一例として白地上の網点と網点上の文字を示す説明図である。
【図8】図3のパターンマッチング部の参照画素を示す説明図である。
【図9】図3のパターンマッチング部の伝播方向を示す説明図である。
【図10】図3のパターンマッチング部(A,B,B’)の処理を説明するためのフローチャートである。
【図11】図3のパターンマッチング部(A,B,B’)の処理を説明するためのフローチャートである。
【図12】図3のパターンマッチング部(B,B’)の処理を説明するためのフローチャートである。
【図13】図4の膨張部の補間処理を示す説明図である。
【図14】第2の実施形態のパターンマッチング部(B,B’)の処理を説明するためのフローチャートである。
【図15】ディテール強調処理を示す説明図である。
【図16】図1の複写機における圧板1to1メモリモード(画像メモリ使用)の処理を示す説明図である。
【図17】図1の複写機における圧板1to1スキャナモード(画像メモリ不使用)の処理を示す説明図である。
【図18】図1の複写機における2面取りモード(画像メモリ使用)の処理を示す説明図である。
【図19】図1の複写機における2面取りモード(画像メモリ不使用)の処理を示す説明図である。
【図20】図1の複写機におけるADF1to1モード(1枚目は画像メモリ使用、2枚目は画像メモリ不使用)の処理を示す説明図である。
【符号の説明】
10 メモリ部
13 原稿認識部
13a 線画認識部
42 ラプラシアン部
43,44 パターンマッチング部
45,46 孤立点除去部
47,48 画素密度変換部
49,50 ページメモリ
51,52 セレクタ
53,54 孤立ブロック除去部
55,56 膨張部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus for generating an area identification signal by identifying whether image data is a character area or a halftone area.
[0002]
[Prior art]
Conventionally, as this type of image processing apparatus, for example, as shown in Japanese Patent Laid-Open No. 3-203464, an area identification signal for identifying whether image data at the first reading of a document is a character area or a halftone area is stored in a memory. A method of using the area identification signal stored in the memory at the second and subsequent reading of the document is known.
[0003]
[Problems to be solved by the invention]
By the way, in the copying machine, image data for two sheets obtained by dividing one document into halves, or image data of two sheets of document is formed on a photosensitive member and copied onto two sheets of paper. A chamfer mode is known. However, if such an area identification signal of image data for two sheets of paper is stored in the memory, an unnecessary area identification signal between sheets needs to be stored in the memory, so the memory capacity must be increased. There is a problem that must be. In order to solve the above problem, a method of prohibiting memory access between paper sheets can be considered. However, in this case, there is a problem that memory access control becomes complicated.
[0004]
In view of the above-described conventional problems, the present invention can reduce the capacity of a memory for storing an area identification signal when performing so-called two-chamfering for forming an image for two sheets of paper on a photoreceptor. An object of the present invention is to provide an image processing apparatus capable of simplifying memory access control.
[0006]
[Means for Solving the Problems]
The present inventionTo achieve the above object, in an image processing apparatus for performing image processing of image data based on an area identification signal indicating whether the image data is a character area or a halftone area, an original reading means for reading an original image, Image storage means for storing image data read by the document reading means, and whether the image data read by the document reading means or the image data stored in the image storage means is a character area or a halftone area for each pixel Region identification means for identifying, area identification signal storage means for storing the area identification signal identified by the area identification means, and the area identification signal identified by the area identification means or the area identification signal storage means Selecting means for selecting a region identification signal, and when reading two original images on a photosensitive member, the original reading The means controls the first original to be read once, and then the second original is read as many times as the number of image formations, and the image data read by the original reading means at the time of reading the first original is The selection means selects and outputs the area identification signal identified by the area identification means based on the image data written to the image storage means at the time of each first image being written, When the second image is formed for the first time, the selection means selects and outputs the area identification signal identified by the area identification means based on the image data read by the document reading means and stores the area identification signal. The area identification signal stored in the area identification signal storage means is read out and selected by the selection means during the second and subsequent image forming operations. Characterized in that a Gosuru control means.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a copier equipped with an embodiment of an image processing apparatus according to the present invention, FIG. 2 is a block diagram showing in detail the image processing unit of FIG. 1, and FIG. 4 is a detailed block diagram, FIG. 4 is an explanatory diagram illustrating reference pixels of the document recognition unit in FIG. 3, FIG. 5 is an explanatory diagram illustrating a change in density of image data, and FIG. 6 is an explanatory diagram illustrating an edge amount of the image data in FIG. FIG. 7, FIG. 7 is an explanatory view showing halftone dots on white ground and characters on the halftone dots as an example of image data, FIG. 8 is an explanatory view showing reference pixels of the pattern matching unit in FIG. 3, and FIG. 9 is a pattern in FIG. FIG. 10 and FIG. 11 are flowcharts for explaining the processing of the pattern matching unit (A, B, B ′) in FIG. 3, and FIG. 12 is a pattern matching unit (B , B ′), a flowchart for explaining the processing of FIG. FIG. 14 is an explanatory diagram showing interpolation processing of the expansion unit in FIG. 4, FIG. 14 is a flowchart for explaining processing of the pattern matching unit (B, B ′) of the second embodiment, and FIG. 15 is an explanatory diagram showing detail enhancement processing. It is.
[0008]
FIG. 16 is an explanatory diagram showing processing in the
[0009]
The copying machine shown in FIG. 1 reads an original and outputs an
[0010]
As shown in FIG. 3, the
[0011]
The character / design determination signal C / P is an image obtained by cascade connection to the
[0012]
The
[0013]
The
[0014]
The scaling
[0015]
The
[0016]
In summary,
・ When C / P = "0" (design)
・ When C / P = "3" (character)
When C / P = “3” (character) and B / C = H (black character processing)
YMC data is not printed in order to prevent coloring around the black characters due to misalignment. Note that the RGB filter of the Bk data at this time may be made stronger than in the case of color characters to make it clear.
[0017]
・ When C / P = "1" (character on the design)
[0018]
Next, the line drawing recognition unit 13a and the color determination unit 13b will be described in detail with reference to FIG. First, the line drawing recognition unit 13a includes a
[0019]
The line drawing recognition unit 13a also includes an
[0020]
Each block will be described in detail. First, the
[0021]
The Laplacian unit 42 extracts the edge of the line drawing, detects the white area and the black area, and detects the white (w) area to obtain the extracted data of the line drawing on the white ground. The white area detection method uses a 3 × 3 pixel block in the matrix shown in FIG.11When the surrounding data including is smaller than the threshold thw, it is determined as a white area candidate.
[0022]
In addition, although this pattern is an orthogonal pattern, you may add patterns, such as diagonal. Here, the threshold value thw for detecting white line candidates for thick lines and thin lines uses different values, and as shown in FIG. 5, a general white background value thw2 is set in the “thick line white area candidates”. In the “thin line white area candidate”, a value thw1 slightly lower (whiter) than a general white background is set. The reason is to avoid that the highlight (brighter one) of the pattern (the halftone dot of the printed matter or the copy machine line) becomes a “white area candidate”.
[0023]
Next, a Laplacian is obtained as follows in order to further calculate a “white region” from the “white region candidate”.
[0024]
Here, i is a weighting factor for performing correction at the time of zooming or rotation, or the difference in MTF between the main scanning direction and the sub-scanning direction. If the value of x at this time is as follows, a white region is set.
[0025]
-N <x <N
Here, the threshold values for the thick line and the thin line may not be made separate. In this way, the “white area for fine lines” and the “white area for thick lines” are detected. As a result, the small dots and line patterns on the highlight side on the pattern are removed so as not to be extracted.
[0026]
Next, the “white area for thick lines” is corrected. The reason for this is that, for example, in the case of a document with reversed black and white characters (white is a character and the surrounding is black), when read by an optical reading device such as a copying machine, a flare (a white point, not a white point) White data may be slightly blacker than usual. Therefore, for example, when the white area matrix is 3 × 3, the following correction is performed.
[0027]
This is set as a “corrected white area candidate”, and a “corrected white area” is calculated by the Laplacian described above. Here, as shown in FIG. 5, the threshold value thw is a value thw3 closer to the black than the thick line threshold value thw2, and N is smaller than the value N of the thick line white region described above. The reason for reducing N is to extract stable data with a small amount of change in white data. The “corrected white area” thus extracted is corrected to the “thick line white area” described above, and this is set as the “thick line corrected white area”. That is, the “corrected white area for thick line” is “corrected white area” or “white area for thick line”. Also, here, the small dots on the highlight side on the pattern and the line pattern are removed so as not to be extracted.
[0028]
Similarly, by extracting the black area, the extracted data of the line drawing on the black ground is obtained. The black region detection method uses a 3 × 3 pixel block in the matrix shown in FIG.11When the surrounding data including is larger than the threshold thb, it is determined as a “black area candidate”.
[0029]
Further, although this pattern is an orthogonal pattern, a pattern such as an oblique line may be added. Here, the threshold value “thb” of the “black area candidate” is set to a general black background value (density to be emphasized as characters) as shown in FIG. 5 (thb> thw3). Next, as in the case of white, a Laplacian is obtained by the above-described equation (1) in order to further calculate a “black region” from the “black region candidate”.
[0030]
Further, the edge amount x is obtained from the equation (1) as shown in FIG. Here, the weighting coefficient i in the equation (1) is a selective coefficient, and is a coefficient that reduces the gate scale when designing hardware.
(Fixed decimal point calculation).
[0031]
In addition, by setting the coefficient i in this way, it is possible to correct blur such as MTF (optical system and traveling system) in the main scanning direction and the sub-scanning direction. Even when the image data is rotated by 90 ° in the
[0032]
Therefore, in the present embodiment, no problem arises because the
[0033]
The
[0034]
In the
Next, the black isolated point removing unit 72 removes the isolated black point by the following logic (the pixel of interest is k01).
[0035]
The subsequent contour extracting unit 73 performs processing after removing the black and white isolated points, so that the contour (edge) can be satisfactorily extracted. For example, the extraction logic is as follows.
w11and (k00 or k01or k02 or kTenor k12 or k20or ktwenty one or ktwenty two)
The subsequent expansion / reduction unit 74 expands the contour extracted by the contour extraction unit 73 and then reduces the N × N OR process (expansion process) in order to connect the isolated block to the adjacent or neighboring blocks. After that, M × M AND processing (shrinkage processing) is performed. In addition, NM is an expansion, and an expansion process of 7 × 7 (N = 7) is shown below as an example.
[0036]
Next, 3 × 3 (M = 3) contraction processing is shown below as an example.
[0037]
By this process, the isolated area is reduced and the expansion process is performed. The edge extraction signal expanded in this way is applied to the AND
[0038]
The pattern matching unit (A) 43 extracts “a white area around the black area”. Here, the white area pattern (W) is a signal of “white area for correction thick line”, and the black pattern (K) is a black area signal k. As an example, a 7 × 7 pixel matrix shown in FIG. 4 is used.
The horizontal component and the vertical component are extracted based on the above, and similarly, the oblique component pattern is also extracted. Therefore, by extracting the “white area on the black area” in this way, since there are many black areas, it is possible to extract the “black area line drawing” without erroneously recognizing the halftone dot as a line drawing.
[0039]
Further, the magnitude relationship between the “black area”, “thick line corrected white area”, and “thin line white area” may be coded. Here, the amount of information is 3 bits × n lines when not coded. As an example, “black area” is B, “thick line corrected white area” is W1, and “thin line white area” is W2. When encoded into 2 bits × n lines, the amount of information can be compressed.
[0040]
When B → Code “1” = (01)
When W2 → Code “2” = (10)
When W1 and not W2 → Code “3” = (11)
When it is not B, W1 or W2, the code “0” = (00)
When developing such a code, the reverse process may be performed, and the magnitude relationship is not fixed, and it is of course better to be able to replace it.
[0041]
As shown in FIGS. 8 and 9, the processing of the pattern matching unit (A) 43 includes the pixel of interest P in the main scanning direction X (= i) and the sub-scanning direction Y (= j).ijPattern matching is performed at. Further, as shown in FIGS. 10 and 11, the pattern matching process is performed while incrementing the sub-scanning direction counter j and the main scanning direction counter i. When they match, the output signal PM1 is H, and when they do not match, the output signal PM1. To L. The output signal PM1 is applied to the pattern matching units (B, B ') 44 and 44' and the isolated
[0042]
The pattern matching unit (B) 44 detects a thin line. Here, the fine line means a character or a line drawing having a line width of 1 mm or less. Further, as shown in FIG. 6, in the black pattern (k), the black region or the edge amount x is larger than the threshold thRb, and the white pattern (w) is the thin line white region or the edge amount x smaller than the threshold thRw. Let H be the negative component (the absolute value is large). Note that the thresholds thRb and thRw may be changed by a magnification, a document type (color, black and white, printed photograph, photographic paper photograph, copy original, map, etc.), an adjustment key, and the like.
[0043]
The reason for correcting with the edge component is to increase the contrast of the fine line. An example of the fine line pattern is shown below.
The horizontal component and the vertical component are extracted based on the above, and similarly, the oblique component pattern is also extracted. Therefore, when both sides of the black pattern are sandwiched between white patterns in this way, they are extracted as “thin line candidates”.
[0044]
As shown in FIGS. 8 to 10, the pattern matching unit (B) 44 uses the pixel of interest P in the main scanning direction X (= i) and the sub-scanning direction Y (= j).ij12, the pattern matching process shown in FIG. 12 is performed while incrementing the sub-scanning direction counter j and the main scanning direction counter i. The MFB shown in FIG. 12 is a state variable that becomes “0” at the leading end in the main scanning direction, and SFB (i) is a state variable for one line in the main scanning direction one line before, and MFB = 8 is “network”. "Character on point" indicates MFB = 16 indicates "character on white ground".
[0045]
First, in step S11, the current state variable MFB <1 line previous state variable SFB (i) is checked, and if SFB (i) is large, MFB = SFB (i) is set (step S12). Next, the output PM1 of the pattern matching unit (A) 43 is checked (step S13). If PM1 = on (H), the process branches to step S14 and thereafter, and if PM1 = off (L), the process proceeds to step S18. move on. When PM1 = H, that is, “white area on black area”, the value is changed if the value of MFB is larger than “0”. Specifically, if 0 <MFB ≦ 7, the MFB is changed to 8 (steps S14 → S16 → S17 → S18). If 8 <MFB, the MFB is changed to 16 (steps S14 → S15 → S18).
[0046]
In step S18, it is determined whether or not the area is a “white area”. Here, the “white background area” is determined as “white area” when the “white area for fine lines” of the output RAP of the Laplacian unit 42 is a as follows.
[0047]
a00 and a01 and a02 and aTen and a11 and a12 and a20 and atwenty one and atwenty twoIf it is determined in step S18 that the area is “white background”, the signals “1” and “2” output to the isolated
[0048]
On the other hand, if it is not determined as “white area” in step S18, it is determined whether or not it matches with the “thin line pattern” described above (step S20). If they do not match, the outputs “1” and “2” are turned off (L) (step S22), and if MFB = 0, the MFB is decremented by one (step S23 → S24), and the process proceeds to step S36.
[0049]
On the other hand, if it matches with the “thin line pattern” in step S21, it is determined in step S25 whether MFB> 8. If MFB> 8, the outputs “1” and “2” are turned on (H) (step S26), then MFB is incremented by 4 (step S27), and then MFB = 16 if MFB> 16. Change (step S28 → S29) and proceed to step S36.
[0050]
On the other hand, if MFB> 8 is not satisfied in step S25, it is determined whether or not MFB = 0 in step S30. If MFB = 0, the outputs “1” and “2” are turned off (L) (step S31). Proceed to step S36. On the other hand, if MFB is not 0 in step S30, the output “2” is turned on (H), the output “1” is turned off (L) (step S32), and then MFB is incremented by 4 (step S33). If MFB> 8, the MFB is changed to 8 (step S34 → S35), and the process proceeds to step S36.
[0051]
In step S36, the state variable SFB (i) of the previous line is updated to MFB, and the data of the pixel SFB (i) of the updated state variable of the previous line and the previous pixel SFB (i-1) are compared. (Step S37), if SFB (i)> SFB (i-1), change to SFB (i) = SFB (i-1) (Step S37 → S38), and the process is terminated.
[0052]
When this process is sequentially performed in the main scanning direction, the state variable MFB propagates in the three arrow directions (1) to (3) shown in FIG. That is, by the update process (SFB (i) = MFB) shown in step S36, as shown in the downward direction (1), P(i, j)To P(i + 1, j)And the process {SFB (i) = SFB (i-1)} shown in step S38 is performed as shown in the diagonally lower left direction (2).(i, j)To P(i + 1, j + 1)Propagate to.
[0053]
With this processing, it becomes possible to detect the fine line on the white ground by setting the state variable in the white background determination in step S18 or the pattern matching in step S13, and to detect the halftone dot on the pattern erroneously. Can be prevented. Furthermore, since the state variable is reset by the pattern matching of the thin line pattern in step S21, a lump of characters can be extracted well.
[0054]
Also, since different outputs “1” and “2” are output, “characters on white ground” and “characters on halftone dots” can be separated and output. Also, as shown in FIG. 9, since the arrow direction in the sub-scanning direction is “0” or only in the + direction, the processing performed for each line in the main scanning direction is necessary for the state variable for one line and pattern matching. It is only necessary to provide a memory with a large number of lines, and therefore processing can be performed without providing a page memory. The difference between the outputs “1” and “2” with respect to the isolated
[0055]
The pattern matching unit (B ′) 44 ′ detects an inverted thin line, and here, a white thin line on a black character is detected. The hardware configuration is the same as that of the pattern matching unit (A) 43, but black and white are reversed in the input data. In addition, the logic of the thin line pattern and the white background area are reversed, and the black area is used instead of the white area, whereby pattern matching is performed on the white area surrounded by the black area. However, the threshold values for extraction are different, so that the inverted thin line can be extracted well.
[0056]
The input data of the isolated point removal unit (A) 45 includes the output PM1 of the pattern matching unit (A) 43, the output “1” of the pattern matching unit (B) 44, and the output “1” of the pattern matching unit (B ′) 44 ′. 1 ”. The input data of the isolated point removal unit (B) 46 includes the output PM1 of the pattern matching unit (A) 43, the output “2” of the pattern matching unit (B) 44, and the output “2” of the pattern matching unit (B ′) 44 ′. 2 ”.
[0057]
Here, although the line drawing is composed of continuous lines, the isolated
[0058]
The pixel density conversion units 47 and 48 are also composed of the same logic circuit. Here, in the circuits up to the previous stage, processing is performed in units of pixels, but in the pixel density conversion units 47 and 48, in order to perform processing in units of blocks (4 × 4 pixels), data in units of pixels is converted into data in units of blocks. Convert. In this conversion, 4 × 4 simple thinning processing is performed. However, since the isolated
[0059]
The output of the pixel density converter (A) 47 is applied to the page memory (A) 49 and the selector (A) 51, and the output of the page memory (A) 49 is applied to the selector (A) 51. The output of the pixel density converter (B) 48 is applied to the page memory (B) 50 and the selector (B) 52, and the output of the page memory (B) 50 is applied to the selector (B) 52. The output of the
[0060]
During the first scan, the input data is stored in the page memories 49, 50, 58 in units of blocks (4 × 4 pixels), and at the same time, is output via the
[0061]
The isolated block removing units 53 and 54 have the same function and the same function, and remove isolated blocks from the peripheral data. For example, a 5 × 5 block matrix is used for the data from the selectors 51 and 52. When only the central block is on (H) = extraction pattern and the other blocks are off (L), this block is isolated. Off (L).
[0062]
Similarly, the expansion units 55 and 56 are the same circuit and have the same function, and perform an N × N OR process (expansion process) in order to connect an isolated block to a neighboring block or a neighboring block. Then, M × M AND processing (shrinkage processing) is performed. Then, for example, 5 × 5 interpolation processing is performed. Note that MN is an expansion process. As an example, expansion processing of 3 × 3 (N = 3) blocks (= 12 × 12 pixels) is shown below.
[0063]
In addition, as an example, shrinkage processing of 5 × 5 (M = 5) blocks is shown below.
[0064]
Thereafter, since 100 dpi jagged edges remain, 5 × 5 interpolation processing is performed. Here, the solid line shown in FIG. 13 indicates 100 dpi data, and the broken line indicates data after interpolation. When a 5 × 5 matrix is used, when the data extracted as a line drawing satisfies the following logical expression as follows, the target pixel atwenty twoInvert the data.
[0065]
However, “/” indicates an inversion operator.
[0066]
By expanding the extraction pattern in this way, the intersections of characters and the like are connected, and line drawing and the surrounding line drawing processing are performed. Note that the above-described pattern matching cannot extract the intersection of the crosses, but can be connected by this expansion process. Here, the reason why the periphery of the line drawing is regarded as a line drawing is to allow the black character processing and the spatial filter to work well. In particular, this expansion process makes it possible to satisfactorily extract ruled lines even if there are halftone dots in the ruled lines as in the catalog usage description and specification table. Also, a ruled line including a white background is extracted as a character, and for a character on a halftone dot, a determination result different from a character on a white background is output. Different processing can be performed. Furthermore, the white thin line on the black ground is also a good image.
[0067]
Next, the expansion result of the expansion units 55 and 56 and the extraction result of the
[0068]
Next, a second embodiment will be described with reference to FIG. In the thin line detection process shown in FIG. 12 of the first embodiment, the output “1” and “2” are determined. However, in the second embodiment, the determination condition for the output “2” is changed to change the output on the picture. Characters (ruled lines) are extracted. Steps S11 to S38 shown in FIG. 14 are the same as FIG. 12, but steps S41 to S44 are added between steps S21, S22 to S24, and S32.
[0069]
That is, if it does not match the “thin line pattern” in step S21, it is determined in step S41 whether it matches “
[0070]
The “
[0071]
In addition, the pattern matching result of “thin line pattern” and “
[0072]
The thresholds thRw and thRb for the “thin line pattern” are set to thRw and thRb, respectively.
The thresholds thRw and thRb of “
thRw <thRw1 <thRb1 = thRb
If
P <thRw → code “0”
thRw <P <thRw1 → code “1”
thRw1 <P <thRb → Code “2”
thRb <P → code “3”
Here, P is an edge amount. Similarly, when developing such a code, the reverse process may be performed, and it is a matter of course that the magnitude relationship is not fixed but can be switched.
[0073]
By the above method, it is possible to switch the pattern on the white ground and the pattern on the halftone dot or the color ground using the state variable, and it is possible to use the state variable in common. If the characters on the halftone dot can be extracted well, it is not necessary to refer to the state variable MFB at the time of extracting the character on the halftone dot in step S41 shown in FIG. The character on the halftone dot and the character on the white background may be separated by determining that they always match. As a result, the ruled line can be satisfactorily extracted even if there is a halftone dot in the ruled line as in the usage description of the catalog and the specification table. In addition, the ruled lines including the white background are extracted as characters, and the characters on the halftone dots are subjected to a distinction process different from the characters on the white background. Therefore, the accuracy can be improved compared to the first embodiment, and (white Different image processing can be performed on characters on the ground and characters on halftone dots.
[0074]
In FIG. 9, P(i, j + 1), P(i + 1, j), P(i + 1, j-1)Only three propagation directions (1) to (3) are shown.(i + 1, j-1)Regarding the direction (2), it is better to add not only the -1 direction but also the -2 and -3 directions to eliminate the main scanning directionality of the propagation direction of the state variable. Furthermore, in an apparatus that performs image processing by storing all of the image data in the page memory, it is needless to say that the propagation direction of the state variable is preferably 360 °.
[0075]
FIG. 15 shows detail emphasis processing by unsharp masking. FIG. 15A shows a main signal to be processed, FIG. 15B shows an unsharp signal, FIG. 15C shows an unsharp mask signal, and FIG. 15D shows a detail-enhanced signal. Correction is performed based on edge characteristics. Do. In the present embodiment, the Laplacian unit 42 corrects the edge amount using the unsharp mask signal shown in FIG. 15C, but instead uses the detail emphasized signal shown in FIG. 15D and other signals. Also good.
[0076]
Here, the pattern matching unit (A) 43 extracts black (contour) on the white background, but does not extract characters on the halftone (shaded), and the pattern matching unit (B) 44 Extract characters on halftone dots or color ground separately. In addition, the pattern matching unit (B) 44 also extracts a crowded character such as a kanji “book”. In addition, when the upper limit value of MFB is “8”, “characters on halftone dots” is set, and when the upper limit value of MFB is “16”, “characters on white ground” are set. However, the present invention is limited to this value. Not.
[0077]
The reason for distinguishing the characters on the halftone dots from the characters on the white ground is to avoid false detection of the characters in the shaded lines when the shaded lines are present. This is because there is a possibility that a character exists in the vicinity of the character, and further, the possibility that the character exists near the ruled line decreases as the width of the ruled line increases. Therefore, according to the said embodiment, a small character, a line drawing, a character with many strokes on a white ground, and a character on a halftone dot can be extracted separately. In addition, since the reflection direction in the sub-scanning direction is one direction, it is suitable for a raster scan type reading method, particularly suitable for hardware, and can be easily reflected in image data.
[0078]
The present invention also relates to an algorithm for detecting an edge of a line drawing. In particular, since a halftone dot peculiar to a printed matter is not detected and removed, an original that does not contain halftone dots, such as a generation copy (a copy of a duplicated matter). Is particularly effective. Furthermore, the isolated
[0079]
Here, if simple expansion is performed, only the isolated area becomes large. However, in the expansion units 55 and 56, the expansion amount is X, X = MN, that is, M pixels are expanded, and then N pixels are contracted. Since X <M, isolated regions can be connected. Furthermore, since the expansion is performed with the coarse density (block unit), the scale of hardware can be reduced.
[0080]
In addition, since the determination result at the first scan is also used after the second scan, the line drawing determination result at the time of each scan and the color determination result always match, so that the image processing at each scan can be performed without variation. it can. Furthermore, since the data stored in the page memories 49, 50, and 58 is not the final signal for each image processing circuit but data with a low pixel density, the amount of data can be reduced.
[0081]
Here, the line memory determination result page memory (hereinafter referred to as line image determination result memory) 49, 50 stores the determination result at the first scan and uses it after the second scan, and after the second scan. By reading the line drawing determination results in the line drawing determination result memories 49 and 50, the variation after scanning (reading) is only due to the
[0082]
The copying machine according to the present invention has the following five operation modes.
[0083]
1.
This mode is a mode in the case where the image size is A4 size or less that can be stored in the memory unit (hereinafter referred to as image memory in order to distinguish it from the page memories 49 and 50), and once as shown in FIG. The RGB data obtained by the above scanning is stored in the
[0084]
In this mode, since the
[0085]
However, in the
[0086]
2.
This mode is a mode when the image size exceeds the A4 size that can be stored in the
[0087]
Since the
[0088]
3.2 Chamfering mode (using image memory)
In this mode, the
[0089]
In the same manner, a C image for the first surface is created based on the first half of the data stored in the
[0090]
During each 2 × 4 image formation, the line drawing recognition unit 13a processes the same data stored in the
[0091]
4.2 Chamfering mode (without image memory)
This is a mode in which a single original is divided into half without using the
[0092]
In the same manner, a C image for the first surface is formed based on the first half by reading in the third scan, and then read for the second surface based on the second half by reading in the fourth scan. The C image is formed, then read in the fifth scan, and the M image of the first surface is formed based on the first half, and then read in the sixth scan and read in the second half. An M image for two surfaces is formed, then read in the seventh scan, and a Y image for the first surface is formed on the basis of the first half, and then read in the eighth half on the second half. A Y image for the second surface is formed based on the above.
[0093]
During each 2 × 4 image formation, the line drawing recognition unit 13a processes the image data read during each scan, and if this is used, reading variations due to the scanner occur. Therefore, the line drawing determination result memory 49, 50 is set to the writing mode at the time of the first scan (at the time of forming the K image for the first surface), and the selectors (A, B) 51, 52 are connected to the pixel density conversion units (A, B) 47, 48, respectively. The output is selected, and after the second scan (remaining seven scans from the K image for the second surface), the read mode is set and the selectors (A, B) 51 and 52 are respectively connected to the line drawing determination result memory. Select 49, 50 outputs. Further, since this mode switching may be performed at the time of the first to second scan switching, an unnecessary line drawing determination signal between sheets is not written in the line drawing determination result memories 49 and 50 by simple control. Can do.
[0094]
5. ADF1to1 mode
This mode is a mode that can be applied to a two-chamfering mode in which two originals are automatically fed by ADF, the image data is formed on a photoconductor and copied on two sheets. The original is read in one scan and stored in the
[0095]
First, the first original is read by the first scan and stored in the
[0096]
During each 2 × 4 image formation, the line drawing recognition unit 13a processes the same data stored in the
[0097]
Therefore, the line drawing determination result memories 49 and 50 are set to only the writing mode for the first original and are not read out, so that the selectors (A and B) 51 and 52 are respectively connected to the pixel density conversion units (A and B). ) Outputs 47 and 48 are selected, and the line drawing determination result memories 49 and 50 are not used. For the second original, the line drawing determination result memories 49 and 50 are set to the writing mode at the time of the first scan, and the selectors (A, B) 51, 52 are set to the pixel density conversion units (A, B) 47, 48, respectively. After the second scan, the line drawing determination result memories 49 and 50 are set to the read mode, and the selectors (A, B) 51 and 52 select the outputs of the line drawing determination result memories 49 and 50, respectively. The line drawing determination result memories 49 and 50 are used.
[0098]
Accordingly, in this case as well, since this mode switching may be performed at the time of reading by the scanner, an unnecessary line drawing determination signal between sheets is not written in the line drawing determination result memories 49 and 50 by simple control. can do. In the above description, the case where a total of four times of image formation of K, C, M, and Y is performed is taken as an example. However, the present invention is not limited to this. For example, when performing black and white copying with one image formation. Can also be applied.
[0099]
【The invention's effect】
As explained aboveBookAccording to the invention,The first original is read in one scan and stored in the image memory, and the second original is read in four scans and not stored in the
[Brief description of the drawings]
FIG. 1 is a block diagram showing a copying machine provided with an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block diagram showing in detail an image processing unit in FIG. 1;
FIG. 3 is a block diagram illustrating in detail a document recognition unit in FIG. 2;
4 is an explanatory diagram illustrating reference pixels of the document recognition unit in FIG. 3;
FIG. 5 is an explanatory diagram showing a change in density of image data.
6 is an explanatory diagram showing an edge amount of the image data in FIG. 5. FIG.
FIG. 7 is an explanatory diagram showing halftone dots on white ground and characters on the halftone dots as an example of image data.
FIG. 8 is an explanatory diagram illustrating reference pixels of the pattern matching unit in FIG. 3;
9 is an explanatory diagram showing a propagation direction of the pattern matching unit of FIG. 3;
10 is a flowchart for explaining processing of a pattern matching unit (A, B, B ′) of FIG. 3;
11 is a flowchart for explaining processing of a pattern matching unit (A, B, B ′) in FIG. 3;
12 is a flowchart for explaining processing of a pattern matching unit (B, B ′) in FIG. 3;
13 is an explanatory diagram showing interpolation processing of the expansion unit in FIG. 4. FIG.
FIG. 14 is a flowchart for explaining processing of a pattern matching unit (B, B ′) according to the second embodiment;
FIG. 15 is an explanatory diagram showing detail emphasis processing;
16 is an explanatory diagram showing processing of a
17 is an explanatory diagram showing processing of a
18 is an explanatory diagram showing processing in a two-chamfer mode (using an image memory) in the copier of FIG.
19 is an explanatory diagram showing processing in a two-chamfer mode (image memory not used) in the copier of FIG. 1. FIG.
20 is an explanatory diagram showing processing in the ADF1to1 mode (the first sheet uses an image memory and the second sheet does not use an image memory) in the copier of FIG. 1;
[Explanation of symbols]
10 Memory part
13 Document recognition section
13a Line drawing recognition unit
42 Laplacian
43,44 Pattern matching section
45, 46 Isolated point removal unit
47,48 pixel density converter
49,50 page memory
51,52 selector
53, 54 Isolated block removal unit
55,56 Expansion part
Claims (1)
原稿画像を読み取る原稿読み取り手段と、
前記原稿読み取り手段により読み取られた画像データを記憶する画像記憶手段と、
前記原稿読み取り手段により読み取られた画像データ又は前記画像記憶手段に記憶された画像データが文字領域か又は中間調領域かを画素毎に識別する領域識別手段と、
前記領域識別手段により識別された領域識別信号を記憶する領域識別信号記憶手段と、
前記領域識別手段により識別された領域識別信号又は前記領域識別信号記憶手段に記憶されている領域識別信号を選択する選択手段と、
原稿2枚分の画像を感光体上に作像する場合に、前記原稿読み取り手段が1枚目の原稿を1回だけ読み取り、次いで2枚目の原稿を作像数だけ読み取るように制御し、1枚目の原稿の読み取り時に前記原稿読み取り手段により読み取られた画像データを前記画像記憶手段に書き込み、1枚目の各作像時には前記画像記憶手段に書き込まれている画像データに基づいて前記領域識別手段により識別された領域識別信号を前記選択手段が選択して出力し、2枚目の1回目の作像時には前記原稿読み取り手段により読み取られた画像データに基づいて前記領域識別手段により識別された領域識別信号を前記選択手段が選択して出力すると共に前記領域識別信号記憶手段に書き込み、2枚目の2回目以降の作像時には前記領域識別信号記憶手段に記憶された領域識別信号を読み出して前記選択手段が選択するように制御する制御手段と、
を備えたことを特徴とする画像処理装置。In an image processing apparatus that performs image processing of image data based on an area identification signal indicating whether the image data is a character area or a halftone area,
An original reading means for reading an original image;
Image storage means for storing image data read by the original reading means ;
Area identifying means for identifying for each pixel whether the image data read by the document reading means or the image data stored in the image storage means is a character area or a halftone area;
Area identification signal storage means for storing the area identification signal identified by the area identification means;
A selection means for selecting an area identification signal identified by the area identification means or an area identification signal stored in the area identification signal storage means;
When forming an image of two originals on the photosensitive member, the original reading unit controls the first original to be read only once, and then the second original is read as many times as the number of image formations. The image data read by the original reading unit is written to the image storage unit when the first original is read, and the region is based on the image data written to the image storage unit for each first image formation. The selection means selects and outputs the area identification signal identified by the identification means, and is identified by the area identification means based on the image data read by the document reading means when the second image is formed for the first time. writing the region identification signal to said area identifying signal storing means and outputs said selecting means selects, at the time of the second sheet 2 and subsequent imaging of stored in the area identification signal storage means And control means for controlling so that the selecting means selects and reads the area identification signal,
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20671697A JP3723666B2 (en) | 1997-07-31 | 1997-07-31 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20671697A JP3723666B2 (en) | 1997-07-31 | 1997-07-31 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1155506A JPH1155506A (en) | 1999-02-26 |
JP3723666B2 true JP3723666B2 (en) | 2005-12-07 |
Family
ID=16527934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20671697A Expired - Fee Related JP3723666B2 (en) | 1997-07-31 | 1997-07-31 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3723666B2 (en) |
-
1997
- 1997-07-31 JP JP20671697A patent/JP3723666B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1155506A (en) | 1999-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3176052B2 (en) | Image processing device | |
JPH08307717A (en) | Image processing device | |
US6014462A (en) | Image processing apparatus and method for distinguishing alphanumeric symbols on a white background and those on a mesh pattern and individually processing such image data | |
EP0685959B1 (en) | Image processing apparatus for identifying character, photo and dot images in the image area | |
US5805304A (en) | Image processing apparatus | |
US6178010B1 (en) | Image processing device | |
JP3723666B2 (en) | Image processing device | |
JP4047356B2 (en) | Image processing device | |
JPH0818785A (en) | Image output device | |
JP3989636B2 (en) | Image processing device | |
JP3506848B2 (en) | Image processing device | |
JP4035696B2 (en) | Line segment detection apparatus and image processing apparatus | |
JP4059600B2 (en) | Image processing apparatus and image processing method | |
JP3564216B2 (en) | Image processing device | |
JP3183787B2 (en) | Halftone area determination device | |
JPH1023251A (en) | Image-processing unit | |
JP2557480B2 (en) | Color image processor | |
JP3857494B2 (en) | Image processing device | |
JP3999420B2 (en) | Image processing apparatus and image processing method | |
JP3596962B2 (en) | Image processing device | |
JPH1079852A (en) | Image processor | |
JPH1155505A (en) | Image processing unit | |
JP3070174B2 (en) | Image forming device | |
JPH09130598A (en) | Color image forming device | |
JPH08149291A (en) | Dot area decision device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050916 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080922 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090922 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090922 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100922 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110922 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |