JP4345609B2 - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP4345609B2 JP4345609B2 JP2004235413A JP2004235413A JP4345609B2 JP 4345609 B2 JP4345609 B2 JP 4345609B2 JP 2004235413 A JP2004235413 A JP 2004235413A JP 2004235413 A JP2004235413 A JP 2004235413A JP 4345609 B2 JP4345609 B2 JP 4345609B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- layer
- generation means
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 104
- 238000007906 compression Methods 0.000 claims description 35
- 230000006835 compression Effects 0.000 claims description 31
- 238000003860 storage Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 49
- 238000005429 filling process Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 24
- 238000011161 development Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 102100033973 Anaphase-promoting complex subunit 10 Human genes 0.000 description 6
- OAUWKHSGCCPXOD-UHFFFAOYSA-N DOC1 Natural products C1=CC(O)=C2C(CC(=O)NCCCCCNCCCNCCCNCCCN)=CNC2=C1 OAUWKHSGCCPXOD-UHFFFAOYSA-N 0.000 description 6
- 101000779315 Homo sapiens Anaphase-promoting complex subunit 10 Proteins 0.000 description 6
- 101000737813 Homo sapiens Cyclin-dependent kinase 2-associated protein 1 Proteins 0.000 description 6
- 241000255925 Diptera Species 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 102100030288 Phospholipid phosphatase-related protein type 1 Human genes 0.000 description 3
- 102100030383 Phospholipid phosphatase-related protein type 3 Human genes 0.000 description 2
- 102100030368 Phospholipid phosphatase-related protein type 4 Human genes 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Description
本発明は、文書を構成する文字、図形および画像等の描画オブジェクトに基づいて層状の画像データを作成し、それぞれの層に対して画像処理を施すための技術に関する。 The present invention relates to a technique for creating layered image data based on drawing objects such as characters, graphics, and images constituting a document and performing image processing on each layer.
写真等の「自然画像」や「文字」、「図形・線画」といった複数の描画オブジェクトが混在した文書を解析し、それぞれの描画オブジェクトを別々に圧縮することにより、高画質でありながらも圧縮率の高い画像データに変換する技術がある。このような技術の一例として、特許文献1に記載された技術(以下、「従来技術」という)がある。従来技術においては、まず、多値画像で表された文書から二値画像を生成し、二値画像を用いて文字領域を抽出する。そして、多値画像の文字領域をその文字周辺色で塗りつぶし、下地領域を表す下地多値画像を得る。このように多値画像から文字領域と下地領域とを分離し、文字領域はMMR(Modified Modified Read)方式で圧縮し、下地領域はJPEG(Joint Photographic Experts Group)方式で圧縮することにより、JPEG方式の圧縮処理において文字領域の境界で発生するモスキートノイズを抑え、高画質かつ高圧縮率の画像データを得ている。 Analyzes a document containing multiple drawing objects such as “natural images” such as photographs, “characters”, and “figures / line drawings”, and compresses each drawing object separately, resulting in high image quality but with a high compression ratio There is a technology for converting the image data into high image data. As an example of such a technique, there is a technique described in Patent Document 1 (hereinafter referred to as “conventional technique”). In the prior art, first, a binary image is generated from a document represented by a multi-valued image, and a character region is extracted using the binary image. Then, the character area of the multi-valued image is painted with the surrounding color of the character to obtain a background multi-valued image representing the background area. In this way, the character region and the background region are separated from the multi-valued image, the character region is compressed by the MMR (Modified Modified Read) method, and the background region is compressed by the JPEG (Joint Photographic Experts Group) method. In this compression process, mosquito noise generated at the boundary of the character area is suppressed, and image data with high image quality and high compression rate is obtained.
しかし、この従来技術にはいくつかの問題点が見出される。
第一に、従来技術においては、上述したように二値画像に基づいて文字領域を特定している。そのため、下地多値画像を求めるためには、文字領域を示す二値画像と文字周辺色を示す多値画像の両方を参照する必要があり、その処理に時間を要するという問題がある。
第二に、従来技術はスキャナ等により読み取られた画像データを多層化して圧縮するのには適した技術であるものの、コンピュータの文書作成ソフトウェアにより作成された文書のデータや、この文書をページ記述言語等により記述したデータ(以下、これらのデータを「文書データ」と総称する)を多層化するには不適である。なぜなら、従来技術においては、文書データを多層化するためには、これらをいったん展開してラスタ化された多値画像と二値画像を生成しなければならず、処理に無駄が多いからである。また、ラスタ化された画像データは文書データよりもはるかにデータ容量が大きいため、メモリ等の物理リソースを多く必要とするという問題もある。
However, several problems are found in this prior art.
First, in the prior art, as described above, a character region is specified based on a binary image. For this reason, in order to obtain the background multi-value image, it is necessary to refer to both the binary image indicating the character region and the multi-value image indicating the character peripheral color, and there is a problem that the processing takes time.
Secondly, the conventional technique is suitable for multilayering and compressing image data read by a scanner or the like, but the document data created by computer document creation software and the page description of this document. It is unsuitable for multilayering data described in a language or the like (hereinafter, these data are collectively referred to as “document data”). This is because, in the prior art, in order to make document data multi-layered, it is necessary to generate rasterized multi-valued images and binary images, which is wasteful in processing. . Further, since the rasterized image data has a data capacity much larger than that of the document data, there is a problem that a lot of physical resources such as a memory are required.
本発明は上述の問題に鑑みてなされたものであり、その目的は、文書データを効率良く多層化し、高画質かつ高圧縮率の画像データを得るための技術を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for efficiently multilayering document data and obtaining image data with high image quality and high compression rate.
上述の目的を達成するために、本発明は、文書を表す文書データを、複数のオブジェクトによって表される画像情報に変換する変換手段と、前記変換手段により変換された画像情報に基づいて、前記複数のオブジェクトのいずれかが割り当てられた複数の層の画像を表す層状画像データを生成する層状画像生成手段とを備え、前記変換手段は、前記文書データを、画像をオブジェクト毎にある方向に細分化したエッジラインであって、各オブジェクトの始点座標、終点座標および当該オブジェクトの種類を示す属性情報を少なくとも含むエッジ情報の集合であるエッジラインの集合によって前記複数のオブジェクトを表す前記画像情報に変換し、前記層状画像生成手段は、記憶手段に記憶された前記属性情報と前記層状画像データに含まれる各層との対応関係に基づいて画像を生成する生成手段として、第1の層の画像を生成する第1の生成手段と、前記第1の層より下位の層である第2の層の画像を生成する第2の生成手段とを有し、前記第2の生成手段は、各々のエッジラインについて、前記第2の層において第1のオブジェクトの終点座標と第2のオブジェクトの始点座標との間にオブジェクトの存在しない抜け領域が存在し、かつ、前記第1の層において前記抜け領域の位置に相当する領域に前景のオブジェクトが存在する場合に、前記第1のオブジェクトおよび前記第2のオブジェクトに基づいた穴埋め画像を当該抜け領域に形成する画像処理装置を提供する。
このような画像処理装置によれば、第1の層のエッジ情報に基づいて第2の層に抜け領域が存在するか否かを判断し、第2の層に抜け領域がある場合には、抜け領域に隣接する第1のオブジェクトと第2のオブジェクトとに基づいて穴埋め画像が生成されるので、文書データを効率良く多層化するとともに、抜け領域の穴埋めを行うことが可能となる。
To achieve the above object, the present invention provides a document data representing a document, and converting means for converting the image information represented by a plurality of objects, based on the converted image information by said converting means, said and a layered image generating means for generating a layered image data representing images of a plurality of layers or is assigned a plurality of objects, and the converting means, subdividing the document data, in a certain direction images for each object Converted into the image information representing the plurality of objects by a set of edge lines, which is a set of edge information which is a set of edge information including at least the start point coordinates, end point coordinates of each object, and attribute information indicating the type of the object. and, the layered image generating means, wherein included in the layered image data and the attribute information stored in the storage means As generation means for generating an image based on a correspondence relationship with a layer, first generation means for generating an image of a first layer, and an image of a second layer that is a lower layer than the first layer Second generation means for generating, for each edge line, between the end point coordinates of the first object and the start point coordinates of the second object in the second layer for each edge line. If there is a missing area in which no object exists and a foreground object exists in an area corresponding to the position of the missing area in the first layer, the first object and the second object the filling images based to provide an image processing apparatus which forms on the irradiated region.
According to such an image processing apparatus, it is determined whether or not a missing area exists in the second layer based on the edge information of the first layer, and when there is a missing area in the second layer, Since the hole-filled image is generated based on the first object and the second object adjacent to the missing area, it is possible to efficiently multilayer the document data and to fill the missing area.
次に、本発明の実施の形態について説明する。
(1)第1実施形態
(1−1)構成
図1は、本発明の第1の実施形態に係る画像処理装置10のハードウェア構成を示したブロック図である。画像処理装置10は、例えばパーソナルコンピュータであり、制御部1と、記憶部2と、入出力I/F3と、表示部4と、操作部5とを備えている。制御部1は、CPU(Central Processing Unit)等の演算装置と、ROM(Read Only Memory)やRAM(Random Access Memory)等の各種メモリとを備えている。記憶部2は、例えばハードディスク等の大容量の不揮発性記憶装置であり、基本ソフトウェアであるOSプログラムPRG1を記憶している。また、記憶部2には、文書作成プログラムPRG2やプリンタドライバプログラムPRG3、タグ対応テーブルTBLが記憶されている。OSプログラムPRG1には、画像処理装置1の各部の基本的な処理を実行するための手順が記述されている。文書作成プログラムPRG2には、操作者による操作内容に従って文書データを作成するための手順が記述されている。プリンタドライバプログラムPRG3には、印刷用の描画命令を解釈して、多層圧縮画像データを生成するための手順が記述されている。タグ対応テーブルTBLには、タグ情報とレイヤ画像の関連付けが記述されているが、この詳細については後述する。入出力I/F3は、コンピュータやプリンタ等の外部機器と接続されており、外部機器とデータの授受を行う。表示部4は、例えば液晶ディスプレイであり、制御部1によって供給されるデータに基づいて画像を表示する。操作部5は、例えばキーボードやマウス等であり、操作者の操作内容に応じた信号を制御部1に供給する。
Next, an embodiment of the present invention will be described.
(1) First Embodiment (1-1) Configuration FIG. 1 is a block diagram showing a hardware configuration of an
図2は、この画像処理装置10の機能構成を示した機能ブロック図である。なお、この機能ブロック図においては、図中の矢印は画像処理装置10が実行する処理によって発生するデータや各種の制御情報の流れを表している。
同図に示されているように、画像処理装置10はOS11と、文書作成アプリケーション12と、プリンタドライバ13の機能を実現する。これらの機能は、画像処理装置10の記憶部2に記憶されたプログラムを制御部1が実行することにより実現されている。
このような構成により、画像処理装置10は操作者によって作成された文書データを多層圧縮画像データとして出力する。具体的には、操作者が操作部5を介して印刷指示を行うと、文書作成アプリケーション12は文書データを解釈し、OS11で定義されている描画命令に変換してこれをOS11に供給する。OS11は、この描画命令をプリンタドライバ13の解釈可能な印刷用描画命令に変換し、これをプリンタドライバ13に供給する。プリンタドライバ13は、この印刷用描画命令を解釈して多層圧縮画像データを生成する。多層圧縮画像データは、プリンタ等の外部機器に供給されることによって記録紙上に出力(印刷)される。
FIG. 2 is a functional block diagram showing a functional configuration of the
As shown in the figure, the
With such a configuration, the
ここで、本実施形態の画像処理装置10により生成される多層圧縮画像データについて説明する。多層圧縮画像データとは、文書データに含まれる描画オブジェクトの種類に基づいて画像を複数の層の画像(以下、各層の画像のことを「レイヤ画像」という)に分類し、それぞれのレイヤ画像に異なる圧縮方式の圧縮処理を行った上で、これらを統合した画像データのことである。本実施形態においては、多層圧縮画像データはレイヤ画像としてFG(Foreground;前景)画像とBG(Background;背景)画像とを含んでいる。多層圧縮画像データが描画されるときには、FG画像はBG画像よりも前面に描画される。すなわち、BG画像はFG画像によってマスクされるようになっている。
なお、説明の便宜上、以下の説明においては、レイヤ画像として上述のFG画像とBG画像の他に「ヌル画像」があるものとして説明する。ここで、「ヌル画像」とは、白紙の領域、すなわち画像上において形成すべき描画オブジェクトの存在しない領域を表すレイヤ画像であると定義する。つまり、「ヌル画像」とは、実際には何らかのデータが生成されるものではなく、あくまでも概念的なものである。
Here, the multilayer compressed image data generated by the
For convenience of explanation, in the following explanation, it is assumed that there is a “null image” in addition to the above-described FG image and BG image as a layer image. Here, the “null image” is defined as a layer image representing a blank area, that is, an area where a drawing object to be formed does not exist on the image. In other words, the “null image” is not a data that is actually generated, but is merely a conceptual image.
続いて、プリンタドライバ13の機能について、さらに詳しく説明する。
図3は、プリンタドライバ13の機能構成を示した機能ブロック図である。なお、この機能ブロック図においても、図中の矢印は画像処理装置10が実行する処理によって発生するデータや各種の制御情報の流れを表している。
同図に示されているように、プリンタドライバ13は、I/F部131と、中間データ生成部132と、FG画像生成部133と、FG画像圧縮部134と、BG画像生成部135と、BG画像圧縮部136と、フォーマット部137の機能を実現する。I/F部131はOS11から呼び出される関数からなり、OS11から印刷用描画命令の供給を受ける。中間データ生成部132は印刷用描画命令を解釈して、プリンタドライバ13内部における文書データの表現形式である中間データに変換する。また、中間データ生成部132は、文書データ1ページ分に相当する中間データを生成する毎に、この中間データをFG画像生成部133とBG画像生成部135に供給する。FG画像生成部133はFG画像を生成し、FG画像圧縮部134はFG画像を所定の圧縮方式(例えばMMR方式)で圧縮してフォーマット部137に供給する。また、BG画像生成部135はBG画像を生成し、BG画像圧縮部136はBG画像を所定の圧縮方式(例えばJPEG方式)で圧縮してフォーマット部137に供給する。フォーマット部137は、これらの圧縮されたレイヤ画像を統合してファイル化し、出力する。
Next, the function of the
FIG. 3 is a functional block diagram showing the functional configuration of the
As shown in the figure, the
ここで、中間データ生成部132において生成される中間データについて説明する。
図4は、中間データの構造を示した模式図である。本実施形態において、中間データとは、文書をラスタ化するときの主走査方向(ここではx方向とする)の走査ライン数nと同量のエッジラインによって構成され、それぞれのエッジラインが複数のエッジによるエッジ列として表されている画像情報のことである。このエッジには、それぞれのエッジラインにどのような描画オブジェクトがあるのかを示した情報が記述されている。
Here, the intermediate data generated in the intermediate
FIG. 4 is a schematic diagram showing the structure of intermediate data. In the present embodiment, the intermediate data is composed of the same number of edge lines as the number of scanning lines n in the main scanning direction (here, x direction) when a document is rasterized, and each edge line includes a plurality of edge lines. It is image information represented as an edge row by edges. In this edge, information indicating what kind of drawing object exists in each edge line is described.
図5は、エッジの構造を示した模式図である。同図に示されているように、それぞれのエッジには、そのエッジの始点座標(Sx)と、終点座標(Ex)と、色情報(C)と、タグ情報(T)とが含まれている。始点座標Sxはエッジの一端のx座標値であり、終点座標Exはエッジの他端のx座標値である。そして、タグ情報は、エッジによって構成される描画オブジェクトの種類(属性)を表した属性情報である。本実施形態では、1つの走査ライン上に例えば「文字」や「グラフィクス」などの複数の描画オブジェクトが存在している場合、描画オブジェクトの種類が変わる毎にエッジが1つ生成されるようになっている。 FIG. 5 is a schematic diagram showing the structure of an edge. As shown in the figure, each edge includes a start point coordinate (Sx), an end point coordinate (Ex), color information (C), and tag information (T). Yes. The start point coordinate Sx is the x coordinate value of one end of the edge, and the end point coordinate Ex is the x coordinate value of the other end of the edge. The tag information is attribute information representing the type (attribute) of the drawing object constituted by the edges. In this embodiment, when there are a plurality of drawing objects such as “characters” and “graphics” on one scanning line, one edge is generated each time the type of drawing object changes. ing.
本実施形態においては、タグ情報として「テキスト(Tx)」、「グラフィクス(Gr)」、「イメージ(Im)」、「ヌル(Nl)」の4種類が定義されている。「テキスト」タグは、この属性を有するエッジがテキストオブジェクトであることを表す。ここでテキストオブジェクトとは、文字や記号等のいわゆるテキスト情報である。「グラフィクス」タグは、この属性を有するエッジがグラフィクスオブジェクトであることを表す。ここでグラフィクスオブジェクトとは、図形や画像がベクタ形式で表現されたいわゆるベクタ画像のことである。「イメージ」タグは、この属性を有するエッジがイメージオブジェクトであることを表す。ここでイメージオブジェクトとは、図形や画像がビットマップ形式で表現されたいわゆるラスタ画像のことである。「ヌル」タグは、この属性を有するエッジがヌル画像、すなわち何も描画オブジェクトが形成されていない領域であることを表す。なお、「テキスト」、「グラフィクス」、「イメージ」および「ヌル」のそれぞれのタグには、「0」、「1」、「2」および「3」の識別番号が付与されている。画像処理装置10の内部においては、タグ情報はこの識別番号によって識別される。
In this embodiment, four types of “text (Tx)”, “graphics (Gr)”, “image (Im)”, and “null (Nl)” are defined as tag information. The “text” tag indicates that an edge having this attribute is a text object. Here, the text object is so-called text information such as characters and symbols. The “graphics” tag represents that an edge having this attribute is a graphics object. Here, the graphics object is a so-called vector image in which graphics and images are expressed in a vector format. The “image” tag represents that an edge having this attribute is an image object. Here, the image object is a so-called raster image in which figures and images are expressed in a bitmap format. The “null” tag indicates that an edge having this attribute is a null image, that is, an area where no drawing object is formed. The identification numbers “0”, “1”, “2”, and “3” are assigned to the tags “text”, “graphics”, “image”, and “null”, respectively. Inside the
タグ情報は、FG画像、BG画像、あるいはヌル画像のいずれかのレイヤ画像に関連付けられている。この対応関係を記述したのがタグ対応テーブルTBLである。画像処理装置10は、このタグ対応テーブルTBLを参照することにより、それぞれの描画オブジェクトの属性とレイヤ画像の種類との対応関係を求めることが可能となる。
図6は、本実施形態におけるタグ対応テーブルTBLを示した模式図である。同図に示されているように、それぞれのタグ情報はいずれか1つのレイヤ画像に関連付けられており、関連付けられたレイヤ画像上にそれぞれのタグ情報が示す描画オブジェクトが形成される。本実施形態においては、「テキスト」タグが「FG画像」、「グラフィック」タグと「イメージ」タグが「BG画像」、「ヌル」タグが「ヌル画像」に関連付けられている。
The tag information is associated with any layer image of an FG image, a BG image, or a null image. This correspondence relationship is described in the tag correspondence table TBL. By referring to the tag correspondence table TBL, the
FIG. 6 is a schematic diagram showing the tag correspondence table TBL in the present embodiment. As shown in the figure, each tag information is associated with any one layer image, and a drawing object indicated by each tag information is formed on the associated layer image. In the present embodiment, the “text” tag is associated with “FG image”, the “graphic” tag and the “image” tag are associated with “BG image”, and the “null” tag is associated with “null image”.
色情報Cは、記述されている情報の種類がエッジのタグ属性によって異なる。タグ情報が「テキスト」あるいは「グラフィクス」の場合は、色情報Cにはそのエッジによって構成される描画オブジェクトの色の情報が、例えば赤(R)、緑(G)、青(B)各色8ビット(0〜255)のRGB値によって記述されている。タグ情報が「イメージ」の場合は、色情報Cにはそのエッジの長さに相当するラスタ画像が記憶されているメモリ領域のアドレスが記述されている。また、タグ情報が「ヌル」の場合は、色情報Cには(R,G,B)=(255,255,255)のRGB値、すなわち「白」を表すRGB値が記述されている。 In the color information C, the type of information described differs depending on the tag attribute of the edge. When the tag information is “text” or “graphics”, the color information C includes information on the color of the drawing object constituted by the edges, for example, red (R), green (G), blue (B) 8 It is described by RGB values of bits (0 to 255). When the tag information is “image”, the color information C describes the address of the memory area in which the raster image corresponding to the edge length is stored. When the tag information is “null”, the color information C describes an RGB value of (R, G, B) = (255, 255, 255), that is, an RGB value representing “white”.
(1−2)動作
上述の構成のもと、画像処理装置10の制御部1は、図2および図3に示された機能を実現し、これらの図に示された流れでデータを処理する。本実施形態の画像処理装置10は、FG画像生成部133とBG画像生成部135の機能に特徴を有している。そこで、以下ではFG画像生成部133とBG画像生成部135における具体的な動作について詳細に説明する。そして、各部における動作を説明した後に、ある文書データを例示してより具体的な説明を行う。
なお、以下に示されるFG画像生成部133とBG画像生成部135の機能は、画像処理装置10の制御部1がプリンタドライバプログラムPRG3を実行することによって実現されるものである。ゆえに、本来FG画像生成部133とBG画像生成部135における動作の主体は制御部1であるが、ここでは説明の便宜上、例えば「FG画像生成部133は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する」といったように、FG画像生成部133またはBG画像生成部135を動作の主体として説明を行う。
(1-2) Operation Based on the above-described configuration, the
Note that the functions of the FG
(1−2−1)FG画像生成部133の動作
図7は、FG画像生成部133が中間データからFG画像を生成する動作を示したフローチャートである。この動作は、文書データ1ページ分の中間データが中間データ生成部132からFG画像生成部133へと供給された時点で開始される。まず、FG画像生成部133に中間データが供給されると、FG画像生成部133はページの上端部分に相当するエッジラインをスキャンする(ステップS11)。次に、FG画像生成部133は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する(ステップS12)。なお、この「未処理」とは、後述するラスタ展開処理(ステップS15)が行われていないことを意味している。ここで、未処理のエッジが存在する場合には(ステップS12;YES)、FG画像生成部133はその未処理エッジからタグ情報を抽出する(ステップS13)。そして、FG画像生成部133は、抽出したタグ情報を参照してこのエッジがFG画像であるか否かを判断する(ステップS14)。
(1-2-1) Operation of FG
エッジ内部のタグ情報は、そのエッジの描画オブジェクトの種類を記述しているだけである。したがって、FG画像生成部133は、タグ情報を参照しただけではFG画像であるか否かを判断することができない。そこで、このときFG画像生成部133は、タグ対応テーブルTBLを同時に参照する。図6に示されているように、タグ対応テーブルTBLにはタグ情報とレイヤ画像の対応関係が記述されている。本実施形態においては「テキスト」タグのみがFG画像に関連付けられているので、このときFG画像生成部133はタグ情報が「テキスト」であるか否かを判断すればよい。
The tag information inside the edge only describes the type of drawing object at that edge. Therefore, the FG
ここで、この未処理エッジがFG画像である、換言すれば未処理エッジのタグ情報が「テキスト」タグであるとFG画像生成部133が判断した場合は(ステップS14;YES)、FG画像生成部133はこのエッジのデータをFG画像としてラスタ展開し(ステップS15)、ステップS12からの処理を再び実行する。一方、この未処理エッジがFG画像でない、換言すれば未処理エッジのタグ情報が「グラフィック」、「イメージ」、あるいは「ヌル」のいずれかであるとFG画像生成部133が判断した場合は(ステップS14;NO)、FG画像生成部133はステップS15の処理を行わずに、ステップS12からの処理を再び実行する。
If the FG
なお、上述のステップS12の判断において、スキャンしたエッジライン中に未処理のエッジが存在しないとFG画像生成部133が判断した場合には(ステップS12;NO)、FG画像生成部133はこのエッジラインにおける処理を終了させ、次に処理すべき未処理のエッジラインが存在するか否かを判断する(ステップS16)。FG画像生成部133は、次に処理すべきエッジラインが存在すると判断すれば(ステップS16;YES)、処理の対象をそのエッジラインへと移動させてステップS11からの処理を繰り返し(ステップS17)、次に処理すべきエッジラインが存在しないと判断すれば(ステップS16;NO)、本動作を終了させる。
When the FG
(1−2−2)BG画像生成部135の動作
図8は、BG画像生成部135が中間データからBG画像を生成する動作を示したフローチャートである。この動作は、文書データ1ページ分の中間データが中間データ生成部132からBG画像生成部135へと供給された時点で開始される。まず、中間データが供給されると、BG画像生成部135はページの上端部分に相当するエッジラインをスキャンする(ステップS21)。次に、BG画像生成部135は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する(ステップS22)。なお、この「未処理」とは、後述するラスタ展開処理(ステップS25)が行われていないことを意味している。ここで、未処理のエッジが存在する場合には(ステップS22;YES)、BG画像生成部135はその未処理エッジからタグ情報を抽出する(ステップS23)。そして、BG画像生成部135は、抽出したタグ情報を参照してこのエッジがBG画像であるか否かを判断する(ステップS24)。
(1-2-2) Operation of BG
ここで、上述のステップS14と同様の要領で、BG画像生成部135はタグ対応テーブルTBLを参照することによってこの未処理エッジがBG画像であるか否かを判断する。具体的には、この未処理エッジがBG画像である、換言すれば未処理エッジのタグ情報が「グラフィック」、「イメージ」、あるいは「ヌル」のいずれかであるとBG画像生成部135が判断した場合は(ステップS24;YES)、BG画像生成部135はこのエッジのデータをBG画像としてラスタ展開し(ステップS25)、ステップS22からの処理を再び実行する。一方、この未処理エッジがBG画像でない、換言すれば未処理エッジのタグ情報が「テキスト」タグであるとBG画像生成部135が判断した場合は(ステップS24;NO)、BG画像生成部135はエッジ穴埋め処理を実行する(ステップS26)。このエッジ穴埋め処理については、本動作の説明の後に述べる。
Here, in the same manner as in step S14 described above, the BG
なお、上述のステップS22の判断において、スキャンしたエッジライン中に未処理のエッジが存在しないとBG画像生成部135が判断した場合には(ステップS22;NO)、BG画像生成部135はこのエッジラインにおける処理を終了させ、次に処理すべき未処理のエッジラインが存在するか否かを判断する(ステップS27)。BG画像生成部135は、次に処理すべきエッジラインが存在すると判断すれば(ステップS27;YES)、処理の対象をそのエッジラインへと移動させてステップS21からの処理を繰り返し(ステップS28)、次に処理すべきエッジラインが存在しないと判断すれば(ステップS27;NO)、本動作を終了させる。
When the BG
ここで、エッジ穴埋め処理について説明する。エッジ穴埋め処理とは、文書データにおいてFG画像となるような描画オブジェクト(ここではこれをFGオブジェクトという)がBG画像となるような描画オブジェクト(ここではこれをBGオブジェクトという)に隣接したり囲まれたりしている場合に、中間データのBG画像においてこのFGオブジェクトに略相当する領域を近傍のBGオブジェクトの色情報に基づいて塗りつぶす処理のことである。 Here, the edge hole filling process will be described. Edge filling processing is a drawing object (here referred to as FG object) that becomes an FG image in document data is adjacent to or surrounded by a drawing object (here called BG object) that becomes a BG image. In such a case, a region substantially corresponding to the FG object in the BG image of the intermediate data is painted based on the color information of the neighboring BG object.
図9は、このエッジ穴埋め処理を説明するために例示したある文書データDOC1の図である。同図において、斜線で示された領域a1がグラフィクスオブジェクトを表し、このグラフィクスオブジェクト囲まれたA字形の領域a2がテキストオブジェクトを表している。文書データDOC1のその他の領域a3は描画オブジェクトが存在せず、ヌルオブジェクトである。ここで、領域a1は赤、すなわち(R,G,B)=(255,0,0)のRGB値で一様に塗りつぶされているものとする。 FIG. 9 is a diagram of certain document data DOC1 exemplified for explaining the edge filling process. In the figure, a hatched area a1 represents a graphics object, and an A-shaped area a2 surrounded by the graphics object represents a text object. The other area a3 of the document data DOC1 is a null object without a drawing object. Here, it is assumed that the area a1 is red, that is, is uniformly filled with RGB values of (R, G, B) = (255, 0, 0).
このような文書データDOC1を本実施形態の画像処理装置10で多層圧縮画像データに変換した場合、領域a1はBG画像、領域a2はFG画像に分類される。このときのBG画像は、図10に示されているように、文書データDOC1の領域a2に相当する領域に描画オブジェクトが存在しない画像となっている。このようなBG画像に対してJPEG方式等の離散コサイン変換(DCT)を利用した圧縮処理を施すと、圧縮率を高めるにしたがってモスキートノイズと呼ばれる画質劣化が生じる。モスキートノイズは、DCTにおける高周波成分の誤差に起因するので、文字の輪郭部分のように色変化が急激に起こる部分に発生する。つまり、BG画像に対してJPEG等の圧縮処理を施すと、領域a2に相当するA字形の領域の境界でモスキートノイズが発生しやすくなってしまう。
When such document data DOC1 is converted into multi-layer compressed image data by the
上述したように、BG画像はFG画像によってマスクされるため、BG画像においては、FG画像において描画オブジェクトが存在する領域にいかなる処理を施しても、その影響が多層圧縮画像データに及ぶことはない。そこで、BG画像のA字形の領域を領域a1と同じ色で塗りつぶすという処理を行うと、BG画像のA字形の領域において色変化がなくなるために、多層圧縮画像データに影響を及ぼすことなくモスキートノイズの発生を抑えることが可能となる。また、このような処理を施すことにより、BG画像をより高い圧縮率で圧縮することも可能となる。
この「BG画像において、FG画像によってマスクされる領域を塗りつぶす」という処理が、本実施形態のエッジ穴埋め処理の基本的な原理である。
As described above, since the BG image is masked by the FG image, in the BG image, no matter what processing is performed on the region where the drawing object exists in the FG image, the influence does not reach the multilayer compressed image data. . Therefore, if the process of filling the A-shaped area of the BG image with the same color as that of the area a1, the color change does not occur in the A-shaped area of the BG image, so that the mosquito noise is not affected without affecting the multilayer compressed image data. Can be suppressed. Further, by performing such processing, it is possible to compress the BG image at a higher compression rate.
The process of “filling the area masked by the FG image in the BG image” is the basic principle of the edge filling process of this embodiment.
続いて、ステップS26のエッジ穴埋め処理における具体的な動作について説明する。
図11は、本実施形態におけるエッジ穴埋め処理を示したフローチャートである。同図に沿って説明すると、まず、BG画像生成部135は、処理対象のエッジがFG画像のエッジであるか否かを判断する(ステップS261)。これは、図9の例からもわかるように、この穴埋め処理を行おうとする領域にFG画像がマスクされなければ、そもそも穴埋め処理を行うことができないからである。ステップS24において処理対象のエッジがBG画像であるか否かが判断されており、この判断結果が否定的である場合にステップS261の判断が行われるのであるから、このとき処理対象のエッジは、FG画像かヌル画像のいずれかである。処理対象のエッジがヌル画像のエッジであった場合は、BG画像生成部135は何も行わずに図8のフローチャートの動作へと戻る。
Next, a specific operation in the edge hole filling process in step S26 will be described.
FIG. 11 is a flowchart showing edge filling processing in the present embodiment. Describing along the drawing, first, the BG
一方、この判断結果が肯定的、すなわち処理対象のエッジがFG画像のエッジであった場合には(ステップS261;YES)、BG画像生成部135は、このエッジに対して既にこのエッジ穴埋め処理が行われているか否かを判断する(ステップS262)。本処理においては、FG画像のエッジが連続している場合には、これらのエッジに対して一括して処理を行うことができるので、このようなステップが加えられている。そして、処理対象のエッジに対して既にこのエッジ穴埋め処理が行われていれば(ステップS262;YES)、本処理を行う必要がないので、BG画像生成部135は何も行わずに図8のフローチャートの動作へと戻る。
On the other hand, when this determination result is affirmative, that is, when the edge to be processed is an edge of an FG image (step S261; YES), the BG
一方、この判断結果が肯定的であった場合には(ステップS262;YES)、BG画像生成部135は処理対象のエッジの両端のエッジを参照することにより、エッジの配列パターンを同定する(ステップS263)。
ここで、エッジの配列パターンとは、処理対象のFG画像のエッジに連続するFG画像のエッジの一群を一つの集合(以下、これを「FGエッジ群」ともいう)と見なし、そのFGエッジ群の左右に隣接しているエッジの種類を表すものである。図12は、本実施形態におけるエッジの配列パターンをすべて示した図である。図12(1)は、FGエッジ群の両端がBG画像のエッジである場合を示しており、以下これを「BG−FG−BGパターン」という。図12(2)は、FGエッジ群の左端がBG画像のエッジであり、かつ、右端がヌル画像のエッジである場合を示しており、以下これを「BG−FG−Nlパターン」という。図12(3)は、FGエッジ群の左端がヌル画像のエッジであり、かつ、右端がBG画像のエッジである場合を示しており、以下これを「Nl−FG−BGパターン」という。図12(4)は、FGエッジ群の両端がヌル画像のエッジである場合を示しており、以下これを「Nl−FG−Nlパターン」という。なお、FGエッジ群の一端あるいは両端にエッジそのものが存在しない場合も考えられるが、この場合には、エッジの存在しない側にはヌル画像のエッジが存在すると見なす。
On the other hand, if the determination result is affirmative (step S262; YES), the BG
Here, the edge arrangement pattern refers to a group of edges of an FG image continuous to the edge of the FG image to be processed as one set (hereinafter also referred to as “FG edge group”), and the FG edge group. Represents the types of edges adjacent to the left and right of the. FIG. 12 is a diagram showing all edge arrangement patterns in the present embodiment. FIG. 12 (1) shows a case where both ends of the FG edge group are edges of the BG image, and this is hereinafter referred to as “BG-FG-BG pattern”. FIG. 12B shows a case where the left end of the FG edge group is the edge of the BG image and the right end is the edge of the null image, which is hereinafter referred to as a “BG-FG-Nl pattern”. FIG. 12 (3) shows a case where the left end of the FG edge group is the edge of the null image and the right end is the edge of the BG image, which is hereinafter referred to as “Nl-FG-BG pattern”. FIG. 12 (4) shows a case where both ends of the FG edge group are edges of a null image, which is hereinafter referred to as “Nl-FG-Nl pattern”. Note that there may be a case where the edge itself does not exist at one or both ends of the FG edge group, but in this case, it is considered that the edge of the null image exists on the side where the edge does not exist.
このようにエッジの配列パターンを同定したら、BG画像生成部135は、処理対象のFGエッジ群がこれらのうちのいずれのパターンを有しているか判断する。はじめに、BG画像生成部135は、エッジの配列パターンが「Nl−FG−Nlパターン」であるか否かを判断する(ステップS264)。ここで、「Nl−FG−Nlパターン」である場合は、このFGエッジ群により形成されるFG画像の両端は、いずれもBG画像に隣接していないことを意味している。このような場合には(ステップS264;YES)、そもそも穴埋め処理を行うことができないので、BG画像生成部135は、この後の処理を行わずに図8のフローチャートの動作へと戻る。
When the edge arrangement pattern is identified in this way, the BG
処理対象のFGエッジ群を「Nl−FG−Nlパターン」の配列パターンでないと判断したら(ステップS264;NO)、続いてBG画像生成部135は、このFGエッジ群が「BG−FG−BGパターン」であるか否かを判断する(ステップS265)。この判断が否定的となるのは、配列パターンが「BG−FG−Nlパターン」または「Nl−FG−BGパターン」のときである。つまり、ステップS265の判断は「FGエッジ群の両端がともにBG画像のエッジであるか否か」と言い換えることができる。
If it is determined that the processing target FG edge group is not the “N1-FG-Nl pattern” array pattern (step S264; NO), then the BG
FGエッジ群の両端がともにBG画像のエッジであると判断したら(ステップS265;YES)、BG画像生成部135は、FGエッジ群の両端に接するBG画像のエッジに含まれている情報に基づいて、このFGエッジ群に相当する領域をBG画像としてラスタ展開することにより、この領域の「穴埋め」を行う(ステップS266)。具体的には、BG画像生成部135は、FGエッジ群の両端のBG画像の始点座標(Sx)、終点座標(Ex)および色情報(C)を参照してラスタ展開を行う。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標、色情報をそれぞれExl,Clとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標、色情報をそれぞれSxr,Crとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域をClとCrの平均値で示される色によって描画する処理となる。このときの描画される色は、Cl,CrのRGB値をそれぞれ(Rl,Gl,Bl)、(Rr,Gr,Br)とすると、(Rl+Rr/2,Gl+Gr/2,Bl+Br/2)で表される色である。なお、以下においては、FGエッジ群に相当する領域を「穴埋め」する画像という意味で、このとき生成される画像のことを「穴埋め画像」と呼ぶ。
このラスタ展開が終了したら、BG画像生成部135は図8のフローチャートの動作へと戻る。
If it is determined that both ends of the FG edge group are edges of the BG image (step S265; YES), the BG
When this raster development is completed, the BG
次に、FGエッジ群の一端がBG画像のエッジであると判断したら(ステップS265;NO)、BG画像生成部135は、FGエッジ群に接する両端のエッジに含まれている情報に基づいて、このFGエッジ群に相当する領域をBG画像としてラスタ展開することにより、この領域の「穴埋め」を行う(ステップS267)。ここでは、ステップS266のようにFGエッジ群に相当する領域全体に対してのラスタ展開は行わない。なぜなら、この場合、処理対象のFGエッジ群に相当する領域の一端はヌル画像に接しているからである。ヌル画像に接しているFGエッジ群に対して、ヌル画像の境界までラスタ展開を行うと、ラスタ展開によって生成されたBG画像をJPEG方式で圧縮した場合に、FGエッジ群に相当する領域の境界でノイズ(ブロックノイズ)が発生するおそれがある。
Next, when it is determined that one end of the FG edge group is an edge of the BG image (step S265; NO), the BG
図13は、このノイズの発生する条件を説明するために例示した図であり、この図は文字領域(FG画像)と白紙領域(ヌル画像)の境界部分を示している。例えばJPEG方式による圧縮処理においては、8×8ピクセルのブロック単位でDCTが行われる。このとき、図13(1)に示されているように、DCTのブロックが白紙領域を含まないように選択されれば、このブロックの変換(圧縮処理)によって白紙領域に文字領域の色成分が混入することはない。しかし、図13(2)に示されているように、DCTのブロックが白紙領域を含むように選択されれば、このブロックの変換(圧縮処理)によって白紙領域の領域bに文字領域の色成分が混入することとなる。このような領域に穴埋め画像が生成されるのを防ぐために、本実施形態においては以下の方法によって穴埋め画像を形成する範囲を決定している。 FIG. 13 is a diagram exemplarily used to explain the conditions for generating this noise, and this diagram shows the boundary between the character area (FG image) and the blank area (null image). For example, in JPEG compression processing, DCT is performed in units of 8 × 8 pixel blocks. At this time, as shown in FIG. 13A, if the DCT block is selected so as not to include the blank area, the color component of the character area is converted into the blank area by the conversion (compression processing) of this block. There is no contamination. However, as shown in FIG. 13B, if the DCT block is selected so as to include a blank area, the color component of the character area is added to the blank area b by this block conversion (compression process). Will be mixed. In order to prevent generation of a hole-filled image in such a region, in the present embodiment, a range for forming a hole-filled image is determined by the following method.
1.まず、FGエッジ群の長さ「FG_Length」を求める。具体的には、FG_Length = FG_Ex − FG_Sx +1とする。ここで、FG_SxはFGエッジ群の左端のエッジの始点座標であり、FG_ExはFGエッジ群の右端のエッジの終点座標である(単位はピクセル)。
2.FG_Lengthが用いる圧縮方法のx方向のブロック長Block_Length(例えばJPEG方式であれば、Block_Length = 8である)より大きい場合、FG_Length ≧ (Block_Length × n)を満たすn個のブロックの長さだけ、FGエッジ群に相当する領域におけるBG画像のエッジに接する側に穴埋め画像を形成する。穴埋め画像の色値は、FGエッジ群が接しているBG画像のエッジの一端のRGB値である。
3.FG_Length < Block_Lengthである場合、穴埋め画像の生成は行わない。
1. First, the length “FG_Length” of the FG edge group is obtained. Specifically, FG_Length = FG_Ex−
2. If FG_Length is larger than the block length Block_Length in the x direction of the compression method used (for example, Block_Length = 8 in the case of JPEG), only the length of n blocks satisfying FG_Length ≧ (Block_Length × n) is the FG edge A hole-filled image is formed on the side in contact with the edge of the BG image in the region corresponding to the group. The color value of the hole-filled image is the RGB value of one end of the edge of the BG image that is in contact with the FG edge group.
3. When FG_Length <Block_Length, no hole-filling image is generated.
ここで、図14および図15は、上述の方法にしたがって穴埋め画像の生成を行った場合の例を示した図である。まず、同14においては、FG_Length = 10,Block_Length = 8である。このような場合には、FGエッジ群に相当する領域において、BG画像のエッジに接する側、すなわち図中右側から8ピクセル分の領域に穴埋め画像が生成される。一方、図15においては、FG_Length = 6,Block_Length = 8である。このような場合にFGエッジ群に相当する領域に穴埋め画像を形成すると、ヌル画像の領域にノイズが発生する可能性が生じるので、穴埋め画像の生成を行わない。 Here, FIG. 14 and FIG. 15 are diagrams illustrating an example in which a hole-filling image is generated according to the above-described method. First, in FIG. 14, FG_Length = 10 and Block_Length = 8. In such a case, in a region corresponding to the FG edge group, a hole-filled image is generated on the side in contact with the edge of the BG image, that is, a region corresponding to 8 pixels from the right side in the drawing. On the other hand, in FIG. 15, FG_Length = 6 and Block_Length = 8. In such a case, if a hole-filled image is formed in a region corresponding to the FG edge group, noise may be generated in the null image region, so that the hole-filled image is not generated.
以上のステップS266,S267のいずれかの方法により穴埋め画像を生成したら、BG画像生成部135は本処理を終了させて図8のフローチャートの動作へと戻る。
エッジ穴埋め処理が終了したら、BG画像生成部135は上述のステップS22の判断を行う。そして、処理すべきエッジおよびエッジラインがなくなるまで、以降の処理を繰り返す。
When the hole-filling image is generated by any one of the above steps S266 and S267, the BG
When the edge filling process is completed, the BG
(1−2−3)動作例
ここからは、以上に説明された画像処理装置10の一連の動作、特にプリンタドライバ13におけるBG画像の生成処理について、文書データを例示してより具体的に説明する。ここで、文書データの例としては、図9の文書データDOC1を用いる。
操作者により文書データDOC1の印刷指示がなされると、画像処理装置10のプリンタドライバ13においては、中間データが生成される。ここで、図16は中間データのi番目の走査ラインを示しており、ELiはこの走査ラインに含まれるエッジラインである。同図において、エッジラインELiは、E1,E2,E3,E4,E5の5種類のエッジにより構成されている。エッジE1およびE5は白紙領域、すなわち描画オブジェクトが何も存在しない領域のエッジであり、このエッジはヌル画像に分類される。エッジE2およびE4はグラフィクスオブジェクトが描画されている領域のエッジであり、このエッジはBG画像に分類される。エッジE3はテキストオブジェクトが描画されている領域のエッジであり、このエッジはFG画像に分類される。
(1-2-3) Example of Operation From now on, the series of operations of the
When the operator gives an instruction to print the document data DOC1, the
図17は、これらのエッジの具体的なデータ構造を示した図である。なお、同図において、RGB値(255,255,255)、(255,0,0)および(0,0,0)は、それぞれ白、赤および黒を表している。それぞれのエッジは、あるエッジの終点座標がその次のエッジの始点座標と連続していることから、これらのエッジをラスタ展開することでこのエッジラインの画像データが隙間なく形成されることがわかる。ここで、本実施形態のタグ情報とレイヤ画像の対応関係は、図6のタグ対応テーブルTBLによって規定されている。すなわち、エッジE2およびE4がBG画像であり、エッジE3がFG画像である。 FIG. 17 shows a specific data structure of these edges. In the figure, RGB values (255, 255, 255), (255, 0, 0) and (0, 0, 0) represent white, red and black, respectively. For each edge, since the end point coordinates of one edge are continuous with the start point coordinates of the next edge, it is understood that the image data of this edge line is formed without any gap by raster development of these edges. . Here, the correspondence between the tag information and the layer image in the present embodiment is defined by the tag correspondence table TBL in FIG. That is, the edges E 2 and E 4 are BG images, and the edge E 3 is an FG image.
図18は、中間データのエッジラインELiに相当する領域のBG画像を表した図である。同図に示されているように、BG画像上には両端を描画オブジェクト(グラフィクスオブジェクト)に囲まれた、描画オブジェクトの存在しない領域がある。この領域(以下、この領域を「抜け領域」という)は、ちょうどFG画像上において描画オブジェクト(テキストオブジェクト)が存在する領域に相当する。このようなBG画像をそのままラスタ展開し、JPEG方式で圧縮処理を行うと、抜け領域の境界において上述したようなノイズが発生してしまう。そこで、プリンタドライバ13は、図11に示されたフローチャートの要領でエッジ穴埋め処理を行う。以下ではプリンタドライバ13のBG画像生成部135における具体的な処理内容を、図11の各ステップを参照しつつ説明する。各ステップにおける処理の詳細については、上述した(1−2−2)を適宜参照されたい。
FIG. 18 is a diagram illustrating a BG image in a region corresponding to the edge line EL i of the intermediate data. As shown in the figure, there is a region on the BG image where there are no drawing objects surrounded by drawing objects (graphics objects) at both ends. This area (hereinafter, this area is referred to as “missing area”) corresponds to an area where a drawing object (text object) exists on the FG image. If such a BG image is raster-developed as it is and compression processing is performed using the JPEG method, the noise described above occurs at the boundary of the missing region. Therefore, the
抜け領域におけるエッジの配列パターンは、図15からも明らかなように「BG−FG−BGパターン」である。したがって、BG画像生成部135は、ステップS265において肯定的な判断を行い、ステップS266に示される処理を実行する。ここで、BG画像生成部135は、抜け領域に隣接しているエッジE2およびE4の情報を参照し、始点座標が1200(1199+1),終点座標が1399(=1400−1)で表される領域を赤、すなわち(255,0,0)の色で描画する穴埋め画像を形成する。このような処理を行うと、「抜け領域」は、いわば「穴埋め」が行われた状態となる。
なお、中間データのヌル画像に相当する領域においては、このようなエッジ穴埋め処理が行われることはない。なぜなら、このような領域に対しては、エッジ穴埋め処理のステップS261の判断において否定的となり、穴埋め画像の生成が行われないからである。
The edge arrangement pattern in the missing region is a “BG-FG-BG pattern” as is apparent from FIG. Therefore, the BG
Note that such edge filling processing is not performed in the region corresponding to the null image of the intermediate data. This is because, for such a region, the determination in step S261 of the edge filling process is negative, and no filling image is generated.
図19は、エッジ穴埋め処理の前後のエッジラインELiを示した図である。また、図20は、エッジ穴埋め処理を行う前のBG画像と、このエッジ穴埋め処理をすべての走査ラインに渡って実行することで得られるBG画像とを示した図である。このように抜け領域に対して上述のエッジ穴埋め処理を行うことにより、BG画像からは抜け領域を除去することが可能となる。すると、このBG画像をJPEG方式で圧縮し、FG画像と重ね合わせるように表示させた場合にも、A字形の文字領域の境界にノイズを発生させることを防ぐことが可能となる。さらに、BG画像においては、エッジ穴埋め処理によってFG画像の形状に関する情報が除去されることになるため、JPEG方式で圧縮した場合の圧縮率に関しても、エッジ穴埋め処理前のBG画像よりも有利な結果を得ることができる。 FIG. 19 is a diagram showing edge lines EL i before and after the edge hole filling process. FIG. 20 is a diagram showing a BG image before the edge filling process and a BG image obtained by executing the edge filling process over all scanning lines. By performing the above-described edge filling process on the missing area in this way, it is possible to remove the missing area from the BG image. Then, even when this BG image is compressed by the JPEG method and displayed so as to be superimposed on the FG image, it is possible to prevent noise from being generated at the boundary of the A-shaped character region. Furthermore, in the BG image, the information regarding the shape of the FG image is removed by the edge filling process, and therefore, the compression rate when compressed by the JPEG method is also more advantageous than the BG image before the edge filling process. Can be obtained.
このように、本実施形態の画像処理装置10においては、中間データを用いて画像処理を行う点に特徴を有している。本実施形態の画像処理装置10によれば、特許文献1に記載の技術のように二値画像と多値画像とを参照して文字領域の塗りつぶし(穴埋め)を行う必要がなく、極めて効率的に画像処理を実行することが可能となる。また、本実施形態の画像処理装置10は中間データを用いて画像処理を行うので、二値画像と多値画像とを参照する特許文献1に記載の技術に比して、少ない記憶容量での画像処理が可能となる。したがって、本実施形態の画像処理装置10の技術を用いることにより、特許文献1に記載の技術を用いた場合と比較して処理の高速化、装置サイズの小型化および低コスト化を期待できる。
As described above, the
(2)第2実施形態
続いて、本発明の第2の実施形態について説明する。
本実施形態が上述の第1実施形態と異なるのは、エッジに含まれるタグ情報の種類が異なる点である。これに伴い、タグ対応テーブルの記憶内容やエッジ穴埋め処理の動作が異なるものの、画像処理装置の構成要素やおおよその処理については第1実施形態と同様である。そこで、以下においては上述の第1実施形態との相違点を中心に説明を行うこととし、第1実施形態と同様の構成要素や処理については適宜その説明を省略する。
(2) Second Embodiment Subsequently, a second embodiment of the present invention will be described.
This embodiment is different from the first embodiment described above in that the type of tag information included in the edge is different. Accordingly, the contents of the tag correspondence table and the edge filling process are different, but the components and approximate processing of the image processing apparatus are the same as in the first embodiment. Therefore, the following description will be made with a focus on differences from the above-described first embodiment, and description of components and processes similar to those of the first embodiment will be omitted as appropriate.
図21に、本実施形態におけるタグ情報の種類を示す。同図に示されているように、本実施形態のタグ情報には、第1実施形態の「テキスト(Tx)」、「グラフィクス(Gr)」、「イメージ(Im)」、「ヌル(Nl)」の4種類に加えて、「グラデーション(Gd)」と「パターン(Pt)」とが定義されている。「グラデーション」タグは、この属性を有するエッジが、その色値を段階的に変化させていく描画効果を有する描画オブジェクトであることを表す。ここでは、グラデーションとして水平方向(x方向)に色値が変化していく描画オブジェクトのみを考えるが、もちろんその他のグラデーションにも応用可能である。また、「パターン」タグは、この属性を有するエッジがある一定の周期で繰り返される画素パターンを形成する描画オブジェクトであることを表す。なお、「グラデーション」タグおよび「パターン」タグは、いずれもBG画像に関連付けられている。 FIG. 21 shows the types of tag information in this embodiment. As shown in the figure, the tag information of this embodiment includes “text (Tx)”, “graphics (Gr)”, “image (Im)”, “null (Nl)” of the first embodiment. "Gradation (Gd)" and "Pattern (Pt)" are defined. The “gradation” tag indicates that an edge having this attribute is a drawing object having a drawing effect that changes its color value stepwise. Here, only a drawing object whose color value changes in the horizontal direction (x direction) as a gradation is considered, but it can of course be applied to other gradations. The “pattern” tag represents a drawing object that forms a pixel pattern that is repeated at a certain cycle with an edge having this attribute. The “gradation” tag and the “pattern” tag are both associated with the BG image.
これらのタグ情報が付加されることで、エッジ穴埋め処理における処理内容が異なってくる。具体的には、図11のステップS266の処理内容が異なってくる。本実施形態においては、BG画像生成部135は、FGエッジ群の両端のBG画像の始点座標(Sx)、終点座標(Ex)および色情報(C)に加え、タグ情報(T)を参照してラスタ展開を行う。BG画像生成部135がFGエッジ群の両端のBG画像のタグ情報を参照した結果、これが「テキスト」、「グラフィクス」、「イメージ」あるいは「ヌル」タグであれば、このときの処理は第1実施形態と同様である。しかし、BG画像生成部135がFGエッジ群の両端のBG画像のタグ情報を参照した結果、これが「グラデーション」あるいは「パターン」タグであった場合には、第1実施形態とは異なる処理を行う。そこで、ここではタグ情報が「グラデーション」あるいは「パターン」タグであった場合のステップS266についての説明のみを行い、その他については省略する。
By adding such tag information, the processing contents in the edge filling process are different. Specifically, the processing content of step S266 in FIG. 11 is different. In the present embodiment, the BG
まず、FGエッジ群の両端のBG画像が「グラデーション」タグであった場合について説明する。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標、色情報をそれぞれExl,Clとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標、色情報をそれぞれSxr,Crとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域をClとCrへと段階的に変化する色によって描画する処理となる。具体的には、このFGエッジ群のx方向のピクセル数をp1とし、Cl,CrのRGB値をそれぞれ(Rl,Gl,Bl)、(Rr,Gr,Br)とすると、BG画像生成部135は、FGエッジ群の左端のRGB値をCl,FGエッジ群の右端のRGB値をCrとし、各ピクセル間においては、RGB値のR,G,Bそれぞれの値が隣接する画素と「|Rl−Rr|/p1」,「|Gl−Gr|/p1」,「|Gl−Gr|/p1」ずつ段階的に変化していくように描画を行う。ここで、|n|は数値nの絶対値を示しており、R,G,Bのそれぞれの値が割り切れない場合には四捨五入等を行うとする。このような処理を行えば、FGエッジ群に相当する領域の色が段階的に変化するように描画され、両端のBG画像との間の色変化に違和感がなくなる。
First, a case where the BG images at both ends of the FG edge group are “gradation” tags will be described. Here, the end point coordinates and color information of the part of the BG image in contact with the left end of the FG edge group to be processed are respectively Ex l and C l, and the BG image of the part in contact with the right end of the FG edge group to be processed When the start point coordinates and color information of Sx r and C r are respectively, raster development uses “Ex l +1” as the start point coordinates and “Sx r +1” as the end point coordinates, and the region in this range is defined as C l and C r. This is a process of drawing with a color that changes step by step. Specifically, the number of pixels in the x direction of the FG edge group is p 1, and the RGB values of C l and C r are (R l , G l , B l ) and (R r , G r , B r, respectively. ) and when, BG
図22は、本実施形態のエッジ穴埋め処理と第1実施形態のエッジ穴埋め処理とを比較するための図である。例えば、あるエッジラインの処理前の中間データがEL4であるとすると、第1実施形態のエッジ穴埋め処理を行うことによりEL5のようになる。このとき、このエッジラインEL5のBG画像において抜け領域に相当する領域の色値はFGエッジ群の両端の色値の平均値となり、この領域内は一様な色で描画される。一方、このエッジラインに本実施形態のエッジ穴埋め処理を行うと、EL6のようになり、BG画像の抜け領域に相当する領域においても段階的に色値が変化し、両端のBG画像と違和感なく連結するようになる。 FIG. 22 is a diagram for comparing the edge filling process of the present embodiment with the edge filling process of the first embodiment. For example, if the intermediate data before processing of a certain edge line is EL 4 , EL 5 is obtained by performing the edge filling process of the first embodiment. At this time, the color value of the area corresponding to the missing area in the BG image of the edge line EL 5 is the average value of the color values at both ends of the FG edge group, and the area is rendered with a uniform color. On the other hand, when the edge hole filling process of this embodiment is performed on this edge line, it becomes EL 6 and the color value changes step by step even in the region corresponding to the missing region of the BG image, which is uncomfortable with the BG images at both ends. It will be connected without.
続いて、FGエッジ群の両端のBG画像が「パターン」タグであった場合について説明する。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標をExlとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標をSxrとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域を一定の周期で繰り返される画素パターンで描画する処理となる。具体的には、例えばFGエッジ群の両端のBG画像が、p1ピクセルの間隔で色値C1からC2へと変化していくパターン画像であった場合には、FGエッジ群に相当する領域も同様のパターン画像をなるように描画を行う。このような処理を行えば、FGエッジ群に相当する領域の色が一定の周期で繰り返される画素パターンで描画され、両端のBG画像との間の色変化に違和感がなくなる。 Next, a case where the BG images at both ends of the FG edge group are “pattern” tags will be described. Here, the end point coordinates of the part of the BG image that is in contact with the left end of the processing target FG edge group are set as Ex l, and the start point coordinates of the part of the BG image that is in contact with the right end of the processing target FG edge group are set as Sx r . Then, this raster development is a process of drawing an area in this range with a pixel pattern that is repeated at a constant cycle, with “Ex l +1” as the start point coordinate and “Sx r +1” as the end point coordinate. Specifically, for example, when the BG images at both ends of the FG edge group are pattern images that change from the color value C 1 to C 2 at an interval of p 1 pixels, this corresponds to the FG edge group. The region is drawn so as to form a similar pattern image. If such processing is performed, the color of the region corresponding to the FG edge group is drawn with a pixel pattern that is repeated at a constant cycle, and there is no sense of incongruity in the color change between the BG images at both ends.
図23は、本実施形態のエッジ穴埋め処理と第1実施形態のエッジ穴埋め処理とを比較するための図である。例えば、あるエッジラインの処理前の中間データがEL7であるとすると、第1実施形態のエッジ穴埋め処理を行うことによりEL8のようになる。このとき、このエッジラインEL8のBG画像において抜け領域に相当する領域の色値はFGエッジ群の両端の色値の平均値となり、この領域内は一様な色で描画される。一方、このエッジラインに本実施形態のエッジ穴埋め処理を行うと、EL9のようになり、BG画像の抜け領域に相当する領域においても一定の周期で色値が変化し、両端のBG画像と違和感なく連結するようになる。 FIG. 23 is a diagram for comparing the edge filling process of the present embodiment with the edge filling process of the first embodiment. For example, if the intermediate data before processing of a certain edge line is EL 7 , EL 8 is obtained by performing the edge filling process of the first embodiment. At this time, the color value of the region corresponding to the missing region in the BG image of the edge line EL 8 is the average value of the color values at both ends of the FG edge group, and the region is rendered with a uniform color. On the other hand, when the edge hole filling process of this embodiment is performed on this edge line, it becomes EL 9 and the color value changes in a certain period even in the region corresponding to the missing region of the BG image, It becomes connected without a sense of incongruity.
(3)変形例
以上に第1,第2実施形態を例示して本発明に係る画像処理装置について説明したが、本発明の適用はこのような態様に限定されるものではなく、種々の変形が可能である。以下にその例を示す。
まず、上述の実施形態においては、エッジ穴埋め処理を行う場合には、処理対象のFGエッジ群の左右のエッジのみを参照していたが、本発明の適用はこのような態様に限定されるものではなく、例えば処理対象のFGエッジ群の上下のエッジラインを参照してもよい。すなわち、エッジ穴埋め処理において参照する領域は、処理対象のFGエッジ群に隣接するエッジであればよい。また、このとき参照するエッジラインは、処理対象のFGエッジ群に直接接しているエッジラインだけでなく、複数のエッジラインを参照してもよい。
(3) Modification Examples The image processing apparatus according to the present invention has been described by exemplifying the first and second embodiments. However, the application of the present invention is not limited to such an aspect, and various modifications are possible. Is possible. An example is shown below.
First, in the above-described embodiment, when edge filling processing is performed, only the left and right edges of the FG edge group to be processed are referred to, but the application of the present invention is limited to such an aspect. Instead, for example, the upper and lower edge lines of the FG edge group to be processed may be referred to. That is, the region referred to in the edge hole filling process may be an edge adjacent to the processing target FG edge group. Further, the edge lines referred to at this time may refer to a plurality of edge lines as well as the edge lines directly in contact with the processing target FG edge group.
また、本発明では、BG画像の圧縮方式としては、特にDCTを用いたJPEG方式が好適であり、上述の実施形態においてはこれを例に説明した。しかしながら、本発明におけるBG画像の圧縮方式はJPEG方式に限定されるものではなく、例えばDCTのようにブロック単位で圧縮処理を行うような種々の圧縮方式を利用可能である。
同様に、FG画像の圧縮方式としても、MMR方式に限定されるものではなく、例えばMH(Modified Huffman)方式やMR(Modified Read)方式等、種々の圧縮方式が利用可能である。
In the present invention, the JPEG method using DCT is particularly suitable as the BG image compression method, and this has been described as an example in the above-described embodiments. However, the BG image compression method in the present invention is not limited to the JPEG method, and various compression methods that perform compression processing in units of blocks, such as DCT, can be used.
Similarly, the FG image compression method is not limited to the MMR method, and various compression methods such as an MH (Modified Huffman) method and an MR (Modified Read) method can be used.
また、上述の実施形態においては、レイヤ画像はFG画像とBG画像の2種類であるとしたが、もちろん3層以上のレイヤ画像が存在する場合においても、本発明を適用することが可能である。なお、このように3層以上のレイヤ画像が存在する場合に上述のエッジ穴埋め処理を行う場合には、処理対象となっているレイヤ画像の上位層だけではなく、下位層も参照する必要がある。例えば、ある層(L1とする)において抜け領域が存在し、この層L1の下位層(L2とする)において抜け領域に相当する領域に描画オブジェクトが存在する状況を想定する。ここで、層L1をラスタ展開するときに、下位層L2を参照せずにこの抜け領域に穴埋め処理を行ってしまうと、下位層L2上の抜け領域に相当する領域に形成されていた描画オブジェクトが、穴埋め画像によってマスクされた状態となってしまい、表示されなくなってしまう。よって、このような処理を行う場合には、画像処理装置のBG画像生成部は、処理対象となっているレイヤ画像の下位層を参照し、下位層において穴埋め画像を形成しようとする領域に相当する領域に描画オブジェクトが存在すれば、エッジ穴埋め処理を行わない、というような動作とする必要がある。 In the above-described embodiment, there are two types of layer images, FG images and BG images. Of course, the present invention can be applied even when there are three or more layer images. . When the above-described edge filling process is performed when there are three or more layer images as described above, it is necessary to refer not only to the upper layer of the layer image to be processed but also to the lower layer. . For example, a situation is assumed in which a missing region exists in a certain layer (referred to as L 1 ) and a drawing object exists in a region corresponding to the missing region in a lower layer (referred to as L 2 ) of this layer L 1 . Here, when the layer L 1 is raster-developed, if the missing region is filled without referring to the lower layer L 2 , the layer L 1 is formed in a region corresponding to the missing region on the lower layer L 2. The drawn object is masked by the hole-filled image and is not displayed. Therefore, when performing such processing, the BG image generation unit of the image processing apparatus refers to the lower layer of the layer image that is the processing target, and corresponds to an area in which a hole-filled image is to be formed in the lower layer. If there is a drawing object in the area to be processed, it is necessary to perform an operation such that the edge filling process is not performed.
また、このような場合、画像処理装置内部においては、それぞれの層に対応する画像生成部においてどのような圧縮方式で圧縮処理を行うかが記憶されているとよい。そして、多層圧縮画像データを生成する際に記憶された各層の画像形成部の圧縮方式を参照し、上述したエッジ穴埋め処理を行うのに適した圧縮方式が適用されている層の画像生成部においてのみこのエッジ穴埋め処理を行うようにすればよい。 In such a case, in the image processing apparatus, it may be stored in what compression method the image generation unit corresponding to each layer performs the compression process. Then, referring to the compression method of the image forming unit of each layer stored when generating the multilayer compressed image data, in the image generating unit of the layer to which the compression method suitable for performing the edge filling process described above is applied Only this edge filling process should be performed.
また、上述の実施形態においては、文書データは文書作成アプリケーションによって作成されるものであると説明されているが、もちろんこのような態様に限定されるものではなく、文書データは外部機器から供給されるものであってもよい。 In the above-described embodiment, it is described that the document data is created by the document creation application. However, the present invention is not limited to such a mode, and the document data is supplied from an external device. It may be a thing.
10…画像処理装置、1…制御部、2…記憶部、3…入出力I/F、4…表示部、5…操作部、11…OS、12…文書作成アプリケーション、13…プリンタドライバ、131…I/F部、132…中間データ生成部、133…FG画像生成部、134…FG画像圧縮部、135…BG画像生成部、136…BG画像圧縮部、137…フォーマット部。
DESCRIPTION OF
Claims (6)
前記変換手段により変換された画像情報に基づいて、前記複数のオブジェクトのいずれかが割り当てられた複数の層の画像を表す層状画像データを生成する層状画像生成手段とを備え、
前記変換手段は、
前記文書データを、画像をオブジェクト毎にある方向に細分化したエッジラインであって、各オブジェクトの始点座標、終点座標および当該オブジェクトの種類を示す属性情報を少なくとも含むエッジ情報の集合であるエッジラインの集合によって前記複数のオブジェクトを表す前記画像情報に変換し、
前記層状画像生成手段は、
記憶手段に記憶された前記属性情報と前記層状画像データに含まれる各層との対応関係に基づいて画像を生成する生成手段として、第1の層の画像を生成する第1の生成手段と、前記第1の層より下位の層である第2の層の画像を生成する第2の生成手段とを有し、
前記第2の生成手段は、
各々のエッジラインについて、前記第2の層において第1のオブジェクトの終点座標と第2のオブジェクトの始点座標との間にオブジェクトの存在しない抜け領域が存在し、かつ、前記第1の層において前記抜け領域の位置に相当する領域に前景のオブジェクトが存在する場合に、前記第1のオブジェクトおよび前記第2のオブジェクトに基づいた穴埋め画像を当該抜け領域に形成する
ことを特徴とする画像処理装置。 Conversion means for converting document data representing a document into image information represented by a plurality of objects ;
Based on the converted image information by said converting means, and a layered image generating means for generating a layered image data representing images of a plurality of layers or has been assigned the plurality of objects,
The converting means includes
An edge line obtained by subdividing the document data in a certain direction for each object, and a set of edge information including at least attribute information indicating the start point coordinates, end point coordinates, and the type of the object. The image information representing the plurality of objects by a set of
The layered image generation means includes
First generation means for generating an image of a first layer as generation means for generating an image based on a correspondence relationship between the attribute information stored in the storage means and each layer included in the layered image data, Second generation means for generating an image of a second layer that is a lower layer than the first layer;
The second generation means includes
For each edge line, there is a missing area where no object exists between the end point coordinates of the first object and the start point coordinates of the second object in the second layer, and the first layer If the foreground object is present in the region corresponding to the position of the irradiated region, thereby forming a filling image based on the first object and the second object to the background region
An image processing apparatus.
前記第2の層の画像に対して所定のブロック単位で圧縮処理が行われる場合において、各々のエッジラインについて、前記第2の層において第3のオブジェクトの始点座標または終点座標に連続する一端と、隣接するオブジェクトの存在しない他端とを有する領域が存在し、かつ、前記第1の層において前記領域の位置に相当する領域に前景のオブジェクトが存在するとき、
当該前景のオブジェクトの前記ある方向の長さより小さく、かつ、前記所定のブロックの当該方向の長さのn倍の長さを有する穴埋め画像を、前記第3のオブジェクトの始点座標または終点座標に連続し、当該前景のオブジェクトに重なる領域に形成する
請求項1記載の画像処理装置。 The second generation means includes
In a case where compression processing is performed on the second layer image in a predetermined block unit, each edge line has one end continuous with the start point coordinate or the end point coordinate of the third object in the second layer. When there is a region having the other end where there is no adjacent object, and there is a foreground object in a region corresponding to the position of the region in the first layer,
A hole-filled image having a length smaller than the length in the certain direction of the foreground object and n times the length in the direction of the predetermined block is continuously connected to the start point coordinate or the end point coordinate of the third object. The image processing apparatus according to claim 1, wherein the image processing apparatus is formed in a region overlapping the foreground object .
前記第2の生成手段は、
前記第1のオブジェクトと前記第2のオブジェクトとがそれぞれ異なる色値の色情報を有し、かつ、これらのオブジェクトが色値を段階的に変化させていく描画効果を有するオブジェクトの属性情報をともに有する場合に、段階的に変化する色値を有する前記穴埋め画像を形成する
請求項1記載の画像処理装置。 The edge information includes color information representing the color value of each object,
The second generation means includes
It has a color information of the first object and the second object and each different color values, and, both the attribute information of the object with drawing effect of these objects will gradually changing the color value the image processing apparatus case, stepwise the filling images with varying color value to form a claim 1 further comprising.
前記第2の生成手段は、
前記第1のオブジェクトと前記第2のオブジェクトとが周期的に変化する色値を有するオブジェクトの属性情報をともに有する場合に、周期的に変化する色値を有する前記穴埋め画像を形成する
請求項1記載の画像処理装置。 The edge information includes color information representing the color value of each object,
The second generation means includes
Claim 1, wherein the first object and the second object when both have the attribute information of an object having a periodically varying color value to form said filling image having a periodically varying color value The image processing apparatus described.
前記第2の生成手段は、
前記第3の層において前記抜け領域の位置に相当する領域に背景のオブジェクトが存在する場合には、前記穴埋め画像を形成しない
請求項1記載の画像処理装置。 The layered image data includes an image of a third layer that is a lower layer than the second layer,
The second generation means includes
The image processing apparatus according to claim 1, wherein the hole-filled image is not formed when a background object exists in an area corresponding to the position of the missing area in the third layer .
文書を表す文書データを、複数のオブジェクトによって表される画像情報に変換する変換手段と、Conversion means for converting document data representing a document into image information represented by a plurality of objects;
前記変換手段により変換された画像情報に基づいて、前記複数のオブジェクトのいずれかが割り当てられた複数の層の画像を表す層状画像データを生成する層状画像生成手段とを備え、A layered image generation unit that generates layered image data representing images of a plurality of layers to which any of the plurality of objects is assigned based on the image information converted by the conversion unit;
前記変換手段は、The converting means includes
前記文書データを、画像をオブジェクト毎にある方向に細分化したエッジラインであって、各オブジェクトの始点座標、終点座標および当該オブジェクトの種類を示す属性情報を少なくとも含むエッジ情報の集合であるエッジラインの集合によって前記複数のオブジェクトを表す前記画像情報に変換し、An edge line obtained by subdividing the document data in a certain direction for each object, and a set of edge information including at least attribute information indicating the start point coordinates, end point coordinates, and the type of the object. The image information representing the plurality of objects by a set of
前記層状画像生成手段は、The layered image generation means includes
記憶手段に記憶された前記属性情報と前記層状画像データに含まれる各層との対応関係に基づいて画像を生成する生成手段として、第1の層の画像を生成する第1の生成手段と、前記第1の層より下位の層である第2の層の画像を生成する第2の生成手段とを有し、First generation means for generating an image of a first layer as generation means for generating an image based on a correspondence relationship between the attribute information stored in the storage means and each layer included in the layered image data, Second generation means for generating an image of a second layer that is a lower layer than the first layer;
前記第2の生成手段は、The second generation means includes
各々のエッジラインについて、前記第2の層において第1のオブジェクトの終点座標と第2のオブジェクトの始点座標との間にオブジェクトの存在しない抜け領域が存在し、かつ、前記第1の層において前記抜け領域の位置に相当する領域に前景のオブジェクトが存在する場合に、前記第1のオブジェクトおよび前記第2のオブジェクトに基づいた穴埋め画像を当該抜け領域に形成するFor each edge line, there is a missing area where no object exists between the end point coordinates of the first object and the start point coordinates of the second object in the second layer, and the first layer When a foreground object exists in an area corresponding to the position of the missing area, a hole-filled image based on the first object and the second object is formed in the missing area.
ためのプログラム。Program for.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004235413A JP4345609B2 (en) | 2004-08-12 | 2004-08-12 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004235413A JP4345609B2 (en) | 2004-08-12 | 2004-08-12 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006054712A JP2006054712A (en) | 2006-02-23 |
JP4345609B2 true JP4345609B2 (en) | 2009-10-14 |
Family
ID=36031886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004235413A Expired - Fee Related JP4345609B2 (en) | 2004-08-12 | 2004-08-12 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4345609B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7972754B2 (en) | 2005-12-15 | 2011-07-05 | Asahi Glass Company, Limited | Fluorinated polymer, negative photosensitive resin composition and partition walls |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4936524B2 (en) * | 2006-12-28 | 2012-05-23 | キヤノン株式会社 | Image processing system and image processing method |
JP5407582B2 (en) * | 2009-06-22 | 2014-02-05 | 富士ゼロックス株式会社 | Image processing apparatus and image processing program |
JP5328510B2 (en) * | 2009-06-24 | 2013-10-30 | キヤノン株式会社 | Image processing apparatus, image processing method, and computer program |
JP5697649B2 (en) * | 2012-11-27 | 2015-04-08 | 京セラドキュメントソリューションズ株式会社 | Image processing device |
-
2004
- 2004-08-12 JP JP2004235413A patent/JP4345609B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7972754B2 (en) | 2005-12-15 | 2011-07-05 | Asahi Glass Company, Limited | Fluorinated polymer, negative photosensitive resin composition and partition walls |
Also Published As
Publication number | Publication date |
---|---|
JP2006054712A (en) | 2006-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3454552B2 (en) | Method and system for generating data for generating a page representation on a page | |
US8139082B2 (en) | Image processing apparatus and its control method, and program | |
US10477063B2 (en) | Character detection and binarization | |
JP2000511364A (en) | Method and apparatus for reducing storage requirements for display data | |
US8855438B2 (en) | Image processing apparatus, image processing method of image processing apparatus, and program | |
US10592766B2 (en) | Image processing apparatus and medium storing program executable by image processing apparatus | |
US8654147B2 (en) | Apparatus for generating raster images, raster image generating method, and storage medium | |
US20090303550A1 (en) | Image processing apparatus and image processing method | |
JP4345609B2 (en) | Image processing apparatus and program | |
US7324696B2 (en) | Method for tag plane growth and contraction using run length encoded data | |
US10565465B2 (en) | Image processing apparatus that identifies character pixel in target image using first and second candidate character pixels | |
JP3817473B2 (en) | Image output apparatus and image processing method | |
CN102122361B (en) | Variable area-based page assembly method and system | |
US20040263909A1 (en) | Method for tag plane growth and contraction for improving object edge rendering | |
JP3211417B2 (en) | Page description language processor | |
JP4375199B2 (en) | Image processing apparatus and program | |
JP2006140597A (en) | Device and method for printing control, computer program, and storage medium | |
JP2007088912A (en) | Image processing apparatus and program | |
JPH05205015A (en) | Image processor | |
JP2006040161A (en) | Image processing apparatus and program | |
JP3968989B2 (en) | Image processing apparatus, image processing method, and storage medium storing image processing program | |
JP2010187177A (en) | Image forming apparatus and control program | |
JPH09154009A (en) | Printer system | |
JPH10191066A (en) | Image processor | |
JPH05183753A (en) | Device and method for outputting color image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090623 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090706 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120724 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120724 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130724 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |