[go: up one dir, main page]

JP6190760B2 - Image reading device - Google Patents

Image reading device Download PDF

Info

Publication number
JP6190760B2
JP6190760B2 JP2014112224A JP2014112224A JP6190760B2 JP 6190760 B2 JP6190760 B2 JP 6190760B2 JP 2014112224 A JP2014112224 A JP 2014112224A JP 2014112224 A JP2014112224 A JP 2014112224A JP 6190760 B2 JP6190760 B2 JP 6190760B2
Authority
JP
Japan
Prior art keywords
image
image data
unit
common element
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014112224A
Other languages
Japanese (ja)
Other versions
JP2015226309A (en
Inventor
敦 藤木
敦 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2014112224A priority Critical patent/JP6190760B2/en
Publication of JP2015226309A publication Critical patent/JP2015226309A/en
Application granted granted Critical
Publication of JP6190760B2 publication Critical patent/JP6190760B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は、画像読取装置に関し、特に、複数の原稿を読み取って生成した複数の画像データに関連するデータを記憶する技術に関する。   The present invention relates to an image reading apparatus, and more particularly to a technique for storing data related to a plurality of image data generated by reading a plurality of originals.

従来から、例えば下記特許文献1等に記載のように、スキャナーから入力された複数ページからなる画像データを用いて、全ページにおいて共通する共通画像を抽出し、共通画像の画像データと、各ページから共通画像に対応するデータを除去して生成した非共通画像の画像データと、を記憶することで、入力された複数ページからなる画像データをそのまま記憶する場合に比して記憶するデータ量を低減することが知られている。   Conventionally, as described in Patent Document 1 below, for example, a common image common to all pages is extracted using image data composed of a plurality of pages input from a scanner, and image data of the common image and each page are extracted. By storing the image data of the non-common image generated by removing the data corresponding to the common image from the image data, the amount of data to be stored can be reduced as compared with the case of storing the input image data consisting of a plurality of pages as it is. It is known to reduce.

また、例えば下記特許文献2等に記載のように、再利用されうる再利用画像を予め保持しておき、画像読取手段により生成された1ページ以上の画像データにおいて、再利用画像が複数回使用されている場合は、再利用画像が使われていると判定された部分の画像を除去した差分画像を生成し、当該生成した差分画像と再利用画像を表す画像データとを記憶することで、記憶するデータ量を低減することも知られている。   Further, for example, as described in Patent Document 2 below, a reuse image that can be reused is stored in advance, and the reuse image is used a plurality of times in one or more pages of image data generated by the image reading unit. If it is, a difference image obtained by removing the image of the portion determined to be the reuse image is generated, and the generated difference image and the image data representing the reuse image are stored, It is also known to reduce the amount of data stored.

また、下記特許文献2等に記載のように、画像読取手段により生成された画像データにおいて再利用画像が複数回使用されているかを照合する場合に、設定された許容度に応じて再利用画像のサイズを変更し、再利用画像が使用されていると判定される部分を増やして削除される画像を増やすことで、記憶するデータ量を更に低減することが知られている。   Further, as described in the following Patent Document 2 and the like, in the case of checking whether or not the reuse image is used a plurality of times in the image data generated by the image reading unit, the reuse image is set according to the set tolerance. It is known that the amount of data to be stored can be further reduced by changing the size of the image and increasing the number of images to be deleted by increasing the number of portions determined that the reuse image is used.

特開2006−201935号公報JP 2006-201935 A 特開2013−9120号公報JP2013-9120A

しかし、上記特許文献1等に記載の技術では、全ページにおいて共通する共通画像を抽出している。このため、多くのページにおいて共通する画像であっても、他の画像が重畳されている等により、他の一部のページにおいて共通していない画像は、共通画像として抽出されない。これにより、非共通画像の画像データのデータ量が、本来の画像データのデータ量に比して少ししか低減されず、記憶するデータ量を十分に低減できない虞があった。   However, in the technique described in Patent Document 1 and the like, a common image common to all pages is extracted. For this reason, even if an image is common to many pages, an image that is not common to some other pages is not extracted as a common image because other images are superimposed. As a result, the data amount of the image data of the non-common image is reduced slightly compared to the data amount of the original image data, and there is a possibility that the amount of data to be stored cannot be sufficiently reduced.

また、上記特許文献2等に記載の技術では、設定された許容度に応じて再利用画像のサイズを変更し、再利用画像が使用されていると判定された部分の画像は、予め保持されている再利用画像のサイズとは異なっている。このため、記憶されている差分画像に予め保持している再利用画像を合成して、画像読取手段により生成された本来の画像データを復元しようとしても、本来の画像データと同じ画像データに適切に復元できなかった。   Further, in the technique described in Patent Document 2 and the like, the size of the reuse image is changed in accordance with the set tolerance, and the image of the portion determined to be used is held in advance. The size of the reused image is different. For this reason, even if an attempt is made to restore the original image data generated by the image reading means by synthesizing the reuse image stored in advance with the stored difference image, it is appropriate for the same image data as the original image data. Could not be restored.

本発明は、上記の問題を解決するためになされたものであり、複数の原稿を読み取って生成した複数の画像データに関連するデータを記憶する場合に、記憶するデータ量を低減することができ、且つ、本来の画像データに復元可能なデータを記憶することができる画像読取装置を提供することを目的とする。   The present invention has been made to solve the above-described problem. When storing data related to a plurality of image data generated by reading a plurality of documents, the amount of data to be stored can be reduced. An object of the present invention is to provide an image reading apparatus capable of storing data that can be restored to original image data.

発明による画像読取装置は、記憶部と、複数の原稿を読み取って各原稿の画像を表す画像データをそれぞれ生成する画像読取部と、前記画像読取部により生成された前記複数の前記画像データを用いて得られる互いに異なる二つの前記画像データの組み合わせを対象とし、各前記組み合わせに含まれる二つの前記画像データが表す二つの画像において、形状が一致する画像構成要素を共通要素として抽出して、当該共通要素の形状を示す形状情報を生成し、且つ、当該二つの画像データのそれぞれと当該形状情報とに対応付けられた、各画像データが表す画像における当該抽出した前記共通要素の配置位置及び装飾を示す要素情報を生成する共通要素抽出部と、前記画像読取部により生成された各前記画像データから、前記共通要素抽出部により当該各画像データを用いて抽出された各前記共通要素に対応するデータを削除することにより、各前記画像データに対応する差分画像データをそれぞれ生成する差分画像生成部と、前記共通要素抽出部により生成された各前記形状情報と、前記共通要素抽出部により生成された各前記要素情報と、前記差分画像生成部により生成された各前記差分画像データと、を前記記憶部に記憶する記憶処理部と、前記記憶部に記憶されている各前記差分画像データが表す画像に、前記記憶部に記憶されている前記要素情報のうちの当該各差分画像データに対応する前記画像データに対応付けられた各前記要素情報と、当該各要素情報に対応付けられた前記形状情報と、を用いて、形状が当該形状情報が示す形状に一致し、且つ、配置位置及び装飾が当該各要素情報が示す配置位置及び装飾と一致する画像構成要素を合成して、当該合成した画像を表す画像データを生成することにより、当該各差分画像データに対応する前記原稿の画像を表す画像データを復元する画像復元部と、を備える。 An image reading apparatus according to the present invention includes a storage unit, an image reading unit that reads a plurality of documents and generates image data representing an image of each document, and the plurality of the image data generated by the image reading unit. Targeting a combination of two different image data obtained by using the two images represented by the two image data included in each of the combinations, extracting the image components having the same shape as a common element, The shape information indicating the shape of the common element is generated, and the arrangement position of the extracted common element in the image represented by each image data associated with each of the two image data and the shape information, and A common element extraction unit for generating element information indicating decoration; and the common element extraction unit from each of the image data generated by the image reading unit. A difference image generation unit that generates difference image data corresponding to each of the image data by deleting data corresponding to each of the common elements extracted using the image data, and the common element extraction unit Storage processing for storing each shape information generated by the above, each element information generated by the common element extraction unit, and each difference image data generated by the difference image generation unit in the storage unit And the image represented by each of the difference image data stored in the storage unit is associated with the image data corresponding to the difference image data of the element information stored in the storage unit. Using the element information and the shape information associated with the element information, the shape matches the shape indicated by the shape information, and the arrangement position and decoration An image representing the image of the original corresponding to each difference image data by synthesizing the image constituent elements matching the arrangement position and decoration indicated by the element information and generating image data representing the synthesized image an image restoration unit for restoring the data, Ru comprising a.

この構成によれば、共通要素抽出部は、画像読取部により生成された複数の画像データを用いて得られる互いに異なる二つの画像データの組み合わせを対象として、各組み合わせに含まれる二つの画像データが表す二つの画像において、形状が一致する画像構成要素を共通要素として抽出する。   According to this configuration, the common element extraction unit targets two combinations of two different image data obtained by using a plurality of image data generated by the image reading unit, and two image data included in each combination are included. In the two images to be represented, image components having the same shape are extracted as common elements.

つまり、上記特許文献1等に記載の従来技術を用いたときには、二つの画像データが表す二つの画像において、形状は一致するが配置位置及び装飾が一致しない画像構成要素を共通要素として抽出できなかった。しかし、当該発明の構成によれば、当該二つの画像から、当該形状は一致するが配置位置及び装飾が一致しない画像構成要素を共通要素として抽出することができる。これにより、上記特許文献1等に記載の従来技術に比して、共通要素として抽出される画像構成要素の数を多くすることができる。   That is, when using the conventional technique described in Patent Document 1 or the like, in the two images represented by the two image data, it is not possible to extract, as a common element, image components that have the same shape but do not match the arrangement position and decoration. It was. However, according to the configuration of the present invention, it is possible to extract, as a common element, image constituent elements that match the shape but do not match the arrangement position and decoration from the two images. As a result, the number of image components extracted as common elements can be increased as compared with the prior art described in Patent Document 1 and the like.

また、共通要素抽出部は、二つの画像データの組み合わせを用いて共通要素を抽出すると、当該二つの画像データのそれぞれが表す画像における当該共通要素の配置位置及び装飾を示す情報を、当該二つの画像データのそれぞれと、当該抽出された共通要素の形状を表す形状情報と、に対応付けられた要素情報として生成する。   In addition, when the common element extraction unit extracts a common element using a combination of two image data, information indicating the arrangement position and decoration of the common element in the image represented by each of the two image data is displayed. It is generated as element information associated with each piece of image data and shape information representing the shape of the extracted common element.

差分画像生成部は、共通要素を抽出するために用いられた画像データから、当該共通要素に対応するデータを削除して、当該画像データに対応する差分画像データを生成する。記憶処理部は、各形状情報、各要素情報、及び各差分画像データを記憶部に記憶する。   The difference image generation unit deletes data corresponding to the common element from the image data used to extract the common element, and generates difference image data corresponding to the image data. The storage processing unit stores each shape information, each element information, and each difference image data in the storage unit.

つまり、当該発明の構成によれば、共通要素として抽出される画像構成要素の数を多くして、各差分画像データが表す画像に含まれる画像構成要素の数を少なくすることができる。これにより、複数の差分画像データにおいて重複して記憶される画像構成要素に対応するデータのデータ量を低減することができる。   That is, according to the configuration of the present invention, the number of image components extracted as common elements can be increased, and the number of image components included in the image represented by each difference image data can be reduced. Thereby, the data amount of the data corresponding to the image component stored redundantly in a plurality of difference image data can be reduced.

また、上記のように形状が一致するが配置位置及び装飾が一致しない画像構成要素を共通要素として数多く抽出した場合に、当該各共通要素に対応するデータをそのまま記憶部に記憶するとする。この場合、当該各共通要素に対応するデータに含まれる当該各共通要素の形状に対応するデータが重複して記憶部に記憶されることになる。   Further, when a large number of image constituent elements whose shapes match but whose arrangement positions and decorations do not match are extracted as common elements as described above, data corresponding to each common element is stored in the storage unit as it is. In this case, the data corresponding to the shape of each common element included in the data corresponding to each common element is redundantly stored in the storage unit.

しかし、当該発明の構成によれば、共通要素の形状を示す形状情報を個別に記憶部に記憶する。このため、各共通要素に対応するデータに含まれる当該各共通要素の形状に対応するデータを重複して記憶部に記憶することを回避し、記憶部に記憶されるデータのデータ量を低減することができる。   However, according to the configuration of the present invention, the shape information indicating the shape of the common element is individually stored in the storage unit. For this reason, it is avoided that the data corresponding to the shape of each common element included in the data corresponding to each common element is stored in the storage unit, and the amount of data stored in the storage unit is reduced. be able to.

つまり、当該発明の構成によれば、複数の差分画像データのデータ量を低減し、且つ、各共通要素に対応するデータを記憶するに当たり、各共通要素の形状に対応するデータを重複しないように記憶することで、記憶部に記憶されるデータのデータ量を低減することができる。   That is, according to the configuration of the present invention, the data amount of the plurality of difference image data is reduced, and the data corresponding to the shape of each common element is not duplicated when storing the data corresponding to each common element. By storing, the amount of data stored in the storage unit can be reduced.

また、記憶部から各差分画像データを取得し、当該各差分画像データに対応する画像データに対応付けられた各要素情報を記憶部から取得し、更に、当該各要素情報に対応付けられた形状情報とを取得する。そして、形状が当該取得した形状情報が示す形状に一致し、且つ、配置位置及び装飾が当該取得した各要素情報が示す配置位置及び装飾と一致する画像構成要素を、当該取得した当該各差分画像データが表す画像に合成し、当該合成した画像を表す画像データを生成することで、本来の原稿の画像を表す画像データを復元することができる。つまり、当該発明の構成によれば、本来の原稿の画像を表す画像データを復元可能なデータを記憶部に記憶することができる。   Also, each difference image data is acquired from the storage unit, each element information associated with the image data corresponding to each difference image data is acquired from the storage unit, and further, the shape associated with each element information Get information and. Then, each of the acquired difference images is an image component whose shape matches the shape indicated by the acquired shape information and whose arrangement position and decoration match the arrangement position and decoration indicated by the acquired element information. The image data representing the original image can be restored by combining the image represented by the data and generating image data representing the combined image. In other words, according to the configuration of the present invention, data capable of restoring image data representing an original document image can be stored in the storage unit.

この構成によれば、画像復元部によって、記憶部に記憶されているデータを用いて、画像読取部によって生成された画像データを復元することができる。このため、画像読取部によって生成された画像データに基づく処理を再実行することができる。   According to this configuration, the image restoration unit can restore the image data generated by the image reading unit using the data stored in the storage unit. For this reason, the process based on the image data generated by the image reading unit can be re-executed.

この発明によれば、複数の原稿を読み取って生成した複数の画像データに関連するデータを記憶する場合に、記憶するデータ量を低減することができ、且つ、本来の画像データに復元可能なデータを記憶することができる画像読取装置を提供することができる。   According to the present invention, when storing data related to a plurality of image data generated by reading a plurality of documents, the amount of data to be stored can be reduced and the data can be restored to the original image data Can be stored.

本発明に係る画像読取装置の一実施形態に係る複写機の電気的構成を示すブロック図である。1 is a block diagram illustrating an electrical configuration of a copying machine according to an embodiment of an image reading apparatus according to the present invention. 第一実施形態における、画像読取部により生成された画像データに関連するデータを記憶部に記憶する制御の前半の動作を示す図である。It is a figure which shows the operation | movement of the first half of the control which memorize | stores the data relevant to the image data produced | generated by the image reading part in a memory | storage part in 1st embodiment. 第一実施形態における、画像読取部により生成された画像データに関連するデータを記憶部に記憶する制御の後半の動作を示す図である。It is a figure which shows the operation | movement of the second half of the control which memorize | stores the data relevant to the image data produced | generated by the image reading part in a memory | storage part in 1st embodiment. 第二実施形態における複写機の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the copying machine in 2nd embodiment. 第二実施形態における、画像読取部により生成された画像データに関連するデータを記憶部に記憶する制御の第一段階の動作を示す図である。It is a figure which shows operation | movement of the 1st step of control which memorize | stores the data relevant to the image data produced | generated by the image reading part in a memory | storage part in 2nd embodiment. 第二実施形態における、画像読取部により生成された画像データに関連するデータを記憶部に記憶する制御の第二段階の動作を示す図である。It is a figure which shows operation | movement of the 2nd step of control which memorize | stores the data relevant to the image data produced | generated by the image reading part in a memory | storage part in 2nd embodiment. 第二実施形態における、画像読取部により生成された画像データに関連するデータを記憶部に記憶する制御の第三段階の動作を示す図である。It is a figure which shows operation | movement of the 3rd step of control which memorize | stores the data relevant to the image data produced | generated by the image reading part in a memory | storage part in 2nd embodiment. 第三実施形態における複写機の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the copying machine in 3rd embodiment. 第三実施形態における、画像読取部により生成された画像データに関連するデータを記憶部に記憶する制御の前半の動作を示す図である。It is a figure which shows operation | movement of the first half of the control which memorize | stores the data relevant to the image data produced | generated by the image reading part in a memory | storage part in 3rd embodiment. 第三実施形態における、画像読取部により生成された画像データに関連するデータを記憶部に記憶する制御の後半の動作を示す図である。It is a figure which shows the operation | movement of the second half of the control which memorize | stores the data relevant to the image data produced | generated by the image reading part in a memory | storage part in 3rd embodiment.

(第一実施形態)
以下、本発明に係る画像読取装置の一実施形態を図面に基づいて説明する。尚、本実施形態では、画像読取装置として複写機を例に説明するが、これに限定する趣旨ではなく、画像読取装置は、例えば、スキャナー、ファクシミリ装置、又は、複合機であってもよい。
(First embodiment)
Hereinafter, an embodiment of an image reading apparatus according to the present invention will be described with reference to the drawings. In this embodiment, a copying machine is described as an example of the image reading apparatus. However, the present invention is not limited to this, and the image reading apparatus may be, for example, a scanner, a facsimile machine, or a multifunction machine.

図1は、本発明に係る画像読取装置の一実施形態に係る複写機1の電気的構成を示すブロック図である。図1に示すように、複写機1は、画像読取部21と、画像形成部22と、操作部23と、記憶部24と、制御部10と、を備えている。   FIG. 1 is a block diagram showing an electrical configuration of a copying machine 1 according to an embodiment of an image reading apparatus according to the present invention. As shown in FIG. 1, the copying machine 1 includes an image reading unit 21, an image forming unit 22, an operation unit 23, a storage unit 24, and a control unit 10.

画像読取部21は、複数の原稿を読み取って各原稿の画像を表す画像データをそれぞれ生成する。画像を表す画像データとは、画像を構成する各画素の明るさを表すデータ(画素値、濃度値)の集合からなるデータを示す。   The image reading unit 21 reads a plurality of originals and generates image data representing an image of each original. Image data representing an image indicates data composed of a set of data (pixel value and density value) representing the brightness of each pixel constituting the image.

具体的には、画像読取部21は、CCD(Charge Coupled Device)ラインセンサーや露光ランプ等を有する光学系ユニットと、ガラス等の透明部材からなる原稿台と、原稿搬送ユニットと、を備えた周知の構成を有する。原稿搬送ユニットは、載置台に載置された複数の原稿から、1枚ずつ原稿を繰り出して原稿台へ搬送する。   Specifically, the image reading unit 21 includes a known optical system unit having a CCD (Charge Coupled Device) line sensor, an exposure lamp, and the like, a document table made of a transparent member such as glass, and a document conveyance unit. It has the composition of. The document transport unit feeds documents one by one from a plurality of documents placed on the placement table and conveys them to the document table.

光学系ユニットは、駆動部によって移動可能に構成されている。ユーザーによって原稿台に載置された原稿を読み取る場合、光学系ユニットは、原稿台に対向する位置で原稿面に沿って移動しながら露光ランプの出力光を原稿に照射し、原稿からの反射光をCCDラインセンサーに光電変換させる。これにより、読み取り対象の原稿の1ライン分の画像を表す画像データが出力される。   The optical system unit is configured to be movable by a drive unit. When reading a document placed on a document table by a user, the optical system unit irradiates the output light of the exposure lamp to the document while moving along the document surface at a position facing the document table, and reflects the reflected light from the document. Is photoelectrically converted into a CCD line sensor. As a result, image data representing an image for one line of the document to be read is output.

一方、原稿搬送ユニットにより搬送された原稿を読み取る場合、光学系ユニットは、原稿台に対向する所定の読取位置まで移動する。そして、光学系ユニットは、当該読取位置において、原稿搬送ユニットにより搬送されてくる原稿に露光ランプの出力光を照射し、CCDラインセンサーに原稿からの反射光を光電変換させる。これにより、読み取り対象の原稿の1ライン分の画像を表す画像データが出力される。   On the other hand, when reading a document conveyed by the document conveyance unit, the optical system unit moves to a predetermined reading position facing the document table. The optical system unit irradiates the original conveyed by the original conveying unit with the output light of the exposure lamp at the reading position, and causes the CCD line sensor to photoelectrically convert the reflected light from the original. As a result, image data representing an image for one line of the document to be read is output.

このようにして、光学系ユニットは、原稿に対して相対的に移動しながら、原稿の1ライン分の画像を表す画像データを出力することを繰り返し、原稿の全ライン分の画像を表す画像データを生成する。画像読取部21は、光学系ユニットにより生成された画像データを制御部10へ出力する。画像読取部21は、ユーザーによって原稿台に載置された複数の原稿のそれぞれに対して、又は、原稿搬送ユニットに搬送された各原稿に対して、上記処理を繰り返す。このようにして、画像読取部21は、複数の原稿を読み取って、各原稿の画像を表す画像データをそれぞれ生成する。   In this way, the optical system unit repeatedly outputs image data representing an image for one line of the document while moving relative to the document, and image data representing an image for all lines of the document. Is generated. The image reading unit 21 outputs the image data generated by the optical system unit to the control unit 10. The image reading unit 21 repeats the above processing for each of a plurality of documents placed on the document table by the user or for each document transported to the document transport unit. In this way, the image reading unit 21 reads a plurality of originals and generates image data representing images of the respective originals.

画像形成部22は、制御部10による制御の下、制御部10に入力された画像データに基づいて用紙に画像を形成する。また、画像形成部22は、後述するように、制御部10による制御の下、記憶部24に記憶されたデータを用いて復元された画像データに基づいて用紙に画像を形成する。   The image forming unit 22 forms an image on a sheet based on the image data input to the control unit 10 under the control of the control unit 10. Further, as will be described later, the image forming unit 22 forms an image on a sheet based on the image data restored using the data stored in the storage unit 24 under the control of the control unit 10.

具体的には、画像形成部22は、感光体ドラム、感光体ドラムの周面に対向して配設された帯電部、帯電部の下流側であって感光体ドラムの周面に対向して配設された露光部、露光部の下流側であって感光体ドラムの周面に対向して配設された現像部、現像部の下流側であって感光体ドラムの周面に対向して配設されたクリーニング部等を備えた周知の構成を有する。画像形成部22による、用紙に画像を形成する画像形成動作については、周知であるので、説明を省略する。   Specifically, the image forming unit 22 includes a photosensitive drum, a charging unit disposed to face the circumferential surface of the photosensitive drum, a downstream side of the charging unit and opposed to the circumferential surface of the photosensitive drum. An exposed exposure unit, a developing unit downstream of the exposure unit and facing the circumferential surface of the photosensitive drum, and a downstream side of the developing unit and facing the circumferential surface of the photosensitive drum It has a well-known configuration including a disposed cleaning unit and the like. Since the image forming operation for forming an image on a sheet by the image forming unit 22 is well known, a description thereof will be omitted.

操作部23は、情報を表示するための表示部231と、ユーザーによって各種指示の操作を行わせるための操作キー部232と、を備えている。表示部231は、例えばタッチパネル機能を有する液晶ディスプレイ等であり、各種情報を表示する。操作キー部232は、例えば、コピー機能等の機能の実行開始を指示するためのスタートキーや、数値や記号を入力するためのテンキー等の各種キーを含む。   The operation unit 23 includes a display unit 231 for displaying information and an operation key unit 232 for allowing the user to perform various instruction operations. The display unit 231 is, for example, a liquid crystal display having a touch panel function, and displays various types of information. The operation key unit 232 includes, for example, various keys such as a start key for instructing start of execution of a function such as a copy function, and a numeric keypad for inputting numerical values and symbols.

記憶部24は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置によって構成されている。記憶部24には、画像読取部21によって生成された画像データに関連するデータが記憶される。尚、当該関連するデータの詳細については後述する。   The storage unit 24 is configured by a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). The storage unit 24 stores data related to the image data generated by the image reading unit 21. Details of the related data will be described later.

制御部10は、例えば、所定の演算処理を実行する不図示のCPU(Central Processing Unit)と、所定の制御プログラムが記憶されたEEPROM等の不図示の不揮発性メモリーと、データを一時的に記憶するための不図示のRAM(Random Access Memory)と、これらの周辺回路等とを備えている。制御部10は、不揮発性メモリー等に記憶された制御プログラムをCPUによって実行することによって各種処理を実行し、複写機1の各部の動作を制御する。   The control unit 10 temporarily stores, for example, a CPU (Central Processing Unit) (not shown) that executes a predetermined calculation process, a nonvolatile memory (not shown) such as an EEPROM in which a predetermined control program is stored, and data For example, a random access memory (RAM) (not shown) and peripheral circuits thereof are provided. The control unit 10 executes various processes by causing the CPU to execute a control program stored in a nonvolatile memory or the like, and controls the operation of each unit of the copier 1.

以下、制御部10が画像読取部21により生成された画像データに関連するデータを記憶部24に記憶する制御について説明する。   Hereinafter, control in which the control unit 10 stores data related to the image data generated by the image reading unit 21 in the storage unit 24 will be described.

制御部10は、図1の実線部に示すように、特に、読取制御部11、共通要素抽出部12、背景画像生成部13、差分画像生成部14、及び記憶処理部15として動作する。   The control unit 10 operates as a reading control unit 11, a common element extraction unit 12, a background image generation unit 13, a difference image generation unit 14, and a storage processing unit 15, in particular, as indicated by a solid line unit in FIG.

以下の説明では、画像読取部21が四個の原稿を読み取り、四個の原稿の画像を表す四個の画像データを生成する場合を具体例として用いる。図2及び図3は、第一実施形態における、画像読取部21により生成された画像データに関連するデータを記憶部24に記憶する制御の動作を示す図である。   In the following description, a case where the image reading unit 21 reads four originals and generates four image data representing images of the four originals is used as a specific example. 2 and 3 are diagrams illustrating a control operation for storing data related to the image data generated by the image reading unit 21 in the storage unit 24 in the first embodiment.

図2に示すように、ステップS1において、読取制御部11は、画像読取部21を制御して、複数の原稿を読み取らせ、当該複数の原稿の画像を表す複数の画像データを生成させる。そして、読取制御部11は、画像読取部21により生成された複数の画像データをRAMに記憶する。   As shown in FIG. 2, in step S1, the reading control unit 11 controls the image reading unit 21 to read a plurality of documents and generate a plurality of image data representing images of the plurality of documents. The reading control unit 11 stores a plurality of image data generated by the image reading unit 21 in the RAM.

具体的には、読取制御部11は、画像読取部21に四個の原稿を読み取らせ、当該四個の原稿の画像P1〜P4を表す四個の画像データを生成させる。そして、読取制御部11は、当該生成された四個の画像データをRAMに記憶する。   Specifically, the reading control unit 11 causes the image reading unit 21 to read four documents, and generates four image data representing the images P1 to P4 of the four documents. Then, the reading control unit 11 stores the four generated image data in the RAM.

次に、ステップS2において、共通要素抽出部12は、画像読取部21が複数の原稿を読み取って生成した複数の画像データを用いて抽出処理を行う。抽出処理とは、画像読取部21によって生成された複数の画像データを用いて得られる互いに異なる二つの画像データの組み合わせの全てを対象とし、各組み合わせに含まれる二つの画像データが表す二つの画像において共通する、文字、表、図、枠等の画像構成要素を共通要素として抽出する処理を示す。   Next, in step S <b> 2, the common element extraction unit 12 performs an extraction process using a plurality of image data generated by the image reading unit 21 reading a plurality of originals. The extraction process refers to all combinations of two different image data obtained using a plurality of image data generated by the image reading unit 21, and two images represented by the two image data included in each combination. The process which extracts the image components, such as a character, a table | surface, a figure, and a frame which are common in FIG.

二つの画像において共通する画像構成要素とは、二つの画像において、形状、配置位置、及び装飾が一致する画像構成要素を示す。装飾とは、例えば斜線やドット等の模様と、赤や青等の色彩と、の結合を示す。尚、抽出処理は、公知の画像パターン認識技術を用いて行う。   An image component common to two images refers to an image component whose shape, arrangement position, and decoration match in the two images. The decoration indicates, for example, a combination of a pattern such as diagonal lines or dots and a color such as red or blue. The extraction process is performed using a known image pattern recognition technique.

具体的には、共通要素抽出部12は、ステップS1で生成された四個の画像データを用いて得られる互いに異なる二つの画像データの組み合わせの全てとして、六個の組み合わせC12、C13、C14、C23、C24、C34を抽出処理の対象とする。   Specifically, the common element extraction unit 12 uses six combinations C12, C13, C14, all combinations of two different image data obtained using the four image data generated in step S1. C23, C24, and C34 are targeted for extraction processing.

組み合わせC12は、画像P1を表す画像データと画像P2を表す画像データの組み合わせを示す。組み合わせC13は、画像P1を表す画像データと画像P3を表す画像データの組み合わせを示す。組み合わせC14は、画像P1を表す画像データと画像P4を表す画像データの組み合わせを示す。組み合わせC23は、画像P2を表す画像データと画像P3を表す画像データの組み合わせを示す。組み合わせC34は、画像P3を表す画像データと画像P4を表す画像データの組み合わせを示す。   A combination C12 indicates a combination of image data representing the image P1 and image data representing the image P2. A combination C13 indicates a combination of image data representing the image P1 and image data representing the image P3. A combination C14 indicates a combination of image data representing the image P1 and image data representing the image P4. A combination C23 indicates a combination of image data representing the image P2 and image data representing the image P3. A combination C34 indicates a combination of image data representing the image P3 and image data representing the image P4.

共通要素抽出部12は、組み合わせC12に含まれる二つの画像データが表す二つの画像P1、P2において共通する画像構成要素E1を共通要素として抽出する。以下では、説明の便宜上、画像データが表す画像のことを単に画像と示す。   The common element extraction unit 12 extracts, as a common element, an image constituent element E1 that is common in the two images P1 and P2 represented by the two image data included in the combination C12. Hereinafter, for convenience of explanation, an image represented by image data is simply referred to as an image.

同様に、共通要素抽出部12は、組み合わせC13に含まれる二つの画像P1、P3において共通する二つの画像構成要素E2、E3を共通要素として抽出する。また、共通要素抽出部12は、組み合わせC14に含まれる二つの画像P1、P4において共通する画像構成要素E2を共通要素として抽出し、組み合わせC34に含まれる二つの画像P3、P4において共通する画像構成要素E2を共通要素として抽出する。   Similarly, the common element extraction unit 12 extracts two image constituent elements E2 and E3 that are common in the two images P1 and P3 included in the combination C13 as common elements. Further, the common element extraction unit 12 extracts, as a common element, an image configuration element E2 common to the two images P1 and P4 included in the combination C14, and an image configuration common to the two images P3 and P4 included in the combination C34. Element E2 is extracted as a common element.

一方、組み合わせC23に含まれる二つの画像P2、P3には共通する画像構成要素が存在しないので、共通要素抽出部12は、組み合わせC23からは共通要素を抽出しない。同様に、組み合わせC24に含まれる二つの画像P2、P4には共通する画像構成要素が存在しないので、共通要素抽出部12は、組み合わせC24からも共通要素を抽出しない。   On the other hand, since there is no common image component in the two images P2 and P3 included in the combination C23, the common element extraction unit 12 does not extract a common element from the combination C23. Similarly, since there is no common image component in the two images P2 and P4 included in the combination C24, the common element extraction unit 12 does not extract the common element from the combination C24.

次に、図3に示すように、ステップS3において、背景画像生成部13は、共通要素抽出部12により共通要素として予め定められた回数以上抽出された画像構成要素を合成して背景画像を生成し、当該背景画像を表す背景画像データを生成する。以下、上記予め定められた回数が1であるものとして説明する。ただし、予め定められた回数をこれに限定する趣旨ではない。   Next, as shown in FIG. 3, in step S <b> 3, the background image generation unit 13 generates a background image by synthesizing the image constituent elements extracted by the common element extraction unit 12 a predetermined number of times as a common element Then, background image data representing the background image is generated. In the following description, it is assumed that the predetermined number of times is 1. However, the purpose is not to limit the predetermined number of times.

具体的には、背景画像生成部13は、ステップS2で共通要素として1回以上抽出された三個の画像構成要素E1、E2、E3(図2)を合成し、背景画像Bを生成する。そして、背景画像生成部13は、当該背景画像Bを表す背景画像データを生成する。   Specifically, the background image generation unit 13 combines the three image constituent elements E1, E2, and E3 (FIG. 2) extracted at least once as common elements in step S2 to generate a background image B. Then, the background image generation unit 13 generates background image data representing the background image B.

次に、ステップS4において、差分画像生成部14は、画像読取部21により生成された各画像データを用いて差分画像生成処理を行う。差分画像生成処理とは、画像読取部21により生成された各画像データから背景画像データを削除することにより、当該各画像データに対応する差分画像データをそれぞれ生成する処理である。   Next, in step S <b> 4, the difference image generation unit 14 performs difference image generation processing using each image data generated by the image reading unit 21. The difference image generation process is a process of generating difference image data corresponding to each image data by deleting background image data from each image data generated by the image reading unit 21.

具体的には、差分画像生成部14は、ステップS1で生成され、RAMに記憶された各画像データが表す各画像P1〜P4(図2)から、背景画像データが表す背景画像B(図2)の各画素に対応する画素を削除することにより、各画像P1〜P4にそれぞれ対応する差分画像D1〜D4を生成する。そして、差分画像生成部14は、各差分画像D1〜D4を表す画像データを生成する。これにより、差分画像生成部14は、各画像データから背景画像データを削除している。そして、差分画像生成部14は、当該生成した各差分画像D1〜D4を表す画像データを、各画像P1〜P4を表す画像データにそれぞれ対応する差分画像データとする。   Specifically, the difference image generation unit 14 generates a background image B represented by the background image data (FIG. 2) from the images P1 to P4 (FIG. 2) represented by the image data generated in step S1 and stored in the RAM. ), The difference images D1 to D4 respectively corresponding to the images P1 to P4 are generated. And the difference image generation part 14 produces | generates the image data showing each difference image D1-D4. Thereby, the difference image generation unit 14 deletes the background image data from each image data. Then, the difference image generation unit 14 sets the generated image data representing the difference images D1 to D4 as difference image data corresponding to the image data representing the images P1 to P4, respectively.

そして、ステップS5において、記憶処理部15は、画像読取部21により生成された画像データに関連する各種データを記憶部24に記憶する記憶処理を行う。具体的には、記憶処理部15は、記憶処理において、ステップS1で生成された各画像P1〜P4を表す四個の画像データに関連するデータとして、ステップS3で生成された背景画像データと、ステップS4で生成された各差分画像データ、つまり、差分画像D1〜D4を表す差分画像データと、を記憶部24に記憶する。   In step S <b> 5, the storage processing unit 15 performs a storage process of storing various data related to the image data generated by the image reading unit 21 in the storage unit 24. Specifically, the storage processing unit 15 includes the background image data generated in step S3 as data related to the four pieces of image data representing the images P1 to P4 generated in step S1 in the storage process, Each difference image data generated in step S4, that is, difference image data representing the difference images D1 to D4 is stored in the storage unit 24.

尚、記憶処理部15は、ステップS5において、各差分画像データを記憶部24に記憶するときは、当該各差分画像データに対応する画像データとの対応付けが分かるよう、例えば当該画像データの識別情報を含むデータファイル名で記憶する。画像データの識別情報は、例えば、画像データが生成された年月日時分秒とページ番号を示す情報(例:「YYYY年MM月DD日 HH時MI分SS秒 PAGE 1 OF 4」等)で構成されている。   When storing the difference image data in the storage unit 24 in step S5, the storage processing unit 15 identifies the image data, for example, so that the association with the image data corresponding to the difference image data is known. Stores the name of the data file that contains the information. The identification information of the image data is, for example, information indicating the year / month / day / hour / minute / second and page number (for example, “YYYY year MM month DD date HH hour MI minute SS second PAGE 1 OF 4”). It is configured.

このように、第一実施形態の構成によれば、共通要素抽出部12は、画像読取部21により生成された複数の画像データを用いて得られる互いに異なる二つの画像データの組み合わせの全てを対象として、各組み合わせに含まれる二つの画像データが表す二つの画像において共通する画像構成要素を共通要素として抽出する。   Thus, according to the configuration of the first embodiment, the common element extraction unit 12 targets all combinations of two different image data obtained by using a plurality of image data generated by the image reading unit 21. As a common element, image components common to two images represented by two image data included in each combination are extracted.

つまり、上記特許文献1等に記載の従来技術を用いたときには、一部の画像データが表す一部の画像(例:画像P2)において図等の他の画像構成要素が重畳されている画像構成要素(例:画像構成要素E2)を共通要素として抽出できなかった。しかし、第一実施形態の構成によれば、当該一部の画像データとは他の二つの画像データを含む組み合わせ(例:組み合わせC13)から、当該一部の画像において他の画像構成要素が重畳されている画像構成要素(例:画像構成要素E2)を共通要素として抽出することができる。これにより、上記特許文献1等に記載の従来技術に比して、共通要素として抽出される画像構成要素の数を多くすることができる。   That is, when the conventional technique described in Patent Document 1 is used, an image configuration in which other image components such as a figure are superimposed on a part of an image (eg, image P2) represented by part of image data. An element (eg, image constituent element E2) could not be extracted as a common element. However, according to the configuration of the first embodiment, other image components are superimposed on the partial image from the combination (for example, combination C13) including the other two pieces of image data with the partial image data. The image component (for example, image component E2) that has been set can be extracted as a common element. As a result, the number of image components extracted as common elements can be increased as compared with the prior art described in Patent Document 1 and the like.

そして、背景画像生成部13は、予め定められた回数以上共通要素として抽出された画像構成要素を合成して背景画像Bを生成する。つまり、共通要素として抽出された画像構成要素が、背景画像Bに含まれる画像構成要素であるか、複数の画像データのうちの一部の画像データが表す画像に限って共通する画像構成要素であるか、を共通要素としての抽出回数を用いて判別する。このようにして、背景画像生成部13は、背景画像Bに含まれる画像構成要素であると判別した画像構成要素のみを合成して、背景画像Bを精度良く生成することができる。   Then, the background image generation unit 13 generates a background image B by synthesizing the image constituent elements extracted as the common elements more than a predetermined number of times. That is, the image component extracted as the common component is an image component included in the background image B, or an image component common only to an image represented by a part of the plurality of image data. Whether or not there is is determined using the number of extractions as a common element. In this way, the background image generation unit 13 can generate the background image B with high accuracy by synthesizing only the image components determined to be image components included in the background image B.

そして、差分画像生成部14は、各画像データから、上記のように精度良く生成された背景画像Bを表す背景画像データを削除し、各画像データに対応する差分画像データを生成する。   Then, the difference image generation unit 14 deletes the background image data representing the background image B generated with high accuracy as described above from each image data, and generates difference image data corresponding to each image data.

つまり、第一実施形態の構成によれば、共通要素として抽出される画像構成要素の数を多くして、背景画像Bに含まれる画像構成要素の数を多くし、各差分画像データが表す画像に含まれる画像構成要素の数を少なくすることができる。これにより、背景画像データのデータ量が大きくなるものの、複数の差分画像データにおいて重複して記憶される画像構成要素に対応するデータのデータ量を低減することができる。その結果、記憶部24に記憶されるデータのデータ量を低減することができる。   That is, according to the configuration of the first embodiment, the number of image components extracted as common elements is increased, the number of image components included in the background image B is increased, and the image represented by each difference image data The number of image components included in can be reduced. Thereby, although the data amount of background image data becomes large, the data amount of the data corresponding to the image component stored redundantly in several difference image data can be reduced. As a result, the amount of data stored in the storage unit 24 can be reduced.

また、記憶部24に記憶されている各差分画像データが表す画像に、記憶部24に記憶されている背景画像データが表す背景画像Bを合成して、当該合成した画像を表す画像データを生成することで、本来の原稿の画像を表す画像データを復元することができる。つまり、第一実施形態の構成によれば、本来の原稿の画像を表す画像データを復元可能なデータを記憶部24に記憶することができる。   Further, the image represented by the difference image data stored in the storage unit 24 is combined with the background image B represented by the background image data stored in the storage unit 24, and image data representing the combined image is generated. As a result, the image data representing the original image of the original can be restored. That is, according to the configuration of the first embodiment, data that can restore image data representing an original image of the original can be stored in the storage unit 24.

尚、上記第一実施形態は、本発明に係る実施形態の例示に過ぎず、本発明を上記第一実施形態に限定する趣旨ではない。例えば、以下に示す、上記第一実施形態を変形した変形実施形態であってもよい。   In addition, said 1st embodiment is only the illustration of embodiment which concerns on this invention, and is not the meaning which limits this invention to said 1st embodiment. For example, a modified embodiment obtained by modifying the first embodiment described below may be used.

(1)例えば、図1の破線部に示すように、制御部10が、更に、第一指定受付部16として動作するようにしてもよい。第一指定受付部16は、画像読取部21に読み取らせる複数の原稿のうち、背景画像Bの生成に寄与しない第一原稿の指定を受け付ける。これに合わせて、共通要素抽出部12は、第一指定受付部16によって第一原稿の指定が受け付けられた場合、当該第一原稿に対応する画像データを含む、二つの画像データの組み合わせを共通要素の抽出対象から除外する。   (1) For example, as indicated by the broken line portion in FIG. 1, the control unit 10 may further operate as the first designation receiving unit 16. The first designation accepting unit 16 accepts designation of a first document that does not contribute to the generation of the background image B among a plurality of documents to be read by the image reading unit 21. In accordance with this, when the designation of the first document is received by the first designation receiving unit 16, the common element extraction unit 12 uses a common combination of two image data including image data corresponding to the first document. Exclude from element extraction.

具体的には、第一指定受付部16は、ユーザーによる操作部23の操作によって、第一原稿の指定が入力されると、当該入力された第一原稿の指定を受け付ける。例えば、図2に示す四個の画像P1〜P4に対応する四個の原稿のうち、画像P4に対応する原稿を第一原稿とする指定が、第一指定受付部16によって受け付けられたとする。   Specifically, when the designation of the first document is input by the user operating the operation unit 23, the first designation receiving unit 16 receives the input designation of the first document. For example, it is assumed that the first designation accepting unit 16 accepts the designation that the original corresponding to the image P4 is the first original among the four originals corresponding to the four images P1 to P4 shown in FIG.

この場合、共通要素抽出部12は、ステップS2の抽出処理の対象とする六個の組み合わせC12、C13、C14、C23、C24、C34から、画像P4を表す画像データを含む三個の組み合わせC14、C24、C34を除外する。そして、共通要素抽出部12は、ステップS2において、三個の組み合わせC12、C13、C23を抽出処理の対象とし、当該三個の組み合わせC12、C13、C23をそれぞれ用いて、三個の画像構成要素E1、E2、E3をそれぞれ共通要素として一回ずつ抽出する。   In this case, the common element extraction unit 12 includes three combinations C14 including image data representing the image P4 from the six combinations C12, C13, C14, C23, C24, and C34 to be extracted in step S2. C24 and C34 are excluded. Then, in step S2, the common element extraction unit 12 uses three combinations C12, C13, and C23 as extraction targets, and uses the three combinations C12, C13, and C23, respectively, to thereby create three image components. E1, E2, and E3 are extracted once as common elements.

尚、この場合、背景画像生成部13は、ステップS3において、ステップS2で共通要素として1回以上抽出された三個の画像構成要素E1、E2、E3を合成した背景画像を生成し、当該背景画像を示す背景画像データを生成する。   In this case, in step S3, the background image generation unit 13 generates a background image obtained by synthesizing the three image constituent elements E1, E2, and E3 extracted one or more times as the common elements in step S2, and the background Background image data indicating an image is generated.

また、差分画像生成部14は、ステップS4において、第二原稿に対応する画像P4を表す画像データを差分画像データの生成対象から除外する。つまり、差分画像生成部14は、各画像P1〜P3を表す画像データから、ステップS3で生成された背景画像データを削除することにより、当該各画像P1〜P3に対応する差分画像D1〜D3を表す差分画像データをそれぞれ生成する。   In step S4, the difference image generation unit 14 excludes image data representing the image P4 corresponding to the second document from the generation target of the difference image data. That is, the difference image generation unit 14 deletes the background image data generated in step S3 from the image data representing the images P1 to P3, thereby obtaining the difference images D1 to D3 corresponding to the images P1 to P3. Difference image data to be expressed is generated.

そして、記憶処理部15は、ステップS5において、ステップS3で生成された背景画像データと、ステップS4で生成された各画像P1〜P3に対応する差分画像D1〜D3を表す差分画像データと、を記憶部24に記憶し、更に、当該第二原稿に対応する画像P4を表す画像データを、記憶部24に記憶する。   In step S5, the storage processing unit 15 obtains the background image data generated in step S3 and the difference image data representing the difference images D1 to D3 corresponding to the images P1 to P3 generated in step S4. The image data that is stored in the storage unit 24 and that represents the image P4 corresponding to the second document is stored in the storage unit 24.

第一実施形態に係る当該変形実施形態では、第二指定受付部17によって、画像読取部21に読み取らせる複数の原稿のうち、差分画像データを生成しない第二原稿(例:画像P4に対応する原稿)の指定が受け付けられた場合、第二原稿に対応する画像データを含む二つの画像データの組み合わせ(例:組み合わせC14、C24、C34)が共通要素の抽出対象から除外される。   In the modified embodiment according to the first embodiment, the second designation receiving unit 17 corresponds to the second document (for example, the image P4) that does not generate the difference image data among the plurality of documents to be read by the image reading unit 21. When the designation of (original) is accepted, a combination of two image data including the image data corresponding to the second original (for example, combinations C14, C24, C34) is excluded from the common element extraction targets.

このため、画像読取部21により生成された複数の画像データを用いて得られる二つの画像データの組み合わせの全てを共通要素の抽出対象とする場合に比して、共通要素の抽出に要する時間を低減することができる。これにより、背景画像の生成に要する時間を低減することができる。また、第二原稿に対応する画像データが差分画像データの生成対象から除外されるので、差分画像データの生成に要する時間を低減することができる。   For this reason, compared with the case where all combinations of two image data obtained by using a plurality of image data generated by the image reading unit 21 are extracted as common elements, the time required for extraction of common elements is reduced. Can be reduced. Thereby, the time required for generating the background image can be reduced. Further, since the image data corresponding to the second document is excluded from the generation target of the difference image data, the time required for generating the difference image data can be reduced.

(2)また、図1の二点鎖線部に示すように、制御部10が、画像復元部18として動作するようにしてもよい。画像復元部18は、記憶部24に記憶されている各差分画像データが表す画像に、記憶部24に記憶されている背景画像データが表す背景画像を合成して、当該合成した画像を表す画像データを生成する。これにより、画像復元部18は、当該各差分画像データに対応する原稿の画像を表す画像データを復元する。   (2) Further, as indicated by a two-dot chain line portion in FIG. 1, the control unit 10 may operate as the image restoration unit 18. The image restoration unit 18 combines the background image represented by the background image data stored in the storage unit 24 with the image represented by each difference image data stored in the storage unit 24, and represents the combined image. Generate data. As a result, the image restoration unit 18 restores image data representing an image of the document corresponding to each difference image data.

具体的には、図3に示すように、上記第一実施形態で説明した制御が制御部10によって行われ、記憶部24に、背景画像Bを表す背景画像データと、四個の画像P1〜P4に対応する四個の差分画像データと、が記憶されているものとする。この場合に、ユーザーによる操作部23の操作によって、記憶部24に記憶されているデータに基づいて画像形成部22に用紙に画像を再形成させる指示が入力され、当該指示が制御部10によって受け付けられたとする。   Specifically, as illustrated in FIG. 3, the control described in the first embodiment is performed by the control unit 10, and background image data representing the background image B and four images P <b> 1 to P <b> 1 are stored in the storage unit 24. It is assumed that four pieces of difference image data corresponding to P4 are stored. In this case, by the operation of the operation unit 23 by the user, an instruction to re-form the image on the sheet is input to the image forming unit 22 based on the data stored in the storage unit 24, and the instruction is received by the control unit 10. Suppose that

この場合、画像復元部18は、記憶部24に記憶されている各差分画像データが表す差分画像D1〜D4に、記憶部24に記憶されている背景画像データが表す背景画像Bを合成する。これにより、当該合成後の各画像は、原稿の各画像P1〜P4と同じになる。そして、画像復元部18は、当該合成後の各画像を表す画像データをそれぞれ生成する。このようにして、画像復元部18は、記憶部24に記憶されている各差分画像データに対応する原稿の画像を表す画像データを復元する。そして、制御部10は、画像復元部18によって復元された画像P1〜P4をそれぞれ表す画像データに基づき、画像形成部22に用紙に画像P1〜P4を形成させる。   In this case, the image restoration unit 18 synthesizes the background image B represented by the background image data stored in the storage unit 24 with the difference images D1 to D4 represented by the difference image data stored in the storage unit 24. Thereby, each image after the composition is the same as each image P1 to P4 of the document. Then, the image restoration unit 18 generates image data representing each image after the composition. In this way, the image restoration unit 18 restores image data representing an image of a document corresponding to each difference image data stored in the storage unit 24. Then, the control unit 10 causes the image forming unit 22 to form the images P1 to P4 on the sheet based on the image data representing the images P1 to P4 restored by the image restoration unit 18, respectively.

第一実施形態に係る当該変形実施形態では、画像復元部18によって、記憶部24に記憶されているデータを用いて、画像読取部21によって生成された画像データを復元することができる。このため、画像読取部21によって生成された画像データに基づく画像形成動作と同じ画像形成動作を再び画像形成部22に行わせる等、画像読取部21によって生成された画像データに基づく処理を再実行することができる。   In the modified embodiment according to the first embodiment, the image restoration unit 18 can restore the image data generated by the image reading unit 21 using the data stored in the storage unit 24. Therefore, the process based on the image data generated by the image reading unit 21 is re-executed, such as causing the image forming unit 22 to perform the same image forming operation as the image forming operation based on the image data generated by the image reading unit 21 again. can do.

(第二実施形態)
次に、制御部10が画像読取部21により生成された画像データに関連するデータを記憶部24に記憶する制御の第二実施形態について説明する。図4は、第二実施形態における複写機1の電気的構成を示すブロック図である。尚、第二実施形態において、第一実施形態と同じものは、同一の符号を付し、その説明を省略する。
(Second embodiment)
Next, a second embodiment of control in which the control unit 10 stores data related to the image data generated by the image reading unit 21 in the storage unit 24 will be described. FIG. 4 is a block diagram showing an electrical configuration of the copying machine 1 in the second embodiment. In addition, in 2nd embodiment, the same thing as 1st embodiment attaches | subjects the same code | symbol, and abbreviate | omits the description.

第二実施形態において、制御部10は、図4の実線部に示すように、特に、読取制御部11、共通要素抽出部12a、差分画像生成部14a、及び記憶処理部15aとして動作する。以下の説明では、画像読取部21が四個の原稿を読み取り、四個の原稿の画像を表す四個の画像データを生成する場合を具体例として用いる。図5乃至図7は、第二実施形態における、画像読取部21により生成された画像データに関連するデータを記憶部24に記憶する制御の動作を示す図である。   In the second embodiment, the control unit 10 operates as a reading control unit 11, a common element extraction unit 12a, a difference image generation unit 14a, and a storage processing unit 15a, as indicated by a solid line portion in FIG. In the following description, a case where the image reading unit 21 reads four originals and generates four image data representing images of the four originals is used as a specific example. FIGS. 5 to 7 are diagrams illustrating a control operation for storing data related to the image data generated by the image reading unit 21 in the storage unit 24 according to the second embodiment.

図5に示すように、ステップS1aにおいて、読取制御部11は、画像読取部21を制御して、複数の原稿を読み取らせ、当該複数の原稿の画像を表す複数の画像データを生成させる。そして、読取制御部11は、画像読取部21により生成された複数の画像データをRAMに記憶する。   As shown in FIG. 5, in step S1a, the reading control unit 11 controls the image reading unit 21 to read a plurality of originals and generate a plurality of image data representing images of the plurality of originals. The reading control unit 11 stores a plurality of image data generated by the image reading unit 21 in the RAM.

具体的には、読取制御部11は、画像読取部21に四個の原稿を読み取らせ、当該四個の原稿の画像P5〜P8を表す四個の画像データを生成させる。そして、読取制御部11は、当該生成された四個の画像データをRAMに記憶する。   Specifically, the reading control unit 11 causes the image reading unit 21 to read four originals and generates four pieces of image data representing the images P5 to P8 of the four originals. Then, the reading control unit 11 stores the four generated image data in the RAM.

次に、図6に示すように、ステップS2aにおいて、共通要素抽出部12aは、画像読取部21が複数の原稿を読み取って生成した複数の画像データを用いて抽出処理を行う。第二実施形態における抽出処理は、画像読取部21によって生成された複数の画像データを用いて得られる互いに異なる二つの画像データの組み合わせの全てを対象とし、各組み合わせに含まれる二つの画像データが表す二つの画像において、形状が一致する画像構成要素を共通要素として抽出して、当該共通要素の形状を示す形状情報を生成する処理と、当該二つの画像データのそれぞれと当該形状情報とに対応付けられた、各画像データが表す画像における当該抽出した共通要素の配置位置及び装飾とを示す要素情報を生成する処理と、で構成されている。尚、抽出処理は、公知の画像パターン認識技術を用いて行う。   Next, as shown in FIG. 6, in step S2a, the common element extraction unit 12a performs extraction processing using a plurality of image data generated by the image reading unit 21 reading a plurality of originals. The extraction process in the second embodiment targets all combinations of two different image data obtained by using a plurality of image data generated by the image reading unit 21, and two image data included in each combination are included. In the two images to be represented, a process for extracting image components having the same shape as a common element and generating shape information indicating the shape of the common element, and corresponding to each of the two image data and the shape information Processing for generating element information indicating the arrangement position and decoration of the extracted common element in the image represented by each image data. The extraction process is performed using a known image pattern recognition technique.

具体的には、共通要素抽出部12aは、ステップS1aで生成された四個の画像データを用いて得られる互いに異なる二つの画像データの組み合わせの全てとして、六個の組み合わせC56、C57、C58、C67、C68、C78を抽出処理の対象とする。   Specifically, the common element extraction unit 12a includes six combinations C56, C57, C58, as all combinations of two different image data obtained using the four image data generated in step S1a. C67, C68, and C78 are targeted for extraction processing.

組み合わせC56は、画像P5を表す画像データと画像P6を表す画像データの組み合わせを示す。組み合わせC57は、画像P5を表す画像データと画像P7を表す画像データの組み合わせを示す。組み合わせC58は、画像P5を表す画像データと画像P8を表す画像データの組み合わせを示す。組み合わせC67は、画像P6を表す画像データと画像P7を表す画像データの組み合わせを示す。組み合わせC78は、画像P7を表す画像データと画像P8を表す画像データの組み合わせを示す。   A combination C56 indicates a combination of image data representing the image P5 and image data representing the image P6. A combination C57 indicates a combination of image data representing the image P5 and image data representing the image P7. A combination C58 indicates a combination of image data representing the image P5 and image data representing the image P8. A combination C67 indicates a combination of image data representing the image P6 and image data representing the image P7. A combination C78 indicates a combination of image data representing the image P7 and image data representing the image P8.

共通要素抽出部12aは、組み合わせC56に含まれる二つの画像データが表す二つの画像P5、P6において、形状が一致する画像構成要素E51、E61を共通要素として抽出する。そして、共通要素抽出部12は、当該抽出した共通要素E51、E62の形状を示す形状情報F1を生成する。   The common element extraction unit 12a extracts, as common elements, image constituent elements E51 and E61 having the same shape in the two images P5 and P6 represented by the two image data included in the combination C56. Then, the common element extraction unit 12 generates shape information F1 indicating the shapes of the extracted common elements E51 and E62.

例えば、形状情報F1は、共通要素E51、E62の輪郭が左下の角度が直角の直角三角形であることを示す情報「左下直角三角形」と、当該直角三角形の三辺の長さを示す情報とで構成されている。尚、形状情報F1をこれに限定する趣旨ではない。例えば、形状情報F1は、共通要素E51、E62の輪郭の画像を表す画像データであってもよい。   For example, the shape information F1 includes information “lower left right triangle” indicating that the outline of the common elements E51 and E62 is a right triangle whose lower left angle is a right angle, and information indicating the lengths of three sides of the right triangle. It is configured. Note that the shape information F1 is not limited to this. For example, the shape information F1 may be image data representing an outline image of the common elements E51 and E62.

そして、共通要素抽出部12aは、組み合わせC56に含まれる二つの画像データのうち、画像P5を表す画像データと形状情報F1とに対応付けられた、画像P5における共通要素E51の配置位置及び装飾とを示す要素情報J51を生成する。また、共通要素抽出部12aは、組み合わせC56に含まれる二つの画像データのうち、画像P6を表す画像データと形状情報F1とに対応付けられた、画像P6における共通要素E61の配置位置及び装飾とを示す要素情報J61を生成する。   Then, the common element extraction unit 12a includes the arrangement position and decoration of the common element E51 in the image P5 associated with the image data representing the image P5 and the shape information F1 out of the two pieces of image data included in the combination C56. Is generated. In addition, the common element extraction unit 12a includes the arrangement position and decoration of the common element E61 in the image P6 associated with the image data representing the image P6 and the shape information F1 among the two pieces of image data included in the combination C56. Is generated.

例えば、図6に示すように、要素情報J51は、画像P5を表す画像データと形状情報F1との対応付けのために、画像P5を表す画像データの識別情報と、形状情報F1の識別情報とを含んでいる。   For example, as shown in FIG. 6, the element information J51 includes identification information of the image data representing the image P5, identification information of the shape information F1, and the like in order to associate the image data representing the image P5 with the shape information F1. Is included.

画像データの識別情報は、例えば、画像データが生成された年月日時分秒とページ番号を示す情報(例:「YYYY年MM月DD日 HH時MI分SS秒 PAGE 1 OF 4」等)で構成されている。また、形成情報の識別情報は、二つの共通要素E51、E61それぞれの識別情報を含むようにして構成されている(例:「E1 OF P1/E1 OF P2」(「E1 OF P1」は、一ページ目の画像においてパターン認識した一つ目の画像構成要素E51の識別情報を示し、「E1 OF P2」は、二ページ目の画像においてパターン認識した一つ目の画像構成要素E61の識別情報を示す)等)。   The identification information of the image data is, for example, information indicating the year / month / day / hour / minute / second and page number (for example, “YYYY year MM month DD date HH hour MI minute SS second PAGE 1 OF 4”). It is configured. Further, the identification information of the formation information is configured to include the identification information of each of the two common elements E51 and E61 (for example, “E1 OF P1 / E1 OF P2” (“E1 OF P1” is the first page). The identification information of the first image component E51 that has been pattern-recognized in the image of “1”, and “E1 OF P2” represents the identification information of the first image component E61 that has been pattern-recognized in the image of the second page) etc).

また、要素情報J51は、画像P5における共通要素E51の配置位置を示す、共通要素E51の最左端及び最上端の座標情報「x51、y51」を含んでいる。更に、要素情報J51は、画像P5における共通要素E51の装飾を示す情報「白塗潰し」を含んでいる。   The element information J51 includes coordinate information “x51, y51” of the leftmost end and the uppermost end of the common element E51, which indicates the arrangement position of the common element E51 in the image P5. Furthermore, the element information J51 includes information “white filling” indicating decoration of the common element E51 in the image P5.

要素情報J61は、画像P6を表す画像データと形状情報F1との対応付けのために、画像P6を表す画像データの識別情報と形状情報F1の識別情報とを含んでいる。また、要素情報J61は、画像P6における共通要素E61の配置位置を示す、共通要素E61の最左端及び最上端の座標情報「x61、y61」を含んでいる。更に、要素情報J61は、画像P6における共通要素E61の装飾を示す情報「黒右上斜線」を含んでいる。   The element information J61 includes identification information of the image data representing the image P6 and identification information of the shape information F1 for associating the image data representing the image P6 with the shape information F1. The element information J61 includes coordinate information “x61, y61” of the leftmost end and the uppermost end of the common element E61, which indicates the arrangement position of the common element E61 in the image P6. Further, the element information J61 includes information “black upper right diagonal line” indicating decoration of the common element E61 in the image P6.

同様に、共通要素抽出部12aは、組み合わせC57に含まれる二つの画像データが表す二つの画像P5、P7において、形状が一致する画像構成要素E52、E72を共通要素として抽出する。そして、共通要素抽出部12は、当該抽出した共通要素E52、E72の形状を示す形状情報F2を生成する。例えば、形状情報F2は、共通要素E52、E72の輪郭が左半円であることを示す情報「左半円」と、半径を示す情報とで構成されている。尚、形状情報F2をこれに限定する趣旨ではなく、例えば、共通要素E52、E72の輪郭の画像を表す画像データであってもよい。   Similarly, the common element extraction unit 12a extracts, as common elements, image constituent elements E52 and E72 having the same shape in the two images P5 and P7 represented by the two image data included in the combination C57. Then, the common element extraction unit 12 generates shape information F2 indicating the shapes of the extracted common elements E52 and E72. For example, the shape information F2 includes information “left semicircle” indicating that the outline of the common elements E52 and E72 is a left semicircle, and information indicating the radius. The shape information F2 is not limited to this, and may be, for example, image data representing an outline image of the common elements E52 and E72.

また、共通要素抽出部12aは、組み合わせC57に含まれる二つの画像データが表す二つの画像P5、P7において、形状が一致する画像構成要素E53、E73を共通要素として抽出する。そして、共通要素抽出部12は、当該抽出した共通要素E53、E73の形状を示す形状情報F3を生成する。例えば、形状情報F3は、共通要素E53、E73の輪郭が円であることを示す情報「円」と、半径を示す情報とで構成されている。尚、形状情報F3をこれに限定する趣旨ではなく、例えば、共通要素E53、E73の輪郭の画像を表す画像データであってもよい。   Further, the common element extraction unit 12a extracts, as common elements, image constituent elements E53 and E73 whose shapes match in the two images P5 and P7 represented by the two image data included in the combination C57. Then, the common element extraction unit 12 generates shape information F3 indicating the shapes of the extracted common elements E53 and E73. For example, the shape information F3 includes information “circle” indicating that the outline of the common elements E53 and E73 is a circle, and information indicating the radius. The shape information F3 is not limited to this, and may be, for example, image data representing an image of the outline of the common elements E53 and E73.

そして、共通要素抽出部12aは、要素情報J51、J61と同様にして、画像P5を表す画像データと形状情報F2とに対応付けられた、画像P5における共通要素E52の配置位置及び装飾とを示す要素情報J52を生成する。また、共通要素抽出部12aは、画像P7を表す画像データと形状情報F2とに対応付けられた、画像P7における共通要素E72の配置位置及び装飾とを示す要素情報J72を生成する。同様に、共通要素抽出部12aは、要素情報J53、J73を生成する。   Then, the common element extraction unit 12a indicates the arrangement position and decoration of the common element E52 in the image P5 associated with the image data representing the image P5 and the shape information F2, similarly to the element information J51 and J61. Element information J52 is generated. Further, the common element extraction unit 12a generates element information J72 indicating the arrangement position and decoration of the common element E72 in the image P7, which is associated with the image data representing the image P7 and the shape information F2. Similarly, the common element extraction unit 12a generates element information J53 and J73.

また、共通要素抽出部12aは、図6に示すように、組み合わせC58に含まれる二つの画像データが表す二つの画像P5、P8において、形状が一致する画像構成要素E52、E82を共通要素として抽出する。この場合、共通要素抽出部12aは、組み合わせC57を用いた抽出処理において、共通要素E52の形状を示す形状情報F2を既に生成しているので、新たに形状情報F2を生成しない。尚、共通要素E52の形状を示す形状情報F2を既に生成していることは、形状情報F2の識別情報に、画像構成要素E52の識別情報が含まれていることで判断できる。   Further, as shown in FIG. 6, the common element extraction unit 12a extracts, as common elements, image constituent elements E52 and E82 having the same shape in the two images P5 and P8 represented by the two image data included in the combination C58. To do. In this case, the common element extraction unit 12a does not newly generate the shape information F2 because the shape information F2 indicating the shape of the common element E52 has already been generated in the extraction process using the combination C57. The fact that the shape information F2 indicating the shape of the common element E52 has already been generated can be determined by the fact that the identification information of the image component E52 is included in the identification information of the shape information F2.

また、共通要素抽出部12aは、組み合わせC57を用いた抽出処理において、画像P5を表す画像データと形状情報F2とに対応付けられた要素情報J52を既に生成しているので、新たに要素情報J52を生成しない。尚、要素情報J52を既に生成していることは、要素情報J52に、画像P5を表す画像データの識別情報と、形状情報F2と、が含まれていることで判断できる。共通要素抽出部12aは、画像P8を表す画像データと形状情報F2とに対応付けられた要素情報J82を生成する。   Further, since the common element extraction unit 12a has already generated the element information J52 associated with the image data representing the image P5 and the shape information F2 in the extraction process using the combination C57, the element information J52 is newly generated. Is not generated. The fact that the element information J52 has already been generated can be determined by the fact that the element information J52 includes the identification information of the image data representing the image P5 and the shape information F2. The common element extraction unit 12a generates element information J82 associated with the image data representing the image P8 and the shape information F2.

また、共通要素抽出部12aは、組み合わせC67に含まれる二つの画像P6、P7において形状が一致する画像構成要素は存在しないので、組み合わせC67からは共通要素を抽出しない。同様に、共通要素抽出部12aは、組み合わせC68に含まれる二つの画像P6、P8において形状が一致する画像構成要素は存在しないので、組み合わせC68からは共通要素を抽出しない。   Further, the common element extraction unit 12a does not extract a common element from the combination C67 because there is no image constituent element having the same shape in the two images P6 and P7 included in the combination C67. Similarly, the common element extraction unit 12a does not extract a common element from the combination C68 because there is no image component having the same shape in the two images P6 and P8 included in the combination C68.

また、共通要素抽出部12aは、組み合わせC78に含まれる二つの画像データが表す二つの画像P7、P8において、形状が一致する画像構成要素E72、E82を共通要素として抽出する。この場合、共通要素抽出部12は、組み合わせC57を用いた抽出処理において、共通要素E72の形状を示す形状情報F2を既に生成しているので、新たに形状情報F2を生成しない。また、共通要素抽出部12aは、組み合わせC57を用いた抽出処理において、画像P7を表す画像データと形状情報F2とに対応付けられた要素情報J72を生成しているので、新たに要素情報J72を生成しない。また、共通要素抽出部12aは、組み合わせC58を用いた抽出処理において、画像P8を表す画像データと形状情報F2とに対応付けられた要素情報J82を生成しているので、新たに要素情報J82を生成しない。   Further, the common element extraction unit 12a extracts, as common elements, image constituent elements E72 and E82 having the same shape in the two images P7 and P8 represented by the two image data included in the combination C78. In this case, since the common element extraction unit 12 has already generated the shape information F2 indicating the shape of the common element E72 in the extraction process using the combination C57, the common element extraction unit 12 does not newly generate the shape information F2. In addition, since the common element extraction unit 12a generates element information J72 associated with the image data representing the image P7 and the shape information F2 in the extraction process using the combination C57, the element information J72 is newly set. Do not generate. In addition, since the common element extraction unit 12a generates element information J82 associated with the image data representing the image P8 and the shape information F2 in the extraction processing using the combination C58, the element information J82 is newly added. Do not generate.

次に、図7に示すように、ステップS4aにおいて、差分画像生成部14aは、画像読取部21により生成された各画像データを用いて差分画像生成処理を行う。第二実施形態における差分画像生成処理とは、画像読取部21により生成された各画像データから、共通要素抽出部12aにより当該各画像データを用いて抽出された各共通要素に対応するデータを削除することにより、各画像データに対応する差分画像データをそれぞれ生成する処理である。   Next, as shown in FIG. 7, in step S <b> 4 a, the difference image generation unit 14 a performs difference image generation processing using each image data generated by the image reading unit 21. The difference image generation processing in the second embodiment is to delete data corresponding to each common element extracted by using the respective image data by the common element extraction unit 12a from each image data generated by the image reading unit 21. In this way, the difference image data corresponding to each image data is generated.

具体的には、差分画像生成部14aは、ステップS1aで生成され、RAMに記憶された画像P5を表す画像データから、ステップS2aで当該画像データを用いて抽出された共通要素E51、E52、E53の各画素に対応する画素を削除することにより、画像P5に対応する差分画像D5を生成する。そして、差分画像生成部14aは、差分画像D5を表す画像データを生成する。これにより、差分画像生成部14aは、画像P5を表す画像データから、当該画像データを用いて抽出された共通要素E51、E52、E53に対応するデータを削除している。そして、差分画像生成部14aは、当該生成した差分画像D5を表す画像データを、画像P5を表す画像データに対応する差分画像データとする。   Specifically, the difference image generation unit 14a generates common elements E51, E52, and E53 extracted from the image data representing the image P5 generated in step S1a and stored in the RAM using the image data in step S2a. The difference image D5 corresponding to the image P5 is generated by deleting the pixel corresponding to each pixel. Then, the difference image generation unit 14a generates image data representing the difference image D5. Thereby, the difference image generation unit 14a deletes data corresponding to the common elements E51, E52, and E53 extracted using the image data from the image data representing the image P5. Then, the difference image generation unit 14a sets the generated image data representing the difference image D5 as difference image data corresponding to the image data representing the image P5.

同様に、差分画像生成部14aは、ステップS1aで生成され、RAMに記憶された画像P6を表す画像データから、ステップS2aで当該画像データを用いて抽出された共通要素E61の各画素に対応する画素を削除することにより、画像P6に対応する差分画像D6を生成する。そして、差分画像生成部14aは、差分画像D6を表す画像データを生成し、当該生成した画像データを画像P6を表す画像データに対応する差分画像データとする。   Similarly, the difference image generation unit 14a corresponds to each pixel of the common element E61 extracted from the image data representing the image P6 generated in step S1a and stored in the RAM using the image data in step S2a. By deleting the pixels, a difference image D6 corresponding to the image P6 is generated. Then, the difference image generation unit 14a generates image data representing the difference image D6, and sets the generated image data as difference image data corresponding to the image data representing the image P6.

また、差分画像生成部14aは、ステップS1aで生成され、RAMに記憶された画像P7を表す画像データから、ステップS2aで当該画像データを用いて抽出された共通要素E72、E73の各画素に対応する画素を削除することにより、画像P7に対応する差分画像D7を生成する。そして、差分画像生成部14aは、差分画像D7を表す画像データを生成し、当該生成した画像データを画像P7を表す画像データに対応する差分画像データとする。   The difference image generation unit 14a corresponds to each pixel of the common elements E72 and E73 extracted from the image data representing the image P7 generated in step S1a and stored in the RAM using the image data in step S2a. The difference image D7 corresponding to the image P7 is generated by deleting the pixel to be processed. Then, the difference image generation unit 14a generates image data representing the difference image D7, and sets the generated image data as difference image data corresponding to the image data representing the image P7.

また、差分画像生成部14aは、ステップS1aで生成され、RAMに記憶された画像P8を表す画像データから、ステップS2aで当該画像データを用いて抽出された共通要素E82の各画素に対応する画素を削除することにより、画像P8に対応する差分画像D8を生成する。そして、差分画像生成部14aは、差分画像D8を表す画像データを生成し、当該生成した画像データを画像P8を表す画像データに対応する差分画像データとする。   In addition, the difference image generation unit 14a is a pixel corresponding to each pixel of the common element E82 extracted from the image data representing the image P8 generated in step S1a and stored in the RAM using the image data in step S2a. Is generated, a difference image D8 corresponding to the image P8 is generated. Then, the difference image generation unit 14a generates image data representing the difference image D8, and sets the generated image data as difference image data corresponding to the image data representing the image P8.

そして、ステップS5aにおいて、記憶処理部15aは、画像読取部21により生成された画像データに関連する各種データを記憶部24に記憶する記憶処理を行う。具体的には、記憶処理部15aは、当該記憶処理において、ステップS1aで生成された各画像P5〜P8を表す四個の画像データに関連するデータとして、ステップS2aにおいて共通要素抽出部12aにより生成された各形状情報F1〜F3と各要素情報J51〜J53、J61、J72、J73、J82と、ステップS4aにおいて差分画像生成部14aにより生成された各差分画像データ、つまり、差分画像D5〜D8を表す差分画像データと、を記憶部24に記憶する。   In step S <b> 5 a, the storage processing unit 15 a performs a storage process of storing various data related to the image data generated by the image reading unit 21 in the storage unit 24. Specifically, the storage processing unit 15a generates the data related to the four pieces of image data representing the images P5 to P8 generated in step S1a in the storage process by the common element extraction unit 12a in step S2a. Each piece of shape information F1 to F3, each piece of element information J51 to J53, J61, J72, J73, and J82, and each piece of difference image data generated by the difference image generation unit 14a in step S4a, that is, difference images D5 to D8. The difference image data to be expressed is stored in the storage unit 24.

尚、記憶処理部15aは、ステップS5aにおいて、各差分画像データを記憶部24に記憶するときは、第一実施形態のステップS5と同様に、当該各差分画像データに対応する画像データとの対応付けが分かるよう、例えば、当該画像データの識別情報を含むデータファイル名で記憶する。   The storage processing unit 15a, when storing each difference image data in the storage unit 24 in step S5a, corresponds to the image data corresponding to each difference image data as in step S5 of the first embodiment. For example, the data file name including the identification information of the image data is stored so that the attachment can be understood.

第二実施形態の構成によれば、共通要素抽出部12aは、画像読取部21により生成された複数の画像データを用いて得られる互いに異なる二つの画像データの組み合わせの全てを対象として、各組み合わせに含まれる二つの画像データが表す二つの画像において、形状が一致する画像構成要素を共通要素として抽出する。   According to the configuration of the second embodiment, the common element extraction unit 12a targets all combinations of two different image data obtained by using the plurality of image data generated by the image reading unit 21. In the two images represented by the two image data included in, image constituent elements having the same shape are extracted as common elements.

つまり、上記特許文献1等に記載の従来技術を用いたときには、二つの画像データが表す二つの画像(例:画像P5、P6)において、形状は一致するが配置位置及び装飾が一致しない画像構成要素(例:画像構成要素E51)を共通要素として抽出できなかった。しかし、当該発明の構成によれば、当該二つの画像(例:画像P5、P6)から、当該形状は一致するが配置位置及び装飾が一致しない画像構成要素(例:画像構成要素E51)を共通要素として抽出することができる。これにより、上記特許文献1等に記載の従来技術に比して、共通要素として抽出される画像構成要素の数を多くすることができる。   That is, when the conventional technique described in Patent Document 1 is used, in two images represented by two image data (for example, images P5 and P6), the image configuration has the same shape but does not match the arrangement position and decoration. An element (eg, image constituent element E51) could not be extracted as a common element. However, according to the configuration of the present invention, from the two images (for example, images P5 and P6), an image component (for example, image component E51) in which the shape matches but the arrangement position and decoration do not match is shared. It can be extracted as an element. As a result, the number of image components extracted as common elements can be increased as compared with the prior art described in Patent Document 1 and the like.

また、共通要素抽出部12aは、二つの画像データの組み合わせ(例:組み合わせC56)を用いて共通要素(例:共通要素E51、E61)を抽出すると、当該二つの画像データのそれぞれが表す画像(例:画像P5、P6)における当該共通要素の配置位置及び装飾を示す情報を、当該二つの画像データのそれぞれと、当該抽出された共通要素の形状を表す形状情報(例:形状情報F1)と、に対応付けられた要素情報(例:要素情報J51、J61)として生成する。   Further, when the common element extraction unit 12a extracts a common element (for example, common elements E51 and E61) using a combination of two pieces of image data (for example, combination C56), an image ( Example: Information indicating the arrangement position and decoration of the common element in the images P5 and P6), each of the two image data, and shape information (eg, shape information F1) indicating the shape of the extracted common element Are generated as element information (for example, element information J51, J61) associated with.

差分画像生成部14aは、共通要素(例:共通要素E61)を抽出するために用いられた画像データ(例:画像P6を表す画像データ)から、当該共通要素に対応するデータを削除して、当該画像データに対応する差分画像データ(例:差分画像D6を表す差分画像データ)を生成する。記憶処理部15aは、各形状情報、各要素情報、及び各差分画像データを記憶部24に記憶する。   The difference image generation unit 14a deletes data corresponding to the common element from the image data (example: image data representing the image P6) used to extract the common element (example: common element E61), Difference image data corresponding to the image data (eg, difference image data representing the difference image D6) is generated. The storage processing unit 15 a stores each shape information, each element information, and each difference image data in the storage unit 24.

つまり、第二実施形態の構成によれば、共通要素として抽出される画像構成要素の数を多くして、各差分画像データが表す画像に含まれる画像構成要素の数を少なくすることができる。これにより、複数の差分画像データにおいて重複して記憶される画像構成要素に対応するデータのデータ量を低減することができる。   That is, according to the configuration of the second embodiment, it is possible to increase the number of image components extracted as common elements and reduce the number of image components included in the image represented by each difference image data. Thereby, the data amount of the data corresponding to the image component stored redundantly in a plurality of difference image data can be reduced.

また、上記のように形状が一致するが配置位置及び装飾が一致しない画像構成要素を共通要素として数多く抽出した場合に、当該各共通要素に対応するデータをそのまま記憶部24に記憶するとする。この場合、当該各共通要素に対応するデータに含まれる当該各共通要素の形状に対応するデータが重複して記憶部24に記憶されることになる。   Further, when a large number of image constituent elements whose shapes match but whose arrangement positions and decorations do not match as described above are extracted as common elements, data corresponding to the respective common elements is stored in the storage unit 24 as it is. In this case, the data corresponding to the shape of each common element included in the data corresponding to each common element is stored in the storage unit 24 in duplicate.

しかし、第二実施形態の構成によれば、共通要素の形状を示す形状情報を個別に記憶部24に記憶する。このため、各共通要素に対応するデータに含まれる当該各共通要素の形状に対応するデータを重複して記憶部24に記憶することを回避し、記憶部24に記憶されるデータのデータ量を低減することができる。   However, according to the configuration of the second embodiment, shape information indicating the shape of the common element is individually stored in the storage unit 24. For this reason, it is avoided that the data corresponding to the shape of each common element included in the data corresponding to each common element is stored in the storage unit 24 in duplicate, and the amount of data stored in the storage unit 24 is reduced. Can be reduced.

つまり、第二実施形態の構成によれば、複数の差分画像データのデータ量を低減し、且つ、各共通要素に対応するデータを記憶するに当たり、各共通要素の形状に対応するデータを重複しないように記憶することで、記憶部24に記憶されるデータのデータ量を低減することができる。   That is, according to the configuration of the second embodiment, the data corresponding to the shape of each common element is not duplicated when the data amount of the plurality of difference image data is reduced and the data corresponding to each common element is stored. By storing in this way, the amount of data stored in the storage unit 24 can be reduced.

また、記憶部24から各差分画像データ(例:差分画像D6を表す差分画像データ)を取得し、当該各差分画像データに対応する画像データ(例:画像P6を表す画像データ)に対応付けられた各要素情報(例:要素情報J61)を記憶部24から取得し、更に、当該各要素情報に対応付けられた形状情報(例:形状情報F1)とを取得する。そして、形状が当該取得した形状情報が示す形状(例:左下直角三角形、各辺の長さ)に一致し、且つ、配置位置及び装飾が当該取得した各要素情報が示す配置位置(例:座標(x51、y51))及び装飾(例:白塗潰し)と一致する画像構成要素を、当該取得した当該各差分画像データが表す画像(例:差分画像D6)に合成し、当該合成した画像を表す画像データを生成することで、本来の原稿の画像(例:画像P6)を表す画像データを復元することができる。つまり、第二実施形態の構成によれば、本来の原稿の画像を表す画像データを復元可能なデータを記憶部24に記憶することができる。   In addition, each difference image data (eg, difference image data representing the difference image D6) is acquired from the storage unit 24, and is associated with image data (eg, image data representing the image P6) corresponding to each difference image data. Each element information (example: element information J61) is acquired from the storage unit 24, and further, shape information (example: shape information F1) associated with each element information is acquired. Then, the shape matches the shape indicated by the acquired shape information (e.g., the lower left right triangle, the length of each side), and the arrangement position and decoration are indicated by the acquired element information (e.g., coordinates) (X51, y51)) and image components that match the decoration (eg, white filling) are combined with the image (eg, difference image D6) represented by each acquired difference image data, and the combined image is displayed. By generating the image data that represents the image data, it is possible to restore the image data that represents the original document image (eg, image P6). In other words, according to the configuration of the second embodiment, data that can restore image data representing the original image of the original can be stored in the storage unit 24.

尚、上記第二実施形態は、本発明に係る実施形態の例示に過ぎず、本発明を上記第二実施形態に限定する趣旨ではない。例えば、以下に示す、上記第二実施形態を変形した実施形態であってもよい。   In addition, said 2nd embodiment is only the illustration of embodiment which concerns on this invention, and is not the meaning which limits this invention to said 2nd embodiment. For example, an embodiment obtained by modifying the second embodiment described below may be used.

例えば、図4の破線部に示すように、制御部10が、画像復元部18aとして動作するようにしてもよい。画像復元部18aは、記憶部24に記憶されている各差分画像データが表す画像に、記憶部24に記憶されている要素情報のうちの当該各差分画像データに対応する画像データに対応付けられた各要素情報と、当該各要素情報に対応付けられた形状情報と、を用いて、形状が当該形状情報が示す形状に一致し、且つ、配置位置及び装飾が当該各要素情報が示す配置位置及び装飾と一致する画像構成要素を合成して、当該合成した画像を表す画像データを生成する。そして、画像復元部18aは、当該生成した画像データを当該各差分画像データに対応する原稿の画像を表す画像データとして復元する。   For example, as indicated by a broken line portion in FIG. 4, the control unit 10 may operate as the image restoration unit 18a. The image restoration unit 18 a associates the image represented by each difference image data stored in the storage unit 24 with image data corresponding to each difference image data among the element information stored in the storage unit 24. Using the element information and the shape information associated with the element information, the shape matches the shape indicated by the shape information, and the arrangement position and the decoration are the arrangement positions indicated by the element information. Then, the image constituent elements matching the decoration are synthesized, and image data representing the synthesized image is generated. Then, the image restoration unit 18a restores the generated image data as image data representing an image of a document corresponding to each difference image data.

具体的には、図7に示すように、第二実施形態で説明した制御が制御部10によって行われ、記憶部24に、形状情報F1〜F3と、要素情報J51〜J53、J61、J72、J73、J82と、差分画像D5〜D8を表す差分画像データとが記憶されているものとする。この場合に、ユーザーによる操作部23の操作によって、記憶部24に記憶されているデータに基づいて画像形成部22に用紙に画像を再形成させる指示が入力され、当該指示が制御部10によって受け付けられたとする。   Specifically, as illustrated in FIG. 7, the control described in the second embodiment is performed by the control unit 10, and the shape information F <b> 1 to F <b> 3 and the element information J <b> 51 to J <b> 53, J <b> 61, J <b> 72, Assume that J73 and J82 and difference image data representing difference images D5 to D8 are stored. In this case, by the operation of the operation unit 23 by the user, an instruction to re-form the image on the sheet is input to the image forming unit 22 based on the data stored in the storage unit 24, and the instruction is received by the control unit 10. Suppose that

この場合、画像復元部18aは、以下に示すように、記憶部24に記憶されている差分画像D5を表す差分画像データを用いて、当該差分画像データに対応する原稿の画像P5(図5)を表す画像データを復元する。   In this case, the image restoration unit 18a uses the difference image data representing the difference image D5 stored in the storage unit 24 as will be described below, and the document image P5 corresponding to the difference image data (FIG. 5). The image data representing is restored.

画像復元部18aは、記憶部24に記憶されている要素情報J51〜J53、J61、J72、J73、J82のうち、当該差分画像データに対応する画像P5を表す画像データに対応付けられた各要素情報J51〜J53を取得する。また、画像復元部18aは、当該取得した要素情報J51〜J53のそれぞれに対応付けられた形状情報F1〜F3を記憶部24から取得する。   The image restoration unit 18a includes each element associated with the image data representing the image P5 corresponding to the difference image data among the element information J51 to J53, J61, J72, J73, and J82 stored in the storage unit 24. Information J51-J53 is acquired. Further, the image restoration unit 18a acquires the shape information F1 to F3 associated with each of the acquired element information J51 to J53 from the storage unit 24.

そして、画像復元部18aは、要素情報J51と要素情報J51に対応付られた形状情報F1とを用いて、形状が形状情報F1が示す形状に一致し、且つ、配置位置及び装飾が要素情報J51が示す配置位置及び装飾と一致する画像構成要素を、当該差分画像データが表す差分画像D5に合成する。また、画像復元部18aは、要素情報J52と要素情報J52に対応付られた形状情報F2とを用いて、形状が形状情報F2が示す形状に一致し、且つ、配置位置及び装飾が要素情報J52が示す配置位置及び装飾と一致する画像構成要素を、上記合成後の画像に更に合成する。また、画像復元部18aは、要素情報J53と要素情報J53に対応付けられた形状情報F3とを用いて、形状が形状情報F3が示す形状に一致し、且つ、配置位置及び装飾が要素情報J53が示す配置位置及び装飾と一致する画像構成要素を、上記更に合成した後の画像に合成する。   Then, the image restoration unit 18a uses the element information J51 and the shape information F1 associated with the element information J51, the shape matches the shape indicated by the shape information F1, and the arrangement position and decoration are the element information J51. Is combined with the difference image D5 represented by the difference image data. Further, the image restoration unit 18a uses the element information J52 and the shape information F2 associated with the element information J52 to match the shape indicated by the shape information F2, and the arrangement position and decoration are the element information J52. Are further combined with the combined image. Further, the image restoration unit 18a uses the element information J53 and the shape information F3 associated with the element information J53, the shape matches the shape indicated by the shape information F3, and the arrangement position and decoration are the element information J53. Is combined with the image after further combining.

そして、画像復元部18aは、当該三度の合成をした後の画像を表す画像データを生成し、これを当該差分画像データに対応する原稿の画像P5を表す画像データとして出力する。   Then, the image restoration unit 18a generates image data representing the image after the third synthesis, and outputs the image data as image data representing the original image P5 corresponding to the difference image data.

同様に、画像復元部18aは、記憶部24に記憶されている差分画像D6を表す差分画像データを用いて、当該差分画像データに対応する画像P6を表す画像データに対応付けられた要素情報J61と、当該要素情報J61に対応付けられた形状情報F1と、を記憶部24から取得する。そして、画像復元部18aは、当該取得した要素情報J61と形状情報F1とを用いて、差分画像D6を表す差分画像データに対応する原稿の画像P6を表す画像データを出力する。同様に、画像復元部18aは、記憶部24に記憶されている差分画像D7を表す差分画像データに対応する原稿の画像P7を表す画像データと、差分画像D8を表す差分画像データに対応する原稿の画像P8を表す画像データと、を出力する。   Similarly, the image restoration unit 18a uses the difference image data representing the difference image D6 stored in the storage unit 24, and element information J61 associated with the image data representing the image P6 corresponding to the difference image data. And shape information F1 associated with the element information J61 is acquired from the storage unit 24. Then, the image restoration unit 18a outputs image data representing the document image P6 corresponding to the difference image data representing the difference image D6, using the acquired element information J61 and the shape information F1. Similarly, the image restoration unit 18a stores image data representing the image P7 of the document corresponding to the difference image data representing the difference image D7 stored in the storage unit 24 and document corresponding to the difference image data representing the difference image D8. And image data representing the image P8.

そして、制御部10は、画像復元部18aによって復元された画像P5〜P8を表す画像データに基づき、画像形成部22に用紙に画像を形成させる。   Then, the control unit 10 causes the image forming unit 22 to form an image on a sheet based on the image data representing the images P5 to P8 restored by the image restoration unit 18a.

第二実施形態に係る当該変形実施形態では、画像復元部18aによって、記憶部24に記憶されているデータを用いて、画像読取部21によって生成された画像データを復元することができる。このため、画像読取部21によって生成された画像データに基づく画像形成動作と同じ画像形成動作を再び画像形成部22に行わせる等、画像読取部21によって生成された画像データに基づく処理を再実行することができる。   In the modified embodiment according to the second embodiment, the image data generated by the image reading unit 21 can be restored by using the data stored in the storage unit 24 by the image restoration unit 18a. Therefore, the process based on the image data generated by the image reading unit 21 is re-executed, such as causing the image forming unit 22 to perform the same image forming operation as the image forming operation based on the image data generated by the image reading unit 21 again. can do.

(第三実施形態)
次に、制御部10が画像読取部21により生成された画像データに関連するデータを記憶部24に記憶する制御の第三実施形態について説明する。図8は、第三実施形態における複写機1の電気的構成を示すブロック図である。尚、第三実施形態において、第一実施形態及び第二実施形態と同じものは、同一の符号を付し、その説明を省略する。
(Third embodiment)
Next, a third embodiment of control in which the control unit 10 stores data related to the image data generated by the image reading unit 21 in the storage unit 24 will be described. FIG. 8 is a block diagram showing an electrical configuration of the copying machine 1 in the third embodiment. In addition, in 3rd embodiment, the same thing as 1st embodiment and 2nd embodiment attaches | subjects the same code | symbol, and abbreviate | omits the description.

第三実施形態において、制御部10は、図8の実線部に示すように、特に、読取制御部11、共通要素抽出部12b、差分画像生成部14b、及び記憶処理部15bとして動作する。また、記憶部24には、複数の画像において共通する画像構成要素の候補として予め定められた後述の共通要素候補を示す候補データが記憶されている。   In the third embodiment, the control unit 10 particularly operates as the reading control unit 11, the common element extraction unit 12b, the difference image generation unit 14b, and the storage processing unit 15b, as shown by the solid line portion in FIG. In addition, the storage unit 24 stores candidate data indicating common element candidates to be described later, which are predetermined as image component element candidates common to a plurality of images.

尚、以下の説明では、画像読取部21が三個の原稿を読み取り、三個の原稿の画像を表す三個の画像データを生成する場合を具体例として用いる。図9及び図10は、画像読取部21により生成された画像データに関連するデータを記憶部24に記憶する制御の動作を示す図である。   In the following description, a case where the image reading unit 21 reads three documents and generates three image data representing images of the three documents is used as a specific example. FIGS. 9 and 10 are diagrams illustrating a control operation for storing data related to the image data generated by the image reading unit 21 in the storage unit 24.

図9に示すように、ステップS1bにおいて、読取制御部11は、画像読取部21を制御して、複数の原稿を読み取らせ、当該複数の原稿の画像を表す複数の画像データを生成させる。そして、読取制御部11は、画像読取部21により生成された複数の画像データをRAMに記憶する。   As shown in FIG. 9, in step S1b, the reading control unit 11 controls the image reading unit 21 to read a plurality of documents and generate a plurality of image data representing images of the plurality of documents. The reading control unit 11 stores a plurality of image data generated by the image reading unit 21 in the RAM.

具体的には、読取制御部11は、画像読取部21に三個の原稿を読み取らせ、当該三個の原稿の画像P9〜P11を表す三個の画像データを生成させる。そして、読取制御部11は、当該生成された三個の画像データをRAMに記憶する。   Specifically, the reading control unit 11 causes the image reading unit 21 to read three documents, and generates three image data representing the images P9 to P11 of the three documents. The reading control unit 11 stores the generated three pieces of image data in the RAM.

次に、ステップS2bにおいて、共通要素抽出部12bは、画像読取部21が複数の原稿を読み取って生成した複数の画像データを用いて抽出処理を行う。第三実施形態における抽出処理は、画像読取部21により生成された各画像データが表す画像に含まれる、記憶部24に記憶されている候補データが示す共通要素候補を、縮小、等倍又は拡大した画像構成要素を共通要素として抽出する処理と、当該各画像データに対応付けられた、当該各画像データが表す画像における当該抽出した共通要素の配置位置と共通要素候補に対する当該共通要素のサイズ比とを示す要素情報を生成する処理と、で構成されている。尚、抽出処理は、公知の画像パターン認識技術を用いて行う。   Next, in step S2b, the common element extraction unit 12b performs an extraction process using a plurality of image data generated by the image reading unit 21 reading a plurality of originals. In the extraction process in the third embodiment, the common element candidate indicated by the candidate data stored in the storage unit 24 included in the image represented by each image data generated by the image reading unit 21 is reduced, equal-magnification, or enlarged. The extracted image component as a common element, and the arrangement ratio of the extracted common element in the image represented by the image data and the size ratio of the common element to the common element candidate associated with the image data And a process of generating element information indicating the above. The extraction process is performed using a known image pattern recognition technique.

具体的には、共通要素抽出部12bは、ステップS1bで生成された三個の画像P9〜P11を表す三個の画像データを抽出処理の対象とする。共通要素抽出部12bは、記憶部24に記憶されている候補データを取得し、当該候補データが表す共通要素候補E0を予め定められた縮小率で縮小する。以下、具体例として、当該縮小率は、1/2倍であるものとする。ただし、縮小率をこれに限定する趣旨ではない。   Specifically, the common element extraction unit 12b uses three pieces of image data representing the three images P9 to P11 generated in step S1b as extraction targets. The common element extraction unit 12b acquires candidate data stored in the storage unit 24, and reduces the common element candidate E0 represented by the candidate data at a predetermined reduction rate. Hereinafter, as a specific example, it is assumed that the reduction ratio is ½. However, the reduction ratio is not limited to this.

そして、共通要素抽出部12bは、三個の画像P9〜P11に含まれる、共通要素候補E0を1/2倍に縮小した画像構成要素を共通要素として抽出する。具体的には、図9に示すように、共通要素抽出部12bは、画像P11に含まれる画像構成要素EAを共通要素として抽出する。   Then, the common element extraction unit 12b extracts, as common elements, image constituent elements that are included in the three images P9 to P11 and are reduced by a factor of two from the common element candidate E0. Specifically, as shown in FIG. 9, the common element extraction unit 12b extracts the image constituent element EA included in the image P11 as a common element.

そして、共通要素抽出部12bは、画像P11を表す画像データに対応付けられた、画像P11における当該抽出した共通要素EAの配置位置と共通要素候補E0に対する当該共通要素EAのサイズ比とを示す要素情報J11Aを生成する。   Then, the common element extraction unit 12b is an element indicating the arrangement position of the extracted common element EA in the image P11 and the size ratio of the common element EA to the common element candidate E0, which are associated with the image data representing the image P11. Information J11A is generated.

例えば、図9に示すように、要素情報J11Aは、画像P11を表す画像データとの対応付けのために、画像P11を表す画像データの識別情報を含んでいる。画像データの識別情報は、例えば、画像データが生成された年月日時分秒とページ番号を示す情報(例:「YYYY年MM月DD日 HH時MI分SS秒 PAGE 3 OF 3」等)で構成されている。   For example, as shown in FIG. 9, the element information J11A includes identification information of the image data representing the image P11 for association with the image data representing the image P11. The identification information of the image data is, for example, information indicating the year / month / day / hour / minute / second and the page number (for example, “YYYY year MM month DD day HH hour MI minute SS second PAGE 3 OF 3”). It is configured.

また、要素情報J11Aは、共通要素EAの配置位置を示す、画像P11における共通要素EAの最左端及び最上端の座標情報「(x11A、y11A)」を含んでいる。更に、要素情報J11Aは、共通要素候補E0に対する当該共通要素EAのサイズ比を示す情報「1/2倍」を含んでいる。   The element information J11A includes the coordinate information “(x11A, y11A)” of the leftmost end and the uppermost end of the common element EA in the image P11 that indicates the arrangement position of the common element EA. Furthermore, the element information J11A includes information “½ times” indicating the size ratio of the common element EA to the common element candidate E0.

次に、共通要素抽出部12bは、抽出処理の対象とする三個の画像データが表す三個の画像P9〜P11に含まれる、共通要素候補E0を等倍にした画像構成要素を共通要素として抽出する。この場合、共通要素抽出部12bは、画像P10に含まれる画像構成要素EBと、画像P11に含まれる画像構成要素ECと、を共通要素として抽出する。   Next, the common element extraction unit 12b uses, as a common element, image constituent elements that are included in the three images P9 to P11 represented by the three pieces of image data to be subjected to the extraction process and have the common element candidate E0 at the same magnification. Extract. In this case, the common element extraction unit 12b extracts the image constituent element EB included in the image P10 and the image constituent element EC included in the image P11 as common elements.

そして、上記と同様にして、共通要素抽出部12bは、画像P10を表す画像データに対応付けられた、画像P10における当該抽出した共通要素EBの配置位置と共通要素候補E0に対する当該共通要素EBのサイズ比とを示す要素情報J10Bを生成する。また、共通要素抽出部12bは、画像P11を表す画像データに対応付けられた、画像P11における当該抽出した共通要素ECの配置位置と共通要素候補E0に対する当該共通要素ECのサイズ比とを示す要素情報J11Cを生成する。   Similarly to the above, the common element extraction unit 12b associates the extracted common element EB with the arrangement position of the extracted common element EB in the image P10 and the common element EB with respect to the common element candidate E0 associated with the image data representing the image P10. Element information J10B indicating the size ratio is generated. Further, the common element extraction unit 12b is an element indicating the arrangement position of the extracted common element EC in the image P11 and the size ratio of the common element EC with respect to the common element candidate E0, which are associated with the image data representing the image P11. Information J11C is generated.

尚、共通要素抽出部12bは、当該共通要素候補E0を等倍にした画像構成要素を共通要素として抽出し、要素情報を生成する処理を行う前に、更に、上記の縮小率(1/2倍)とは異なる予め定められた縮小率で共通要素候補E0を縮小した画像構成要素を共通要素として抽出し、要素情報を生成する処理を行ってもよい。   Note that the common element extraction unit 12b further extracts the image component obtained by magnifying the common element candidate E0 as a common element, and further performs the above reduction ratio (1/2) before performing the process of generating element information. The image component obtained by reducing the common element candidate E0 with a predetermined reduction rate different from (multiple) may be extracted as a common element, and processing for generating element information may be performed.

更に、共通要素抽出部12bは、共通要素候補E0を予め定められた拡大率で拡大する。以下、具体例として、当該拡大率は、2倍であるものとする。ただし、拡大率をこれに限定する趣旨ではない。   Further, the common element extraction unit 12b expands the common element candidate E0 at a predetermined enlargement rate. Hereinafter, as a specific example, it is assumed that the enlargement ratio is double. However, the enlargement ratio is not limited to this.

そして、共通要素抽出部12bは、三個の画像P9〜P11に含まれる、共通要素候補E0を2倍に拡大した画像構成要素を共通要素として抽出する。具体的には、図9に示すように、共通要素抽出部12bは、画像P9に含まれる画像構成要素EDを共通要素として抽出する。そして、上記と同様にして、共通要素抽出部12bは、画像P9を表す画像データに対応付けられた、画像P9における当該抽出した共通要素EDの配置位置と共通要素候補E0に対する当該共通要素EDのサイズ比とを示す要素情報J9Dを生成する。   Then, the common element extraction unit 12b extracts, as common elements, image constituent elements that are included in the three images P9 to P11 and that are twice the common element candidate E0. Specifically, as shown in FIG. 9, the common element extraction unit 12b extracts the image constituent element ED included in the image P9 as a common element. In the same manner as described above, the common element extraction unit 12b associates the extracted common element ED in the image P9 with the arrangement position of the extracted common element ED in the image P9 and the common element ED corresponding to the common element candidate E0. Element information J9D indicating the size ratio is generated.

尚、共通要素抽出部12bは、更に、上記の拡大率(2倍)とは異なる予め定められた拡大率で共通要素候補E0を拡大した画像構成要素を共通要素として抽出し、要素情報を生成する処理を行ってもよい。   Note that the common element extraction unit 12b further extracts, as common elements, image constituent elements obtained by enlarging the common element candidate E0 at a predetermined enlargement ratio different from the above enlargement ratio (twice), and generates element information. You may perform the process to do.

次に、図10に示すように、ステップS4bにおいて、差分画像生成部14bは、画像読取部21により生成された各画像データを用いて差分画像生成処理を行う。第三実施形態における差分画像生成処理とは、画像読取部21により生成された各画像データから、共通要素抽出部12bにより当該各画像データを用いて抽出された各共通要素に対応するデータを削除することにより、各画像データに対応する差分画像データをそれぞれ生成する処理である。   Next, as illustrated in FIG. 10, in step S <b> 4 b, the difference image generation unit 14 b performs difference image generation processing using each image data generated by the image reading unit 21. The difference image generation process in the third embodiment is to delete data corresponding to each common element extracted using each image data by the common element extraction unit 12b from each image data generated by the image reading unit 21. In this way, the difference image data corresponding to each image data is generated.

具体的には、差分画像生成部14bは、ステップS1bで生成され、RAMに記憶された画像P9を表す画像データから、ステップS2bで当該画像データを用いて抽出された共通要素EDの各画素に対応する画素を削除することにより、画像P9に対応する差分画像D9を生成する。そして、差分画像生成部14bは、差分画像D9を表す画像データを生成する。これにより、差分画像生成部14bは、画像P9を表す画像データから、当該画像データを用いて抽出された共通要素EDに対応するデータを削除している。そして、差分画像生成部14bは、当該生成した差分画像D9を表す画像データを画像P9を表す画像データに対応する差分画像データとする。   Specifically, the difference image generation unit 14b applies each pixel of the common element ED extracted from the image data representing the image P9 generated in step S1b and stored in the RAM using the image data in step S2b. A difference image D9 corresponding to the image P9 is generated by deleting the corresponding pixel. Then, the difference image generation unit 14b generates image data representing the difference image D9. Thereby, the difference image generation unit 14b deletes the data corresponding to the common element ED extracted using the image data from the image data representing the image P9. Then, the difference image generation unit 14b sets the generated image data representing the difference image D9 as difference image data corresponding to the image data representing the image P9.

同様に、差分画像生成部14bは、ステップS1bで生成され、RAMに記憶された画像P10を表す画像データから、ステップS2bで当該画像データを用いて抽出された共通要素EBの各画素に対応する画素を削除することにより、画像P10に対応する差分画像D10を生成する。そして、差分画像生成部14bは、差分画像D10を表す画像データを生成し、当該生成した画像データを画像P10を表す画像データに対応する差分画像データとする。   Similarly, the difference image generation unit 14b corresponds to each pixel of the common element EB extracted from the image data representing the image P10 generated in step S1b and stored in the RAM using the image data in step S2b. The difference image D10 corresponding to the image P10 is generated by deleting the pixels. Then, the difference image generation unit 14b generates image data representing the difference image D10, and sets the generated image data as difference image data corresponding to the image data representing the image P10.

また、差分画像生成部14bは、ステップS1bで生成され、RAMに記憶された画像P11を表す画像データから、ステップS2bで当該画像データを用いて抽出された2つの共通要素EA、ECの各画素に対応する画素を削除することにより、画像P11に対応する差分画像D11を生成する。そして、差分画像生成部14bは、差分画像D11を表す画像データを生成し、当該生成した画像データを画像P11を表す画像データに対応する差分画像データとする。   Further, the difference image generation unit 14b generates each pixel of the two common elements EA and EC extracted from the image data representing the image P11 generated in step S1b and stored in the RAM using the image data in step S2b. The difference image D11 corresponding to the image P11 is generated by deleting the pixels corresponding to. Then, the difference image generation unit 14b generates image data representing the difference image D11, and sets the generated image data as difference image data corresponding to the image data representing the image P11.

そして、ステップS5bにおいて、記憶処理部15bは、画像読取部21により生成された画像データに関連する各種データを記憶部24に記憶する記憶処理を行う。具体的には、記憶処理部15bは、当該記憶処理において、ステップS1bで生成された画像P9〜P11を表す画像データに関連するデータとして、ステップS2bにおいて共通要素抽出部12bにより生成された各要素情報J9D、J10B、J11A、J11Cと、ステップS4bにおいて差分画像生成部14bにより生成された各差分画像データ、つまり、差分画像D9〜D11を表す差分画像データと、を記憶部24に記憶する。   In step S <b> 5 b, the storage processing unit 15 b performs storage processing for storing various data related to the image data generated by the image reading unit 21 in the storage unit 24. Specifically, the storage processing unit 15b uses each element generated by the common element extraction unit 12b in step S2b as data related to the image data representing the images P9 to P11 generated in step S1b in the storage processing. Information J9D, J10B, J11A, J11C and the difference image data generated by the difference image generation unit 14b in step S4b, that is, difference image data representing the difference images D9 to D11 are stored in the storage unit 24.

尚、記憶処理部15bは、ステップS5bにおいて、各差分画像データを記憶部24に記憶するときは、第一実施形態のステップS5と同様に、当該各差分画像データに対応する画像データとの対応付けが分かるよう、例えば、当該画像データの識別情報を含むデータファイル名で記憶する。   The storage processing unit 15b, when storing each difference image data in the storage unit 24 in step S5b, corresponds to the image data corresponding to each difference image data as in step S5 of the first embodiment. For example, the data file name including the identification information of the image data is stored so that the attachment can be understood.

第三実施形態の構成によれば、共通要素抽出部12bは、各画像データが表す画像(例:画像P9)において、共通要素候補E0を縮小、等倍又は拡大した画像構成要素(例:画像構成要素ED)を共通要素として抽出し、当該共通要素を抽出するために用いられた画像データ(例:画像P9を表す画像データ)から、当該共通要素に対応するデータを削除して、当該画像データに対応する差分画像データ(例:差分画像D9を表す画像データ)を生成する。つまり、各画像データから、共通要素候補E0とは大きさが同じ又は異なる画像構成要素に対応するデータを削除して、差分画像データを生成する。   According to the configuration of the third embodiment, the common element extraction unit 12b reduces, equals, or enlarges the common element candidate E0 in the image (for example, the image P9) represented by each image data (for example, the image). Component ED) is extracted as a common element, data corresponding to the common element is deleted from the image data used to extract the common element (eg, image data representing the image P9), and the image Difference image data corresponding to the data (eg, image data representing the difference image D9) is generated. That is, difference image data is generated by deleting data corresponding to image constituent elements having the same or different size from the common element candidate E0 from each image data.

したがって、複数の差分画像データを記憶部24に記憶することによって、共通要素候補E0とは大きさの異なる画像構成要素に対応するデータが記憶部24に記憶されることを回避することができる。これにより、記憶部24に記憶されるデータのデータ量を低減することができる。   Therefore, by storing a plurality of difference image data in the storage unit 24, it is possible to avoid storing data corresponding to image constituent elements having a different size from the common element candidate E0 in the storage unit 24. Thereby, the data amount of the data memorize | stored in the memory | storage part 24 can be reduced.

また、第三実施形態の構成によれば、共通要素抽出部12bは、共通要素候補E0を縮小、等倍又は拡大した画像構成要素(例:画像構成要素ED)を共通要素として抽出すると、当該共通要素を抽出するために用いられた画像データが表す画像(例:画像P9)における当該共通要素の配置位置(例:座標(x9D、y9D))及び共通要素候補E0に対する当該共通要素のサイズ比(例:2倍)を、当該画像データに対応付けられた要素情報(例:要素情報J9D)として生成する。そして、記憶処理部15bは、各要素情報及び各差分画像データを記憶部24に記憶する。   Further, according to the configuration of the third embodiment, the common element extraction unit 12b extracts the image component (for example, the image component ED) obtained by reducing, magnifying, or enlarging the common element candidate E0 as a common element. The arrangement position (eg, coordinates (x9D, y9D)) of the common element in the image (eg, image P9) represented by the image data used to extract the common element, and the size ratio of the common element to the common element candidate E0 (Example: double) is generated as element information (example: element information J9D) associated with the image data. Then, the storage processing unit 15 b stores each element information and each difference image data in the storage unit 24.

したがって、記憶部24から各差分画像データ(例:差分画像D9を表す画像データ)を取得し、当該各差分画像データに対応する画像データ(例:画像P9を表す画像データ)に対応付けられた各要素情報(例:要素情報J9D)を記憶部24から取得する。そして、当該取得した各差分画像データが表す画像(例:差分画像D9)における当該取得した各要素情報が示す配置位置(例:座標(x9D、y9D))に、当該各要素情報が示すサイズ比(例:2倍)に応じて共通要素候補を縮小、等倍又は拡大した画像構成要素を合成し、当該合成した画像を表す画像データを生成することで、本来の原稿の画像(例:画像P9)を表す画像データを復元することができる。つまり、第三実施形態の構成によれば、本来の原稿の画像を表す画像データを復元可能なデータを記憶部24に記憶することができる。   Therefore, each difference image data (for example, image data representing the difference image D9) is acquired from the storage unit 24, and is associated with the image data (for example, image data representing the image P9) corresponding to each difference image data. Each element information (eg, element information J9D) is acquired from the storage unit 24. Then, the size ratio indicated by each element information in the arrangement position (eg, coordinates (x9D, y9D)) indicated by each acquired element information in the image (eg, difference image D9) represented by each acquired difference image data. An image of the original document (e.g., image) is generated by combining image components obtained by reducing, multiplying, or enlarging the common element candidates according to (e.g., 2 times) and generating image data representing the combined image Image data representing P9) can be restored. That is, according to the configuration of the third embodiment, data that can restore image data representing an original document image can be stored in the storage unit 24.

尚、上記第三実施形態は、本発明に係る実施形態の例示に過ぎず、本発明を上記第三実施形態に限定する趣旨ではない。例えば、以下に示す、上記第三実施形態を変形した実施形態であってもよい。   The third embodiment is merely an example of the embodiment according to the present invention, and is not intended to limit the present invention to the third embodiment. For example, an embodiment obtained by modifying the third embodiment described below may be used.

(1)例えば、図8の破線部に示すように、制御部10が、画像復元部18bとして動作するようにしてもよい。画像復元部18bは、記憶部24に記憶されている各差分画像データが表す画像における、記憶部24に記憶されている要素情報のうちの当該各差分画像データに対応する画像データに対応付けられた各要素情報が示す配置位置に、当該各要素情報が示すサイズ比に応じて共通要素候補を縮小、等倍又は拡大した画像構成要素を合成して、当該合成した画像を表す画像データを生成することにより、当該各差分画像データに対応する原稿の画像を表す画像データを復元する。   (1) For example, as indicated by the broken line portion in FIG. 8, the control unit 10 may operate as the image restoration unit 18b. The image restoration unit 18b is associated with image data corresponding to each difference image data among the element information stored in the storage unit 24 in the image represented by each difference image data stored in the storage unit 24. The image components representing the combined image are generated by combining the image component elements obtained by reducing, magnifying, or enlarging the common element candidates according to the size ratio indicated by the element information at the arrangement position indicated by the element information. As a result, the image data representing the image of the document corresponding to each difference image data is restored.

具体的には、図10に示すように、第三実施形態で説明した制御が制御部10によって行われ、記憶部24に、要素情報J9D、J10B、J11A、J11Cと、差分画像D9〜D11を表す差分画像データとが記憶されているものとする。この場合に、ユーザーによる操作部23の操作によって、記憶部24に記憶されているデータに基づいて画像形成部22に用紙に画像を再形成させる指示が入力され、当該指示が制御部10によって受け付けられたとする。   Specifically, as illustrated in FIG. 10, the control described in the third embodiment is performed by the control unit 10, and the element information J9D, J10B, J11A, J11C and the difference images D9 to D11 are stored in the storage unit 24. Assume that difference image data to be expressed is stored. In this case, by the operation of the operation unit 23 by the user, an instruction to re-form the image on the sheet is input to the image forming unit 22 based on the data stored in the storage unit 24, and the instruction is received by the control unit 10. Suppose that

この場合、画像復元部18bは、以下に示すように、記憶部24に記憶されている差分画像D9を表す差分画像データに対応する、原稿の画像P9(図9)を表す画像データを復元する。   In this case, the image restoration unit 18b restores image data representing the original image P9 (FIG. 9) corresponding to the difference image data representing the difference image D9 stored in the storage unit 24 as described below. .

画像復元部18bは、記憶部24に記憶されている要素情報J9D、J10B、J11A、J11Cのうち、当該差分画像データに対応する画像P9を表す画像データに対応付けられた各要素情報J9Dを取得する。また、画像復元部18bは、記憶部24に記憶されている候補データを取得する。   The image restoration unit 18b acquires each piece of element information J9D associated with the image data representing the image P9 corresponding to the difference image data among the element information J9D, J10B, J11A, and J11C stored in the storage unit 24. To do. In addition, the image restoration unit 18b acquires candidate data stored in the storage unit 24.

画像復元部18bは、取得した候補データが示す共通要素候補E0を、取得した要素情報J9Dが示すサイズ比に応じて2倍に拡大した画像構成要素を生成する。そして、画像復元部18bは、当該生成した画像構成要素を、当該差分画像データが表す差分画像D9における、要素情報J9Dが示す配置位置に合成する。そして、画像復元部18bは、当該合成後の画像を表す画像データを生成し、これを当該差分画像データに対応する原稿の画像P9を表す画像データとして出力する。   The image restoration unit 18b generates an image constituent element in which the common element candidate E0 indicated by the acquired candidate data is doubled according to the size ratio indicated by the acquired element information J9D. Then, the image restoration unit 18b synthesizes the generated image constituent element with the arrangement position indicated by the element information J9D in the difference image D9 represented by the difference image data. Then, the image restoration unit 18b generates image data representing the combined image, and outputs this as image data representing the document image P9 corresponding to the difference image data.

同様に、画像復元部18bは、記憶部24に記憶されている差分画像D10を表す差分画像データに対応する画像P10を表す画像データに対応付けられた要素情報J10Bを記憶部24から取得する。そして、画像復元部18bは、当該取得した要素情報J10Bが示すサイズ比に応じて生成した共通要素候補E0と等倍の画像構成要素を、差分画像D10における、要素情報J10Bが示す配置位置に合成する。そして、画像復元部18bは、当該合成後の画像を表す画像データを生成し、これを差分画像D10を表す差分画像データに対応する原稿の画像P10を表す画像データとして出力する。   Similarly, the image restoration unit 18b acquires element information J10B associated with the image data representing the image P10 corresponding to the difference image data representing the difference image D10 stored in the storage unit 24 from the storage unit 24. Then, the image restoration unit 18b synthesizes an image component that is the same size as the common element candidate E0 generated according to the size ratio indicated by the acquired element information J10B, at the arrangement position indicated by the element information J10B in the difference image D10. To do. Then, the image restoration unit 18b generates image data representing the combined image and outputs it as image data representing the original image P10 corresponding to the difference image data representing the difference image D10.

また、画像復元部18bは、記憶部24に記憶されている差分画像D11を表す差分画像データに対応する画像P11を表す画像データに対応付けられた要素情報J11A、J11Cを記憶部24から取得する。そして、画像復元部18bは、当該取得した要素情報J11Aが示すサイズ比に応じて、共通要素候補E0を1/2倍に縮小した画像構成要素を生成する。そして、画像復元部18bは、当該生成した画像構成要素を差分画像D11における要素情報J11Aが示す配置位置に合成する。更に、画像復元部18bは、取得した要素情報J11Cが示すサイズ比に応じて生成した共通要素候補E0と等倍の画像構成要素を、上記合成後の画像における要素情報J11Cが示す配置位置に更に合成する。そして、画像復元部18bは、当該二度の合成をした後の画像を表す画像データを生成し、これを当該差分画像データに対応する原稿の画像P11を表す画像データとして出力する。   Further, the image restoration unit 18b acquires element information J11A and J11C associated with the image data representing the image P11 corresponding to the difference image data representing the difference image D11 stored in the storage unit 24 from the storage unit 24. . Then, the image restoration unit 18b generates an image constituent element obtained by reducing the common element candidate E0 by 1/2 according to the size ratio indicated by the acquired element information J11A. Then, the image restoration unit 18b synthesizes the generated image constituent element with the arrangement position indicated by the element information J11A in the difference image D11. Further, the image restoration unit 18b further sets the image component element that is the same size as the common element candidate E0 generated according to the size ratio indicated by the acquired element information J11C to the arrangement position indicated by the element information J11C in the combined image. Synthesize. Then, the image restoration unit 18b generates image data representing the image after the second composition, and outputs this as image data representing the original image P11 corresponding to the difference image data.

そして、制御部10は、画像復元部18bによって復元された画像P9〜P11を表す画像データに基づき、画像形成部22に用紙に画像を形成させる。   Then, the control unit 10 causes the image forming unit 22 to form an image on a sheet based on the image data representing the images P9 to P11 restored by the image restoration unit 18b.

第三実施形態に係る当該変形実施形態では、画像復元部18bによって、記憶部24に記憶されているデータを用いて、画像読取部21によって生成された画像データを復元することができる。このため、画像読取部21によって生成された画像データに基づく画像形成動作と同じ画像形成動作を再び画像形成部22に行わせる等、画像読取部21によって生成された画像データに基づく処理を再実行することができる。   In the modified embodiment according to the third embodiment, the image data generated by the image reading unit 21 can be restored by using the data stored in the storage unit 24 by the image restoration unit 18b. Therefore, the process based on the image data generated by the image reading unit 21 is re-executed, such as causing the image forming unit 22 to perform the same image forming operation as the image forming operation based on the image data generated by the image reading unit 21 again. can do.

(2)また、図8の一点鎖線部に示すように、制御部10が、更に、記憶部24に記憶する候補データの入力を受け付ける候補受付部19として動作するようにしてもよい。これに合わせて、記憶処理部15bは、候補受付部19により受け付けられた候補データを記憶部24に記憶する。また、複写機1は、例えば、USBメモリー等、画像データが記憶された外部記憶媒体を複写機1に接続するための外部インターフェイス部25を備えている。   (2) Further, as indicated by the one-dot chain line portion in FIG. 8, the control unit 10 may further operate as a candidate receiving unit 19 that receives input of candidate data stored in the storage unit 24. In accordance with this, the storage processing unit 15 b stores the candidate data received by the candidate receiving unit 19 in the storage unit 24. The copier 1 also includes an external interface unit 25 for connecting an external storage medium storing image data, such as a USB memory, to the copier 1.

具体的には、ユーザーによる操作部23の操作によって、外部インターフェイス部25に接続された外部記憶媒体に記憶されているある特定の画像データを候補データとする指定が入力されたとする。この場合、候補受付部19は、当該入力された指定を受け付け、外部インターフェイス部25を介して、外部記憶媒体から当該指定された特定の画像データを取得し、これを候補データとして受け付ける。そして、記憶処理部15bは、当該候補受付部19により取得された候補データを記憶部24に記憶する。   More specifically, it is assumed that a user inputs an instruction to use specific image data stored in an external storage medium connected to the external interface unit 25 as candidate data. In this case, the candidate receiving unit 19 receives the input designation, acquires the designated specific image data from the external storage medium via the external interface unit 25, and accepts this as candidate data. Then, the storage processing unit 15 b stores the candidate data acquired by the candidate receiving unit 19 in the storage unit 24.

第三実施形態に係る当該変形実施形態によれば、候補データの入力を受け付けて、当該受け付けた候補データを記憶部24に記憶することができる。このため、例えば、企業名称の変更等に合わせてロゴ等の共通要素候補E0が変更された場合に、当該変更後の共通要素候補を示す候補データを記憶部24に記憶することができる。   According to the modified embodiment according to the third embodiment, it is possible to accept input of candidate data and store the accepted candidate data in the storage unit 24. For this reason, for example, when the common element candidate E0 such as a logo is changed in accordance with the change of the company name or the like, candidate data indicating the changed common element candidate can be stored in the storage unit 24.

1 複写機(画像読取装置)
10 制御部
11 読取制御部
12、12a、12b 共通要素抽出部
13 背景画像生成部
14、14a、14b 差分画像生成部
15、15a、15b 記憶処理部
16 第一指定受付部
17 第二指定受付部
18、18a、18b 画像復元部
19 候補受付部
21 画像読取部
24 記憶部
B 背景画像
E0 共通要素候補
1 Copying machine (image reader)
DESCRIPTION OF SYMBOLS 10 Control part 11 Reading control part 12, 12a, 12b Common element extraction part 13 Background image generation part 14, 14a, 14b Difference image generation part 15, 15a, 15b Storage processing part 16 1st designation | designated reception part 17 2nd designation | designated reception part 18, 18a, 18b Image restoration unit 19 Candidate reception unit 21 Image reading unit 24 Storage unit B Background image E0 Common element candidate

Claims (1)

記憶部と、
複数の原稿を読み取って各原稿の画像を表す画像データをそれぞれ生成する画像読取部と、
前記画像読取部により生成された前記複数の前記画像データを用いて得られる互いに異なる二つの前記画像データの組み合わせを対象とし、各前記組み合わせに含まれる二つの前記画像データが表す二つの画像において、形状が一致する画像構成要素を共通要素として抽出して、当該共通要素の形状を示す形状情報を生成し、且つ、当該二つの画像データのそれぞれと当該形状情報とに対応付けられた、各画像データが表す画像における当該抽出した前記共通要素の配置位置及び装飾を示す要素情報を生成する共通要素抽出部と、
前記画像読取部により生成された各前記画像データから、前記共通要素抽出部により当該各画像データを用いて抽出された各前記共通要素に対応するデータを削除することにより、各前記画像データに対応する差分画像データをそれぞれ生成する差分画像生成部と、
前記共通要素抽出部により生成された各前記形状情報と、前記共通要素抽出部により生成された各前記要素情報と、前記差分画像生成部により生成された各前記差分画像データと、を前記記憶部に記憶する記憶処理部と、
前記記憶部に記憶されている各前記差分画像データが表す画像に、前記記憶部に記憶されている前記要素情報のうちの当該各差分画像データに対応する前記画像データに対応付けられた各前記要素情報と、当該各要素情報に対応付けられた前記形状情報と、を用いて、形状が当該形状情報が示す形状に一致し、且つ、配置位置及び装飾が当該各要素情報が示す配置位置及び装飾と一致する画像構成要素を合成して、当該合成した画像を表す画像データを生成することにより、当該各差分画像データに対応する前記原稿の画像を表す画像データを復元する画像復元部と、
を備える画像読取装置。
A storage unit;
An image reading unit that reads a plurality of documents and generates image data representing an image of each document;
In the two images represented by the two image data included in each combination, targeting a combination of two different image data obtained by using the plurality of image data generated by the image reading unit, Each image associated with each of the two image data and the shape information is generated by extracting the image constituent elements having the same shape as a common element, generating the shape information indicating the shape of the common element. A common element extraction unit that generates element information indicating the arrangement position and decoration of the extracted common element in the image represented by the data;
Corresponding to each image data by deleting data corresponding to each common element extracted by using each image data by the common element extraction unit from each image data generated by the image reading unit A difference image generation unit for generating difference image data to be
The shape information generated by the common element extraction unit, the element information generated by the common element extraction unit, and the difference image data generated by the difference image generation unit are stored in the storage unit. A storage processing unit for storing
Each of the images represented by the difference image data stored in the storage unit is associated with the image data corresponding to the difference image data of the element information stored in the storage unit. Using element information and the shape information associated with each element information, the shape matches the shape indicated by the shape information, and the arrangement position and decoration are the arrangement position indicated by the element information and An image restoration unit that restores image data representing an image of the original corresponding to each difference image data by synthesizing image components that match the decoration and generating image data representing the synthesized image;
An image reading apparatus comprising:
JP2014112224A 2014-05-30 2014-05-30 Image reading device Expired - Fee Related JP6190760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014112224A JP6190760B2 (en) 2014-05-30 2014-05-30 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014112224A JP6190760B2 (en) 2014-05-30 2014-05-30 Image reading device

Publications (2)

Publication Number Publication Date
JP2015226309A JP2015226309A (en) 2015-12-14
JP6190760B2 true JP6190760B2 (en) 2017-08-30

Family

ID=54842772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014112224A Expired - Fee Related JP6190760B2 (en) 2014-05-30 2014-05-30 Image reading device

Country Status (1)

Country Link
JP (1) JP6190760B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634247B (en) * 2020-12-29 2022-04-12 浙江德源智能科技股份有限公司 Conveying object identification method and device based on image separation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3997696B2 (en) * 2000-07-07 2007-10-24 コニカミノルタビジネステクノロジーズ株式会社 Apparatus, method and recording medium for image processing
JP2006201935A (en) * 2005-01-19 2006-08-03 Fuji Xerox Co Ltd Image data processor
JP2007019713A (en) * 2005-07-06 2007-01-25 Matsushita Electric Ind Co Ltd Color calibration processor
JP2010062792A (en) * 2008-09-03 2010-03-18 Weigang Xu Image compression apparatus, image decompression apparatus, image compression program, and image decompression program
JP2010287954A (en) * 2009-06-09 2010-12-24 Sanyo Electric Co Ltd Image capturing apparatus
JP5682218B2 (en) * 2010-10-13 2015-03-11 富士ゼロックス株式会社 Difference detection device, difference output device, and program

Also Published As

Publication number Publication date
JP2015226309A (en) 2015-12-14

Similar Documents

Publication Publication Date Title
JP2024102124A (en) Information Processing System
JP6194711B2 (en) Image forming apparatus, printing method, and program
EP2264995A2 (en) Image processing apparatus, image processing method, and computer program
JP2007215117A (en) Image forming unit
JP2010068304A (en) Device and program for processing image data
JP2011146799A (en) Device and program for processing image
JP5491774B2 (en) Data entry system and data entry method
JP5379660B2 (en) Image processing apparatus and control method thereof
JP7005337B2 (en) Display control device, its control method, and program
JP6190760B2 (en) Image reading device
JP2015122015A (en) Code reading device and program for code reading
JP2013073447A (en) Color two-dimensional barcode generating device, color two-dimensional barcode separating device, color two-dimensional barcode generating method, color two-dimensional barcode separating method, and computer program
JP6696459B2 (en) Image forming apparatus and image forming method
JP6680052B2 (en) Table data conversion method, program, image reading device
JP6931168B2 (en) Information processing device, control method, program
JP2014160413A (en) Data processing device, data processing system and program
JP5867790B2 (en) Image processing device
JP4862942B2 (en) Image processing apparatus, image processing method and program thereof
JP2017212562A (en) Information processing apparatus, information processing method, and information processing program
JP7206894B2 (en) Information processing system, information processing device, information processing method and program
JP2018007085A (en) Information processing device, image processing device, and program
JP5989065B2 (en) Image forming system, printer driver, image forming apparatus, and rendering program
JP6639120B2 (en) Image processing apparatus, image processing method, and program
JPWO2017163590A1 (en) Image processing apparatus, image processing method, and image processing program
JP5767574B2 (en) Image processing apparatus and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170807

R150 Certificate of patent or registration of utility model

Ref document number: 6190760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees