[go: up one dir, main page]

JP2021093717A - Image data processing apparatus, image reading device, image forming apparatus, and image data processing method - Google Patents

Image data processing apparatus, image reading device, image forming apparatus, and image data processing method Download PDF

Info

Publication number
JP2021093717A
JP2021093717A JP2020153709A JP2020153709A JP2021093717A JP 2021093717 A JP2021093717 A JP 2021093717A JP 2020153709 A JP2020153709 A JP 2020153709A JP 2020153709 A JP2020153709 A JP 2020153709A JP 2021093717 A JP2021093717 A JP 2021093717A
Authority
JP
Japan
Prior art keywords
image data
wavelength
light
image
offset component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020153709A
Other languages
Japanese (ja)
Other versions
JP7604819B2 (en
Inventor
小山 忠明
Tadaaki Koyama
忠明 小山
政元 中澤
Masamoto Nakazawa
政元 中澤
管野 透
Toru Kanno
透 管野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2021093717A publication Critical patent/JP2021093717A/en
Application granted granted Critical
Publication of JP7604819B2 publication Critical patent/JP7604819B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Or Security For Electrophotography (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Optical Systems Of Projection Type Copiers (AREA)
  • Light Sources And Details Of Projection-Printing Devices (AREA)

Abstract

【課題】画像データのレベルの変化や色再現性の悪化を抑え、可視光+不可視光読み取りデータから可視光読み取りデータを生成する。【解決手段】光源から照射されて第一のイメージセンサに入射した第一の波長の光と第二の波長の光との両方の反射光から第一の波長画像データを取得し、第一の波長画像データに含まれる第一のオフセット成分を除去し第一の画像データを生成する第一のオフセット成分除去部と、光源から照射されて第二のイメージセンサに入射した第二の波長の光の反射光から第二の波長画像データを取得し、第二の波長画像データに含まれる第二のオフセット成分を除去し第二の画像データを生成する第二のオフセット成分除去部と、第一のオフセット成分除去部と第二のオフセット成分除去部との後段に設けられ、第一の画像データから第二の画像データを除去して第三の画像データを生成する第二の画像データ成分除去処理部と、を備える。【選択図】図8PROBLEM TO BE SOLVED: To generate visible light reading data from visible light + invisible light reading data while suppressing a change in the level of image data and deterioration of color reproducibility. SOLUTION: A first wavelength image data is acquired from both reflected light of a first wavelength light and a second wavelength light emitted from a light source and incident on a first image sensor. The first offset component removing unit that removes the first offset component contained in the wavelength image data to generate the first image data, and the light of the second wavelength that is irradiated from the light source and incident on the second image sensor. The second offset component removing unit that acquires the second wavelength image data from the reflected light of the above, removes the second offset component contained in the second wavelength image data, and generates the second image data, and the first A second image data component removal that is provided after the offset component removing section and the second offset component removing section of the above and removes the second image data from the first image data to generate the third image data. It is provided with a processing unit. [Selection diagram] FIG. 8

Description

本発明は、画像データ処理装置、画像読取装置、画像形成装置および画像データ処理方法に関する。 The present invention relates to an image data processing device, an image reading device, an image forming device, and an image data processing method.

従来、被写体に対して可視光と不可視光とを同時に照射して画像を読み取り、得られた読取データから不可視光画像データまたは可視光画像データを得る技術が既に知られている。 Conventionally, there is already known a technique of irradiating a subject with visible light and invisible light at the same time to read an image and obtaining invisible light image data or visible light image data from the obtained read data.

例えば、特許文献1には、光学的な赤外カットフィルタを使用することなく、赤外波長成分を含む可視波長成分から赤外波長成分を除去する技術が開示されている。より詳細には、特許文献1に開示の技術によれば、可視波長成分を得るために、可視成分イメージセンサによって赤外+可視波長成分を検出し、同時に赤外成分イメージセンサによって赤外波長成分を検出する。そして、特許文献1に開示の技術によれば、これらの検出結果を利用して、シェーディング補正処理前に赤外+可視波長成分から赤外波長成分を除去することで可視波長成分のみを抽出する。 For example, Patent Document 1 discloses a technique for removing an infrared wavelength component from a visible wavelength component including an infrared wavelength component without using an optical infrared cut filter. More specifically, according to the technique disclosed in Patent Document 1, in order to obtain a visible wavelength component, an infrared + visible wavelength component is detected by a visible component image sensor, and at the same time, an infrared wavelength component is detected by an infrared component image sensor. Is detected. Then, according to the technique disclosed in Patent Document 1, only the visible wavelength component is extracted by removing the infrared wavelength component from the infrared + visible wavelength component before the shading correction processing by utilizing these detection results. ..

しかしながら、従来の技術によれば、可視成分イメージセンサによって赤外+可視波長成分を検出し、同時に赤外成分イメージセンサによって赤外波長成分を検出し、赤外+可視波長成分から赤外波長成分を直接除去する方式である。すなわち、各イメージセンサ出力情報に含まれるオフセット成分(正規の読み取り情報以外の成分)の影響を受け、可視波長成分の一部まで除去し、結果として可視光画像のデータレベルの変化(モノクロ画像)や色再現性の悪化(カラー画像)を招くという問題があった。 However, according to the conventional technique, the infrared + visible wavelength component is detected by the visible component image sensor, and at the same time, the infrared wavelength component is detected by the infrared component image sensor, and the infrared wavelength component is detected from the infrared + visible wavelength component. Is a method of directly removing. That is, it is affected by the offset component (component other than the regular reading information) included in each image sensor output information, and even a part of the visible wavelength component is removed, and as a result, the data level of the visible light image changes (monochrome image). There was a problem that the color reproducibility was deteriorated (color image).

本発明は、上記に鑑みてなされたものであって、画像データのレベルの変化や色再現性の悪化を抑え、可視光+不可視光読み取りデータから可視光読み取りデータを生成することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to suppress changes in the level of image data and deterioration of color reproducibility, and to generate visible light reading data from visible light + invisible light reading data. ..

上述した課題を解決し、目的を達成するために、本発明は、光源から照射されて第一のイメージセンサに入射した第一の波長の光と第二の波長の光との両方の反射光から第一の波長画像データを取得し、前記第一の波長画像データに含まれる第一のオフセット成分を除去し第一の画像データを生成する第一のオフセット成分除去部と、前記光源から照射されて第二のイメージセンサに入射した前記第二の波長の光の反射光から第二の波長画像データを取得し、前記第二の波長画像データに含まれる第二のオフセット成分を除去し第二の画像データを生成する第二のオフセット成分除去部と、前記第一のオフセット成分除去部と前記第二のオフセット成分除去部との後段に設けられ、前記第一の画像データから前記第二の画像データを除去して第三の画像データを生成する第二の画像データ成分除去処理部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention presents the reflected light of both the first wavelength light and the second wavelength light emitted from the light source and incident on the first image sensor. The first offset component removing unit that acquires the first wavelength image data from the data, removes the first offset component contained in the first wavelength image data, and generates the first image data, and irradiates from the light source. Then, the second wavelength image data is acquired from the reflected light of the light of the second wavelength incident on the second image sensor, and the second offset component contained in the second wavelength image data is removed. A second offset component removing section for generating the second image data, a second offset component removing section, and the second offset component removing section are provided after the first offset component removing section, and the second offset component removing section is provided from the first image data. It is characterized by including a second image data component removing processing unit that removes the image data of the above and generates a third image data.

本発明によれば、画像データの変化や色再現性の悪化を抑え、可視光+不可視光読み取りデータから可視光読み取りデータを生成することができる、という効果を奏する。 According to the present invention, it is possible to suppress changes in image data and deterioration of color reproducibility, and to generate visible light reading data from visible light + invisible light reading data.

図1は、第1の実施の形態にかかる画像処理装置の一例の構成を示す図である。FIG. 1 is a diagram showing a configuration of an example of an image processing device according to the first embodiment. 図2は、画像読取部の構造を例示的に示す断面図である。FIG. 2 is a cross-sectional view illustrating the structure of the image reading unit as an example. 図3は、第1の実施の形態にかかる画像読み取り部を構成する各部の光学的接続を示すブロック図である。FIG. 3 is a block diagram showing an optical connection of each part constituting the image reading unit according to the first embodiment. 図4は、第1の実施の形態にかかる処理の流れを示す図である。FIG. 4 is a diagram showing a flow of processing according to the first embodiment. 図5は、第2の実施の形態の画像読取例を概略的に示す図である。FIG. 5 is a diagram schematically showing an image reading example of the second embodiment. 図6は、第2の実施の形態の画像読取例を概略的に示す図である。FIG. 6 is a diagram schematically showing an image reading example of the second embodiment. 図7は、第2の実施の形態にかかる画像読み取り部を構成する各部の光学的接続を示すブロック図である。FIG. 7 is a block diagram showing an optical connection of each part constituting the image reading unit according to the second embodiment. 図8は、第2の実施の形態にかかる処理の流れを示す図である。FIG. 8 is a diagram showing a flow of processing according to the second embodiment. 図9は、第3の実施の形態の画像読取例を概略的に示す図である。FIG. 9 is a diagram schematically showing an image reading example of the third embodiment. 図10は、第3の実施の形態の画像読取例を概略的に示す図である。FIG. 10 is a diagram schematically showing an image reading example of the third embodiment. 図11は、イメージセンサ分光感度特性の一例を示す図である。FIG. 11 is a diagram showing an example of the spectral sensitivity characteristic of the image sensor. 図12は、人間の目の分光感度特性(比視感度特性)の一例を示す図である。FIG. 12 is a diagram showing an example of the spectral sensitivity characteristic (luminous efficiency characteristic) of the human eye. 図13は、第4の実施の形態の画像読取例を概略的に示す図である。FIG. 13 is a diagram schematically showing an image reading example of the fourth embodiment. 図14は、第4の実施の形態の画像読取例を概略的に示す図である。FIG. 14 is a diagram schematically showing an image reading example of the fourth embodiment. 図15は、第5の実施の形態の画像読取例を概略的に示す図である。FIG. 15 is a diagram schematically showing an image reading example of the fifth embodiment. 図16は、第5の実施の形態の画像読取例を概略的に示す図である。FIG. 16 is a diagram schematically showing an image reading example of the fifth embodiment. 図17は、第6の実施の形態にかかるイメージセンサの変形例を示す図である。FIG. 17 is a diagram showing a modified example of the image sensor according to the sixth embodiment. 図18は、第7の実施の形態にかかるイメージセンサの別の変形例を示す図である。FIG. 18 is a diagram showing another modification of the image sensor according to the seventh embodiment. 図19は、第8の実施の形態にかかる画像読取部を構成する各部の電気的接続を示すブロック図である。FIG. 19 is a block diagram showing an electrical connection of each part constituting the image reading unit according to the eighth embodiment. 図20は、第9の実施の形態にかかる画像読取部を構成する各部の電気的接続を示すブロック図である。FIG. 20 is a block diagram showing an electrical connection of each part constituting the image reading unit according to the ninth embodiment. 図21は、第10の実施の形態にかかる画像読取部を構成する各部の電気的接続を示すブロック図である。FIG. 21 is a block diagram showing an electrical connection of each part constituting the image reading unit according to the tenth embodiment. 図22は、第11の実施の形態にかかる画像読取部を構成する各部の電気的接続を示すブロック図である。FIG. 22 is a block diagram showing an electrical connection of each part constituting the image reading unit according to the eleventh embodiment. 図23は、可視光+不可視光データから不可視光データを除去する処理の流れを示すフローチャートである。FIG. 23 is a flowchart showing a flow of processing for removing invisible light data from visible light + invisible light data. 図24は、第8ないし第11の実施の形態にかかる画像読取部を構成する各部の電気的接続を示すブロック図の変形例を示す図である。FIG. 24 is a diagram showing a modified example of the block diagram showing the electrical connection of each portion constituting the image reading unit according to the eighth to eleventh embodiments. 図25は、第8ないし第11の実施の形態にかかる画像読取部を構成する各部の電気的接続を示すブロック図の別の変形例を示す図である。FIG. 25 is a diagram showing another modification of the block diagram showing the electrical connection of each portion constituting the image reading unit according to the eighth to eleventh embodiments. 図26は、第12の実施の形態にかかる画像読取部を構成する各部の電気的接続を示すブロック図である。FIG. 26 is a block diagram showing an electrical connection of each part constituting the image reading unit according to the twelfth embodiment. 図27は、オフセット加算処理の一例を示す図である。FIG. 27 is a diagram showing an example of the offset addition process. 図28は、オフセット加算処理の他の一例を示す図である。FIG. 28 is a diagram showing another example of the offset addition process.

以下に添付図面を参照して、画像データ処理装置、画像読取装置、画像形成装置および画像データ処理方法の実施の形態を詳細に説明する。 Hereinafter, embodiments of an image data processing device, an image reading device, an image forming device, and an image data processing method will be described in detail with reference to the accompanying drawings.

(第1の実施の形態)
図1は、第1の実施の形態にかかる画像データ処理装置100の一例の構成を示す図である。図1において、画像データ処理装置100は、コピー機能、プリンタ機能、スキャナ機能およびファクシミリ機能のうち少なくとも2つの機能を有する一般に複合機と称される画像形成装置である。
(First Embodiment)
FIG. 1 is a diagram showing a configuration of an example of an image data processing device 100 according to the first embodiment. In FIG. 1, the image data processing device 100 is an image forming device generally called a multifunction device, which has at least two functions of a copy function, a printer function, a scanner function, and a facsimile function.

画像データ処理装置100は、画像読取装置である画像読取部101およびADF(Automatic Document Feeder)102を有し、その下部に画像形成部103を有する。画像形成部103については、内部の構成を説明するために、外部カバーを外して内部の構成を示している。 The image data processing device 100 has an image reading unit 101 and an ADF (Automatic Document Feeder) 102, which are image reading devices, and an image forming unit 103 below the image reading unit 101. In order to explain the internal configuration of the image forming unit 103, the external cover is removed to show the internal configuration.

ADF102は、画像データを読み取らせる原稿を読取位置に位置づける原稿支持部である。ADF102は、載置台に載置した原稿を読取位置に自動搬送する。画像読取部101は、ADF102により搬送された原稿を所定の読取位置で読み取る。また、画像読取部101は、原稿を載置する原稿支持部であるコンタクトガラスを上面に有し、読取位置であるコンタクトガラス上の原稿を読み取る。具体的に画像読取部101は、内部に光源や、光学系や、CCD(Charge Coupled Device)等のイメージセンサを有するスキャナであり、光源で照明した原稿の反射光を光学系を通じてイメージセンサで読み取る。 The ADF 102 is a document support unit that positions a document for reading image data at a reading position. The ADF 102 automatically conveys the document placed on the mounting table to the reading position. The image reading unit 101 reads the document conveyed by the ADF 102 at a predetermined reading position. Further, the image reading unit 101 has a contact glass on the upper surface, which is a document supporting portion on which the document is placed, and reads the document on the contact glass at the reading position. Specifically, the image reading unit 101 is a scanner having a light source, an optical system, and an image sensor such as a CCD (Charge Coupled Device) inside, and reads the reflected light of the document illuminated by the light source with the image sensor through the optical system. ..

画像形成部103は、画像読取部101で読み取った原稿画像データを印刷する。画像形成部103は、記録紙を手差しする手差ローラ104や、記録紙を供給する記録紙供給ユニット107を有する。記録紙供給ユニット107は、多段の記録紙給紙カセット107aから記録紙を繰り出す機構を有する。供給された記録紙は、レジストローラ108を介して二次転写ベルト112に送られる。 The image forming unit 103 prints the original image data read by the image reading unit 101. The image forming unit 103 includes a manual roller 104 for manually feeding the recording paper and a recording paper supply unit 107 for supplying the recording paper. The recording paper supply unit 107 has a mechanism for feeding out the recording paper from the multi-stage recording paper paper feed cassette 107a. The supplied recording paper is sent to the secondary transfer belt 112 via the resist roller 108.

二次転写ベルト112上を搬送する記録紙は、転写部114において中間転写ベルト113上のトナー画像データが転写される。 The toner image data on the intermediate transfer belt 113 is transferred to the recording paper carried on the secondary transfer belt 112 at the transfer unit 114.

また、画像形成部103は、光書込装置109や、タンデム方式の作像ユニット(Y、M、C、K)105や、中間転写ベルト113や、上記二次転写ベルト112などを有する。作像ユニット105による作像プロセスにより、光書込装置109が書き込んだ画像データを中間転写ベルト113上にトナー画像データとして形成する。 Further, the image forming unit 103 includes an optical writing device 109, a tandem type image forming unit (Y, M, C, K) 105, an intermediate transfer belt 113, the secondary transfer belt 112, and the like. By the image forming process by the image forming unit 105, the image data written by the optical writing device 109 is formed as toner image data on the intermediate transfer belt 113.

具体的に、作像ユニット(Y、M、C、K)105は、4つの感光体ドラム(Y、M、C、K)を回転可能に有し、各感光体ドラムの周囲に、帯電ローラ、現像器、一次転写ローラ、クリーナーユニット、及び除電器を含む作像要素106をそれぞれ備える。各感光体ドラムにおいて作像要素106が機能し、感光体ドラム上の画像データが各一次転写ローラにより中間転写ベルト113上に転写される。 Specifically, the image processing unit (Y, M, C, K) 105 has four photoconductor drums (Y, M, C, K) rotatably, and a charging roller is formed around each photoconductor drum. , A developer, a primary transfer roller, a cleaner unit, and an image forming element 106 including a static eliminator, respectively. The image forming element 106 functions in each photoconductor drum, and the image data on the photoconductor drum is transferred onto the intermediate transfer belt 113 by each primary transfer roller.

中間転写ベルト113は、各感光体ドラムと各一次転写ローラとの間のニップに、駆動ローラと従動ローラとにより張架して配置されている。中間転写ベルト113に一次転写されたトナー画像データは、中間転写ベルト113の走行により、二次転写装置で二次転写ベルト112上の記録紙に二次転写される。その記録紙は、二次転写ベルト112の走行により、定着装置110に搬送され、記録紙上にトナー画像データがカラー画像データとして定着する。その後、記録紙は、機外の排紙トレイへと排出される。なお、両面印刷の場合は、反転機構111により記録紙の表裏が反転されて、反転された記録紙が二次転写ベルト112上へと送られる。 The intermediate transfer belt 113 is arranged on the nip between each photoconductor drum and each primary transfer roller by being stretched by a driving roller and a driven roller. The toner image data primaryly transferred to the intermediate transfer belt 113 is secondarily transferred to the recording paper on the secondary transfer belt 112 by the secondary transfer device by running the intermediate transfer belt 113. The recording paper is conveyed to the fixing device 110 by the running of the secondary transfer belt 112, and the toner image data is fixed on the recording paper as color image data. After that, the recording paper is discharged to the output tray outside the machine. In the case of double-sided printing, the front and back sides of the recording paper are reversed by the reversing mechanism 111, and the inverted recording paper is sent onto the secondary transfer belt 112.

なお、画像形成部103は、上述したような電子写真方式によって画像データを形成するものに限るものではなく、インクジェット方式によって画像データを形成するものであってもよい。 The image forming unit 103 is not limited to the one that forms the image data by the electrophotographic method as described above, and may be the one that forms the image data by the inkjet method.

次に、画像読取部101について説明する。 Next, the image reading unit 101 will be described.

図2は、画像読取部101の構造を例示的に示す断面図である。図2に示すように、画像読取部101は、本体11内に、撮像素子であるイメージセンサ9を備えたセンサ基板10、レンズユニット8、第1キャリッジ6及び第2キャリッジ7を有する。イメージセンサ9は、例えばCCDやCMOSイメージセンサなどである。第1キャリッジ6は、LED(Light Emitting Diode)である光源2及びミラー3を有する。第2キャリッジ7は、ミラー4,5を有する。また、画像読取部101は、上面にコンタクトガラス1及び基準白板13を設けている。 FIG. 2 is a cross-sectional view schematically showing the structure of the image reading unit 101. As shown in FIG. 2, the image reading unit 101 has a sensor substrate 10 including an image sensor 9 which is an image sensor, a lens unit 8, a first carriage 6, and a second carriage 7 in the main body 11. The image sensor 9 is, for example, a CCD or a CMOS image sensor. The first carriage 6 has a light source 2 and a mirror 3 which are LEDs (Light Emitting Diodes). The second carriage 7 has mirrors 4 and 5. Further, the image reading unit 101 is provided with a contact glass 1 and a reference white plate 13 on the upper surface thereof.

画像読取部101は、読取動作において、第1キャリッジ6及び第2キャリッジ7を待機位置(ホームポジション)から副走査方向(A方向)に移動させながら光源2から光を上方に向けて照射する。そして、第1キャリッジ6及び第2キャリッジ7は、原稿12からの反射光を、レンズユニット8を介してイメージセンサ9上に結像させる。 In the reading operation, the image reading unit 101 irradiates light from the light source 2 upward while moving the first carriage 6 and the second carriage 7 from the standby position (home position) to the sub-scanning direction (A direction). Then, the first carriage 6 and the second carriage 7 form an image of the reflected light from the document 12 on the image sensor 9 via the lens unit 8.

また、画像読取部101は、電源ON時などには、基準白板13からの反射光を読取って基準を設定する。即ち、画像読取部101は、第1キャリッジ6を基準白板13の直下に移動させ、光源2を点灯させて基準白板13からの反射光をイメージセンサ9の上に結像させることによりゲイン調整を行う。 Further, the image reading unit 101 reads the reflected light from the reference white plate 13 to set a reference when the power is turned on or the like. That is, the image reading unit 101 moves the first carriage 6 directly under the reference white plate 13, turns on the light source 2, and forms an image of the reflected light from the reference white plate 13 on the image sensor 9, thereby adjusting the gain. Do.

図3は、第1の実施の形態にかかる画像読み取り部101を構成する各部の光学的接続を示すブロック図であり、被写体201の読み取りを行う場合の構成例である。 FIG. 3 is a block diagram showing an optical connection of each unit constituting the image reading unit 101 according to the first embodiment, and is a configuration example in the case of reading the subject 201.

まず、光源2消灯状態での第一のイメージセンサ9aの出力信号である第一のオフセット成分os1を検出する。 First, the first offset component os1 which is the output signal of the first image sensor 9a when the light source 2 is turned off is detected.

この第一のオフセット成分os1は電気的に生じてしまうアナログ信号成分で、イメージセンサの画素毎に異なり、また温度などの環境条件によっても変動し得る。 The first offset component os1 is an analog signal component that is electrically generated, and is different for each pixel of the image sensor and may fluctuate depending on environmental conditions such as temperature.

次に、光源2は第一の波長λ1と第二の波長λ2の光で被写体201を照射し、それらの光が被写体201で反射し、第一のイメージセンサ9aには被写体201からの反射光である第一の波長λ1と第二の波長λ2が入射する。 Next, the light source 2 irradiates the subject 201 with light having a first wavelength λ1 and a second wavelength λ2, the light is reflected by the subject 201, and the light reflected from the subject 201 is reflected by the first image sensor 9a. The first wavelength λ1 and the second wavelength λ2 are incident.

この時、第一のイメージセンサ9aからは第一の波長λ1と第二の波長λ2による反射光画像データ成分img1+img2に、オフセット成分os1が加わった第一の波長画像データimg1+img2+os1が得られる。 At this time, the first wavelength image data img1 + img2 + os1 obtained by adding the offset component os1 to the reflected light image data component img1 + img2 by the first wavelength λ1 and the second wavelength λ2 is obtained from the first image sensor 9a.

次に、第一のオフセット成分os1の検出と同様、光源2の消灯状態での第二のイメージセンサ9bの出力信号である第二のオフセット成分os2を検出する。 Next, similarly to the detection of the first offset component os1, the second offset component os2, which is the output signal of the second image sensor 9b when the light source 2 is turned off, is detected.

この第二のオフセット成分os2も電気的に生じてしまうアナログ信号成分であり、イメージセンサの画素毎に異なり、また温度などの環境条件によっても変動し得る。 This second offset component os2 is also an analog signal component that is electrically generated, and is different for each pixel of the image sensor and may fluctuate depending on environmental conditions such as temperature.

さらに、光源2は第二の波長λ2の光で被写体201を照射し、それらの光が被写体201で反射し、第二のイメージセンサ9bには被写体201からの反射光である第二の波長λ2が入射する。 Further, the light source 2 irradiates the subject 201 with light having a second wavelength λ2, the light is reflected by the subject 201, and the second image sensor 9b has a second wavelength λ2 which is the reflected light from the subject 201. Is incident.

この時、第二のイメージセンサ9bからは第二の波長λ2による反射光画像データ成分img2に、オフセット成分os2が加わった第二の波長画像データimg2+os2が得られる。 At this time, the second image sensor 9b obtains the second wavelength image data img2 + os2 in which the offset component os2 is added to the reflected light image data component img2 by the second wavelength λ2.

この例は、例えば第二の波長λ2の励起光となって第一の波長λ1の光が発生するような、第一の波長λ1のみの画像データの取得が困難であるケースなどに適用される。 This example is applied to a case where it is difficult to acquire image data of only the first wavelength λ1 such that light of the first wavelength λ1 is generated as excitation light of the second wavelength λ2. ..

なお、図3では光源2から第二の波長λ2のみを発光している例を示しているが、例えば第一の波長、第二の波長の両方の波長の光を発する構成のまま、第二のイメージセンサ9bの前に第一の波長をカットするフィルタを備えるなどしてもよい。 Although FIG. 3 shows an example in which only the second wavelength λ2 is emitted from the light source 2, for example, the second wavelength is still emitted with the configuration of emitting light of both the first wavelength and the second wavelength. A filter that cuts the first wavelength may be provided in front of the image sensor 9b.

以上に示した例では、第一のオフセット成分os1、第一の波長画像データimg1+img2+os1、第二のオフセット成分os2、第二の波長画像データimg2+os2、の順で検出・取得しているが、それぞれの順は異なっていてもよい。 In the above examples, the first offset component os1, the first wavelength image data img1 + img2 + os1, the second offset component os2, and the second wavelength image data img2 + os2 are detected and acquired in this order. The order may be different.

さらに、温度などの環境条件の変化が許容される範囲であれば、各オフセット成分の検出は製品出荷時など被写体読み取りとは全く異なるタイミングに予め検出し、保持しておいてもよい。 Further, as long as a change in environmental conditions such as temperature is allowed, the detection of each offset component may be detected and held in advance at a timing completely different from the subject reading such as at the time of product shipment.

次に、第一のオフセット成分除去部211aにおいて第一の波長画像データimg1+img2+os1から第一のオフセット成分os1が除去され、第一の波長画像データimg1+img2を得る。同様に、第二のオフセット成分除去部211bにおいて第二の波長画像データimg2+os2から第二のオフセット成分os2が除去され、第二の画像データimg2を得る。 Next, the first offset component removing unit 211a removes the first offset component os1 from the first wavelength image data img1 + img2 + os1 to obtain the first wavelength image data img1 + img2. Similarly, the second offset component removing unit 211b removes the second offset component os2 from the second wavelength image data img2 + os2 to obtain the second image data img2.

さらに、第二の画像データ成分除去処理部において、第一の画像データimg1+img2から第二の画像データimg2を除去することで第三の画像データimg1を得る。第三の画像データimg1は、第一の波長λ1によって被写体201を読み取った際の純粋な読み取り画像データ情報である。そのため、以降はシェーディング補正など必要に適した画像データ補正・処理を行っていってもよい。 Further, in the second image data component removing processing unit, the third image data img1 is obtained by removing the second image data img2 from the first image data img1 + img2. The third image data mg1 is purely read image data information when the subject 201 is read by the first wavelength λ1. Therefore, after that, image data correction / processing suitable for shading correction or the like may be performed.

また、第三の画像データimg1の他に第二の画像データimg2を使用する場合には、図に示すように第二の画像データ成分除去部212aから出力されるように構成してもよい。 Further, when the second image data img2 is used in addition to the third image data img1, it may be configured to be output from the second image data component removing unit 212a as shown in the figure.

シェーディング補正処理部221は、画像データ補正部として機能するものであって、第三の画像データimg1と、第二の画像データimg2とに対し、それぞれシェーディング補正を実施する。シェーディング補正は、主走査画素毎に基準白板13の読取レベルを保持し、原稿読取データを基準白板13の読取レベルで正規化することで、主走査方向の読取レベルの変動を除去する補正である。 The shading correction processing unit 221 functions as an image data correction unit, and performs shading correction on the third image data img1 and the second image data img2, respectively. The shading correction is a correction that removes fluctuations in the reading level in the main scanning direction by maintaining the reading level of the reference white plate 13 for each main scanning pixel and normalizing the document scanning data with the reading level of the reference white plate 13. ..

図4は、第1の実施の形態にかかる処理の流れを示す図である。 FIG. 4 is a diagram showing a flow of processing according to the first embodiment.

図4(a)に示すように、第一の波長画像データimg1+img2+os1を取得後、図4(b)に示すように、第一のオフセット成分除去部211aは、オフセット成分os1を除去する。同様に、第二のオフセット成分除去部211bは、図4(a)に示す第二の画像データimg2+os2を取得後、オフセット成分os2を除去する。 As shown in FIG. 4A, after acquiring the first wavelength image data img1 + img2 + os1, the first offset component removing unit 211a removes the offset component os1 as shown in FIG. 4B. Similarly, the second offset component removing unit 211b removes the offset component os2 after acquiring the second image data img2 + os2 shown in FIG. 4 (a).

これにより、それぞれ第一のイメージセンサ9aの受光成分である第一の画像データimg1+img2、及び第二のイメージセンサ9bの受光成分である第二の画像データimg2、を得ることができる。 As a result, the first image data img1 + img2, which is the light receiving component of the first image sensor 9a, and the second image data img2, which is the light receiving component of the second image sensor 9b, can be obtained.

次いで、図4(c)に示すように、第二の画像データ成分除去処理部212aは、第一の画像データimg1+img2から第二の画像データimg2を除去し、第二の画像データを含まない第一の画像データ、すなわち第三の画像データimg1を生成する。 Next, as shown in FIG. 4C, the second image data component removing processing unit 212a removes the second image data img2 from the first image data img1 + img2, and does not include the second image data. One image data, that is, the third image data mg1 is generated.

最後に、図4(d)に示すように、シェーディング補正処理部221は、第三の画像データimg1に対し、シェーディング補正を実施する。 Finally, as shown in FIG. 4D, the shading correction processing unit 221 performs shading correction on the third image data mg1.

このように本実施形態によれば、随時オフセット成分を適切に除去した後で意図しない画像データ成分(=第一の画像データに含まれる第二の画像データ成分)を除去するため、例えばイメージセンサの特性によりオフセット成分が温度などで変化するような状況であっても、データが変化(従来技術における色再現性の悪化など)する副作用が無く、精度よく除去することが可能となる。すなわち、オフセットが変動する場合であっても常に安定した画像データ成分を得ることができるので、画像データのレベルの変化や色再現性の悪化を招くことなく、可視光+不可視光読み取りデータから不可視光データを除去することができる。 As described above, according to the present embodiment, in order to remove an unintended image data component (= second image data component included in the first image data) after appropriately removing the offset component at any time, for example, an image sensor. Even in a situation where the offset component changes with temperature or the like due to the characteristics of the above, there is no side effect of changing the data (such as deterioration of color reproducibility in the prior art), and it is possible to remove the data with high accuracy. That is, since a stable image data component can always be obtained even when the offset fluctuates, it is invisible from the visible light + invisible light read data without causing a change in the image data level or deterioration of color reproducibility. Optical data can be removed.

(第2の実施の形態)
図5および図6は、第2の実施の形態の画像読取例を概略的に示す図である。図7は、第2の実施の形態にかかる画像読み取り部を構成する各部の光学的接続を示すブロック図である。
(Second Embodiment)
5 and 6 are diagrams schematically showing an image reading example of the second embodiment. FIG. 7 is a block diagram showing an optical connection of each part constituting the image reading unit according to the second embodiment.

第2の実施の形態では、前記第一の波長画像データimg1+img2+os1および前記第二の波長画像データimg2+os2をA/D変換し、各々第一の波長画像データのデジタルデータIMG1+IMG2+OS1および前記第二の波長画像データのデジタルデータIMG2+OS2へ変換する点が、第1の実施の形態と異なる。以下、第2の実施の形態の説明以降では、第1の実施の形態と同一部分の説明については省略し、第1の実施の形態と異なる箇所について説明する。 In the second embodiment, the first wavelength image data img1 + img2 + os1 and the second wavelength image data img2 + os2 are A / D converted, and the digital data IMG1 + IMG2 + OS1 of the first wavelength image data and the second wavelength image are respectively. It differs from the first embodiment in that the data is converted into digital data IMG2 + OS2. Hereinafter, in the following description of the second embodiment, the description of the same part as that of the first embodiment will be omitted, and the parts different from the first embodiment will be described.

各種信号処理部222では、主に第一の波長画像データimg1+img2+os1及び第二の波長画像データimg2+os2に対しA/D変換が行われる。しかし、この処理に限らず信号増幅、オフセット成分の検出や調整、ノイズ除去など、後段での処理を補助するような一般的な信号処理が行われていてもよい。 In the various signal processing units 222, A / D conversion is mainly performed on the first wavelength image data img1 + img2 + os1 and the second wavelength image data img2 + os2. However, the present invention is not limited to this processing, and general signal processing such as signal amplification, detection and adjustment of offset components, and noise removal may be performed to assist the processing in the subsequent stage.

次に、図7に示す第一のオフセット成分除去部211aにおいて、第一の波長画像データIMG1+IMG2+OS1から第一のオフセット成分OS1が除去され、第一の画像データIMG1+IMG2を得る。また、第二のオフセット成分除去部211bにおいて、第二の波長画像データIMG2+OS2から第二のオフセット成分OS2が除去され、第二の画像データIMG2を得る。 Next, in the first offset component removing unit 211a shown in FIG. 7, the first offset component OS1 is removed from the first wavelength image data IMG1 + IMG2 + OS1 to obtain the first image data IMG1 + IMG2. Further, in the second offset component removing unit 211b, the second offset component OS2 is removed from the second wavelength image data IMG2 + OS2 to obtain the second image data IMG2.

なお、第一のオフセット成分OS1および第二のオフセット成分OS2は、例えば光源2消灯状態にてイメージセンサから得られる成分であることから随時検出してもよいし、出荷時などに予め検出しておき、備えておいてもよい。 Since the first offset component OS1 and the second offset component OS2 are components obtained from the image sensor when the light source 2 is turned off, for example, they may be detected at any time, or they may be detected in advance at the time of shipment. You may prepare for it.

次に、第二の画像データ成分除去処理部212aにおいて、第一の画像データIMG1+IMG2から第二の画像データIMG2を除去することで第三の画像データIMG1を得る。 Next, the second image data component removing processing unit 212a obtains the third image data IMG1 by removing the second image data IMG2 from the first image data IMG1 + IMG2.

これらの処理によって、第一の波長による被写体201の画像データとすることができるため、以降は従来同様のシェーディング補正などの処理を行ってもよい。 Since the image data of the subject 201 with the first wavelength can be obtained by these processes, the same processing as the conventional shading correction may be performed thereafter.

図8は、第2の実施の形態にかかる処理の流れを示す図である。 FIG. 8 is a diagram showing a flow of processing according to the second embodiment.

図8(a)に示す第一の波長画像データのデジタルデータ(IMG1+IMG2+OS1)を、図8(b)に示すように、第一のオフセット成分除去部211aは、オフセット成分OS1を除去する。 As shown in FIG. 8B, the first offset component removing unit 211a removes the offset component OS1 from the digital data (IMG1 + IMG2 + OS1) of the first wavelength image data shown in FIG. 8A.

同様に、第二のオフセット成分除去部211bは、図8(a)に示す第二の波長画像データのデジタルデータ(IMG2+OS2)から、オフセット成分OS2を除去する。 Similarly, the second offset component removing unit 211b removes the offset component OS2 from the digital data (IMG2 + OS2) of the second wavelength image data shown in FIG. 8A.

これにより、それぞれ第一のイメージセンサ9aの受光成分である第一の画像データIMG1+IMG2、及び第二のイメージセンサ9bの受光成分である第二の画像データIMG2、を得ることができる。 As a result, the first image data IMG1 + IMG2, which is the light receiving component of the first image sensor 9a, and the second image data IMG2, which is the light receiving component of the second image sensor 9b, can be obtained.

次いで、図8(c)に示すように、第二の画像データ成分除去処理部212aは、第一の画像データIMG1+IMG2から第二の画像データIMG2を除去し、第二の波長画像データを含まない第一の波長画像データ、すなわち第三の画像データIMG1のデジタルデータを生成する。 Next, as shown in FIG. 8C, the second image data component removing processing unit 212a removes the second image data IMG2 from the first image data IMG1 + IMG2 and does not include the second wavelength image data. The first wavelength image data, that is, the digital data of the third image data IMG1 is generated.

最後に、図8(d)に示すように、シェーディング補正処理部221は、第三の画像データIMG1に対し、シェーディング補正を実施する。 Finally, as shown in FIG. 8D, the shading correction processing unit 221 performs shading correction on the third image data IMG1.

このように本実施形態によれば、各種データの除去処理をデジタルデータで行うため、よく知られるデジタル演算処理回路を適用することが可能であり、すなわち不要なオフセット成分や波長成分の除去をより簡易・小規模な構成でより高速に実施することができる。 As described above, according to the present embodiment, since the removal processing of various data is performed by digital data, it is possible to apply a well-known digital arithmetic processing circuit, that is, the removal of unnecessary offset components and wavelength components is further performed. It can be implemented at higher speed with a simple and small-scale configuration.

(第3の実施の形態)
第3の実施の形態では、不要な不可視光成分を高精度に除去する点が、第2の実施の形態と異なる。
(Third Embodiment)
The third embodiment is different from the second embodiment in that unnecessary invisible light components are removed with high accuracy.

イメージセンサによって画像データを読み取る場合、人間の目とイメージセンサの分光感度特性が異なることに起因し、被写体201の画像データとして目視とは異なる画像データを再現してしまう場合がある。特に、イメージセンサに不可視光領域の感度が存在する場合には、あらゆる被写体201の色再現性を確保するために、不可視光成分の除去は必須である。 When the image data is read by the image sensor, the image data of the subject 201 may be different from the visual data due to the difference in the spectral sensitivity characteristics between the human eye and the image sensor. In particular, when the image sensor has a sensitivity in the invisible light region, it is essential to remove the invisible light component in order to ensure the color reproducibility of any subject 201.

図9及び図10は、第3の実施の形態の画像読取例を概略的に示す図である。例えば、図5及び図6における第一の波長λ1と第二の波長λ2を、図9及び図10に示すように可視光λ3と不可視光λ4とした被写体201の読み取りにおいて、不要な不可視光成分を高精度に除去することが可能となる。 9 and 10 are diagrams schematically showing an image reading example of the third embodiment. For example, an unnecessary invisible light component is used in reading the subject 201 in which the first wavelength λ1 and the second wavelength λ2 in FIGS. 5 and 6 are set to visible light λ3 and invisible light λ4 as shown in FIGS. 9 and 10. Can be removed with high accuracy.

このような不要な不可視光成分を高精度に除去する例について図11および図12を参照して説明する。ここで、図11はイメージセンサ分光感度特性の一例を示す図、図12は人間の目の分光感度特性(比視感度特性)の一例を示す図である。 An example of removing such an unnecessary invisible light component with high accuracy will be described with reference to FIGS. 11 and 12. Here, FIG. 11 is a diagram showing an example of the image sensor spectral sensitivity characteristic, and FIG. 12 is a diagram showing an example of the spectral sensitivity characteristic (luminous efficiency characteristic) of the human eye.

図11に示すような、一般的なシリコンを構成素材とするイメージセンサは、Red/Green/Blueの3色の可視光波長域(λ1=400〜780nm)に分光感度特性を有する。 An image sensor made of general silicon as a constituent material as shown in FIG. 11 has spectral sensitivity characteristics in the visible light wavelength range (λ1 = 400 to 780 nm) of three colors of Red / Green / Blue.

すなわち可視波長λ3には、波長400〜780nmに発光エネルギーを持つ光を使用する。 That is, for the visible wavelength λ3, light having emission energy at a wavelength of 400 to 780 nm is used.

また、第二の波長λ2は、シリコンの有効感度を有するもう一つの波長域である近赤外波長域(λ2=780〜1100nm)に発光エネルギーを持つ光とする。 Further, the second wavelength λ2 is light having emission energy in the near infrared wavelength region (λ2 = 780 to 1100 nm), which is another wavelength region having the effective sensitivity of silicon.

こうすることで、被写体201を読み取り、画像データ化することが可能になる。 By doing so, it becomes possible to read the subject 201 and convert it into image data.

図12に示すように、人間の目は、特に780nm以降の近赤外光領域(不可視光領域)の感度にイメージセンサ9とは大きな違いが見られる。これは、イメージセンサ9の画素を構成するシリコンが感度を有しているためであり、人間の目との大きな違いである。 As shown in FIG. 12, the human eye is significantly different from the image sensor 9 in the sensitivity of the near-infrared light region (invisible light region) after 780 nm. This is because the silicon constituting the pixels of the image sensor 9 has sensitivity, which is a big difference from the human eye.

すなわち、不可視光領域に感度を有する一般的なイメージセンサを用いる場合には、あらゆる被写体201の色再現性を確保するために、不可視光成分の除去は必須である。 That is, when a general image sensor having sensitivity in the invisible light region is used, it is essential to remove the invisible light component in order to ensure the color reproducibility of any subject 201.

(第4の実施の形態)
第4の実施の形態では、可視光及び赤外光を使用した点が、第3の実施の形態と異なる。
(Fourth Embodiment)
The fourth embodiment is different from the third embodiment in that visible light and infrared light are used.

ここで、図13及び図14は第4の実施の形態の画像読取例を概略的に示す図である。なお、図13及び図14での読み取り動作や信号処理についての説明は、図5および図6で示したものと同様であるため、ここでの説明は省略する。 Here, FIGS. 13 and 14 are diagrams schematically showing an image reading example of the fourth embodiment. Since the description of the reading operation and the signal processing in FIGS. 13 and 14 is the same as that shown in FIGS. 5 and 6, the description here will be omitted.

図13及び図14に示すように、可視光及び赤外光を使用した被写体201の読み取りは、一般的なシリコン製のイメージセンサで安価かつ容易に構成することが可能である。 As shown in FIGS. 13 and 14, reading of the subject 201 using visible light and infrared light can be inexpensively and easily configured with a general silicon image sensor.

本実施形態による第一イメージセンサ9aでの読み取り画像データからの赤外光読み取り成分img2の除去処理は、高精度な色再現性を確保する上で有効な手段である。 The process of removing the infrared light reading component img2 from the image data read by the first image sensor 9a according to the present embodiment is an effective means for ensuring highly accurate color reproducibility.

(第5の実施の形態)
第5の実施の形態では、光源が2種類の異なる可視光成分(可視光λ3、可視光λ6)からなる点が、第3の実施の形態と異なる。
(Fifth Embodiment)
The fifth embodiment is different from the third embodiment in that the light source is composed of two different types of visible light components (visible light λ3 and visible light λ6).

ここで、図15及び図16は第5の実施の形態の画像読取例を概略的に示す図である。図15及び図16に示すように、光源が2種類の異なる可視光成分(可視光λ3、可視光λ6)からなる場合にも、図5及び図6に示した処理を適用可能である。 Here, FIGS. 15 and 16 are diagrams schematically showing an image reading example of the fifth embodiment. As shown in FIGS. 15 and 16, the processes shown in FIGS. 5 and 6 can be applied even when the light source is composed of two different types of visible light components (visible light λ3 and visible light λ6).

被写体201の読み取りにおいて、広く波長域に感度特性を有するイメージセンサを1つ構成し、光源を切り替えることで各色の反射光成分を読み取る方式がある。 When reading the subject 201, there is a method in which one image sensor having a sensitivity characteristic in a wide wavelength range is configured and the reflected light component of each color is read by switching the light source.

本実施形態によれば、例えば光源の一つであるRed LEDに含まれるGreen成分を、Green LEDによる読み取りデータを用いて除去可能となる。すなわち、本実施形態によれば、より単一の色に近い高精度なカラー画像データを得ることが可能となる。 According to the present embodiment, for example, the Green component contained in the Red LED, which is one of the light sources, can be removed by using the data read by the Green LED. That is, according to the present embodiment, it is possible to obtain highly accurate color image data closer to a single color.

(第6の実施の形態)
上述した各実施形態においては、イメージセンサ9が第一イメージセンサ9aと第二イメージセンサ9bとを備えるものとしたが、これに限るものではない。第6の実施の形態では、イメージセンサ9を単一のイメージセンサにて構成し、透過特性の異なる光学フィルタを備えるようにした点が、他の実施の形態と異なる。
(Sixth Embodiment)
In each of the above-described embodiments, the image sensor 9 includes the first image sensor 9a and the second image sensor 9b, but the present invention is not limited to this. The sixth embodiment is different from the other embodiments in that the image sensor 9 is composed of a single image sensor and includes optical filters having different transmission characteristics.

ここで、図17は第6の実施の形態にかかるイメージセンサ9の変形例を示す図である。図17に示すように、第一イメージセンサ9aと第二イメージセンサ9bとを単一のイメージセンサ9cにて構成し、第一の波長λ1と第二の波長λ2の光を透過する第一の光学フィルタ213a、第二の波長λを透過し第一の波長λ1を反射又は吸収する第二の光学フィルタ213bを備えるようにしてもよい。 Here, FIG. 17 is a diagram showing a modified example of the image sensor 9 according to the sixth embodiment. As shown in FIG. 17, the first image sensor 9a and the second image sensor 9b are configured by a single image sensor 9c, and the first image sensor 9c transmits light of the first wavelength λ1 and the second wavelength λ2. An optical filter 213a may be provided, and a second optical filter 213b that transmits the second wavelength λ and reflects or absorbs the first wavelength λ1 may be provided.

本実施形態によれば、他の実施の形態では光源の発光波長を切り替えながら複数回読み取りを行っていたのに対し、一度の読み取りで第一の波長画像データimg1+img2+os1、第二の波長画像データimg2+os2の両方が取得可能となるため、より高速な読み取りが可能となる。 According to the present embodiment, in the other embodiments, reading is performed a plurality of times while switching the emission wavelength of the light source, whereas the first wavelength image data img1 + img2 + os1 and the second wavelength image data img2 + os2 are read once. Since both of them can be acquired, faster reading becomes possible.

(第7の実施の形態)
第7の実施の形態では、イメージセンサ9を各色での読み取りが可能なR/G/B/IR画素を備えるイメージセンサとした点が、他の実施の形態と異なる。
(7th Embodiment)
The seventh embodiment is different from the other embodiments in that the image sensor 9 is an image sensor including R / G / B / IR pixels capable of reading in each color.

ここで、図18は第7の実施の形態にかかるイメージセンサ9の別の変形例を示す図である。図18に示すように、イメージセンサ9は、各色での読み取りが可能なR/G/B/IR画素を備えるイメージセンサ9dとしてもよい。これにより、フルカラーと不可視光の画像データが同時に読み取ることが可能となる。 Here, FIG. 18 is a diagram showing another modification of the image sensor 9 according to the seventh embodiment. As shown in FIG. 18, the image sensor 9 may be an image sensor 9d including R / G / B / IR pixels capable of reading in each color. This makes it possible to read full-color and invisible light image data at the same time.

なお、図18において、r、g、b、irはイメージセンサから出力された被写体201の読み取り信号成分、ros、gos、bos、irosはそれらの各オフセット信号成分、R、G、B、IR、Ros、Gos、Bos、IRosはそれぞれのA/D変換後のデジタル信号、また第一のオフセット成分除去部211aおよび第二のオフセット成分除去部211bは、第一〜第四のオフセット成分除去部211a〜211dとなる。 In FIG. 18, r, g, b, and ir are the read signal components of the subject 201 output from the image sensor, and ros, gos, bos, and iros are their respective offset signal components, R, G, B, and IR. Ros, Gos, Bos, and IRos are digital signals after A / D conversion, and the first offset component removing section 211a and the second offset component removing section 211b are the first to fourth offset component removing sections 211a. It becomes ~ 211d.

(第8の実施の形態)
次に、第8の実施の形態について説明する。
(8th Embodiment)
Next, the eighth embodiment will be described.

第8の実施の形態は、第二の画像データ成分除去処理部212aより前段にデータ補正部214を備える点が、他の実施の形態と異なる。 The eighth embodiment is different from the other embodiments in that the data correction unit 214 is provided in front of the second image data component removal processing unit 212a.

図19は、第8の実施の形態にかかる画像読取部101を構成する各部の電気的接続を示すブロック図である。 FIG. 19 is a block diagram showing an electrical connection of each part constituting the image reading unit 101 according to the eighth embodiment.

可視光と不可視光によるそれぞれの読取において、読み取り条件が異なるケースが存在する。例えば、信号増幅率、読み取りライン周期、イメージセンサの感度のばらつきや差異などがあり、この場合、各々のデータに含まれる不可視成分の大きさには差異が生じる。 There are cases where the reading conditions are different for each reading by visible light and invisible light. For example, there are variations and differences in signal amplification factor, reading line period, and sensitivity of the image sensor, and in this case, there are differences in the size of invisible components contained in each data.

この差異を補正し、後段の第二の画像データ成分除去処理部212aにてより高精度な除去を可能とするために、図19に示すように、第二の画像データ成分除去処理部212aより前段にデータ補正部214を備える。 In order to correct this difference and enable more accurate removal by the second image data component removal processing unit 212a in the subsequent stage, as shown in FIG. 19, the second image data component removal processing unit 212a A data correction unit 214 is provided in the previous stage.

データ補正部214は、可視光+不可視光データに含まれる不可視光データ成分と、不可視光データ成分の大きさの補正を行う。 The data correction unit 214 corrects the size of the invisible light data component included in the visible light + invisible light data and the invisible light data component.

ここで、データ補正部214による補正の一例について説明する。 Here, an example of correction by the data correction unit 214 will be described.

例えば、データ補正部214は、第一イメージセンサ9a、第二イメージセンサ9bそれぞれの出力データに対し、読み取り条件に起因して変化する係数α、β、および任意の定数kを用いて、下記の補正演算を行う。
α(IMG1+IMG2)×k/α=k(IMG1+IMG2)・・・式(1)
β・IMG2×k/β=K・IMG2・・・式(2)
For example, the data correction unit 214 uses the coefficients α 1 , β 1 , and an arbitrary constant k 1 that change depending on the reading conditions for the output data of the first image sensor 9a and the second image sensor 9b, respectively. , Perform the following correction calculation.
α 1 (IMG1 + IMG2) × k 1 / α 1 = k 1 (IMG1 + IMG2) ・ ・ ・ Equation (1)
β 1IMG 2 × k 1 / β 1 = K 1IMG 2 ・ ・ ・ Equation (2)

後段の第二の画像データ成分除去処理部212aでは、式(1)と式(2)の差分をとることで、第二の画像データIMG2の除去が実現される。 In the second image data component removing processing unit 212a in the subsequent stage, the removal of the second image data IMG2 is realized by taking the difference between the equation (1) and the equation (2).

このように本実施形態によれば、データ補正により、画像データに処理を施した状態であっても高精度に第二の画像データIMG2を除去することができる。 As described above, according to the present embodiment, the second image data IMG2 can be removed with high accuracy even when the image data is processed by the data correction.

(第9の実施の形態)
次に、第9の実施の形態について説明する。
(9th embodiment)
Next, a ninth embodiment will be described.

第9の実施の形態は、データ補正部214aにおける各データの補正について、各種信号処理部222において設定されている信号増幅率の比率により補正する点が、他の実施の形態と異なる。 The ninth embodiment is different from the other embodiments in that the correction of each data in the data correction unit 214a is corrected by the ratio of the signal amplification factor set in the various signal processing units 222.

図20は、第9の実施の形態にかかる画像読取部101を構成する各部の電気的接続を示すブロック図である。図20に示すように、データ補正部214aにおける各データの補正は、各種信号処理部222において設定されている信号増幅率の比率により補正される。 FIG. 20 is a block diagram showing an electrical connection of each part constituting the image reading unit 101 according to the ninth embodiment. As shown in FIG. 20, the correction of each data in the data correction unit 214a is corrected by the ratio of the signal amplification factor set in the various signal processing units 222.

これにより、随時最適な値に変化する増幅率に対しても対応可能であり、第二の画像データIMG2の除去精度を容易に向上させることが可能である。 As a result, it is possible to deal with the amplification factor that changes to the optimum value at any time, and it is possible to easily improve the removal accuracy of the second image data IMG2.

例えば、データ補正部214aは、第一イメージセンサ9a、第二イメージセンサ9bそれぞれの出力データの信号増幅率α、β、および任意の定数kを用いて、下記の補正演算を行う。
α(IMG1+IMG2)×k/α=k(IMG1+IMG2)・・・式(3)
β・IMG2×k/β=K・IMG2・・・式(4)
For example, the data correction unit 214a performs the following correction calculation using the signal amplification factors α 2 , β 2 and the arbitrary constant k 2 of the output data of the first image sensor 9a and the second image sensor 9b, respectively.
α 2 (IMG1 + IMG2) × k 2 / α 2 = k 2 (IMG1 + IMG2) ・ ・ ・ Equation (3)
β 2・ IMG 2 × k 2 / β 2 = K 2IMG 2 ・ ・ ・ Equation (4)

このように本実施形態によれば、容易かつ高精度に第二の画像データIMG2を除去することができる。 As described above, according to the present embodiment, the second image data IMG2 can be easily and highly accurately removed.

(第10の実施の形態)
次に、第10の実施の形態について説明する。
(10th Embodiment)
Next, a tenth embodiment will be described.

第10の実施の形態は、データ補正部214bにおける各データの補正について、第一イメージセンサ9a、第二イメージセンサ9bの読み取りライン周期の比率により補正する点が、他の実施の形態と異なる。 The tenth embodiment is different from the other embodiments in that the correction of each data in the data correction unit 214b is corrected by the ratio of the reading line period of the first image sensor 9a and the second image sensor 9b.

図21は、第10の実施の形態にかかる画像読取部101を構成する各部の電気的接続を示すブロック図である。図21に示すように、データ補正部214bにおける各データの補正は、第一イメージセンサ9a、第二イメージセンサ9bの読み取りライン周期の比率により補正される。各々の画質(S/N比)を改善する場合、読み取りライン周期を変化(長くする)させることが有効である。 FIG. 21 is a block diagram showing an electrical connection of each part constituting the image reading unit 101 according to the tenth embodiment. As shown in FIG. 21, the correction of each data in the data correction unit 214b is corrected by the ratio of the reading line period of the first image sensor 9a and the second image sensor 9b. When improving each image quality (S / N ratio), it is effective to change (longen) the reading line period.

これにより、不可視成分除去精度を容易に向上させることが可能である。 This makes it possible to easily improve the accuracy of removing invisible components.

例えば、データ補正部214bは、第一イメージセンサ9a、第二イメージセンサ9bの読み取りライン周期の比率α、β、および任意の定数kを用いて、下記の補正演算を行う。
α(IMG1+IMG2)×k/α=k(IMG1+IMG2)・・・式(5)
β・IMG2×k/β=K・IMG2・・・式(6)
For example, the data correcting unit 214b includes a first image sensor 9a, the second image sensor 9b reading line period ratio alpha 3 of using a beta 3, and an arbitrary constant k 3, a correction operation is performed below.
α 3 (IMG1 + IMG2) × k 3 / α 3 = k 3 (IMG1 + IMG2) ・ ・ ・ Equation (5)
β 3IMG 2 × k 3 / β 3 = K 3IMG 2 ・ ・ ・ Equation (6)

このように本実施形態によれば、高精度に不可視成分を除去することができる。 As described above, according to the present embodiment, the invisible component can be removed with high accuracy.

なお、データ補正部214は、増幅率および読み取りライン周期の比率の両方を用いて補正を行ってもよい。 The data correction unit 214 may perform correction using both the amplification factor and the ratio of the read line period.

(第11の実施の形態)
次に、第11の実施の形態について説明する。
(11th Embodiment)
Next, the eleventh embodiment will be described.

第11の実施の形態は、予め基準となる第二波長データを取得しておき、データ補正時に再取得した第二波長データとの比率から変化分を推定する点が、他の実施の形態と異なる。 The eleventh embodiment is different from the other embodiments in that the reference second wavelength data is acquired in advance and the change is estimated from the ratio with the second wavelength data reacquired at the time of data correction. different.

図22は、第11の実施の形態にかかる画像読取部101を構成する各部の電気的接続を示すブロック図である。周囲温度依存の特性変化など、データ取得タイミングによってレベルが変化する場合がある。そこで、本実施形態においては、図22に示すように予め基準となる第二波長データを取得しておく。その後、被写体201読み取り時のデータ補正時に再取得した第二波長データとの比率から変化分を推定することで、より高精度な除去処理を可能とする。 FIG. 22 is a block diagram showing an electrical connection of each unit constituting the image reading unit 101 according to the eleventh embodiment. The level may change depending on the data acquisition timing, such as changes in characteristics that depend on the ambient temperature. Therefore, in the present embodiment, as shown in FIG. 22, the reference second wavelength data is acquired in advance. After that, by estimating the change amount from the ratio with the second wavelength data reacquired at the time of data correction at the time of reading the subject 201, more accurate removal processing becomes possible.

次に、第一の波長λ1を可視光、第二の波長を不可視光とし、第一のイメージセンサで読み取った可視光+不可視光の画像データから、第二のイメージセンサで読み取った第二の画像データを除去する場合における処理の流れについて説明する。 Next, the first wavelength λ1 is set to visible light and the second wavelength is set to invisible light, and the second image data read by the second image sensor is read from the image data of visible light + invisible light read by the first image sensor. The flow of processing when removing image data will be described.

ここで、図23は可視光+不可視光データから不可視光データを除去する処理の流れを示すフローチャートである。図23に示すように、まず、制御部23は、初期調整などのタイミングにおいて、光源駆動部24およびイメージセンサ9を制御して、光源2の第二波長の光(不可視光)のみを点灯した状態にて基準となる基準データを取得する(ステップS1)。 Here, FIG. 23 is a flowchart showing a flow of processing for removing invisible light data from visible light + invisible light data. As shown in FIG. 23, first, the control unit 23 controls the light source driving unit 24 and the image sensor 9 at the timing of initial adjustment and the like to turn on only the light (invisible light) of the second wavelength of the light source 2. Acquire reference data as a reference in the state (step S1).

なお、取得した基準データは、第1の実施の形態ないし第10の実施の形態に示した例と同様に、それぞれのオフセット成分が除去された信号成分を用いて処理が行われる。 The acquired reference data is processed by using the signal components from which the offset components have been removed, as in the examples shown in the first embodiment to the tenth embodiment.

この時、第一イメージセンサ9a、第二イメージセンサ9bからの出力データをIV、増幅率や感度の差異などを表す係数をα、βとすると、下記のようになる。 At this time, assuming that the output data from the first image sensor 9a and the second image sensor 9b is IV 1 , and the coefficients representing the difference in amplification factor and sensitivity are α 4 and β 4 , the results are as follows.

[光源:可視光off、不可視光on]
第一イメージセンサの出力データ:αIV
第二イメージセンサの出力データ:βIV
[Light source: visible light off, invisible light on]
Output data of the first image sensor: α 4 IV 1
Output data of the second image sensor: β 4 IV 1

特に、第一イメージセンサ9aは可視・不可視の両波長域に感度を有しているため、ここでは可視光源off、不可視光源onとして、第一イメージセンサ9aにおける不可視光基準データを取得しておき、後の不可視光除去用データとして保持しておく。 In particular, since the first image sensor 9a has sensitivity in both visible and invisible wavelength regions, the invisible light reference data in the first image sensor 9a is acquired here as the visible light source off and the invisible light source on. , It is retained as data for removing invisible light later.

次に、被写体201の読み取りが指示されると(ステップS2のYes)、制御部23は、光源駆動部24およびイメージセンサ9を制御して、まず被写体201の読み取りに先立ち、基準データを再度取得する(ステップS3)。 Next, when the reading of the subject 201 is instructed (Yes in step S2), the control unit 23 controls the light source driving unit 24 and the image sensor 9 to acquire the reference data again prior to reading the subject 201. (Step S3).

なお、被写体201の読み取り時には、可視光源、不可視光源ともに点灯した状態となるため、制御部23は、光源駆動部24およびイメージセンサ9を制御して、この時の基準データも同条件にて取得する。取得した基準データも除去処理用の2つ目のデータとして備える。 Since both the visible light source and the invisible light source are lit when the subject 201 is read, the control unit 23 controls the light source driving unit 24 and the image sensor 9 and acquires the reference data at this time under the same conditions. To do. The acquired reference data is also provided as the second data for the removal process.

一方で、予め取得した基準データ取得時から被写体201の読み取り時までの間には温度などの周囲環境が変化している可能性があり、例えば読み取り用光源の発光量やイメージセンサの感度が変化し得る。この変動分をnとすると、第一イメージセンサ9a、第二イメージセンサ9bからの出力データは、下記のようになる。 On the other hand, there is a possibility that the ambient environment such as temperature has changed between the time when the reference data acquired in advance is acquired and the time when the subject 201 is read. For example, the amount of light emitted from the reading light source and the sensitivity of the image sensor change. Can be done. Assuming that this fluctuation amount is n, the output data from the first image sensor 9a and the second image sensor 9b are as follows.

[光源:可視光on、不可視光on]
第一イメージセンサの出力データ:nα(IMGV+IV
第二イメージセンサの出力データ:nβIV
[Light source: visible light on, invisible light on]
Output data of the first image sensor: nα 4 (IMGV 1 + IV 1 )
Output data of the second image sensor: nβ 4 IV 1

ステップS3の基準データの再取得に続いて、制御部23は、光源駆動部24およびイメージセンサ9を制御して、被写体201を読み取る(ステップS4)。第一イメージセンサ9a、第二イメージセンサ9bからの出力データは、下記のようになる。 Following the reacquisition of the reference data in step S3, the control unit 23 controls the light source driving unit 24 and the image sensor 9 to read the subject 201 (step S4). The output data from the first image sensor 9a and the second image sensor 9b are as follows.

[光源:可視光on、不可視光on]
第一イメージセンサの出力データ:nα(V+IV
第二イメージセンサの出力データ:nβIV
[Light source: visible light on, invisible light on]
Output data of the first image sensor: nα 4 (V 2 + IV 2 )
Output data of the second image sensor: nβ 4 IV 2

次に、データ補正部214は、第一イメージセンサ9a、第二イメージセンサ9bの2つの出力データを用いて補正係数kを算出する(ステップS5)。この補正係数kによって、第一イメージセンサ9a、第二イメージセンサ9bの感度や入射光量の差異などの補正を行う。 Next, the data correction unit 214 calculates the correction coefficient k 4 using the two output data of the first image sensor 9a and the second image sensor 9b (step S5). With this correction coefficient k 4 , the sensitivity of the first image sensor 9a and the second image sensor 9b, the difference in the amount of incident light, and the like are corrected.

補正係数k=αIV/βIV Correction coefficient k 4 = α 4 IV 1 / β 4 IV 1

最後に、第二の画像データ成分除去処理部212aは、第一イメージセンサ9aの被写体201の読み取りデータから不可視光成分IVの除去処理を実施する(ステップS6)。 Finally, the second image data component removal processing unit 212a performs the removal processing of the invisible light component IV 2 from the read data of the subject 201 of the first image sensor 9a (step S6).

nα(V+IV)−nβIV×k=nα 4 (V 2 + IV 2 ) -nβ 4 IV 2 × k 4 = nα 4 V 2

被写体201の可視光読み取りデータVの係数nαは、後段のシェーディング補正処理部221におけるシェーディング補正処理(正規化処理)において除去される。 The coefficient nα 4 of the visible light reading data V 2 of the subject 201 is removed in the shading correction processing (normalization processing) in the shading correction processing unit 221 in the subsequent stage.

なお、本実施形態においては、補正係数算出(ステップS5)を除去演算(ステップS6)の直前としているが、これに限るものではなく、ステップS2〜ステップS6の間であればいずれの実施タイミングであってもよい。 In the present embodiment, the correction coefficient calculation (step S5) is immediately before the removal calculation (step S6), but the present invention is not limited to this, and any execution timing is between steps S2 and S6. There may be.

なお、基準データの取得対象を一般的な画像読取装置に搭載されている基準白板13とすることで、データを安定して取得することが可能となり、さらに精度を向上させることができる。 By setting the reference data acquisition target to the reference white plate 13 mounted on a general image reading device, it is possible to stably acquire the data and further improve the accuracy.

また、ステップS3で取得した基準白板13を用いた基準データは、不可視光除去とシェーディング補正用データの両方を兼ねることが可能になる。その場合、この基準白板データも補正係数算出(ステップS5)、除去演算(ステップS6)において不可視光成分を除去する必要があり、被写体データと同様、以下の演算によって処理を行う。 Further, the reference data using the reference white plate 13 acquired in step S3 can serve as both invisible light removal and shading correction data. In that case, it is necessary to remove the invisible light component in the correction coefficient calculation (step S5) and the removal calculation (step S6) of the reference white plate data, and the processing is performed by the following calculation in the same manner as the subject data.

[補正係数算出]
補正係数k=αIV/βIV ・・・被写体201のデータ処理と同様
[Calculation of correction coefficient]
Correction coefficient k 4 = α 4 IV 1 / β 4 IV 1・ ・ ・ Similar to data processing of subject 201

[不可視光除去処理]
nα(V+IV)−nβIV×k=nα ・・・各基準データを用いた除去処理
[Invisible light removal processing]
4 (V 1 + IV 1 ) -nβ 4 IV 1 × k 4 = nα 4 V 1 ... Removal processing using each reference data

ここで、第8ないし第11の実施の形態の変形例について説明する。 Here, a modified example of the eighth to eleventh embodiments will be described.

図24は、第8ないし第11の実施の形態にかかる画像読取部101を構成する各部の電気的接続を示すブロック図の変形例を示す図である。データ補正部214は、第二の画像データ成分除去処理部212aよりも前段、かつ第一のオフセット成分除去部211aおよび第二のオフセット成分除去部211bよりも後段として示したが、これに限るものではなく、例えば図24のように第一のオフセット成分除去部211aおよび第二のオフセット成分除去部211bよりも前段に設けられていてもよい。 FIG. 24 is a diagram showing a modified example of the block diagram showing the electrical connection of each unit constituting the image reading unit 101 according to the eighth to eleventh embodiments. The data correction unit 214 is shown as a stage before the second image data component removal processing unit 212a and after the first offset component removal unit 211a and the second offset component removal unit 211b, but is limited to this. Instead, for example, as shown in FIG. 24, it may be provided before the first offset component removing unit 211a and the second offset component removing unit 211b.

図25は、第8ないし第11の実施の形態にかかる画像読取部101を構成する各部の電気的接続を示すブロック図の別の変形例を示す図である。図25に示すように、各種信号処理部&データ補正部222aが、データ補正部214を兼ねていても良い。図25に示す例では、例えば各種信号処理部&データ補正部222aにおける信号増幅率をIMG1+IMG2とIMG2で同じ、加算されるオフセット成分も同じとすることにより、含まれる不可視成分の大きさとオフセット成分が同じとなるため、より簡易な構成で各成分の除去が可能となる。 FIG. 25 is a diagram showing another modification of the block diagram showing the electrical connection of each unit constituting the image reading unit 101 according to the eighth to eleventh embodiments. As shown in FIG. 25, various signal processing units & data correction units 222a may also serve as data correction units 214. In the example shown in FIG. 25, for example, the signal amplification factor in the various signal processing units & data correction unit 222a is the same for IMG1 + IMG2 and IMG2, and the offset component to be added is also the same, so that the size of the invisible component and the offset component contained are the same. Since it is the same, each component can be removed with a simpler configuration.

このように本実施形態によれば、環境変化によるデータ変動にも対応可能な不可視成分除去を実現することができる。 As described above, according to the present embodiment, it is possible to realize the removal of invisible components that can cope with data fluctuations due to environmental changes.

(第12の実施の形態)
次に、第12の実施の形態について説明する。
(12th Embodiment)
Next, a twelfth embodiment will be described.

第12の実施の形態は、各種信号処理部(AD変換処理部)222から第二の画像データ成分除去処理部までの間において、第一のオフセット加算処理部215a及び第二のオフセット加算処理部215bにおけるオフセット信号の加算処理、第一のオフセット検出処理部216a及び第二のオフセット検出処理部216bにおけるオフセット信号の検出処理、そして検出されたオフセット信号を用いて第一のオフセット成分除去部211a及び第二のオフセット成分除去部211bにおいてオフセット信号を減算処理する点が、他の実施の形態と異なる。 In the twelfth embodiment, the first offset addition processing unit 215a and the second offset addition processing unit between the various signal processing units (AD conversion processing unit) 222 and the second image data component removal processing unit Offset signal addition processing in 215b, offset signal detection processing in the first offset detection processing unit 216a and second offset detection processing unit 216b, and the first offset component removing unit 211a and using the detected offset signal. The second offset component removing unit 211b is different from other embodiments in that the offset signal is subtracted.

図26は、第12の実施の形態にかかる画像読取部101を構成する各部の電気的接続を示すブロック図である。 FIG. 26 is a block diagram showing an electrical connection of each part constituting the image reading unit 101 according to the twelfth embodiment.

第一のオフセット加算処理部215aおよび第二のオフセット加算処理部215bは、オフセット加算処理を実行する。 The first offset addition processing unit 215a and the second offset addition processing unit 215b execute the offset addition processing.

ここで、第一のオフセット加算処理部215aおよび第二のオフセット加算処理部215bにおけるオフセット加算処理について説明する。 Here, the offset addition processing in the first offset addition processing unit 215a and the second offset addition processing unit 215b will be described.

図27は、オフセット加算処理の一例を示す図である。図27(a)は、イメージセンサ9からの画像データ信号に重畳されるノイズ例である。図27(a)に示す画像データ信号のレベルは、0digit(=ノイズ成分のみ)である。0digit未満のデータは、図27(b)に示すように、0digitへクリップされてしまうため、画像データ信号受信側でのオフセット検出処理(平均化処理)時に0digitよりも大きな値が検出され、すなわち誤差を生じてしまう。 FIG. 27 is a diagram showing an example of the offset addition process. FIG. 27A is an example of noise superimposed on the image data signal from the image sensor 9. The level of the image data signal shown in FIG. 27 (a) is 0 digit (= noise component only). As shown in FIG. 27B, data less than 0 digit is clipped to 0 digit, so that a value larger than 0 digit is detected during the offset detection process (averaging process) on the image data signal receiving side, that is, It causes an error.

そのため、第一のオフセット加算処理部215aおよび第二のオフセット加算処理部215bでは、図27(c)に示すように、画像データ信号へオフセット成分を加算する。なお、図27(c)に示す例では、10digitのオフセット成分を加算している。このようにオフセット成分を加算したデータとすることで、検出誤差の発生を防止することができる。 Therefore, the first offset addition processing unit 215a and the second offset addition processing unit 215b add an offset component to the image data signal as shown in FIG. 27 (c). In the example shown in FIG. 27 (c), an offset component of 10 bits is added. By adding the offset components to the data in this way, it is possible to prevent the occurrence of detection errors.

ここで、図28はオフセット加算処理の他の一例を示す図である。図11のセンサ感度分光特性に示すように、不可視領域(IR)は可視領域(R/G/B)と比較し感度特性が低く、すなわちイメージセンサ9の出力信号レベルとして小さくなるケースが多い。よって、画像データ信号の増幅率を可視領域データよりも大きく設定することで、画像データ信号としてのある程度の画質(階調)を確保することが望ましい。一方で、増幅率が大きいために、図28(a)に示すようにノイズ成分も増幅されてしまう。また、図27の例と同様に、画像データ信号の0digitへのクリップも生じ、検出レベルの誤差を生じてしまう。そのため、不可視光読み取りデータには可視光読み取りデータよりも大きなオフセットを加算することが有効となる。そこで、図28(c)に示す例では、可視光読み取りデータには10digit、不可視光読み取りデータには20digitのオフセット成分を加算することで、オフセット検出誤差の発生を防止している。 Here, FIG. 28 is a diagram showing another example of the offset addition processing. As shown in the sensor sensitivity spectral characteristics of FIG. 11, the invisible region (IR) has a lower sensitivity characteristic than the visible region (R / G / B), that is, the output signal level of the image sensor 9 is often smaller. Therefore, it is desirable to secure a certain level of image quality (gradation) as an image data signal by setting the amplification factor of the image data signal to be larger than that of the visible region data. On the other hand, since the amplification factor is large, the noise component is also amplified as shown in FIG. 28 (a). Further, as in the example of FIG. 27, the image data signal is clipped to 0 digit, which causes an error in the detection level. Therefore, it is effective to add an offset larger than that of the visible light read data to the invisible light read data. Therefore, in the example shown in FIG. 28 (c), the occurrence of an offset detection error is prevented by adding an offset component of 10 bits to the visible light read data and 20 bits to the invisible light read data.

なお、オフセット成分を大きくすることは実信号成分が取り得るダイナミックレンジ幅を狭くしてしまうことにもつながるため、各データにおいて最適な値とすることが望ましい。 It should be noted that increasing the offset component also leads to narrowing the dynamic range width that the real signal component can take, so it is desirable to set it to the optimum value for each data.

これにより、黒シェーディング補正(減算)時に、不可視情報が変化してしまうことを防ぐことが可能、かつ量データのオフセットを不要に大きくすることで実情報データのダイナミックレンジが縮小してしまうことを防ぐことができる。 As a result, it is possible to prevent the invisible information from changing during black shading correction (subtraction), and the dynamic range of the actual information data is reduced by unnecessarily increasing the offset of the amount data. Can be prevented.

より詳細には、第一のオフセット検出処理部216aは、イメージセンサ9の出力信号に含まれるオフセット成分OS1および第一のオフセット加算処理部215aで加算されたオフセット成分OS3を検出する。第一のオフセット成分除去部211aは、第一のオフセット検出処理部216aで検出されたオフセット成分OS1とOS3を除去する。 More specifically, the first offset detection processing unit 216a detects the offset component OS1 included in the output signal of the image sensor 9 and the offset component OS3 added by the first offset addition processing unit 215a. The first offset component removing unit 211a removes the offset components OS1 and OS3 detected by the first offset detection processing unit 216a.

第二のオフセット検出処理部216bは、イメージセンサ9の出力信号に含まれるオフセット成分OS2および第二のオフセット加算処理部215bで加算されたオフセット成分OS4を検出する。第二のオフセット成分除去部211bは、第二のオフセット検出処理部216bで検出されたオフセット成分OS2とOS4を除去する。 The second offset detection processing unit 216b detects the offset component OS2 included in the output signal of the image sensor 9 and the offset component OS4 added by the second offset addition processing unit 215b. The second offset component removing unit 211b removes the offset components OS2 and OS4 detected by the second offset detection processing unit 216b.

なお、上記各実施の形態では、本発明の画像形成装置を、コピー機能、プリンタ機能、スキャナ機能およびファクシミリ機能のうち少なくとも2つの機能を有する複合機に適用した例を挙げて説明するが、複写機、プリンタ、スキャナ装置、ファクシミリ装置等の画像形成装置であればいずれにも適用することができる。 In each of the above embodiments, the image forming apparatus of the present invention will be described with reference to an example in which the image forming apparatus of the present invention is applied to a multifunction device having at least two functions of a copy function, a printer function, a scanner function and a facsimile function. It can be applied to any image forming apparatus such as a machine, a printer, a scanner apparatus, and a facsimile apparatus.

2 光源
9 イメージセンサ
9a 第一のイメージセンサ
9b 第二のイメージセンサ
13 基準白板
22 画像処理装置
101 読取装置
201 被写体
211a 第一のオフセット成分除去部
211b 第二のオフセット成分除去部
211c 第三のオフセット成分除去部
211d 第四のオフセット成分除去部
212a 第二の画像データ成分除去処理部
213a 第一の光学フィルタ
213b 第二の光学フィルタ
214 データ補正部
214a データ補正部(増幅率比率)
214b データ補正部(ライン周期比率)
215a 第一のオフセット加算処理部
215b 第二のオフセット加算処理部
216a 第一のオフセット検出処理部
216b 第二のオフセット検出処理部
221 シェーディング補正処理部
222 各種信号処理部
222a 各種信号処理部&データ補正部
2 Light source 9 Image sensor 9a First image sensor 9b Second image sensor 13 Reference white plate 22 Image processing device 101 Reading device 201 Subject 211a First offset component removing part 211b Second offset component removing part 211c Third offset Component removal unit 211d Fourth offset component removal unit 212a Second image data component removal processing unit 213a First optical filter 213b Second optical filter 214 Data correction unit 214a Data correction unit (amplification rate ratio)
214b Data correction unit (line period ratio)
215a First offset addition processing unit 215b Second offset addition processing unit 216a First offset detection processing unit 216b Second offset detection processing unit 221 Shading correction processing unit 222 Various signal processing units 222a Various signal processing units & data correction Department

特開2007−043427号公報Japanese Unexamined Patent Publication No. 2007-043427

Claims (18)

光源から照射されて第一のイメージセンサに入射した第一の波長の光と第二の波長の光との両方の反射光から第一の波長画像データを取得し、前記第一の波長画像データに含まれる第一のオフセット成分を除去し第一の画像データを生成する第一のオフセット成分除去部と、
前記光源から照射されて第二のイメージセンサに入射した前記第二の波長の光の反射光から第二の波長画像データを取得し、前記第二の波長画像データに含まれる第二のオフセット成分を除去し第二の画像データを生成する第二のオフセット成分除去部と、
前記第一のオフセット成分除去部と前記第二のオフセット成分除去部との後段に設けられ、前記第一の画像データから前記第二の画像データを除去して第三の画像データを生成する第二の画像データ成分除去処理部と、
を備えることを特徴とする画像データ処理装置。
The first wavelength image data is acquired from the reflected light of both the first wavelength light and the second wavelength light emitted from the light source and incident on the first image sensor, and the first wavelength image data is obtained. The first offset component removing unit that removes the first offset component contained in the light source and generates the first image data,
The second wavelength image data is acquired from the reflected light of the light of the second wavelength that is irradiated from the light source and incident on the second image sensor, and the second offset component included in the second wavelength image data. A second offset component remover that removes the light and generates a second image data,
A third image data is generated by removing the second image data from the first image data, which is provided after the first offset component removing unit and the second offset component removing unit. The second image data component removal processing unit and
An image data processing device comprising.
前記第一の波長画像データと、前記第一のオフセット成分と、前記第一の画像データと、前記第二の波長画像データと、前記第二のオフセット成分と、前記第二の画像データと、前記第三の画像データとは、いずれもデジタルデータである、
ことを特徴とする請求項1に記載の画像データ処理装置。
The first wavelength image data, the first offset component, the first image data, the second wavelength image data, the second offset component, and the second image data. The third image data is digital data.
The image data processing apparatus according to claim 1.
前記第一の波長の光は、可視光であり、
前記第二の波長の光は、不可視光である、
ことを特徴とする請求項1または2に記載の画像データ処理装置。
The light of the first wavelength is visible light.
The light of the second wavelength is invisible light,
The image data processing apparatus according to claim 1 or 2.
前記不可視光は、赤外光である、
ことを特徴とする、請求項3に記載の画像データ処理装置。
The invisible light is infrared light,
The image data processing apparatus according to claim 3, wherein the image data processing apparatus is characterized in that.
前記第一の波長の光と前記第二の波長の光とは、いずれも可視光である、
ことを特徴とする請求項1または2に記載の画像データ処理装置。
The light having the first wavelength and the light having the second wavelength are both visible light.
The image data processing apparatus according to claim 1 or 2.
前記第一のイメージセンサは、前記第一の波長の光と前記第二の波長の光とを透過する特性を有する第一の光学フィルタを備え、
前記第二のイメージセンサは、前記第二の波長の光を透過し、前記第一の波長の光を反射あるいは吸収する特性を有する第二の光学フィルタを備える
ことを特徴とする請求項1ないし5の何れか一項に記載の画像データ処理装置。
The first image sensor includes a first optical filter having a property of transmitting light of the first wavelength and light of the second wavelength.
The second image sensor is characterized by comprising a second optical filter having a property of transmitting the light of the second wavelength and reflecting or absorbing the light of the first wavelength. The image data processing apparatus according to any one of 5.
前記第一のイメージセンサは、Red、Green、Blueの3色の読み取り画素から構成され、
前記第二のイメージセンサは、前記第二の波長の光の読み取り画素から構成され、
前記第一のイメージセンサと前記第二のイメージセンサとは、一体のイメージセンサである、
ことを特徴とする請求項6に記載の画像データ処理装置。
The first image sensor is composed of three color reading pixels of Red, Green, and Blue.
The second image sensor is composed of reading pixels of light having the second wavelength.
The first image sensor and the second image sensor are integrated image sensors.
The image data processing apparatus according to claim 6.
前記第二の画像データ成分除去処理部よりも前段に、前記第一の波長画像データの読み取り条件と前記第二の波長画像データの読み取り条件との差異を補正するデータ補正部を備える、
ことを特徴とする請求項1ないし7の何れか一項に記載の画像データ処理装置。
A data correction unit that corrects a difference between the reading condition of the first wavelength image data and the reading condition of the second wavelength image data is provided before the second image data component removing processing unit.
The image data processing apparatus according to any one of claims 1 to 7.
前記データ補正部は、
前記第一の波長画像データに付与される第一の増幅率と前記第二の波長画像データに付与される第二の増幅率との比を用いて、前記第一の波長画像データと前記第二の波長画像データとの一方もしくは両方を補正する、
ことを特徴とする請求項8に記載の画像データ処理装置。
The data correction unit
Using the ratio of the first amplification factor given to the first wavelength image data to the second amplification factor given to the second wavelength image data, the first wavelength image data and the first wavelength image data are used. Correct one or both of the two wavelength image data,
The image data processing apparatus according to claim 8.
前記データ補正部は、
前記第一の波長画像データに付与される前記第一の増幅率と前記第二の波長画像データに付与される前記第二の増幅率とを等しくする、
ことを特徴とする請求項9に記載の画像データ処理装置。
The data correction unit
The first amplification factor given to the first wavelength image data and the second amplification factor given to the second wavelength image data are made equal to each other.
The image data processing apparatus according to claim 9.
前記データ補正部は、
前記第一の波長画像データを読み取る際の第一の読み取りライン周期と前記第二の波長画像データを読み取る際の第二の読み取りライン周期との比を用いて、前記第一の波長画像データと前記第二の波長画像データとの一方もしくは両方を補正する、
ことを特徴とする請求項9に記載の画像データ処理装置。
The data correction unit
Using the ratio of the first reading line period when reading the first wavelength image data to the second reading line period when reading the second wavelength image data, the first wavelength image data and the first wavelength image data are used. Correcting one or both of the second wavelength image data,
The image data processing apparatus according to claim 9.
前記第二の波長の光のみの基準部材からの反射光を前記第一のイメージセンサにおいて第三の波長画像データを取得し、前記第一のオフセット成分除去部において第一のオフセット成分を除去した第四の波長画像データと、前記第二の波長の光のみの基準部材からの反射光を前記第二のイメージセンサにおいて検出した第四の波長画像データから、前記第二のオフセット成分除去部において第二のオフセット成分を除去した第五の波長画像データと、を予め取得しておき、
前記データ補正部は、補正係数として前記第二の波長画像データと前記第五の波長画像データとの比を算出し、
前記第二の画像データ成分除去処理部は、前記第四の波長画像データと前記補正係数とを用いて、前記第一の波長画像データから前記第二の波長の光の反射光成分を除去する、
ことを特徴とする請求項8ないし11の何れか一項に記載の画像データ処理装置。
The third wavelength image data was acquired by the first image sensor for the reflected light from the reference member having only the light of the second wavelength, and the first offset component was removed by the first offset component removing unit. From the fourth wavelength image data and the fourth wavelength image data obtained by detecting the reflected light from the reference member having only the light of the second wavelength in the second image sensor, in the second offset component removing unit. The fifth wavelength image data from which the second offset component has been removed and the fifth wavelength image data have been acquired in advance.
The data correction unit calculates the ratio of the second wavelength image data and the fifth wavelength image data as a correction coefficient, and calculates the ratio.
The second image data component removing processing unit uses the fourth wavelength image data and the correction coefficient to remove the reflected light component of the light of the second wavelength from the first wavelength image data. ,
The image data processing apparatus according to any one of claims 8 to 11.
前記基準部材は、基準白板である、
ことを特徴とする請求項12に記載の画像データ処理装置。
The reference member is a reference white plate.
The image data processing apparatus according to claim 12.
前記第一の波長画像データないし第三の波長画像データに第三のオフセット成分を付加する第一のオフセット加算処理部と、
前記第二の波長画像データないし第四の波長画像データに第四のオフセット成分を付加する第二のオフセット加算処理部と、
を備え、
前記第一のオフセット成分除去部は、第一の波長画像データないし第三の波長画像データに含まれる前記第一のオフセット成分と前記第三のオフセット成分を検出する第一のオフセット検出処理部を備え、
前記第二のオフセット成分除去部は、第二の波長画像データないし第四の波長画像データに含まれる前記第二のオフセット成分と前記第四のオフセット成分を検出する第二のオフセット検出処理部を備える、
ことを特徴とする請求項1ないし13の何れか一項に記載の画像データ処理装置。
A first offset addition processing unit that adds a third offset component to the first wavelength image data or the third wavelength image data,
A second offset addition processing unit that adds a fourth offset component to the second wavelength image data or the fourth wavelength image data,
With
The first offset component removing unit includes a first offset detection processing unit that detects the first offset component and the third offset component contained in the first wavelength image data or the third wavelength image data. Prepare,
The second offset component removing unit includes a second offset detection processing unit that detects the second offset component and the fourth offset component contained in the second wavelength image data or the fourth wavelength image data. Prepare, prepare
The image data processing apparatus according to any one of claims 1 to 13.
前記第二のオフセット成分は、前記第一のオフセット成分よりも大きい、
ことを特徴とする請求項1ないし14の何れか一項に記載の画像データ処理装置。
The second offset component is larger than the first offset component.
The image data processing apparatus according to any one of claims 1 to 14.
被写体に第一の波長の光と第二の波長の光とを照射する光源と、
前記光源から照射された光による被写体からの反射光を読み取るイメージセンサと、
請求項1ないし請求項15の何れか一項に記載の画像データ処理装置と、
を備えることを特徴とする画像読取装置。
A light source that irradiates the subject with light of the first wavelength and light of the second wavelength,
An image sensor that reads the reflected light from the subject due to the light emitted from the light source, and
The image data processing apparatus according to any one of claims 1 to 15.
An image reading device comprising.
請求項16に記載の画像読取装置と、
前記画像読取装置によって読み取った画像データに基づいて記録媒体上に画像を形成する画像形成部と、
を備えることを特徴とする画像形成装置。
The image reading device according to claim 16 and
An image forming unit that forms an image on a recording medium based on the image data read by the image reading device, and an image forming unit.
An image forming apparatus comprising.
画像データ処理装置における画像処理方法であって、
光源から照射されてイメージセンサに入射した第一の波長の光と第二の波長の光との両方の反射光から得られる第一の波長画像データに含まれる第一のオフセット成分を除去し第一の画像データを生成する第一のオフセット成分除去ステップと、
前記光源から照射されて前記イメージセンサに入射した前記第二の波長の光の反射光から得られる第二の波長画像データに含まれる第二のオフセット成分を除去し第二の画像データを生成する第二のオフセット成分除去ステップと、
前記第一のオフセット成分除去ステップと前記第二のオフセット成分除去ステップとの処理後に、前記第一の画像データから前記第二の画像データを除去して第三の画像データを生成する第二画像成分除去処理ステップと、
を含むことを特徴とする画像データ処理方法。
This is an image processing method in an image data processing device.
The first offset component contained in the first wavelength image data obtained from the reflected light of both the first wavelength light and the second wavelength light emitted from the light source and incident on the image sensor is removed. The first offset component removal step to generate one image data,
The second image data is generated by removing the second offset component included in the second wavelength image data obtained from the reflected light of the light of the second wavelength that is irradiated from the light source and incident on the image sensor. The second offset component removal step and
After the processing of the first offset component removing step and the second offset component removing step, the second image data is removed from the first image data to generate a third image data. Component removal processing step and
An image data processing method comprising.
JP2020153709A 2019-12-09 2020-09-14 Image data processing device, image reading device, image forming device, and image data processing method Active JP7604819B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019222341 2019-12-09
JP2019222341 2019-12-09

Publications (2)

Publication Number Publication Date
JP2021093717A true JP2021093717A (en) 2021-06-17
JP7604819B2 JP7604819B2 (en) 2024-12-24

Family

ID=76310899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020153709A Active JP7604819B2 (en) 2019-12-09 2020-09-14 Image data processing device, image reading device, image forming device, and image data processing method

Country Status (1)

Country Link
JP (1) JP7604819B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4312423A1 (en) 2022-07-27 2024-01-31 Ricoh Company, Ltd. Image processor, image forming apparatus, and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5312186B2 (en) 2009-05-08 2013-10-09 キヤノン株式会社 Document reader
JP5073776B2 (en) 2010-04-26 2012-11-14 シャープ株式会社 Image reading apparatus, image data output processing apparatus, and image reading method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4312423A1 (en) 2022-07-27 2024-01-31 Ricoh Company, Ltd. Image processor, image forming apparatus, and image processing method
US12279027B2 (en) 2022-07-27 2025-04-15 Ricoh Company, Ltd. Image processor, image forming apparatus, and image processing method

Also Published As

Publication number Publication date
JP7604819B2 (en) 2024-12-24

Similar Documents

Publication Publication Date Title
JP6383143B2 (en) Imaging device, image reading apparatus, image forming apparatus, and imaging method
US8049908B2 (en) Image processing apparatus and image processing method
US8810823B2 (en) Image reading device, an image forming apparatus, and methods for detecting dirt in document reading positions
JP7559379B2 (en) Reading device, image forming device, and image reading method
US7679796B2 (en) Image processing apparatus and image processing method
US8730528B2 (en) Image reading apparatus, image forming apparatus, and image reading method
JP6776714B2 (en) Image forming system, image reading device, and image forming device
JP7604819B2 (en) Image data processing device, image reading device, image forming device, and image data processing method
JP2007104124A (en) Image reader
JP5533230B2 (en) Image reading apparatus and image forming apparatus
JP2011023833A (en) Image reader, image formation device, and program
JP6303504B2 (en) Photoelectric conversion element, image reading apparatus, and image forming apparatus
US20080187244A1 (en) Image processing apparatus and image processing method
JP5786309B2 (en) Image reading apparatus and image forming apparatus
JP7415585B2 (en) Image processing device, reading device, image forming device, and image processing method
JP6493500B2 (en) Image sensor, image reading apparatus, image forming apparatus, and image reading method
US7536281B2 (en) Method for compensating for a contaminated calibration target used in calibrating a scanner
JP6477283B2 (en) Photoelectric conversion element, image reading apparatus, image forming apparatus, and photoelectric conversion element control method
JP6887818B2 (en) Image forming device
JP6737365B2 (en) Image sensor, image reading device, image forming device, and image reading method
JP6264875B2 (en) Image reading apparatus and image forming apparatus
JP6992521B2 (en) Photoelectric conversion device, defect pixel determination method and image forming device
JP2010035136A (en) Image reading apparatus, image forming apparatus, and image reading method
JP6880936B2 (en) Image reader, image forming device, and control method
JP2024151904A (en) Image reading device, image forming device, and image reading method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241125

R150 Certificate of patent or registration of utility model

Ref document number: 7604819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150