JP6439395B2 - Image reading apparatus, image forming apparatus, and image reading method - Google Patents
Image reading apparatus, image forming apparatus, and image reading method Download PDFInfo
- Publication number
- JP6439395B2 JP6439395B2 JP2014227538A JP2014227538A JP6439395B2 JP 6439395 B2 JP6439395 B2 JP 6439395B2 JP 2014227538 A JP2014227538 A JP 2014227538A JP 2014227538 A JP2014227538 A JP 2014227538A JP 6439395 B2 JP6439395 B2 JP 6439395B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- data
- optical path
- image
- path length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000003287 optical effect Effects 0.000 claims description 102
- 238000012937 correction Methods 0.000 claims description 69
- 238000003708 edge detection Methods 0.000 claims description 42
- 238000003860 storage Methods 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 28
- 230000004075 alteration Effects 0.000 claims description 21
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 42
- 238000004364 calculation method Methods 0.000 description 28
- 230000015572 biosynthetic process Effects 0.000 description 25
- 238000003702 image correction Methods 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 17
- 239000011521 glass Substances 0.000 description 11
- 239000000428 dust Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000012546 transfer Methods 0.000 description 8
- 239000003086 colorant Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000013041 optical simulation Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Scanning Arrangements (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Input (AREA)
Description
本発明は、画像読取装置、画像形成装置及び画像読取方法に関する。 The present invention relates to an image reading apparatus, an image forming apparatus, and an image reading method.
CCDやCMOSイメージセンサ等を用いた画像読取装置では、使用するレンズの収差特性により、画像が歪曲するディストーションという現象が生じる。ディストーションは、主にエリアセンサを用いたデジタルカメラ等の撮像装置において、理想結像位置に対して広がる、又は狭まる歪みで目立つものとなる。また、ディストーションは、レンズの製造誤差、及び個体差などによって生じるものであり、レンズ毎にディストーション量は異なる。これらのディストーションを補正するために、レンズ個体毎にディストーション量を測定し、メモリに保存したディストーション量を参照することによって補正を行う方法などが知られている。 In an image reading apparatus using a CCD, a CMOS image sensor, or the like, a phenomenon called distortion occurs in which an image is distorted due to the aberration characteristics of a lens used. Distortion is conspicuous in a distortion that spreads or narrows with respect to an ideal imaging position in an imaging apparatus such as a digital camera that mainly uses an area sensor. Further, distortion is caused by a manufacturing error of the lens, individual differences, and the like, and the amount of distortion differs for each lens. In order to correct these distortions, a method is known in which the amount of distortion is measured for each individual lens and correction is performed by referring to the amount of distortion stored in a memory.
特許文献1には、フラットベット読取りの際に原稿の浮き部分の濃度値と倍率を補正する画像読取装置が開示されている。特許文献1に記載の画像読取装置は、1ライン毎に主走査方向のエッジ検出を行って原稿の浮き部分を検出し、原稿の浮き情報に応じた濃度補正、及び倍率補正を行うものである。 Patent Document 1 discloses an image reading apparatus that corrects the density value and magnification of a floating portion of a document when reading a flat bed. The image reading apparatus described in Patent Document 1 performs edge detection in the main scanning direction for each line to detect a floating portion of a document, and performs density correction and magnification correction according to the document floating information. .
しかしながら、特許文献1に記載の画像読取装置では、原稿の読取り距離が変化する場合に、レンズの歪曲収差による画像データの光学歪み量を補正(ディストーション補正)することができない、という問題があった。 However, the image reading apparatus described in Patent Document 1 has a problem in that the optical distortion amount of image data due to lens distortion cannot be corrected (distortion correction) when the reading distance of the document changes. .
本発明は、上記に鑑みてなされたものであって、被写体の読取り距離が変化しても、画像データを適切に補正することができる画像読取装置、画像形成装置及び画像読取方法を提供することを目的とする。 The present invention has been made in view of the above, and provides an image reading apparatus, an image forming apparatus, and an image reading method capable of appropriately correcting image data even if a subject reading distance changes. With the goal.
上述した課題を解決し、目的を達成するために、本発明に係る画像読取装置は、レンズを介して被写体からの反射光を光電変換して前記被写体の画像データを読み取るイメージセンサと、前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する記憶部と、前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出部と、前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出部と、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正部と、を備え、前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長であり、前記補正部は、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の主走査方向の画素位置と、前記第1光路長とから算出される出射角度データを用いて、前記入出射角情報を参照して第1入射角度データを特定し、特定した前記第1入射角度データと前記第1光路長とから算出される理想画素位置と、前記両端部画素位置及び前記画素位置との画素ずれ量に基づいて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する、ことを特徴とする。 In order to solve the above-described problems and achieve the object, an image reading apparatus according to the present invention includes an image sensor that photoelectrically converts reflected light from a subject via a lens and reads image data of the subject, and the subject A memory that stores in advance optical path length information from the image sensor to the image sensor, and incident / exit angle information in which incident angle data of the reflected light incident on the lens and emission angle data emitted from the lens correspond to each other A pixel position detection unit that detects a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor, the image data, and pixel position data of the detected pixel An edge detection unit for detecting pixel positions at both ends in the main scanning direction of the pixels at both ends of the image data, and the pixel positions at both ends and the pixels at both ends A correction unit that corrects an optical distortion amount of the image data due to distortion of the lens, using the pixel position of each pixel between the positions, the optical path length information, and the incident / exit angle information; The optical path length information is a first optical path length between the lens and the image sensor, and the correction unit is configured to detect each pixel between the both end pixel positions and the both end pixel positions. Using the emission angle data calculated from the pixel position in the main scanning direction and the first optical path length, the first incident angle data is identified by referring to the incident / exit angle information, and the identified first incident angle The optical distortion amount of the image data due to the distortion aberration of the lens is corrected based on the ideal pixel position calculated from the data and the first optical path length, and the pixel shift amount between the pixel positions on both ends and the pixel position. to, be characterized in that .
本発明によれば、被写体の読取り距離が変化しても、画像データを適切に補正することができる、という効果を奏する。 According to the present invention, there is an effect that image data can be corrected appropriately even if the reading distance of the subject changes.
以下、添付図面を参照しながら、本発明に係る画像読取装置、画像形成装置及び画像読取方法の一実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。また、各実施形態は、内容を矛盾させない範囲で、適宜組み合わせることができる。また、以下では、本発明に係る画像形成装置を、複合機(MFP:Multifunction Peripheral)に適用した場合を例に挙げて説明するが、これに限定されるものではない。なお、複合機とは、印刷機能(プリンタ機能)、複写機能(コピー機能)、スキャナ機能、及びファックス機能のうち少なくとも2つの機能を有する装置である。 Hereinafter, an embodiment of an image reading apparatus, an image forming apparatus, and an image reading method according to the present invention will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by the following embodiment. Moreover, each embodiment can be combined suitably as long as the content is not contradicted. In the following description, an example in which the image forming apparatus according to the present invention is applied to a multifunction peripheral (MFP) will be described. However, the present invention is not limited to this. Note that a multifunction peripheral is a device having at least two functions of a print function (printer function), a copy function (copy function), a scanner function, and a fax function.
最初に、図1を用いて、画像形成装置300の構成例について説明する。図1は、本実施形態に係る画像形成装置300の構成の一例を示す図である。図1に示すように、画像形成装置300は、給紙部303及び画像形成装置本体(画像形成部)304を有し、上部に画像読取装置100及び自動原稿給送装置(ADF)200が搭載されたデジタル複合機である。なお、画像読取装置100は、ADF200が一体となって単体の画像読取装置となるように構成されてもよい。
First, a configuration example of the
画像形成装置本体304内には、タンデム方式の作像部305と、給紙部303から搬送路307を介して供給される記録紙(記録媒体)を作像部305に搬送するレジストローラ308と、光書き込み装置309と、定着搬送部310と、両面トレイ311とが設けられている。
In the image forming apparatus main body 304, a tandem
作像部305には、Y,M,C,Kの4色のトナーに対応して4本の感光体ドラム312が並設されている。各感光体ドラム312の回りには、帯電器、現像器306、転写器、クリーナ、及び除電器を含む作像要素が配置されている。
In the
また、転写器と感光体ドラム312との間には両者のニップに挟持された状態で駆動ローラと従動ローラとの間に張架された中間転写ベルト313が配置されている。
In addition, an
このように構成されたタンデム方式の画像形成装置300は、Y,M,C,Kの色毎に各色に対応する感光体ドラム312に光書き込みを行い、現像器306で各色のトナー毎に現像し、中間転写ベルト313上に例えばY,M,C,Kの順に1次転写を行う。
The tandem
そして、画像形成装置300は、1次転写により4色重畳されたフルカラーの画像を記録紙に2次転写した後、定着して排紙することによりフルカラーの画像を記録紙上に形成する。また、画像形成装置300は、画像読取装置100が読取った画像を記録紙上に形成する。
Then, the
図2は、画像読取装置100及びADF200の構成の一例を示す図である。図2に示すように、画像読取装置100は、デジタル複写機、デジタル複合機、ファクシミリ装置等の画像形成装置に搭載されるスキャナ装置である。そして、画像読取装置100は、光源102からの照射光によって被写体(読取対象)である原稿を照明し、その原稿からの反射光を光電変換するCMOSのイメージセンサ109で受光した信号に処理を行い、原稿の画像データを読み取る。以下では、「被写体」を「原稿」とも表記する。
FIG. 2 is a diagram illustrating an example of the configuration of the
具体的には、画像読取装置100は、図2に示すように、原稿(被写体)を載置するコンタクトガラス101と、原稿露光用の光源102及び第1反射ミラー103を具備する第1キャリッジ106と、第2反射ミラー104及び第3反射ミラー105を具備する第2キャリッジ107とを有する。また、画像読取装置100は、RGBのカラーセンサであるイメージセンサ109と、イメージセンサ109に結像するためのレンズユニット(レンズ)108と、読取り光学系等による各種の歪みを補正するためなどに用いる基準白板(白基準板)110と、シートスルー読取り用のスリット111も備えている。イメージセンサ109は、レンズユニット108を介して被写体からの反射光を光電変換して被写体の画像データを読み取るものである。以下、「レンズユニット」を「レンズ」とも表記する。
Specifically, as shown in FIG. 2, the
画像読取装置100は、上部にADF200が搭載されており、このADF200をコンタクトガラス101に対して開閉できるように、図示しないヒンジ等を介した連結がなされている。
The
ADF200は、複数枚の原稿からなる原稿束を載置可能な原稿載置台としての原稿トレイ201を備えている。また、ADF200は、原稿トレイ201に載置された原稿束から原稿を1枚ずつ分離してスリット111へ向けて自動給送する給送ローラ202を含む分離・給送手段も備えている。
The
さらに、スリット111の原稿搬送方向上流側には、ガイド部材112が設けられている。ガイド部材112は、スリット111に対する汚れやゴミの付着を防止するために、原稿搬送読取時にスリット111へ原稿を接触させないようにしている。
Further, a
そして、画像読取装置100は、固定された原稿の画像面をスキャン(走査)して原稿の画像を読み取るフラットベッド読み取りモード(以下、圧板読取と記載)時には、第1キャリッジ106及び第2キャリッジ107により、図示しないステッピングモータによって矢示A方向(副走査方向)に原稿を走査する。このとき、コンタクトガラス101からイメージセンサ109までの光路長を一定に維持するために、第2キャリッジ107は第1キャリッジ106の1/2の速度で移動する。
The
同時に、コンタクトガラス101上にセットされた原稿の下面である画像面が第1キャリッジ106の光源102によって照明(露光)される。すると、その画像面からの反射光像が第1キャリッジ106の第1反射ミラー103、第2キャリッジ107の第2反射ミラー104及び第3反射ミラー105、並びにレンズユニット108経由でイメージセンサ109へ順次送られて結像される。
At the same time, the image surface which is the lower surface of the document set on the
そして、イメージセンサ109の光電変換により信号が出力され、出力された信号はデジタル信号に変換される。このように、原稿の画像が読み取られ、デジタルの画像データが得られる。
Then, a signal is output by photoelectric conversion of the
一方、原稿を自動給送して原稿の画像を読み取るシートスルー読み取りモード(以下、原稿搬送読取と記載)時には、第1キャリッジ106及び第2キャリッジ107が、スリット111の下側へ移動する。その後、原稿トレイ201に載置された原稿が給送ローラ202によって矢示B方向(副走査方向)へ自動給送され、スリット111の位置において原稿が走査される。
On the other hand, in a sheet-through reading mode (hereinafter referred to as “document feed reading”) in which an original is automatically fed and an image of the original is read, the
このとき、搬送される原稿の下面(画像面)が第1キャリッジ106の光源102によって照明される。そのため、その画像面からの反射光像が第1キャリッジ106の第1反射ミラー103、第2キャリッジ107の第2反射ミラー104及び第3反射ミラー105、並びにレンズユニット108経由でイメージセンサ109へ順次送られて結像される。そして、イメージセンサ109の光電変換により信号が出力され、出力された信号はデジタル信号に変換される。このように、原稿の画像が読み取られ、デジタルの画像データが得られる。画像の読み取りが完了した原稿は、図示しない排出口に排出される。
At this time, the lower surface (image surface) of the conveyed document is illuminated by the
図3は、画像読取装置100が有する機能の要部を示す機能ブロック図である。光源102は、照射光を原稿に対して照射する。イメージセンサ109は、原稿からの反射光を光電変換し、デジタル画像信号として出力する。なお、イメージセンサ109は、内部に図示しない複数の受光素子が主走査方向に配列されたラインセンサである。イメージセンサ109は、各画素に相当する各受光素子が、光源102からの反射光を電気信号に変換し、図示しない増幅器やA/D変換器によってデジタル画素データを得る。また、イメージセンサ109は、各受光素子からのパラレルデータであるデジタル画素データをシリアルデータに変換し、同期信号生成部500からの画素同期信号、ライン同期信号に同期して、ライン毎にデジタル画素データを画像補正部502に対して伝送する。
FIG. 3 is a functional block diagram illustrating a main part of the functions of the
メモリ(記憶部)501は、予め画像読取装置100の製造工程等において測定されたレンズユニット108の離散的な主走査方向のレンズユニット108に入射する被写体からの反射光の入射角度に対する出射角度を示す入出射角特性(入出射角情報)データが格納されている。以下、「メモリ」を「記憶部」とも表記し、「入出射角特性」を「入出射角情報」とも表記する。メモリ501が格納している入出射角特性(入出射角情報)は、レンズユニット108の個体毎に異なる特性を持っており、例えば、製造されたレンズユニット108を光学シミュレーションで測定したり、例えば、製造メーカから離散的な入射角度に対する出射角度の値を提供して貰ったりする等で得ることができる。メモリ501には、レンズユニット108毎に紐付けされた入出射角特性(入出射角情報)データが格納されている。さらに、メモリ501は、予め画像読取装置100の設計段階等における光路長情報であるレンズユニット108とイメージセンサ109との間の第1光路長(レンズ−センサ長データ)、及び被写体(原稿)とレンズユニット108との間の第2光路長(原稿−レンズ長データ)の情報が格納されている。メモリ501は、レンズユニット108の入出射角情報(レンズの入出射角特性データ)及び光路長情報(光路長データ)を、同期信号生成部500からの画素同期信号、ライン同期信号に同期して、ライン毎に画像補正部502に対して伝送する。記憶部501は、被写体からイメージセンサ109までの間の光路長情報と、レンズ108に入射する反射光の入射角度データとレンズ108から出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する。記憶部501は、レンズ108に対して、予め設定された入射角度データと出射角度データとが対応付いた、複数の入出射角情報(入出射角特性データ)を予め記憶する。なお、入出射角情報及び光路長情報の詳細については後述する。
The memory (storage unit) 501 indicates the emission angle with respect to the incident angle of the reflected light from the subject incident on the
画像補正部502は、メモリ501が格納しているレンズユニット108の入出射角情報及び光路長情報を受入れ、レンズユニット108の入出射角情報、光路長情報を用いて、原稿読み取り時に原稿浮きが生じた場合でも最適なディストーション補正を行う。なお、画像補正部502は、メモリ501に格納されていない出射角度に対する入射角度の値をメモリ501に格納された、当該出射角度データ近傍の2以上の出射角度データを用いて補間により算出する。画像補正部502は、イメージセンサ109から受入れた主走査方向の全画素(デジタル画像データ)の主走査方向の画素ずれを補正し、後段に転送する。なお、画像補正部502の詳細については後述する。
The
原稿サイズ検出部(被写体サイズ検出部)503は、読み取る被写体(原稿)の主走査方向の長さを検出する。原稿サイズ検出部503は、例えば、被写体を読み取る時に被写体の主走査方向の両端部をセンサ等で検出して被写体のサイズ情報を取得する。原稿サイズ検出部503は、取得した被写体(原稿)のサイズ情報を画像補正部502に対して伝送する。なお、「原稿サイズ検出部」は、請求項の「被写体サイズ検出部」に対応する。
A document size detection unit (subject size detection unit) 503 detects the length of the subject (original) to be read in the main scanning direction. For example, when reading the subject, the document
ここで、図4を用いて、従来の画像読取装置の画像補正部について説明する。まず、図示しない従来の画像読取装置が有する機能の要部を示す機能ブロック図は、上記の図3で示した本実施形態の画像読取装置100の原稿サイズ検出部503を備えない構成である。図4は、従来の画像読取装置のディストーション補正について説明する図である。図4において、縦軸は画素のずれ量を表し、横軸は主走査方向の画素を表している。また、色の3原色であるR(Red)/G(Green)/B(Blue)各色について示している。
Here, an image correction unit of a conventional image reading apparatus will be described with reference to FIG. First, a functional block diagram showing a main part of functions of a conventional image reading apparatus (not shown) is a configuration that does not include the document
従来の画像読取装置は、製造工程において、専用の原稿(例えば、主走査に縦線が複数本あり、縦線の間隔が測定されているもの)を、図2を用いて説明した圧板読取で読み取ることで、主走査方向全画素における、理想結像位置からのずれ量をR(Red)/G(Green)/B(Blue)各色で求めておく。 In the conventional image reading apparatus, a dedicated original (for example, one having a plurality of vertical lines in the main scan and the interval between the vertical lines being measured) is read by the pressure plate reading described with reference to FIG. By reading, the amount of deviation from the ideal image formation position in all pixels in the main scanning direction is obtained for each color of R (Red) / G (Green) / B (Blue).
上記のずれ量のうち、複数の主走査方向の画素位置と、その画素位置に対応する画素ずれ量のディストーションデータを予め画像読取装置内のメモリに保存する。図4の例では、所定の「□印」の画素ずれ量データを17画素×3個(R/G/B各色)をメモリに保存していることを示している。これは、主走査方向の全画素に対するディストーションデータを保存した場合、メモリ容量が膨大となってしまう為である。 Among the shift amounts, a plurality of pixel positions in the main scanning direction and distortion data of the pixel shift amounts corresponding to the pixel positions are stored in advance in a memory in the image reading apparatus. In the example of FIG. 4, pixel deviation amount data of predetermined “□” is stored in the memory as 17 pixels × 3 (each R / G / B color). This is because when the distortion data for all the pixels in the main scanning direction is stored, the memory capacity becomes enormous.
そして、従来の画像補正部は、画像読取装置のシステム側の制御により、上記の保存されたディストーションデータを用いて、保存されていない主走査方向の画素位置のディストーションデータを補間により求める。 The conventional image correction unit obtains distortion data of pixel positions in the main scanning direction that are not stored by interpolation using the stored distortion data under the control of the system side of the image reading apparatus.
上記により、主走査方向の全画素のディストーションデータが求まるので、従来の画像補正部は、各主走査入力画素に対して、画素位置に対応したずれ量分だけ、画素位置をずらすことで、出力画像は理想位置で再現できる。図4の例では、R/G/B各色を主走査1画素毎に理想位置、つまり、ずれ量が0になるように移動させて補正するため、歪曲収差の結像の広がりや狭まりを補正すると同時に、倍率色収差による色ずれも補正できる。 As described above, the distortion data of all the pixels in the main scanning direction can be obtained. Therefore, the conventional image correction unit outputs each main scanning input pixel by shifting the pixel position by the shift amount corresponding to the pixel position. Images can be reproduced at ideal positions. In the example of FIG. 4, each R / G / B color is corrected by moving it to an ideal position for each pixel of the main scanning, that is, the deviation amount becomes 0, so that the spread and narrowing of the distortion aberration image is corrected. At the same time, it is possible to correct a color shift caused by lateral chromatic aberration.
しかしながら、従来の画像補正部が用いる、図4の例で示したディストーションずれ量データは、予め圧板読取で専用原稿を読取って得た、理想結像位置(理想画素位置)からのずれ量であり、圧板読取時に原稿全面がコンタクトガラスに接していることが前提である。 However, the distortion shift amount data shown in the example of FIG. 4 used by the conventional image correction unit is a shift amount from the ideal image formation position (ideal pixel position) obtained by reading a dedicated document in advance by pressure plate reading. The premise is that the entire surface of the document is in contact with the contact glass when the pressure plate is read.
図5〜図8は、原稿読み取り時に原稿浮きがある場合を説明する図である。図5に示すように、原稿圧板読取の場合に、例えば、本や折り目のついた原稿を読取る際には、副走査中心付近で原稿がコンタクトガラス101から浮いてしまう箇所がある。また、原稿搬送読取の場合には、ガイド部材112を設置して、原稿を浮かして読取る方式時においても、厳密には1スキャン内で原稿読取りの高さが一定ではなく、原稿副走査方向の前後端で一度スリット111へ原稿が接する部分があること、メカニカル構成や原稿搬送速度、紙種など、様々なばらつき要因により、原稿読取り距離に変動が生じる。
FIG. 5 to FIG. 8 are diagrams for explaining a case where the document is lifted when the document is read. As shown in FIG. 5, in the case of reading a document pressure plate, for example, when reading a book or a creased document, there is a place where the document floats from the
上記のように、原稿読み取り時に原稿浮きがある場合、図6に示すように、レンズから原稿までの距離が長くなるため、その結果、イメージセンサ面での結像位置は縮む方向に倍率誤差が生じることになる。図6においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。図7は、圧板読取時の読取画像の一例を示素図であり、図8は、原稿搬送読取時の読取画像の一例を示す図である。図7の例は、図5で示した、本を読み取った場合であり、副走査方向の真ん中辺りで原稿がコンタクトガラス101から浮いてしまう箇所では倍率が小さくなっていることを示している。また、図8の例は、図5で示した、ガイド部材112を設置して、原稿を浮かして読取る場合であり、副走査方向の両端部はコンタクトガラス101に接しているが、両端部に対して真ん中部分で原稿がコンタクトガラス101から浮いてしまう箇所では倍率が小さくなっていることを示している。このように、原稿読み取り時に原稿浮きが生じている読取画像は、倍率誤差が発生すると共に、レンズの収差特性上、ディストーションのずれ量にも変化が生じることになる。
As described above, when the document is lifted when the document is read, the distance from the lens to the document becomes long as shown in FIG. 6, and as a result, the image formation position on the image sensor surface has a magnification error in the shrinking direction. Will occur. In FIG. 6, the original reading position and the image formation position on the image sensor surface when there is no original lifting are indicated by solid lines, and the original reading position and the image formation position on the image sensor surface when there is original floating are indicated by dotted lines. Yes. FIG. 7 is a schematic diagram illustrating an example of a read image at the time of reading a pressure plate, and FIG. 8 is a diagram illustrating an example of a read image at the time of document conveyance reading. The example of FIG. 7 is a case where the book shown in FIG. 5 is read, and shows that the magnification is small at a position where the document is lifted from the
図9は、ラインセンサにおける歪曲収差を示す図である。図9(a)は画像読取装置に対する入力画像であり、図9(b)、(c)は画像読取装置が読取った結果である出力画像(第1例、第2例)である。 FIG. 9 is a diagram illustrating distortion aberration in the line sensor. FIG. 9A shows an input image to the image reading apparatus, and FIGS. 9B and 9C show output images (first example and second example) obtained by reading by the image reading apparatus.
まず、図2を用いて説明したように、画像読取装置100では、原稿画像面を光源102で照明(露光)し、その反射光がレンズユニット108を介し、イメージセンサ109の光電変換素子へと入力される。
First, as described with reference to FIG. 2, in the
ラインセンサを用いた画像読取装置100においては、レンズユニット108の特性により、レンズユニット108が球面であるため、図9(a)に示した理想結像位置に対して、図9(b)に示した主走査方向の間隔(位置)が狭まる歪み、又は図9(c)に示した主走査方向の間隔(位置)が広がる歪みが発生する場合がある。これが歪曲収差(ディストーション)である。また、イメージセンサ109にカラーセンサを用いた場合、屈折率が光の波長により異なるため、R/G/B各色間で色ずれが起きてしまい、画像の滲みが発生する倍率色収差が発生してしまう。また、収差は焦点距離に依存し、焦点距離が長いレンズユニット108ほど、収差影響は少なくなり、焦点距離が短い小型レンズユニットほど、収差影響が大きくなる。また、レンズの製造バラつき等の影響により、レンズ個体毎にディストーション量は異なる。
In the
次に、図10〜図13を用いて、ディストーション補正について説明する。図10は、理想レンズにおける入射角度に対する出射角度を示す入出射角特性を説明する図である。図11は、理想レンズの入出射特性におけるイメージセンサ上の結像位置を示す図である。図12は、実際のレンズにおける入射角度に対する出射角度を示す入出射角特性を説明する図である。図13は、実際のレンズの入出射特性におけるイメージセンサ上の結像位置を示す図である。 Next, distortion correction will be described with reference to FIGS. FIG. 10 is a diagram for explaining the incident / exit angle characteristics indicating the exit angle with respect to the incident angle in the ideal lens. FIG. 11 is a diagram showing the imaging position on the image sensor in the input / output characteristics of the ideal lens. FIG. 12 is a diagram for explaining an incident / exit angle characteristic indicating an exit angle with respect to an incident angle in an actual lens. FIG. 13 is a diagram illustrating the imaging position on the image sensor in the actual input / output characteristics of the lens.
図5〜図8を用いて説明したように、原稿読み取り時に原稿浮きがある場合は、倍率誤差を補正するだけでは、ディストーションのずれ量は補正できない。例えば、R/G/B各色において、図10で示すような理想レンズの入出射角特性をもったレンズの場合は、原稿の主走査方向の端部位置での原稿浮きがない場合の入射角度をωi、出射角度をωoで示し、原稿浮きがある場合の入射角度をθi、出射角度をθoで示し、原稿の主走査方向の任意位置での原稿浮きがない場合の入射角度をωi’、出射角度をωo’で示し、原稿浮きがある場合の入射角度をθi’、出射角度をθo’で示す。理想レンズは、すべての場合で入射角度=出射角度の入出射角特性を持つので歪曲収差が起こらない。理想レンズの場合は、図11で示すように、原稿の主走査方向の端部位置での原稿浮きがない場合(端部結像位置)と、原稿浮きがある場合の結像位置(結像位置)を、それぞれB、bで示し、原稿の主走査方向の任意位置での原稿浮きがない場合(端部結像位置)と、原稿浮きがある場合の結像位置(結像位置)を、それぞれC、cで示したとき、下記式(1)の関係が成り立つ。 As described with reference to FIG. 5 to FIG. 8, when there is a document floating at the time of document reading, the distortion shift amount cannot be corrected only by correcting the magnification error. For example, in the case of a lens having the ideal lens entrance / exit angle characteristics as shown in FIG. 10 for each color of R / G / B, the incident angle when there is no document lift at the end position in the main scanning direction of the document. Is denoted by ωi, the exit angle is denoted by ωo, the incident angle when the document is lifted is denoted by θi, the exit angle is denoted by θo, and the incident angle when the document is not lifted at an arbitrary position in the main scanning direction of the document is denoted by ωi ′, The outgoing angle is indicated by ωo ′, the incident angle when the document is lifted is indicated by θi ′, and the outgoing angle is indicated by θo ′. In all cases, the ideal lens has an incident / exit angle characteristic of incident angle = exit angle, so that distortion does not occur. In the case of an ideal lens, as shown in FIG. 11, when there is no document lift at the end position in the main scanning direction of the document (end image formation position), and when there is document lift (image formation position (image formation) Position) is indicated by B and b, respectively, and the image formation position (image formation position) when there is no document lift at the arbitrary position in the main scanning direction of the document (edge image formation position) and when there is document lift , C and c respectively, the relationship of the following formula (1) is established.
(B−b)/B=(C−c)/C ・・・ 式(1) (B−b) / B = (C−c) / C (1)
上記式(1)は、原稿の主走査方向の端部位置での原稿浮きによる倍率誤差と、原稿の主走査方向の任意位置での原稿浮きによる倍率誤差が同じということを示している。これにより、入射角度=出射角度が成り立つ理想レンズでは、原稿浮きがある場合でも、主走査方向の任意のどの位置であっても、同一の倍率誤差となるため、倍率補正を行うだけで正確にディストーション補正、及び倍率補正を行うことができる。なお、図11においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。 The above equation (1) indicates that the magnification error due to the document floating at the end position in the main scanning direction of the document is the same as the magnification error due to the document floating at an arbitrary position in the main scanning direction of the document. As a result, an ideal lens with an incident angle = an outgoing angle has the same magnification error at any position in the main scanning direction even when the document is lifted. Distortion correction and magnification correction can be performed. In FIG. 11, the original reading position when the original is not lifted and the imaging position on the image sensor surface are indicated by solid lines, and the original reading position when the original is lifted and the imaging position on the image sensor surface are indicated by dotted lines. Show.
しかし、実際に使用するレンズでは、レンズ毎の個体ばらつきにより、入射角度=出射角度となる理想レンズは存在しない。例えば、図12に示すようなレンズ入出射角特性をもったレンズの場合は、原稿の主走査方向の端部位置での原稿浮きがない場合の入射角度ωiに対する出射角度ωo、原稿浮きがある場合の入射角度θiに対する出射角度θo、原稿の主走査方向の任意位置での原稿浮きがない場合の入射角度ωi’に対する出射角度ωo’、原稿浮きがある場合の入射角度θi’に対する出射角度θo’が、それぞれ変化するために原稿読み取り時に原稿浮きがある場合、原稿の主走査方向の端部位置、及び原稿の主走査方向の任意位置において、図11で示した、理想結像位置b、cから、図13で示す端部結像位置b’、結像位置c’へ画素がずれる倍率誤差が局所的に変化してしまうことで、式(1)の関係は成り立たなくなる。これが、図4で示したような、歪曲収差による歪みの原因である。また、図12では入出射角特性データは1本のみしか示していないが、R/G/B各色で入出射角特性がずれることで倍率色収差による色ずれも発生する。よって、図4を用いて説明したディストーション補正方法では、原稿読み取り時に原稿浮きがある場合には対応できないことになる。なお、図13においては、図11で示した原稿浮きがない場合のイメージセンサ面での端部結像位置B’及び結像位置C’と、原稿浮きがある場合のイメージセンサ面での端部結像位置b’及び結像位置c’とを併せて示している。また、図13においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。 However, in an actual lens to be used, there is no ideal lens in which the incident angle = the outgoing angle because of individual variations among the lenses. For example, in the case of a lens having a lens entrance / exit angle characteristic as shown in FIG. 12, there is an exit angle ωo with respect to the incident angle ωi and document lift when there is no document lift at the end position in the main scanning direction of the document. The exit angle θo with respect to the incident angle θi in this case, the exit angle ωo ′ with respect to the incident angle ωi ′ when the document is not lifted at an arbitrary position in the main scanning direction of the document, and the exit angle θo with respect to the incident angle θi ′ with the document lifted When the document floats when reading the document because 'changes respectively, the ideal imaging position b shown in FIG. 11 at the end position in the main scanning direction of the document and the arbitrary position in the main scanning direction of the document. Since the magnification error in which the pixel is shifted from c to the edge imaging position b ′ and the imaging position c ′ shown in FIG. 13 locally changes, the relationship of Expression (1) does not hold. This is the cause of distortion due to distortion as shown in FIG. In FIG. 12, only one incident / exit angle characteristic data is shown. However, color deviation due to lateral chromatic aberration also occurs due to the deviation of the incident / exit angle characteristic for each color of R / G / B. Therefore, the distortion correction method described with reference to FIG. 4 cannot cope with a case where the document is lifted when the document is read. In FIG. 13, the edge image forming position B ′ and the image forming position C ′ on the image sensor surface when there is no document floating shown in FIG. 11 and the edge on the image sensor surface when there is document floating are shown. A partial imaging position b ′ and an imaging position c ′ are also shown. In FIG. 13, the original reading position and the image formation position on the image sensor surface when there is no original lifting are indicated by solid lines, and the original reading position and the image formation position on the image sensor surface when there is original lifting are indicated by dotted lines. Show.
そこで、本実施形態におけるディストーション補正では、画像読取装置100の製造工程等において予め得られるレンズユニット108の入出射角特性データを用いて、原稿読み取り時に原稿浮きがある場合でも最適なディストーション補正を行うものである。
Therefore, in the distortion correction according to the present embodiment, the optimum distortion correction is performed even when the document is lifted at the time of reading the document, using the incident / exit angle characteristic data of the
最初に、図14〜図16を用いて本実施形態における画像補正の概要について説明する。図14は、実際のレンズにおける所定の入射角度に対する出射角度を示す入出射角特性を説明する図である。図15は、入出射角特性の補間方法を説明する図である。図16は、レンズの入出射角と入出射角特性を説明する図である。図14及び図15においては、実際のレンズ(歪曲収差のあるレンズ)の入出射角度(横軸)に対する出射角度(縦軸)を示す入出射特性を、「黒□印」で示している。なお、図16においては、図6を用いて説明した原稿の半面とその結像位置のみを示している。また、入出射角特性も0°〜90°のみを示している。以下の説明では図示していない原稿のもう一方の半面側も同様の方法でディストーション補正を行うものとする。 First, an outline of image correction in the present embodiment will be described with reference to FIGS. FIG. 14 is a diagram for explaining an incident / exit angle characteristic indicating an exit angle with respect to a predetermined incident angle in an actual lens. FIG. 15 is a diagram for explaining an interpolation method of the incident / exit angle characteristics. FIG. 16 is a diagram illustrating the incident / exit angle and the incident / exit angle characteristic of the lens. In FIG. 14 and FIG. 15, the input / output characteristics indicating the output angle (vertical axis) with respect to the input / output angle (horizontal axis) of the actual lens (lens with distortion) are indicated by “black squares”. In FIG. 16, only the half surface of the document described with reference to FIG. 6 and its imaging position are shown. In addition, the incident / exit angle characteristics also show only 0 ° to 90 °. In the following description, it is assumed that distortion correction is performed on the other half side of the document (not shown) in the same manner.
図10〜図13を用いて説明したように、実際に使用するレンズでは倍率が変化するとディストーションのずれ量も主走査方向で非線形に変化する。図16に示すような実際のレンズは個体毎に異なる入出射特性を持っており、例えば、製造されたレンズユニット108を光学シミュレーションで測定したり、例えば、製造メーカから離散的な入射角度に対する出射角度の値を提供して貰ったりする等で得ることができる。
As described with reference to FIGS. 10 to 13, in the lens actually used, when the magnification changes, the distortion shift amount also changes nonlinearly in the main scanning direction. The actual lens as shown in FIG. 16 has different entrance / exit characteristics for each individual. For example, the manufactured
このようにして得られたレンズユニット108の入出射角特性(入出射角情報)データを予め記憶部501に記憶する。図14の例では、「黒□印」で示した所定の入射角度データに対する出射角度データの入出射角特性(入出射角情報)データ10点を予め記憶していることを示している。レンズユニット108の入出射角特性(入出射角情報)はレンズ個体毎に異なる為、レンズに紐付けされた入出射角特性値が記憶されることになる。
The
また、図16に示すように、予め画像読取装置100の設計段階等における光路長情報であるレンズユニット108とイメージセンサ109との間の第1光路長(レンズ−センサ長データ)、及び被写体(原稿)とレンズユニット108との間の第2光路長(原稿−レンズ長データ)の情報を予め記憶部501に記憶する。
Also, as shown in FIG. 16, the first optical path length (lens-sensor length data) between the
また、図15に示すように、「黒□印」で示した所定の入射角度データに対する出射角度データの入出射角特性データ10点以外の任意の入出射角特性データは、記憶部501に記憶された、当該入出射角特性データの近傍の2以上の入出射角特性(入出射角情報)データを用いて補間により算出する。補間には、例えば演算が容易な線形補間が用いられる。なお、補間方法は線形補間に限ることはなく任意である。なお、図14及び図15に示した例では、入出射角特性データが1本であり、単色(RGBいずれか)を想定した記載となっている。画像読取装置100は、RGBのカラーセンサであるイメージセンサ109に対し、R/G/B各色それぞれの入出射角特性データを記憶し、後述する入出射角特性補間部409で補間した入出射角特性データを算出している。
Further, as shown in FIG. 15, arbitrary incident / exit angle characteristic data other than ten incident / exit angle characteristic data of the output angle data with respect to the predetermined incident angle data indicated by “black square” is stored in the
次に、原稿読み取りを行った際、まず、エッジ検出を行う。エッジ検出についての詳細は後述する。原稿読み取り時に原稿浮きがない場合は、後述するエッジ検出によって図16に示したイメージセンサの結像位置(原稿浮きなし)であるB’の位置が求まる。そして、B’が求まると、メモリ(記憶部)501に記憶されているレンズ−センサ長(第1光路長)=Zより、後述する下記式(2)を用いて、出射角ωo(原稿浮きなし)が求まる。 Next, when the original is read, edge detection is first performed. Details of edge detection will be described later. If the document does not float when the document is read, the position B ′, which is the image formation position of the image sensor (no document lift) shown in FIG. When B ′ is obtained, the lens-sensor length (first optical path length) = Z stored in the memory (storage unit) 501 is used to calculate the exit angle ωo (document floating) using the following formula (2). None).
また、原稿読み取り時に原稿浮きがある場合でも下記式(2)を用いて求めることができる。例えば、エッジ検出によって、結像位置がb’(原稿浮きあり)であるとした場合、出射角θoは、θo=tan−1(b’/Z)により算出される。 Further, even when the original is lifted at the time of reading the original, it can be obtained by using the following formula (2). For example, when the imaging position is b ′ (with document lift) by edge detection, the emission angle θo is calculated by θo = tan −1 (b ′ / Z).
よって、原稿読み取り時に原稿浮きがある場合/ない場合、に関わらず、下記式(2)を用いて出射角が求まる。 Therefore, the exit angle can be obtained using the following equation (2) regardless of whether or not the document is lifted during document reading.
以下の説明では、結像位置(原稿浮きなし)であるB’、出射角ωoを用いて説明を行う。下記式(2)から出射角ωoが求まると、図15の補間された入出射角特性データから、原稿端部Dの入射角度ωiが求まる。レンズ−センサ長(第1光路長)=Zは予めメモリ(記憶部)501に記憶されているため、理想結像位置B(入射角=出射角の入出射角特性の場合の結像位置)を、後述する下記式(3)を用いて、求めることができる。 In the following description, the description will be made using B ′, which is the image forming position (no document lift), and the emission angle ωo. When the emission angle ωo is obtained from the following equation (2), the incident angle ωi of the document end D is obtained from the interpolated incident / exit angle characteristic data in FIG. Since lens-sensor length (first optical path length) = Z is stored in advance in the memory (storage unit) 501, the ideal image formation position B (incidence angle = image formation position in the case of the incident / exit angle characteristics of the output angle) Can be determined using the following equation (3).
これにより、実際に原稿を読取ってイメージセンサに結像された結像位置(原稿浮きなし)B’と、理想結像位置Bが得られる。得られたB’とBとの差であるB−B’が、ディストーションの画素ずれとして画像に現れるので、B−B’の差のずれを補正する。つまり、実際の結像位置(原稿浮きなし)B’を理想結像位置Bとなるように置き換える。なお、読み取り画像端部Dの理想結像位置Beは、後述する倍率補正で使用する。 As a result, an image formation position (no document lift) B ′ and an ideal image formation position B obtained by actually reading the original and forming an image on the image sensor are obtained. Since B-B ', which is the difference between B' and B obtained, appears in the image as a distortion pixel shift, the shift in the difference between B-B 'is corrected. That is, the actual image forming position (no document lift) B ′ is replaced with the ideal image forming position B. Note that the ideal imaging position Be of the read image end D is used in magnification correction described later.
また、その他の主走査方向の任意位置の結像位置においても、結像位置(原稿浮きなし)B’を理想結像位置Bとの差のずれ量をずらしていく(画素移動させる)ことで、主走査方向の任意位置でのディストーションを補正することができる。 Further, at other image forming positions in the main scanning direction, the image forming position (no document lift) B ′ is shifted (pixels moved) by shifting the difference amount from the ideal image forming position B. The distortion at an arbitrary position in the main scanning direction can be corrected.
上記の結像位置(原稿浮きなし)B’は、主走査方向の画素数分の距離だけ変化する為、下記式(2)、(3)を用いて算出される理想結像位置Bの値もB’の値に応じて変化する。よって、下記式(2)、(3)を用いることにより、原稿読み取り時に原稿浮きがある場合/ない場合、に関わらず、主走査方向すべての点でディストーションによるずれ量を補正することができる。なお、上記の主走査方向すべての点でディストーションによるずれ量の補正はR/G/Bの各色で行う。 Since the above-described image formation position (no document lift) B ′ changes by a distance corresponding to the number of pixels in the main scanning direction, the value of the ideal image formation position B calculated using the following equations (2) and (3) Also changes according to the value of B ′. Therefore, by using the following formulas (2) and (3), it is possible to correct the shift amount due to distortion at all points in the main scanning direction regardless of whether or not the document is lifted when reading the document. Note that the correction of the shift amount due to distortion is performed for each color of R / G / B at all points in the main scanning direction.
ただし、原稿読み取り時に原稿浮きがある場合には、上述したディストーション補正は行われているが、図12及び図13を用いて説明したように、主走査方向全体で画像が縮んでしまう。従って、本実施形態では原稿読み取り時に原稿浮きがある場合にも対応できるように、ディストーション補正後に倍率補正を行うようにする。 However, when the document is lifted when the document is read, the above-described distortion correction is performed, but as described with reference to FIGS. 12 and 13, the image is shrunk in the entire main scanning direction. Therefore, in this embodiment, the magnification correction is performed after the distortion correction so as to cope with the case where the document is lifted when the document is read.
倍率補正を行う際には、例えば、原稿読み取り時に原稿浮きがない場合の理想結像位置を把握する必要がある。そのため、図3を用いて説明した原稿サイズ検出部503によって得られた原稿サイズ情報(原稿の主走査方向の長さ)から、原稿中心Cからの距離Aが求まる。また、原稿−レンズ長(第2光路長)=Yは、予めメモリ(記憶部)501に記憶されているため、後述する下記式(4)、(5)を用いて、原稿読み取り時に原稿浮きがない場合の、原稿端部Dの理想結像位置であるBeを求めることができる。
When performing magnification correction, for example, it is necessary to grasp the ideal image formation position when there is no document floating when reading a document. Therefore, the distance A from the document center C is obtained from the document size information (length in the main scanning direction of the document) obtained by the document
下記式(4)、(5)から算出されたBeと、後述するエッジ検出を行って、下記式(3)を用いて算出された画像端部の理想結像位置Bとの比率から、後述する図22と同様にして倍率誤差を算出し、算出した倍率誤差データを用いて主走査方向の任意の位置の画素ずれ量を求めることができるため、倍率補正を行うことができる。なお、図16の例では、原稿読み取り時に原稿浮きがない場合は、Be=B、倍率誤差=0となるが、原稿浮きがある場合は、Be≠Bであるため倍率補正を行う必要がある。 From the ratio between Be calculated from the following formulas (4) and (5) and edge ideal detection position B calculated using the following formula (3) after performing edge detection described later, Since the magnification error is calculated in the same manner as in FIG. 22 and the pixel shift amount at an arbitrary position in the main scanning direction can be obtained using the calculated magnification error data, magnification correction can be performed. In the example of FIG. 16, Be = B and magnification error = 0 when the document does not float when the document is read. However, if there is document floating, Be ≠ B, and it is necessary to correct the magnification. .
なお、図16においては、原稿浮きがない場合の原稿読取位置とイメージセンサ面での結像位置を実線で示し、原稿浮きがある場合の原稿読取位置とメージセンサ面での結像位置を点線で示している。また、原稿浮きがない場合の原稿読取位置の入射角度をωi、出射角度をωoで示し、原稿浮きがある場合の原稿読取位置の入射角度をθi、出射角度をθoで示している。また、原稿浮きがない場合の原稿端部Dのイメージセンサ面での結像位置はBeで示している。以上の説明が、本実施形態における画像補正の概要である。 In FIG. 16, the original reading position and the image formation position on the image sensor surface when the original is not lifted are indicated by solid lines, and the original reading position and the image formation position on the image sensor surface when the original is lifted are indicated by dotted lines. Show. Further, the incident angle at the document reading position when there is no document floating is indicated by ωi, the emission angle is indicated by ωo, the incident angle at the document reading position when there is document floating is indicated by θi, and the emission angle is indicated by θo. Further, the image forming position on the image sensor surface of the document edge D when there is no document lift is indicated by Be. The above description is the outline of the image correction in the present embodiment.
図17は、画像補正部502の機能構成の一例を示すブロック図である。まず、図3を用いて説明したように、画像補正部502に入力されるデータとして、イメージセンサ109から入力されるデジタル画像データと、メモリ501から入力されるレンズユニット108の入出射角特性データ及び光路長データ(原稿−レンズ長データ、レンズ−センサ長データ)と、原稿サイズ検出部503から入力される原稿サイズデータと、同期信号生成部500から入力される画素同期信号及びライン同期信号がある。また、出力されるデータとして、補正部405で補正(ディストーション補正及び倍率誤差補正)された出力画像データが出力される。
FIG. 17 is a block diagram illustrating an example of a functional configuration of the
画像補正部502は、画素位置検出部400と、エッジ検出部401と、出射角算出部402と、入射角出力部403と、理想画素位置算出部404と、補正部405と、入射角算出部406と、原稿端部画素位置算出部407と、倍率誤差算出部408と、入出射角特性補間部409とを有する。上記各部については、これらの一部又は全部がソフトウェア(プログラム)であってもよいし、ハードウェア回路であってもよい。また、上記各部のうちの一部が画像読取装置100に搭載される形態であってもよい。
The
最初に、画像補正部502に入力されたデジタル画像データは、画素位置検出部400、エッジ検出部401、補正部405へと入力される。
First, digital image data input to the
画素位置検出部400は、イメージセンサ109により読み取った1ラインの被写体の画像データの各画素の主走査方向の画素位置を検出する。画素位置検出部400は、内部のカウンタで、入力されたデジタル画素データの主走査方向の各画素データに対して画素同期信号よりカウントを行って、各画素の画素位置(イメージセンサ上の結像位置)データを出力する。なお、主走査方向の1ラインの各画素位置の読取りが終了すると、ライン同期信号に同期して、カウントの値をリセットすることで、主走査方向の1ラインの画素位置データを得ることができる。主走査方向の全ての画素位置データは、エッジ検出部401、及び補正部405へと出力される。また、主走査方向の全ての画素位置データは、エッジ検出部401を介して出射角算出部402へ出力される。
The pixel
エッジ検出部401は、画像データと、検出した各画素の主走査方向の画素位置データとを用いて、画像データの両端部画素の主走査方向の両端部画素位置(端部画素位置)を検出する。また、エッジ検出部401は、被写体の読み取り動作中に両端部画素位置(端部画素位置)を検出する。また、エッジ検出部401は、読み取った画像データの主走査方向の読み取り濃度レベルが、予め設定された、上限閾値と下限閾値と、の間にある画素位置を両端部画素位置(端部画素位置)として検出する。また、エッジ検出部401は、副走査方向の予め設定した複数ライン毎に、画像データの主走査方向の読み取り濃度レベルを平均した値を用いて両端部画素位置(端部画素位置)を検出する。また、エッジ検出部401は、画素位置検出部400から入力された画素位置データと画像データとから、後述するエッジ検出方法により、読み取った画像データの両端部画素位置(端部画素位置)を検出する。そして、検出した両端部画素位置データは、後段にある倍率誤差算出部408へ出力する両端部理想画素位置データの情報として用いる。また、両端部画素位置の間にある各画素の画素位置データは出射角算出部402へ出力される。
The
ここで、図18〜図20を用いて、本実施形態のエッジ検出方法について説明する。図18〜図20は、原稿のエッジ検出について説明する図である。 Here, the edge detection method of this embodiment is demonstrated using FIGS. 18-20. 18 to 20 are diagrams for explaining edge detection of a document.
図14〜図16を用いて説明した画像補正(ディストーション補正)を行うためには、主走査方向の原稿幅を副走査1ライン毎に求めるためにエッジ検出を用いる。エッジ検出では、図18に示すように画像の主走査方向の読取レベルをモニタし、原稿のエッジ部分を検出する。原稿のエッジ部分には、原稿と背景部材の間に影が生じるため、影の変動レベルが検出できるよう、予め読取レベル閾値を設けておく。図18の例では、読取レベルが閾値以下になる原稿の最左端x1と、原稿の最右端x2の主走査方向の画素位置より、読み取り原稿の主走査方向の原稿幅を求めることができる。なお、読取レベル閾値の値は任意に設定することができる。 In order to perform the image correction (distortion correction) described with reference to FIGS. 14 to 16, edge detection is used to obtain the document width in the main scanning direction for each sub-scanning line. In edge detection, as shown in FIG. 18, the reading level of the image in the main scanning direction is monitored to detect the edge portion of the document. Since a shadow is generated between the document and the background member at the edge portion of the document, a reading level threshold is provided in advance so that the variation level of the shadow can be detected. In the example of FIG. 18, the document width in the main scanning direction of the read document can be obtained from the pixel position in the main scanning direction of the leftmost end x1 of the document whose reading level is equal to or less than the threshold and the rightmost end x2 of the document. Note that the value of the reading level threshold can be set arbitrarily.
ここで、例えば、ゴミが背景部材やコンタクトガラス上に付着している場合について説明する。例えば、図19に示すように原稿領域外の右端にゴミがある場合である。このときの読取レベルは、上記で予め設定した閾値以下になる。この場合、原稿の最右端x2は本来のエッジより右側に検出されてしまい、誤った原稿幅となってしまう。従って、誤検出を考慮したうえで、上限と下限の読取レベル閾値を予め設定しておくことで、下限閾値を下回る場合においてはエッジを検出させないことで、エッジ検出精度の向上を図ることができる。この際、読取レベル閾値上限と下限との間の画素で誤検出しないように、主走査方向の画素数にも閾値を設けておく必要がある。例えば、読取レベル閾値上限と下限との間に連続して画素がある場合には、原稿のエッジとみなすことが出来るので、例えば、主走査方向の画素数閾値を2画素以上とすることで、ゴミ部分を誤検出せずに原稿のエッジ検出を行うことができる。 Here, for example, a case where dust is attached to the background member or the contact glass will be described. For example, as shown in FIG. 19, there is a case where dust is present at the right end outside the document area. The reading level at this time is equal to or less than the threshold set in advance above. In this case, the rightmost end x2 of the document is detected on the right side of the original edge, resulting in an incorrect document width. Accordingly, in consideration of erroneous detection, by setting the upper and lower reading level threshold values in advance, the edge detection accuracy can be improved by not detecting an edge when the threshold value is lower than the lower limit threshold value. . At this time, it is necessary to provide a threshold for the number of pixels in the main scanning direction so as not to erroneously detect pixels between the upper limit and the lower limit of the reading level threshold. For example, if there are continuous pixels between the upper limit and the lower limit of the reading level threshold value, it can be regarded as an edge of the document. For example, by setting the threshold number of pixels in the main scanning direction to 2 pixels or more, Document edge detection can be performed without erroneously detecting a dust portion.
ただし、図20で示すように、例えば、原稿の読取レベルが低い原稿の場合は、原稿のエッジ部を跨ったあとも、読取レベル閾値の下限を下回ってしまい、上述のエッジ検出方法では対応できない。従って、上述したゴミを誤検出しない場合の主走査方向の画素数閾値にも上限を設けることによって読取レベルが低い原稿の場合でも対応することが可能となる。図18〜図20の例では、上記の読取レベル閾値下限以下で、かつ、主走査方向の画素数閾値2画素以上〜4画素未満となった場合に、閾値内ではゴミと判断して誤検出しない。また、主走査方向の画素数閾値範囲外であれば、原稿のエッジとみなすことで、例えば、図19の例のような原稿にも対応することが可能である。なお、上述した各閾値は任意に設定できる。 However, as shown in FIG. 20, for example, in the case of a document with a low document reading level, even after straddling the edge portion of the document, it falls below the lower limit of the reading level threshold, and the above-described edge detection method cannot cope. . Accordingly, by setting an upper limit on the threshold value of the number of pixels in the main scanning direction when the above-described dust is not erroneously detected, it is possible to cope with a document with a low reading level. In the examples of FIGS. 18 to 20, when the reading level threshold is lower than the lower limit and the pixel count threshold in the main scanning direction is 2 pixels or more and less than 4 pixels, it is determined as dust within the threshold and erroneously detected. do not do. Further, if it is outside the threshold range of the number of pixels in the main scanning direction, it is possible to deal with a document such as the example of FIG. In addition, each threshold value mentioned above can be set arbitrarily.
また、上記の説明では、主走査方向の1ライン毎にエッジ検出を行う前提で説明したが、これに限ることはなく、例えば、副走査方向の数ライン毎のブロックに分けて、エッジ検出を行ってもよい。なお、副走査方向の複数ライン毎のブロックに分けてエッジ検出をすることで、原稿全体の1スキャンの読取速度の向上や、上記の図18〜図20で説明したゴミ検知精度の向上を行うことができる。すなわち、例えば、図19の例で説明したゴミ検知では、閾値の上限下限の間にゴミの読取レベルが入っている場合には、検知できないことになるが、副走査方向の複数ライン毎のブロックで読取レベルを平均化することでゴミの影響を平滑化できることになる。 In the above description, the edge detection is performed for each line in the main scanning direction. However, the present invention is not limited to this. For example, the edge detection is performed by dividing the block into blocks of several lines in the sub scanning direction. You may go. Note that edge detection is performed by dividing into blocks for each of a plurality of lines in the sub-scanning direction, thereby improving the reading speed of one scan of the entire document and improving the dust detection accuracy described with reference to FIGS. be able to. That is, for example, in the dust detection described in the example of FIG. 19, if the dust reading level is between the upper and lower limits of the threshold, it cannot be detected, but the block for each of the plurality of lines in the sub-scanning direction Thus, the influence of dust can be smoothed by averaging the reading level.
図17に戻って説明を続ける。出射角算出部402は、画素位置検出部400から入力された画素位置データと、光路長データである、レンズユニット108とイメージセンサとの間の第1光路長データとを用いて、主走査方向の各画素の画素位置データに対する出射角データを下記式(2)により算出する。
Returning to FIG. 17, the description will be continued. The emission angle calculation unit 402 uses the pixel position data input from the pixel
ωo=tan−1(B’/Z) ・・・ 式(2) ωo = tan −1 (B ′ / Z) (2)
上記式(2)で算出された主走査方向の各画素の画素位置データに対する出射角データは、後段の入射角出力部403へ出力される。 The emission angle data for the pixel position data of each pixel in the main scanning direction calculated by the above equation (2) is output to the incident angle output unit 403 at the subsequent stage.
入射角出力部403は、出射角算出部402から入力された出射角データを用いて、記憶部(メモリ)501に記憶された入出射角特性データを参照して、出射角データに対応する入射角データ(第1入射角データ)を特定する。なお、図15を用いて説明したように、記憶部501に出射角度データに対応する入出射角特性データ(入射角データ)がない場合、後述する入出射角特性補間部409により、記憶部501に記憶された、当該出射角度データ近傍の2以上の出射角度データを用いて線形補間により算出した入出射角特性データを参照して出射角データに対応する入射角データ(第1入射角データ)を特定する。入射角出力部403は、特定した入射角データ(第1入射角データ)を後段の理想画素位置算出部404へ出力する。
The incident angle output unit 403 refers to the incident / exit angle characteristic data stored in the storage unit (memory) 501 using the output angle data input from the output angle calculation unit 402, and corresponds to the incident angle data. Angle data (first incident angle data) is specified. As described with reference to FIG. 15, when there is no incident / exit angle characteristic data (incident angle data) corresponding to the emission angle data in the
理想画素位置算出部404は、入射角出力部403から入力された入射角データ(第1入射角データ)と、光路長データであるレンズユニット108とイメージセンサとの間の第1光路長を用いて、主走査方向の各画素の画素位置データに対応する理想画素位置データを下記式(3)により算出する。
The ideal pixel
B=Z×tanωi ・・・ 式(3) B = Z × tan ωi (3)
上記式(3)で算出された主走査方向の各画素の画素位置データに対応する理想画素位置データは、後段の補正部405へ出力される。ただし、画像データの両端部画素に対応する主走査方向の両端部理想画素位置データは、補正部405、及び倍率誤差算出部408へも出力される。
The ideal pixel position data corresponding to the pixel position data of each pixel in the main scanning direction calculated by the above equation (3) is output to the
補正部405は、両端部画素位置及び両端部画素位置の間にある各画素の主走査方向の画素位置と、光路長情報と、入出射角情報とを用いて、レンズ108の歪曲収差による画像データの光学歪み量を補正する。具体的には、補正部405は、両端部画素位置及び両端部画素位置の間にある各画素の主走査方向の画素位置と、第1光路長(レンズ108とイメージセンサとの間)とから算出される出射角度データを用いて、入出射角情報を参照して第1入射角度データを特定し、特定した第1入射角度データと第1光路長とから算出される理想画素位置と、両端部画素位置及び画素位置との画素ずれ量に基づいて、レンズ108の歪曲収差による画像データの光学歪み量を補正する。また、補正部405は、画素位置検出部400から入力された画素位置データと、それに対応する画素データを理想画素位置算出部404で算出された理想画素位置データに置き換える。これにより、ディストーション(歪曲収差)による画素ずれを補正する。
The
補正部405は、被写体の主走査方向の長さと、第2光路長(被写体(原稿)とレンズユニット108との間)と、第1光路長(レンズ108とイメージセンサとの間)とを用いて、第2光路長の変動(原稿読み取り時の原稿浮き)による倍率誤差を補正する。具体的には、補正部405は、被写体の主走査方向の長さと第2光路長(被写体(原稿)とレンズユニット108との間)とから第2入射角度データを算出し、算出された第2入射角度データと第1光路長(レンズ108とイメージセンサとの間)とから算出される被写体端部画素位置と、前記両端部画素の前記理想画素位置との画素ずれ量に基づいて、第2光路長の変動(原稿読み取り時の原稿浮き)による倍率誤差を補正する。また、補正部405は、画素ずれを補正した画素位置に対して、後述する倍率誤差算出部408で算出された倍率誤差データを用いて、倍率補正を行う。このように、補正部405では、ディストーション(歪曲収差)による画素ずれの補正、及び原稿浮きによる倍率誤差の補正を行った後に出力画素データを出力する。なお、原稿浮きによる倍率補正の詳細については後述する。
The
ここで、図21を用いて、補正部405における画素ずれの補正について説明する。図21は、画素ずれの補正のための画素移動について説明する図である。なお、図21のイメージセンサの主走査方向は、図16を用いて説明したイメージセンサを横向きに示し、主走査方向が横軸となるように示したものである。また、図16の例では、各画素の結像位置を原稿中心Cからの距離で示したが、図21では画素単位で示し、各画素の画素位置0〜nとして記載する。なお、図21の右側には光学中心の画素位置をCで示してある。
Here, correction of pixel shift in the
以下、補正部405における画素移動の流れについて説明する。最初に、(a)上述したエッジ検出を行って、原稿端部の読取画素位置がb’画素目であると仮定する。次に、(b)上記式(2)、(3)を用いて、(a)での原稿端部の読取画素位置b’に対応する理想画素位置がb画素目と算出される。次に、(c)原稿端部の読取画素位置b’画素目を、理想画素位置b画素目へ画素移動させる。これにより、画素位置のディストーションによるずれ量を補正する。次に、(d)原稿サイズ検出部503で得られた原稿サイズ情報から、上記式(4)、(5)を用いて、端部理想画素位置Bが算出される。次に、(e)上記式(6)、(7)、(8)を用いて、倍率誤差を算出し、再び、理想画素位置b画素目を、端部理想画素位置B画素目へ画素移動させる。これにより、倍率補正にも対応することができる。
Hereinafter, the flow of pixel movement in the
その他の各画素の画素位置においても、ディストーション補正を行うため、(a)に再び戻り、b’+1画素目に関しても上記(a)〜(e)と同様の処理を行う。ただし、上記式(6)、(7)、(8)を用いて、倍率誤差の算出は、原稿端部のみで行うため、その他の各画素におけるディストーション補正については(d)の処理は不要である。上記で説明した流れで、ディストーション補正、及び倍率補正を行うようにする。ただし、図7及び図8で説明したように、原稿読み取り時の原稿浮きは、副走査方向で局所的に生じるため、副走査方向の1ライン毎にエッジ検出を行うようにする。 In order to perform distortion correction also at the pixel positions of other pixels, the process returns to (a) again, and the same processing as (a) to (e) is performed for the b ′ + 1 pixel. However, since the magnification error is calculated only at the document edge using the above formulas (6), (7), and (8), the processing of (d) is not necessary for distortion correction in other pixels. is there. In the flow described above, distortion correction and magnification correction are performed. However, as described with reference to FIGS. 7 and 8, since the document floating at the time of document reading occurs locally in the sub-scanning direction, edge detection is performed for each line in the sub-scanning direction.
図17に戻って説明を続ける。図3を用いて説明した原稿サイズ検出部503で得られた原稿サイズデータ(被写体の主走査方向の長さ)は、入射角算出部406へ入力される。
Returning to FIG. 17, the description will be continued. The document size data (the length of the subject in the main scanning direction) obtained by the document
入射角算出部406は、原稿サイズ検出部503から入力された原稿サイズデータ(被写体の主走査方向の長さ)と、光路長データである被写体(原稿)とレンズユニット108との間の第2光路長データとを用いて、原稿サイズデータ(被写体の主走査方向の長さ)に対応する入射角データ(第2入射角データ)を下記式(4)により算出する。
The incident
ωi=tan−1(A/Y) ・・・ 式(4) ωi = tan −1 (A / Y) (4)
上記式(4)で算出された原稿サイズデータ(被写体の主走査方向の長さ)に対応する入射角データ(第2入射角データ)は、後段の原稿端部画素位置算出部407へ出力される。
Incident angle data (second incident angle data) corresponding to the document size data (the length of the subject in the main scanning direction) calculated by the above equation (4) is output to the document edge pixel
原稿(被写体)端部画素位置算出部407は、入射角算出部406から入力された入射角データ(第2入射角データ)と、レンズユニット108とイメージセンサとの間の第1光路長データとを用いて、被写体の主走査方向の原稿(被写体)端部画素位置データを下記式(5)により算出する。
The document (subject) end pixel
Be=Z×tanωi ・・・ 式(5) Be = Z × tan ωi (5)
上記式(5)で算出された被写体の主走査方向の原稿(被写体)端部画素位置データは、後段の倍率誤差算出部408へ出力される。
The document (subject) end pixel position data in the main scanning direction of the subject calculated by the above equation (5) is output to the subsequent magnification
倍率誤差算出部408は、原稿(被写体)端部画素位置算出部407から入力された原稿(被写体)端部画素位置データと、理想画素位置算出部404から入力された両端部理想画素位置データとを用いて、倍率誤差データ(画素ずれ量)を下記式(6)、(7)、(8)により算出する。
The magnification
X’=(C・X)×(倍率誤差[%]/100) ・・・ 式(6)
倍率誤差(左半面)[%]={(C−x1)−(C−x1’)}/(C−x1)×100[%] ・・・ 式(7)
倍率誤差(右半面)[%]={(C−x2)−(C−x2’)}/(C−x2)×100[%] ・・・ 式(8)
X ′ = (C · X) × (magnification error [%] / 100) (6)
Magnification error (left half) [%] = {(C−x1) − (C−x1 ′)} / (C−x1) × 100 [%] (7)
Magnification error (right half surface) [%] = {(C−x2) − (C−x2 ′)} / (C−x2) × 100 [%] (8)
上記式(6)〜(8)で算出された倍率誤差データは、補正部405へ出力される。
The magnification error data calculated by the above formulas (6) to (8) is output to the
ここで、図22を用いて、補正部405における倍率補正について説明する。図22は、倍率補正について説明する図である。
Here, the magnification correction in the
図10〜図13を用いて説明したように、原稿全体を読み取る1スキャン内で局所的な原稿浮きがある場合には倍率誤差が生じる。図22の例では、副走査方向の真ん中辺りに原稿浮きがある場合を示している。本実施形態の倍率補正では、まず、図18〜図20を用いて説明したように、原稿の両端部のエッジ検出を行う。エッジ検出は、主走査方向の読取レベル(濃度レベル)の分布の副走査方向の平均を求め、例えば、主走査方向の一番左、及び一番右で読取レベル(濃度レベル)が所定の閾値を超えたところをエッジ(両端部)とする。図22の例では、x1とx2がそれぞれ左右のエッジ部分であることを示している。このように、主走査方向の1ライン毎にエッジ検出を行って、原稿浮きにより倍率が変わっている箇所は、図22の例では、原稿中心Cから左半面は端部x1’がx1となるように拡大し、原稿中心Cから右半面は端部x2’がx2となるように拡大することで倍率補正を行う。 As described with reference to FIGS. 10 to 13, a magnification error occurs when there is local document floating within one scan for reading the entire document. In the example of FIG. 22, there is shown a case where there is a document floating around the middle in the sub-scanning direction. In the magnification correction according to this embodiment, first, as described with reference to FIGS. In edge detection, the average of the distribution of the reading level (density level) in the main scanning direction is obtained in the sub-scanning direction. For example, the reading level (density level) is a predetermined threshold at the leftmost and rightmost in the main scanning direction The point beyond (2) is the edge (both ends). In the example of FIG. 22, x1 and x2 indicate left and right edge portions, respectively. As described above, the edge detection is performed for each line in the main scanning direction and the magnification is changed due to the floating of the original, in the example of FIG. 22, the left half from the original center C has the end x1 ′ as x1. The magnification is corrected by enlarging the right half from the document center C so that the end x2 ′ is x2.
原稿浮きによる画素ずれ量をX’、主走査方向の画素位置をX、光学中心の画素位置をCとした場合、画素ずれ量をX’は上記式(6)で表される。よって、X画素位置にX+X’画素位置の画素を移動させることで倍率補正を行うことになる。 When the pixel shift amount due to the document floating is X ′, the pixel position in the main scanning direction is X, and the pixel position of the optical center is C, the pixel shift amount X ′ is expressed by the above equation (6). Therefore, magnification correction is performed by moving the pixel at the X + X ′ pixel position to the X pixel position.
また、上記式(6)の倍率誤差は、上記のエッジ検出により求めることができ、例えば図22において、原稿浮きがない場合のエッジ位置(両端部)をx1、x2、及び、原稿浮きが生じている場合のエッジ位置(両端部)をx1’、x2’とした場合、原稿中心Cから左半面と右半面の倍率誤差は上記式(7)、(8)で表される。図22の例では、画像左半面の倍率誤差を上記式(7)で算出し、画像右半面の倍率誤差を上記式(8)で算出して、得られた倍率誤差データを用いて倍率補正を行う。さらに、主走査方向の1ライン毎に両端部のエッジ検出を行うことで、原稿全体を読み取る1スキャン内で局所的に原稿浮きが生じている場合でも、副走査方向全域で倍率補正を行うことが可能である。 Further, the magnification error of the above equation (6) can be obtained by the above-described edge detection. For example, in FIG. 22, the edge positions (both ends) when there is no document lift are x1, x2, and document lift occurs. When the edge positions (both ends) are x1 ′ and x2 ′, the magnification error between the left half surface and the right half surface from the document center C is expressed by the above equations (7) and (8). In the example of FIG. 22, the magnification error of the left half of the image is calculated by the above equation (7), the magnification error of the right half of the image is calculated by the above equation (8), and the magnification correction is performed using the obtained magnification error data. I do. Furthermore, by performing edge detection at both ends for each line in the main scanning direction, magnification correction is performed in the entire sub-scanning direction even when the original is lifted locally within one scan for reading the entire original. Is possible.
図17に戻って説明を続ける。入出射角特性補間部409は、予め記憶部501に記憶した所定の入射角度データに対する出射角度データの入出射角特性(入出射角情報)データ10点以外の任意の入出射角特性(入出射角情報)データについて、記憶部501に記憶された、当該入出射角特性(入出射角情報)データの近傍の2以上の入出射角情報(入出射角情報)データを用いて補間により算出する。入出射角特性補間部409は、記憶部501に出射角度データに対応する入出射角情報(入出射角特性データ)がない場合、記憶部501に記憶された、当該出射角度データ近傍の2以上の出射角度データを用いて補間により入出射角度情報(入出射角特性データ)を算出する。補間には、例えば演算が容易な線形補間が用いられる。また、入出射角特性補間部409は、記憶部501に記憶されていない入出射角情報(入出射角特性データ)を、記憶部501に記憶された、当該入出射角情報(入出射角特性データ)の近傍の2以上の入出射角情報(入出射角特性データ)を用いて線形補間により算出する。なお、補間方法は線形補間に限ることはなく任意である。なお、「入出射角特性補間部」は、請求項の「補間部」に対応する。
Returning to FIG. 17, the description will be continued. The incident / exit angle
次に、図23を用いて、本実施形態の画像読取装置100の処理動作の一例について説明する。図23は、本実施形態の画像読取装置の処理動作の一例について説明するフローチャート図である。
Next, an example of the processing operation of the
最初に、画像読取装置100は、予め被写体(原稿)からイメージセンサ109までの間の光路長情報(レンズユニット108とイメージセンサとの間の第1光路長データ、被写体(原稿)とレンズユニット108との間の第2光路長データ)と、レンズ108に入射する反射光の入射角度データと、レンズ108から出射する出射角度データとが対応付いた入出射角情報(入出射角特性データ)とを記憶する(ステップS1)。次に、画像読取装置100は、光源102からの照射光によって被写体(読取対象)である原稿を照明し、その原稿からの反射光を光電変換するCMOSのイメージセンサ109で受光した信号に処理を行い、原稿の画像データを読み取る(ステップS2)。
First, the
次に、画像読取装置100は、イメージセンサ109により読み取った1ラインの被写体(原稿)の画像データの各画素の主走査方向の画素位置を検出する(ステップS3)。次に、画像読取装置100は、画像データと記画像データの各画素の主走査方向の画素位置データとを用いて、画像データの両端部画素の主走査方向の両端部画素位置(エッジ)を検出する(ステップS4)。次に、画像読取装置100は、両端部画素位置及び両端部画素位置の間にある各画素の主走査方向の画素位置と、光路長情報と、入出射角情報とを用いて、レンズ108の歪曲収差による画像データの光学歪み量を補正(ディストーション補正)する(ステップS5)。
Next, the
次に、画像読取装置100は、被写体(原稿)の主走査方向の長さと、被写体(原稿)とレンズ108との間の第2光路長と、レンズ108とイメージセンサ109との間の第1光路長とを用いて、第2光路長の変動(原稿読み取り時の原稿浮き)による倍率誤差を補正する(ステップS6)。次に、画像読取装置100は、ディストーション(歪曲収差)による画素ずれの補正、及び原稿浮きによる倍率誤差の補正を行った後の出力画素データを出力(ステップS7)して処理を終了する。
Next, the
以上、説明したように、本実施形態の画像読取装置100によれば、被写体の読取り距離が変化しても、画像データを適切に補正することができる、という有利な効果を達成できる。
As described above, according to the
以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Although the embodiments according to the present invention have been described above, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
また、上述した実施形態の画像読取装置100で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでフロッピー(登録商標)ディスク、CD(Compact Disk)、CD−R(Compact Disk−Recordable)、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disk)、SDメモリカード(SD memory card)、USBメモリ(Universal Serial Bus memory)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
The program executed by the
100 画像読取装置
101 コンタクトガラス
102 光源
103 第1反射ミラー
104 第2反射ミラー
105 第3反射ミラー
106 第1キャリッジ
107 第2キャリッジ
108 レンズユニット(レンズ)
109 イメージセンサ
110 基準白板(白基準板)
111 スリット
112 ガイド部材
200 ADF
201 原稿トレイ
202 給送ローラ
300 画像形成装置
303 給紙部
304 画像形成装置本体(画像形成部)
305 作像部
306 現像器
307 搬送路
308 レジストローラ
309 光書き込み装置
310 定着搬送部
311 両面トレイ
312 感光体ドラム
313 中間転写ベルト
400 画素位置検出部
401 エッジ検出部
402 出射角算出部
403 入射角出力部
404 理想画素位置算出部
405 補正部
406 入射角算出部
407 原稿端部画素位置算出部
408 倍率誤差算出部
409 入出射角特性補間部
500 同期信号生成部
501 メモリ(記憶部)
502 画像補正部
503 原稿サイズ検出部
DESCRIPTION OF
109
111
201
305
502
Claims (13)
前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する記憶部と、
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出部と、
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出部と、
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正部と、
を備え、
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長であり、
前記補正部は、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の主走査方向の画素位置と、前記第1光路長とから算出される出射角度データを用いて、前記入出射角情報を参照して第1入射角度データを特定し、特定した前記第1入射角度データと前記第1光路長とから算出される理想画素位置と、前記両端部画素位置及び前記画素位置との画素ずれ量に基づいて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する、
ことを特徴とする画像読取装置。 An image sensor that photoelectrically converts reflected light from a subject through a lens and reads image data of the subject;
Optical path length information from the subject to the image sensor, and incident / emission angle information in which incident angle data of the reflected light incident on the lens and emission angle data emitted from the lens correspond to each other are stored in advance. A storage unit to
A pixel position detection unit that detects a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
Using the image data and the detected pixel position data of each pixel, an edge detection unit that detects pixel positions in both ends of the image data in the main scanning direction;
Using the pixel position of each pixel between the both-end pixel positions and the both-end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the lens due to distortion aberration of the lens is used. A correction unit for correcting the amount of optical distortion;
Equipped with a,
The optical path length information is a first optical path length between the lens and the image sensor,
The correction unit uses the emission angle data calculated from the pixel position in the main scanning direction of each pixel between the both-end pixel positions and the both-end pixel positions and the first optical path length. The first incident angle data is identified with reference to the written exit angle information, the ideal pixel position calculated from the identified first incident angle data and the first optical path length, the both end pixel positions, and the pixel positions Correcting the amount of optical distortion of the image data due to the distortion of the lens based on the amount of pixel deviation with
An image reading apparatus.
前記被写体から前記イメージセンサまでの間の光路長情報と、前記レンズに入射する前記反射光の入射角度データと前記レンズから出射する出射角度データとが対応付いた入出射角情報と、を予め記憶する記憶部と、Optical path length information from the subject to the image sensor, and incident / emission angle information in which incident angle data of the reflected light incident on the lens and emission angle data emitted from the lens correspond to each other are stored in advance. A storage unit to
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出部と、A pixel position detection unit that detects a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出部と、Using the image data and the detected pixel position data of each pixel, an edge detection unit that detects pixel positions in both ends of the image data in the main scanning direction;
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正部と、Using the pixel position of each pixel between the both end pixel positions and the both end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the image data due to distortion aberration of the lens A correction unit for correcting the amount of optical distortion;
読み取る前記被写体の主走査方向の長さを検出する被写体サイズ検出部と、A subject size detector for detecting the length of the subject to be read in the main scanning direction;
を備え、With
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長と、前記被写体と前記レンズとの間の第2光路長と、であり、The optical path length information is a first optical path length between the lens and the image sensor, and a second optical path length between the subject and the lens,
前記補正部は、前記被写体の主走査方向の長さと、前記第2光路長と、前記第1光路長とを用いて、第2光路長の変動による倍率誤差を補正する、The correction unit corrects a magnification error due to a variation in the second optical path length using the length of the subject in the main scanning direction, the second optical path length, and the first optical path length;
ことを特徴とする画像読取装置。An image reading apparatus.
ことを特徴とする請求項1に記載の画像読取装置。 If there is no previous entry exit angle information corresponding to the emission angle data in the storage unit, enter exit angle before that corresponds to the emission angle data by linear interpolation using two or more emission angle data stored in the storage unit further comprising an interpolation unit for calculating the information,
The image reading apparatus according to claim 1.
前記光路長情報は、前記被写体と前記レンズとの間の第2光路長であり、
前記補正部は、前記被写体の主走査方向の長さと、前記第2光路長と、前記第1光路長とを用いて、第2光路長の変動による倍率誤差を補正する、
ことを特徴とする請求項1に記載の画像読取装置。 A subject size detector that detects the length of the subject to be read in the main scanning direction;
The optical path length information is a second optical path length between the subject and the lens,
The correction unit corrects a magnification error due to a variation in the second optical path length using the length of the subject in the main scanning direction, the second optical path length, and the first optical path length;
The image reading apparatus according to claim 1 .
ことを特徴とする請求項2または4に記載の画像読取装置。 The correction unit calculates second incident angle data from the length of the subject in the main scanning direction and the second optical path length, and calculates from the calculated second incident angle data and the first optical path length. The both ends calculated from the first incident angle data and the first optical path length specified using the emission angle data calculated from the subject end pixel position, the pixel position of each pixel and the first optical path length parts based on the pixel shift amount of the ideal pixel position of the pixel to correct the magnification error due to variations in the second optical path length,
The image reading apparatus according to claim 2 , wherein the image reading apparatus is an image reading apparatus.
ことを特徴とする請求項3に記載の画像読取装置。 The interpolation unit calculates incident / exit angle information not stored in the storage unit by linear interpolation using two or more input / output angle information stored in the storage unit,
The image reading apparatus according to claim 3.
ことを特徴とする請求項1または2に記載の画像読取装置。 The storage unit stores in advance a plurality of pieces of incident / exit angle information in which incident angle data and exit angle data set in advance are associated with the lens.
The image reading apparatus according to claim 1 or 2, characterized in that.
ことを特徴とする請求項1または2に記載の画像読取装置。 The edge detection unit detects the pixel positions on both ends during the reading operation of the subject;
The image reading apparatus according to claim 1 or 2, characterized in that.
ことを特徴とする請求項1または2に記載の画像読取装置。 The edge detection unit detects a pixel position between a predetermined upper limit threshold and a lower limit threshold as a reading pixel level in the main scanning direction of the read image data as the both end pixel positions;
The image reading apparatus according to claim 1 or 2, characterized in that.
ことを特徴とする請求項9に記載の画像読取装置。 The edge detection unit detects the pixel positions at both ends using a value obtained by averaging the read density levels in the main scanning direction of the image data for each of a plurality of preset lines in the sub-scanning direction.
The image reading apparatus according to claim 9.
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出ステップと、
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出ステップと、
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正ステップと、を含み、
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長であり、
前記補正ステップは、前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の主走査方向の画素位置と、前記第1光路長とから算出される出射角度データを用いて、前記入出射角情報を参照して第1入射角度データを特定し、特定した前記第1入射角度データと前記第1光路長とから算出される理想画素位置と、前記両端部画素位置及び前記画素位置との画素ずれ量に基づいて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する、
ことを特徴とする画像読取方法。 An image sensor that photoelectrically converts reflected light from a subject through a lens, optical path length information from the subject to the image sensor, incident angle data of the reflected light that is incident on the lens, and emitted from the lens An image reading method of an image reading apparatus comprising: a storage unit that stores incident / exit angle information associated with emission angle data,
A pixel position detecting step of detecting a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
An edge detection step of detecting both end pixel positions in the main scanning direction of both end pixels of the image data using the image data and pixel position data of the detected pixels.
Using the pixel position of each pixel between the both-end pixel positions and the both-end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the lens due to distortion aberration of the lens is used. and a correction step of correcting the optical distortion amount, only including,
The optical path length information is a first optical path length between the lens and the image sensor,
The correction step uses the emission angle data calculated from the pixel position in the main scanning direction of each pixel between the both end pixel positions and the both end pixel positions, and the first optical path length. The first incident angle data is identified with reference to the written exit angle information, the ideal pixel position calculated from the identified first incident angle data and the first optical path length, the both end pixel positions, and the pixel positions Correcting the amount of optical distortion of the image data due to the distortion of the lens based on the amount of pixel deviation with
An image reading method.
前記イメージセンサにより読み取った1ラインの前記被写体の画像データの各画素の主走査方向の画素位置を検出する画素位置検出ステップと、A pixel position detecting step of detecting a pixel position in the main scanning direction of each pixel of the image data of the subject of one line read by the image sensor;
前記画像データと、検出した前記各画素の画素位置データとを用いて、前記画像データの両端部画素の主走査方向の両端部画素位置を検出するエッジ検出ステップと、An edge detection step of detecting both end pixel positions in the main scanning direction of both end pixels of the image data using the image data and pixel position data of the detected pixels.
前記両端部画素位置及び前記両端部画素位置の間にある前記各画素の前記画素位置と、前記光路長情報と、前記入出射角情報とを用いて、前記レンズの歪曲収差による前記画像データの光学歪み量を補正する補正ステップと、Using the pixel position of each pixel between the both end pixel positions and the both end pixel positions, the optical path length information, and the incident / exit angle information, the image data of the image data due to distortion aberration of the lens A correction step for correcting the amount of optical distortion;
読み取る前記被写体の主走査方向の長さを検出する被写体サイズ検出ステップと、を含み、A subject size detection step of detecting a length of the subject to be read in the main scanning direction,
前記光路長情報は、前記レンズと前記イメージセンサとの間の第1光路長と、前記被写体と前記レンズとの間の第2光路長と、であり、The optical path length information is a first optical path length between the lens and the image sensor, and a second optical path length between the subject and the lens,
前記補正部は、前記被写体の主走査方向の長さと、前記第2光路長と、前記第1光路長とを用いて、第2光路長の変動による倍率誤差を補正する、The correction unit corrects a magnification error due to a variation in the second optical path length using the length of the subject in the main scanning direction, the second optical path length, and the first optical path length;
ことを特徴とする画像読取方法。An image reading method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227538A JP6439395B2 (en) | 2014-11-07 | 2014-11-07 | Image reading apparatus, image forming apparatus, and image reading method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227538A JP6439395B2 (en) | 2014-11-07 | 2014-11-07 | Image reading apparatus, image forming apparatus, and image reading method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016092697A JP2016092697A (en) | 2016-05-23 |
JP6439395B2 true JP6439395B2 (en) | 2018-12-19 |
Family
ID=56019082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014227538A Active JP6439395B2 (en) | 2014-11-07 | 2014-11-07 | Image reading apparatus, image forming apparatus, and image reading method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6439395B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7631936B2 (en) * | 2021-03-17 | 2025-02-19 | 株式会社リコー | Image reading device, image forming device, and image reading method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09224129A (en) * | 1996-02-16 | 1997-08-26 | Nec Corp | Image input device |
JPH10177331A (en) * | 1996-12-18 | 1998-06-30 | Ricoh Co Ltd | Original position detecting device |
JP2000004349A (en) * | 1998-06-16 | 2000-01-07 | Fuji Photo Film Co Ltd | Image processor |
JP3618056B2 (en) * | 1999-02-23 | 2005-02-09 | 理想科学工業株式会社 | Image processing device |
JP2003189169A (en) * | 2001-09-27 | 2003-07-04 | Fuji Photo Film Co Ltd | Image processing apparatus |
JP5458570B2 (en) * | 2008-12-25 | 2014-04-02 | 株式会社ニコン | Optical device, optical device manufacturing method, optical device adjustment method, and imaging device |
-
2014
- 2014-11-07 JP JP2014227538A patent/JP6439395B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016092697A (en) | 2016-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6822096B2 (en) | Photoelectric conversion device, photoelectric conversion method and image forming device | |
JP7131415B2 (en) | TILT DETECTION DEVICE, READING DEVICE, IMAGE PROCESSING DEVICE, AND TILT DETECTION METHOD | |
US11546535B2 (en) | Abnormal-pixel detecting device, image forming apparatus, and method of detecting abnormal pixel | |
US11115561B2 (en) | Inclination detecting device, reading device, image processing apparatus, and method of detecting inclination | |
JP5652063B2 (en) | Image reading apparatus, image forming apparatus, and shading correction method | |
JP2020178192A (en) | Edge detection device, tilt correction device, read device, image processing device, and edge detection method | |
JP6439395B2 (en) | Image reading apparatus, image forming apparatus, and image reading method | |
JP5481435B2 (en) | Image reading apparatus and image forming apparatus | |
US20130063795A1 (en) | Image reading apparatus and foreign matter detection method | |
JP4591532B2 (en) | Image reading apparatus and image reading method | |
JP7383923B2 (en) | Reading device, image forming device and correction method | |
JP4609289B2 (en) | Image reading apparatus and image forming apparatus | |
JP4364076B2 (en) | Image reading apparatus and image forming apparatus | |
JP7181047B2 (en) | Document reading device and image forming device provided with the same | |
JP4849144B2 (en) | Image reading apparatus and streak noise correction method | |
JP2011259430A (en) | Image reader and image reading abnormality detecting method | |
JP2006311293A (en) | Image processor | |
JP2011259008A (en) | Image reading device, image processing device, image reading method and program | |
JP6848421B2 (en) | Photoelectric conversion device, photoelectric conversion method and image forming device | |
JP6287630B2 (en) | Image reading apparatus, image forming apparatus, and image reading method | |
JP6880936B2 (en) | Image reader, image forming device, and control method | |
JP6885076B2 (en) | Image reader, image forming device, image processing device, and image processing method | |
JP2024154324A (en) | Image processing device, image reading device, image forming device, and image processing method | |
JP2006020030A (en) | Image reading apparatus | |
JP6805521B2 (en) | Image reading device, correction method of scanned image in the device, and correction program of scanned image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181009 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181105 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6439395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |