[go: up one dir, main page]

JP5202267B2 - Image reading device - Google Patents

Image reading device Download PDF

Info

Publication number
JP5202267B2
JP5202267B2 JP2008315473A JP2008315473A JP5202267B2 JP 5202267 B2 JP5202267 B2 JP 5202267B2 JP 2008315473 A JP2008315473 A JP 2008315473A JP 2008315473 A JP2008315473 A JP 2008315473A JP 5202267 B2 JP5202267 B2 JP 5202267B2
Authority
JP
Japan
Prior art keywords
image
region
imaging optical
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008315473A
Other languages
Japanese (ja)
Other versions
JP2010141558A (en
Inventor
淳子 牧田
裕之 河野
達樹 岡本
正 美濃部
達也 國枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008315473A priority Critical patent/JP5202267B2/en
Publication of JP2010141558A publication Critical patent/JP2010141558A/en
Application granted granted Critical
Publication of JP5202267B2 publication Critical patent/JP5202267B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、被撮像物を光学的に読取り、画像信号を生成する画像読取装置に関するものである。   The present invention relates to an image reading apparatus that optically reads an object to be imaged and generates an image signal.

一般に、コピー機、イメージスキャナ、及びファクシミリなどに適用される画像読取装置は、複数の撮像素子(光電変換素子)を主走査方向に配列して構成された一次元撮像素子(ラインセンサ)を備えている。画像読取りに際しては、一次元撮像素子による主走査方向の読取り、及び、読取り位置の副走査方向の移動(原稿又は光学系の移動)を実行する(例えば、特許文献1乃至3参照)。   In general, an image reading apparatus applied to a copy machine, an image scanner, a facsimile, and the like includes a one-dimensional image sensor (line sensor) configured by arranging a plurality of image sensors (photoelectric conversion elements) in the main scanning direction. ing. At the time of image reading, reading in the main scanning direction by the one-dimensional imaging device and movement of the reading position in the sub-scanning direction (movement of the document or the optical system) are executed (for example, see Patent Documents 1 to 3).

特許文献1は、原稿の主走査方向の全体を単眼の縮小結像レンズによってラインセンサ上に結像させる画像読取装置を開示している。この装置では、ラインセンサ及び縮小結像レンズは固定されており、複数のミラーを副走査方向に移動させることによって、原稿全体を走査する。   Patent Document 1 discloses an image reading device that forms an image of a whole document in the main scanning direction on a line sensor by a monocular reduction imaging lens. In this apparatus, the line sensor and the reduction imaging lens are fixed, and the entire original is scanned by moving a plurality of mirrors in the sub-scanning direction.

特許文献2は、原稿の主走査方向の全体をロッドレンズアレイを通して光電変換素子上に正立等倍結像させる密着型の画像読取装置を開示している。   Patent Document 2 discloses a contact-type image reading apparatus that forms an entire image in the main scanning direction of an original on a photoelectric conversion element through a rod lens array at an equal magnification.

特許文献3は、所定の角度をもって配置している2つのプラテン(原稿台)に対応させてスキャナーを各々配置し、本を開いた状態でセットし、見開きの2つの頁を同時に、又は、交互に読取ることができるようにしている画像読取装置を開示している。   In Patent Document 3, scanners are respectively arranged corresponding to two platens (document tables) arranged at a predetermined angle, a book is set in an open state, and two spread pages are simultaneously or alternately arranged. An image reading apparatus is disclosed which can be read by the user.

特開平10−308852号公報(図1、段落0006,0007)Japanese Patent Laid-Open No. 10-308852 (FIG. 1, paragraphs 0006 and 0007) 特開平8−204899号公報(図1、要約)Japanese Patent Application Laid-Open No. 8-204899 (FIG. 1, summary) 特開2000−165608号公報(図1、図2、段落0009)JP 2000-165608 A (FIG. 1, FIG. 2, paragraph 0009)

特許文献1に記載の装置は、被写界深度が大きい装置であるが、原稿から縮小結像レンズまでの光路長を変化させないように複数のミラーを移動させる光学系を採用するので、光学系の構成が大型且つ複雑になり、装置が高価になるという問題がある。   The device described in Patent Document 1 is a device having a large depth of field, but employs an optical system that moves a plurality of mirrors so as not to change the optical path length from the original to the reduction imaging lens. There is a problem that the configuration becomes large and complicated, and the apparatus becomes expensive.

特許文献2に記載の装置は、小型で低コストであるというメリットがあるものの、被写界深度が小さいという問題及び色収差が大きいという問題がある。   Although the apparatus described in Patent Document 2 has the advantage of being small and low-cost, there are problems that the depth of field is small and chromatic aberration is large.

特許文献3に記載の装置は、原稿台を本の見開き形状に対応した形状にしているので、原稿台の形状に合わせることができない原稿を読み取ることができない、また、書類などを原稿台の形状に合わせて折り曲げて密着させる面倒な作業が必要になるという問題がある。   In the apparatus described in Patent Document 3, since the document table has a shape corresponding to the double-page spread shape of the book, a document that cannot be matched with the shape of the document table cannot be read. There is a problem that a troublesome work to bend and adhere to fit to the need.

また、特許文献1〜3に記載の装置では、被撮像物の深度方向の位置が一定でない場合に生成された画像に歪みが生じるという問題がある。   In addition, the apparatuses described in Patent Documents 1 to 3 have a problem that a generated image is distorted when the position of the object to be imaged in the depth direction is not constant.

そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、光学系の構成を簡素化及び小型化し、画像信号処理によって複数の撮像素子部で撮像された複数の被撮像領域の画像を適切に合成でき、被撮像物の被撮像領域の深度方向の位置が一定でない場合に生成された歪みのある合成画像を歪みのない合成画像に修正することができる画像読取装置を提供することにある。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and the object thereof is to simplify and miniaturize the configuration of the optical system, and images are captured by a plurality of image sensor sections by image signal processing. It is possible to appropriately synthesize images of a plurality of imaged areas, and to correct a distorted synthesized image generated when the position of the imaged area of the object to be imaged in the depth direction is not constant to a synthesized image without distortion. An object of the present invention is to provide an image reading apparatus.

本発明に係る画像読取装置は、主走査方向及び副走査方向の両方に垂直な深度方向について被撮像物の位置を決め、該被撮像物を所定の合焦位置又は該合焦位置から前記深度方向にずれた位置に置く位置決め部と、前記被撮像物上の複数の第1の被撮像領域からの複数の第1の光をそれぞれ集光することによって、複数の第1の画像を結像させる複数の第1の結像光学部と、前記被撮像物上の、前記主走査方向に前記複数の第1の被撮像領域と交互に並ぶ複数の第2の被撮像領域であって、隣り合う第1の被撮像領域と第2の被撮像領域とが前記主走査方向に部分的に重複する前記複数の第2の被撮像領域から、前記副走査方向において前記複数の第1の光と異なる方向に進む複数の第2の光をそれぞれ集光することによって、複数の第2の画像を結像させる複数の第2の結像光学部と、前記複数の第1の結像光学部に対応して配置され、前記複数の第1の画像を撮像する複数の第1の撮像素子部と、前記複数の第2の結像光学部に対応して配置され、前記複数の第2の画像を撮像する複数の第2の撮像素子部と、前記複数の第1の撮像素子部及び前記複数の第2の撮像素子部によって取得された画像情報を一時的に記憶する記憶部と、前記記憶された画像情報を合成することによって合成画像を生成する画像処理部とを有し、前記複数の第1の結像光学部のそれぞれは、前記合焦位置に置かれた前記被撮像物の合焦画像を、対応する前記第1の撮像素子部の撮像面上に結像させる構であり、前記複数の第2の結像光学部のそれぞれは、前記合焦位置に置かれた前記被撮像物の合焦画像を、対応する前記第2の撮像素子部の撮像面上に結像させる構であり、前記画像処理部は、前記複数の第1の撮像素子部のうちの第1の撮像素子部と前記複数の第2の撮像素子部のうちの第2の撮像素子部であって前記複数の第1の被撮像領域及び前記複数の第2の被撮像領域のうちの隣り合う前記第1の被撮像領域と前記第2の被撮像領域をそれぞれ撮像する前記第1の撮像素子部と前記第2の撮像素子部の前記組のそれぞれについて、前記第1の撮像素子部が撮像した第1の画像の中の第1の注目領域の画像と前記第2の撮像素子部が撮像した第2の画像の中の第2の注目領域の画像とが一致する画像一致領域を検出し、前記第1の画像における前記画像一致領域の位置と前記第2の画像における前記画像一致領域の位置とに基づいて前記第1の画像と前記第2の画像とを結合させる結合位置を決める結合位置検出手段と、前記第1の画像と前記第2の画像とを前記結合位置で結合させて、前記合成画像を生成する画像合成手段と、前記第1の画像における前記画像一致領域の前記副走査方向の位置と前記第2の画像における前記画像一致領域の前記副走査方向の位置との差である画像ずれ量を用いて、前記合焦位置から前記第1の被撮像領域前記第2の被撮像領域の重複する領域の前記深度方向の距離を算出する距離算出手段と、前記距離算出手段で算出された距離から前記被撮像物の形状を推定し、前記形状推定結果に基づいて前記合成画像の歪みを補正する画像修正手段とを有することを特徴としている。 The image reading apparatus according to the present invention determines the position of an object to be imaged in a depth direction perpendicular to both the main scanning direction and the sub-scanning direction, and moves the object to be imaged from a predetermined in-focus position or the in-focus position to the depth. A plurality of first images are formed by condensing a plurality of first lights from a plurality of first imaging regions on the imaging object and a positioning unit placed at a position shifted in the direction A plurality of first imaging optical units to be arranged, and a plurality of second imaging regions arranged alternately with the plurality of first imaging regions in the main scanning direction on the imaging object, From the plurality of second image pickup areas in which the first image pickup area and the second image pickup area that match each other partially overlap in the main scanning direction, the plurality of first lights in the sub scanning direction By collecting a plurality of second lights traveling in different directions, a plurality of second lights are collected. A plurality of second imaging optical units that form images, and a plurality of first imaging elements that are arranged corresponding to the plurality of first imaging optical units and that capture the plurality of first images. A plurality of second imaging element units that are arranged corresponding to the plurality of second imaging optical units and that capture the plurality of second images, and the plurality of first imaging element units, A storage unit that temporarily stores image information acquired by the plurality of second image sensor units, and an image processing unit that generates a composite image by combining the stored image information, each of the plurality of first imaging optical unit, configured to focus images of the placed focus position the object to be imaged, Ru is formed on the imaging surface of the corresponding first image sensor unit It is formed, if the each of the plurality of second imaging optical unit, the object to be imaged placed in the focus position An image, a configuration in which Ru is formed on the imaging surface of the corresponding second image pickup device unit, the image processing unit, the first image sensor portion of the plurality of first image sensor unit wherein a plurality of second second image sensor portion of the image pickup device unit and, adjacent said first of said plurality of first imaged region and the plurality of second imaged region for said set of each of said second image pickup device unit and the first image sensor unit for each image the second imaged region and the imaged region, the first image sensor portion is imaged 1 An image matching region in which the image of the first region of interest in the second image and the image of the second region of interest in the second image captured by the second image sensor unit are detected, and Based on the position of the image matching area in one image and the position of the image matching area in the second image. And combining position detecting means for determining a combining position for combining the first image and the second image, and combining the first image and the second image at the combining position. An image composition means for generating an image, and an image that is a difference between a position in the sub-scanning direction of the image matching area in the first image and a position in the sub-scanning direction of the image matching area in the second image A distance calculation unit that calculates a distance in the depth direction of an area where the first image pickup area and the second image pickup area overlap from the in-focus position using the shift amount, and the distance calculation means Image correction means for estimating the shape of the object to be imaged from the measured distance and correcting distortion of the composite image based on the shape estimation result.

本発明によれば、画像読取装置の光学系の構成の簡素化及び小型化を実現できるという効果を得ることができる。また、本発明によれば、画像信号処理によって複数の撮像素子部で撮像された複数の被撮像領域の画像を適切に合成でき、被撮像物の被撮像領域の深度方向の位置が一定でない場合に生成された歪みのある合成画像を、被撮像物の被撮像領域の深度方向の位置が一定である場合に生成された歪みのない合成画像に修正することができるという効果を得ることができる。   According to the present invention, it is possible to obtain an effect that simplification and downsizing of the configuration of the optical system of the image reading apparatus can be realized. Further, according to the present invention, it is possible to appropriately combine images of a plurality of imaging regions imaged by a plurality of imaging element units by image signal processing, and the position of the imaging region of the imaging object in the depth direction is not constant Thus, it is possible to obtain an effect that the generated composite image with distortion can be corrected to a composite image without distortion generated when the position of the imaging region of the imaging target in the depth direction is constant. .

実施の形態1.
図1は、本発明の実施の形態1に係る画像読取装置100の構成を概略的に示す図である。図1には、画像読取装置100の光学系の構成を概略的に示す斜視図(左側)と、画像信号処理系の構成を概略的に示すブロック図(右側)とが含まれている。なお、以下の説明においては、XYZ直交座標系を用いる。画像の読取りにおける主走査方向DにX軸を置き、主走査方向Dに直交する副走査方向DにY軸を置き、主走査方向D及び副走査方向Dの両方に直交する深度方向DにZ軸を置く。したがって、主走査方向Dは「X軸方向」とも言い、副走査方向Dは「Y軸方向」とも言い、深度方向Dは「Z軸方向」とも言う。また、以下の説明において、Z軸方向は、画像読取装置の厚み方向である。
Embodiment 1 FIG.
FIG. 1 is a diagram schematically showing a configuration of an image reading apparatus 100 according to Embodiment 1 of the present invention. FIG. 1 includes a perspective view (left side) schematically showing the configuration of the optical system of the image reading apparatus 100 and a block diagram (right side) schematically showing the configuration of the image signal processing system. In the following description, an XYZ orthogonal coordinate system is used. Place the X-axis in the main scanning direction D X in the reading of the image, place the Y-axis in the sub-scanning direction D Y perpendicular to the main scanning direction D X, perpendicular to both the main scanning direction D X and the subscanning direction D Y placing the Z-axis in the depth direction D Z. Therefore, the main scanning direction D X is also referred to as “X-axis direction”, the sub-scanning direction D Y is also referred to as “Y-axis direction”, and the depth direction D Z is also referred to as “Z-axis direction”. In the following description, the Z-axis direction is the thickness direction of the image reading apparatus.

図1に示されるように、実施の形態1に係る画像読取装置100は、結像光学系101と、照明光源102と、天板103と、基板104上に配置された複数の撮像素子部141,142,…,148と、メモリ105と、画像処理部106とを有する。   As shown in FIG. 1, the image reading apparatus 100 according to the first embodiment includes an imaging optical system 101, an illumination light source 102, a top plate 103, and a plurality of imaging element units 141 arranged on a substrate 104. , 142,..., 148, a memory 105, and an image processing unit 106.

天板103は、被撮像物(被写体)の一例である原稿(図1には示さず)が載置される透明な原稿載置部材、例えば、ガラス板である。天板103は、原稿の深度方向Dの位置(すなわち、結像光学系101から原稿の被撮像領域までの距離)を決めることができる位置決め部として機能する。天板103は、原稿を、天板103の上面103aの位置又はこの上面103aから深度方向Dにずれた位置に載置される。実施の形態1においては、天板103の上面103aを合焦位置(「ジャストフォーカス位置」とも言う。)としており、原稿の読取り位置に存在する被撮像領域31,32,…,38が合焦位置にあるときには、原稿の被撮像領域31,32,…,38から結像光学系101を通して撮像素子部141,142,…,148に結像する画像は、ぼやけのない画像(「合焦画像」とも言う。)となる。天板103は、被撮像物の位置決め部として機能し、原稿の被撮像領域31,32,…,38を撮像可能にできる構成であれば、ガラス板に限定されず、原稿を位置決めできる他の手段であってもよい。また、被撮像物には、文章、書画、写真などを表示した原稿の他に、紙幣、人間の指などのように、画像を読取る対象となり得るすべてのものが含まれる。また、画像読取装置100は、例えば、コピー機、プリンタ、紙幣の真贋の判定機、原稿を電子ファイルに変換するためのイメージスキャナ、及びファクシミリなどに適用可能である。 The top plate 103 is a transparent document placing member, for example, a glass plate, on which a document (not shown in FIG. 1), which is an example of an object to be imaged (object), is placed. The top plate 103, the position in the depth direction D Z of the document (i.e., the distance from the imaging optical system 101 to the imaged area of the document) serves as a positioning portion that can be determined. The top plate 103, the document is placed at a position shifted in the depth direction D Z from the position or the upper surface 103a of the upper surface 103a of the top plate 103. In the first embodiment, the top surface 103a of the top plate 103 is set as a focus position (also referred to as “just focus position”), and the imaged areas 31, 32,. When the image is in the position, the image formed on the image sensor elements 141, 142,..., 148 from the imaged areas 31, 32,. Is also called.) The top plate 103 functions as a positioning unit for the object to be imaged and is not limited to the glass plate as long as it can capture the imaged areas 31, 32,. It may be a means. In addition to the manuscript on which text, a document, a photograph, and the like are displayed, the object to be imaged includes everything that can be a target for reading an image, such as a banknote or a human finger. The image reading apparatus 100 can be applied to, for example, a copying machine, a printer, a bill authenticity determination device, an image scanner for converting a document into an electronic file, a facsimile, and the like.

照明光源102は、例えば、蛍光灯又はLEDなどから構成される。照明光源102は、例えば、天板103の下方であって原稿の被撮像領域31,32,…,38の読取りに支障が生じない位置に配置される。照明光源102は、原稿の被撮像領域31,32,…,38に光を照射する。なお、照明光源102の形状は、図1に示されるような長尺形状に限定されず、他の形状であってもよい。また、図1には、照明光源102が、結像光学系101の副走査方向Dの一方の側にのみ配置されている場合を示したが、照明光源を結像光学系101の副走査方向Dの両側に配置してもよい。さらにまた、外部からの光などによって、原稿の被撮像領域31,32,…,38が十分に明るく照明できる場合には、照明光源102を点灯させないことも可能であり、また、照明光源102を持たない構成も可能である。 The illumination light source 102 is composed of, for example, a fluorescent lamp or LED. The illumination light source 102 is disposed, for example, at a position below the top plate 103 so as not to interfere with reading of the imaged areas 31, 32,. The illumination light source 102 irradiates the imaged areas 31, 32,. The shape of the illumination light source 102 is not limited to the long shape as shown in FIG. 1, and may be another shape. Further, in FIG. 1, the illumination light source 102, a case which is arranged only on one side of the sub-scanning direction D Y of the imaging optical system 101, the sub-scan of the imaging optical system 101 to the illumination light source it may be disposed on both sides of the direction D Y. Furthermore, when the imaged areas 31, 32,..., 38 of the document can be illuminated sufficiently brightly by external light or the like, the illumination light source 102 may not be turned on. A configuration without it is also possible.

結像光学系101は、複数の撮像素子部141,142,…,148に対応する複数の結像光学部111,112,…,118を含む。結像光学部111,112,…,118のそれぞれは、機能的に独立した光学手段である。実施の形態1において、複数の結像光学部111,112,…,118は、XY面に平行な面上で千鳥状に配置されている円柱状の光学セルによって構成される。また、実施の形態1において、複数の結像光学部111,112,…,118のうちの、主走査方向Dに並ぶ奇数番目の1列の結像光学部111,113,…,117を、第1グループ(第1列)G11に属する結像光学部(第1の結像光学部)と言い、主走査方向Dに並ぶ偶数番目の1列の結像光学部112,114,…,118を、第2グループ(第2列)G12に属する結像光学部(第2の結像光学部)と言う。第1グループG11に属する第1の結像光学部111,113,…,117は、原稿の被撮像領域31,33,…,37から第1の結像光学部111,113,…,117に向かう第1の光の主光線が互いに平行になるように構成されている。すなわち、第1グループG11に属する第1の結像光学部111,113,…,117は、それらの光軸111a,113a,…,117aが互いに平行になるように構成されている。また、第2グループG12に属する第2の結像光学部112,114,…,118は、原稿の被撮像領域32,34,…,38から第2の結像光学部112,114,…,118に向かう第2の光の主光線が互いに平行になるように構成されている。すなわち、第2グループG12に属する第2の結像光学部112,114,…,118は、それらの光軸112a,114a,…,118aが互いに平行になるように構成されている。ただし、本発明は、第1グループG11に属する第1の結像光学部111,113,…,117の光軸111a,113a,…,117aが互いに平行でない場合、又は、第2グループG12に属する第2の結像光学部112,114,…,118の光軸112a,114a,…,118aが互いに平行でない場合にも、適用可能である。例えば、各結像光学部の光軸の方向が既知であれば、第1グループG11に属する第1の結像光学部111,113,…,117の光軸111a,113a,…,117aが平行である必要なく、第2グループG12に属する第2の結像光学部112,114,…,118の光軸112a,114a,…,118aは平行である必要はない。 The imaging optical system 101 includes a plurality of imaging optical units 111, 112,..., 118 corresponding to the plurality of imaging element units 141, 142,. Each of the imaging optical units 111, 112,..., 118 is a functionally independent optical means. In the first embodiment, the plurality of imaging optical units 111, 112,..., 118 are configured by cylindrical optical cells arranged in a staggered manner on a plane parallel to the XY plane. In the first embodiment, a plurality of image forming optical unit 111, 112 ..., of 118, the odd-numbered row of the imaging optical section 111 and 113 arranged in the main scanning direction D X, ..., 117 the first group (first column) image-forming optical unit belonging to G 11 (first imaging optical section) and said even-numbered row of the imaging optical section 112, 114 arranged in the main scanning direction D X, ..., and 118, referred to as a second group forming optical unit belonging to the (second column) G 12 (second imaging optical unit). The first imaging optical units 111, 113,..., 117 belonging to the first group G 11 are the first imaging optical units 111, 113,. The chief rays of the first light traveling toward are parallel to each other. That is, the first imaging optical section 111 and 113 belonging to the first group G 11, ..., 117 have their optical axes 111a, 113a, ..., 117a are configured so as to be parallel to each other. The second imaging optical unit 112, 114 belonging to the second group G 12, ..., 118 are imaged regions 32 and 34 of the document, ..., and 38 second imaging optical unit 112, ... , 118 are configured such that the chief rays of the second light directed to 118 are parallel to each other. That is, the second imaging optical unit 112, 114 belonging to the second group G 12, ..., 118, their optical axes 112a, 114a, ..., 118a are configured so as to be parallel to each other. However, the present invention includes a first imaging optical section 111 and 113 belonging to the first group G 11, ..., 117 of the optical axis 111a, 113a, ..., if 117a is not parallel to each other, or the second group G 12 .., 118 of the second imaging optical units 112, 114,..., 118 belonging to the above can be applied even when the optical axes 112a, 114a,. For example, if the direction is a known optical axes of the imaging optical section, the first imaging optical section 111 and 113 belonging to the first group G 11, ..., 117 of the optical axis 111a, 113a, ..., 117a are parallel without necessarily, the second imaging optical unit 112, 114 belonging to the second group G 12, ..., 118 of the optical axis 112a, 114a, ..., 118a need not be parallel.

撮像素子部141,142,…,148は、結像光学部111,112,…,118に対応するように基板104上に配置される。撮像素子部141,143,…,147は、第1グループG11に属する第1の結像光学部111,113,…,117に対応するように配置され、撮像素子部142,144,…,148は、第2グループG12に属する第2の結像光学部112,114,…,118に対応するように配置される。各撮像素子部141,142,…,148は、例えば、CCDなどからなる受光素子を主走査方向D及び副走査方向Dに複列配列して構成される。各撮像素子部141,142,…,148には、原稿70から結像光学系101の各結像光学部111,112,…,118を通過した光が入射する。 .., 148 are arranged on the substrate 104 so as to correspond to the imaging optical units 111, 112,. The imaging element unit 141, 143, ..., 147, the first imaging optical section 111 and 113 belonging to the first group G 11, ..., are arranged so as to correspond to the 117, the image pickup device 142, 144, ..., 148, the second imaging optical unit 112, 114 belonging to the second group G 12, ..., are arranged so as to correspond to 118. The imaging elements 141, 142, ..., 148, for example, constituted by double rows arranged light receiving element made of CCD in the main scanning direction D X and the subscanning direction D Y. .., 148 are incident on the image sensor units 141, 142,..., 148 from the original 70 through the imaging optical units 111, 112,.

なお、図1には、結像光学系101が、第1グループG11に属する第1の結像光学部111,113,…,117と第2グループG12に属する第2の結像光学部112,114,…,118からなる場合を説明したが、本発明はこのような態様に限定されず、結像光学系101が、副走査方向Dに3列以上配置されている装置にも適用可能である。 In FIG. 1, the imaging optical system 101, the first imaging optical section 111 and 113 belonging to the first group G 11, ..., 117 and second imaging optical section belonging to the second group G 12 112, ..., a case has been described consisting of 118, the present invention is not limited to such embodiment, the imaging optical system 101, to a device which is arranged three rows above in the sub-scanning direction D Y Applicable.

また、図1には、複数の結像光学部111,112,…,118が、XY面に平行な面上で千鳥状に配置された場合を示したが、本発明はこのような態様に限定されず、複数の結像光学部の配置は、隣接する被撮像領域が重複する領域を有する配置であれば、千鳥状以外の配置であってもよい。   FIG. 1 shows a case where the plurality of imaging optical units 111, 112,..., 118 are arranged in a staggered pattern on a plane parallel to the XY plane. The arrangement of the plurality of imaging optical units is not limited, and may be an arrangement other than a staggered pattern as long as adjacent imaging areas have an overlapping area.

さらに、図1には、結像光学系101が、4個の第1の結像光学部111,113,…,117と4個の第2の結像光学部112,114,…,118とを含む場合を説明したが、本発明はこのような態様に限定されず、結像光学系101が、主走査方向Dの位置及び副走査方向Dの位置が異なり、被撮像領域の一部が重なる少なくとも1個の第1の結像光学部と少なくとも1個の第2の結像光学部とを含む装置に適用可能である。また、撮像素子部の配置及び個数も、結像光学部の配置及び個数に応じて変更することができる。 Furthermore, in FIG. 1, the imaging optical system 101 includes four first imaging optical units 111, 113,..., 117 and four second imaging optical units 112, 114,. a case has been described including, the invention is not limited to such embodiment, the imaging optical system 101, unlike the position and position in the sub-scanning direction D Y in the main scanning direction D X, one of the imaging region The present invention is applicable to an apparatus including at least one first imaging optical unit and at least one second imaging optical unit that overlap each other. Further, the arrangement and the number of the imaging element units can be changed according to the arrangement and the number of the imaging optical units.

第1の結像光学部111,113,…,117は、合焦位置に置かれた被撮像物の合焦画像を、対応する第1の撮像素子部141,143,…,147の撮像面上に結像させるように構成される。第2の結像光学部112,114,…,118は、合焦位置に置かれた被撮像物の合焦画像を、対応する第2の撮像素子部142,144,…,148の撮像面上に結像させるように構成される。   The first imaging optical units 111, 113,..., 117 capture the focused image of the object to be imaged placed at the in-focus position, and the imaging surfaces of the corresponding first imaging element units 141, 143,. It is configured to form an image on top. The second imaging optical units 112, 114,..., 118 display the in-focus image of the object to be imaged placed at the in-focus position and the imaging surfaces of the corresponding second image sensor units 142, 144,. It is configured to form an image on top.

図1において、被撮像領域31,32,…,38は、原稿の天板103側の面であって、撮像素子部141,142,…,148によって読取られる領域(視野範囲)であり、主走査方向Dに並ぶ複数の領域である。画像読取装置100は、主走査方向Dに沿って天板103上の原稿の被撮像領域31,32,…,38の画像を読取り、主走査方向Dの読取りが完了する毎に、副走査方向Dに読取り位置を相対的に移動させる。この副走査方向Dの読取り位置の移動は、原稿の移動又は結像光学系101を含む光学系の移動のいずれかによって行うことができる。なお、図1には、被撮像領域31,32,…,38が、主走査方向Dに1列に並ぶ場合が示されているが、本発明はこのような態様に限定されず、隣接する被撮像領域31,32,…,38同士が主走査方向Dに重複する領域を含む態様であれば、隣接する被撮像領域間の副走査方向Dの位置がずれている態様のような他の態様にも適用可能である。また、被撮像領域31,32,…,38の数は、8個に限定されず、結像光学部111,112,…,118の個数及び撮像素子部141,142,…,148の個数に応じて変更可能である。 In FIG. 1, imaged regions 31, 32,..., 38 are surfaces (view range) read by the image sensor units 141, 142,. a plurality of areas arranged in the scanning direction D X. The image reading apparatus 100 in the main scanning direction D X imaged regions 31 and 32 of the document on the top plate 103 along the, ..., reads the 38 images, each main scanning direction D X of the read is completed, the sub the reading position is relatively moved in the scanning direction D Y. Moving the reading position of the sub-scanning direction D Y can be carried out either by moving the optical system including the mobile or the imaging optical system 101 of the document. In FIG. 1, the imaged regions 31 and 32, ..., 38 have been shown when arranged in a row in the main scanning direction D X, the present invention is not limited to such embodiments, adjacent the imaged regions 31 and 32 to, ..., as long as embodiments comprising a region 38 between overlaps in the main scanning direction D X, as aspects which position in the sub-scanning direction D Y between the imaged area adjacent are shifted It can be applied to other embodiments. In addition, the number of the imaged regions 31, 32,..., 38 is not limited to eight, and the number of the imaging optical units 111, 112, ..., 118 and the number of the imaging element units 141, 142,. It can be changed accordingly.

メモリ105は、第1の撮像素子部141,143,…,147及び第2の撮像素子部142,144,…,148によって取得された画像情報を一時的に記憶する記憶部である。画像処理部106は、例えば、ソフトウエアに従って動作する演算処理回路であり、メモリ105に記憶された画像情報を合成する(すなわち、各撮像素子部で撮像された画像を結合する)ことによって合成画像(「結合画像」とも言う。)を生成する。図1には、メモリ105と画像処理部106とを別個の構成として示しているが、これらは、例えば、同じ回路基板上の一体的な構成であってもよい。   The memory 105 is a storage unit that temporarily stores image information acquired by the first image sensor units 141, 143, ..., 147 and the second image sensor units 142, 144, ..., 148. The image processing unit 106 is, for example, an arithmetic processing circuit that operates in accordance with software. The image processing unit 106 combines image information stored in the memory 105 (that is, combines images captured by the image sensor units). (Also referred to as “combined image”). In FIG. 1, the memory 105 and the image processing unit 106 are shown as separate configurations, but these may be integrated on the same circuit board, for example.

画像処理部106は、各撮像素子部141,142,…,148で撮像された画像の結合位置を検出するための演算処理を行う結合位置検出手段106aと、撮像された画像の結合位置で各撮像素子部141,142,…,148で撮像された画像を結合(合成)するための演算処理を行う画像合成手段106bと、被撮像物側の合焦位置(天板103の上面103a)から原稿までの深度方向Dの距離を算出するための演算処理を行う距離算出手段106cと、算出された距離を用いて合成画像の歪みを補正するための演算処理を行う画像修正手段106dとを有する。なお、画像修正手段106dは、必要に応じてぼやけを低減させるための演算処理を行う。また、本出願において「…手段」とは、ある機能を電気回路によって実行する手段、又は、ある機能をソフトウエアによって実行する手段のいずれであってもよい。 The image processing unit 106 includes a combined position detection unit 106a that performs arithmetic processing for detecting a combined position of images captured by the image sensor units 141, 142,..., 148, and a combined position of the captured images. From the image synthesizing means 106b for performing arithmetic processing for combining (synthesizing) the images picked up by the image pickup device portions 141, 142,... a distance calculation unit 106c for performing arithmetic processing for calculating the distance in the depth direction D Z to a document, and an image correcting unit 106d for performing arithmetic processing for correcting the distortion of the synthesized image using the calculated distance Have. The image correcting unit 106d performs arithmetic processing for reducing blur as necessary. In the present application, “... Means” may be either a means for executing a certain function by an electric circuit or a means for executing a certain function by software.

結合位置検出手段106aは、複数の第1の撮像素子部111,113,…,117及び複数の第2の撮像素子部112,114,…,118のうちの、隣り合う第1の被撮像領域と第2の被撮像領域(例えば、第1の被撮像領域31と第2の被撮像領域32、第2の被撮像領域32と第1の被撮像領域33、及び、第1の被撮像領域33と第2の被撮像領域34など)をそれぞれ撮像する第1の撮像素子部と第2の撮像素子部の組(例えば、第1の撮像素子部141と第2の撮像素子部142の組、第2の撮像素子部142と第1の撮像素子部143の組、及び、第1の撮像素子部143と第2の撮像素子部144の組など)のそれぞれについて、結合位置を決定する。具体的には、結合位置検出手段106aは、第1の撮像素子部が撮像した第1の画像の中の第1の注目領域R(後述する図10に示す)の画像と第2の撮像素子部が撮像した第2の画像の中の第2の注目領域R(後述する図10に示す)の画像とが一致する画像一致領域を検出し、第1の画像における画像一致領域の位置と第2の画像における前記画像一致領域の位置とに基づいて第1の画像と第2の画像とを結合させる結合位置を決定する。 The combined position detection unit 106a includes a plurality of first imaging element units 111, 113,..., 117 and a plurality of second imaging element units 112, 114,. And a second imaged area (for example, the first imaged area 31 and the second imaged area 32, the second imaged area 32 and the first imaged area 33, and the first imaged area) 33 and the second imaged area 34), for example, a set of the first image sensor unit and the second image sensor unit (for example, a set of the first image sensor unit 141 and the second image sensor unit 142) , The coupling position is determined for each of the second imaging element unit 142 and the first imaging element unit 143, and the first imaging element unit 143 and the second imaging element unit 144). Specifically, the coupling position detection unit 106a includes an image of the first region of interest R A (shown in FIG. 10 described later) and the second imaging in the first image captured by the first imaging element unit. An image matching region that matches an image of a second region of interest R B (shown in FIG. 10 described later) in the second image captured by the element unit is detected, and the position of the image matching region in the first image is detected. And a coupling position for coupling the first image and the second image is determined based on the position of the image matching region in the second image.

画像合成手段106bは、第1の画像と第2の画像とを結合位置検出手段106aで決定された結合位置で結合させて、合成画像を生成する。   The image synthesizing unit 106b combines the first image and the second image at the coupling position determined by the coupling position detection unit 106a to generate a synthesized image.

距離算出手段106cは、第1の画像における画像一致領域の副走査方向Dの位置と第2の画像における画像一致領域の副走査方向Dの位置との差である画像ずれ量から、合焦位置(実施の形態1においては、天板103の上面103a)から第1の被撮像領域又は第2の被撮像領域までの深度方向Dの距離を算出する。 Distance calculating unit 106c from the image shift amount is the difference between the position in the sub-scanning direction D Y of the image matching area in the sub-scanning direction D Y position and a second image of the image matching area in the first image, if (in the embodiment 1, the upper surface 103a of the top plate 103) focus position to calculate the distance in the depth direction D Z from to the first of the imaging area or the second of the imaging region.

画像修正手段106dは、距離算出手段106cによって算出された距離を用いて被撮像物の形状を推定し、この形状推定結果に基づいて合成画像の歪みを補正する処理を行なう。すなわち、画像修正手段106dは、被撮像物の被撮像領域の深度方向の位置が一定でない場合に生成された歪みのある合成画像を、被撮像物の被撮像領域の深度方向の位置が一定である場合に生成された歪みのない合成画像に修正することができる。   The image correcting unit 106d estimates the shape of the object to be imaged using the distance calculated by the distance calculating unit 106c, and performs processing for correcting the distortion of the composite image based on the shape estimation result. That is, the image correcting unit 106d uses a distortion-generated composite image generated when the position in the depth direction of the imaged area of the object to be imaged is not constant, and the position in the depth direction of the imaged area of the object to be imaged is constant. It can be corrected to a composite image without distortion generated in some cases.

また、画像修正手段106dは、歪みを補正する処理に加えて、画像合成手段106bによって合成された合成画像のぼやけを低減させる処理を行うこともできる。合成画像のぼやけを低減させる処理は、例えば、合成画像を先鋭化する処理である。   In addition to the process of correcting the distortion, the image correcting unit 106d can also perform a process of reducing the blur of the synthesized image synthesized by the image synthesizing unit 106b. The process for reducing the blur of the composite image is, for example, a process for sharpening the composite image.

合成画像の修正を高精度に行いたい場合には、距離算出手段106cによる距離の算出を多くの点で行うことが望ましい。また、画像処理部106による信号処理の負荷を軽減するために、距離算出手段106cによる距離の算出を少ない点で行ってもよい。また、距離算出手段106cは、隣り合う第1の被撮像領域と第2の被撮像領域の深度方向Dの位置が合焦位置に一致するときにおける画像ずれ量を画像ずれの基準値として保持する手段と、画像ずれ量と保持されている基準値との差に基づいて、距離ΔZを算出する手段とを有するように構成してもよい。さらにまた、距離算出手段106cが、画像ずれ量を一定量変化させたときの距離ΔZの変化量を予め記憶する手段と、画像ずれ量と保持されている基準値との差を、距離ΔZの変化量で除した値である距離換算係数を算出する手段とを有し、画像修正手段106dが、算出された距離換算係数を用いて合成画像の歪みを補正(及び必要に応じて画像のぼやけを低減)する画像処理を行うように構成することも可能である。 When it is desired to correct the composite image with high accuracy, it is desirable to calculate the distance by the distance calculation means 106c at many points. Further, in order to reduce the load of signal processing by the image processing unit 106, the distance calculation by the distance calculation unit 106c may be performed at a small point. The distance calculating unit 106c is holding an image shift amount at the time when the position of the first of the imaging region adjacent and depth direction D Z of the second imaged region coincides with the focus position as a reference value for image deviation And a means for calculating the distance ΔZ based on the difference between the image shift amount and the held reference value. Furthermore, the distance calculation means 106c stores the difference between the image deviation amount and the stored reference value in advance by the means for storing the change amount of the distance ΔZ when the image deviation amount is changed by a certain amount. Means for calculating a distance conversion coefficient which is a value divided by the amount of change, and the image correction means 106d corrects the distortion of the composite image using the calculated distance conversion coefficient (and blurs the image as necessary). It is also possible to configure to perform image processing that reduces the image quality.

図2(a)及び(b)は、実施の形態1に係る画像読取装置100の光学系を図1のS2a−S2a線方向に見る概略的な断面図及び図1のS2b−S2b線方向に見る概略的な断面図である。図2(a)及び(b)においては、主走査方向D(X軸)を水平方向とし、深度方向D(Z軸)を垂直方向とし、副走査方向(Y軸)を紙面手前から紙面に垂直に向かう方向としている。図2(a)には、第1グループG11に属する第1の結像光学部111,113,…,117を通過する第1の光の主要な光路が示されている。また、図2(b)には、第2グループG12に属する第2の結像光学部112,114,116を通過する第2の光の主要な光路が示されている。 2A and 2B are a schematic cross-sectional view of the optical system of the image reading apparatus 100 according to Embodiment 1 as viewed in the direction of line S 2a -S 2a in FIG. 1, and S 2b -S in FIG. It is a schematic sectional view seen in the 2b line direction. 2A and 2B, the main scanning direction D X (X axis) is the horizontal direction, the depth direction D Z (Z axis) is the vertical direction, and the sub scanning direction (Y axis) is from the front of the page. The direction is perpendicular to the page. In FIG. 2 (a), the first imaging optical section 111 and 113 belonging to the first group G 11, ..., the main optical path of the first light passing through the 117 is shown. Further, in FIG. 2 (b), the main optical path of the second light passing through the second imaging optical unit 112, 114, 116 belonging to the second group G 12 is shown.

図3及び図4は、実施の形態1に係る画像読取装置100の光学系を図1のS−S線方向に見る概略的な断面図である。図3及び図4においては、副走査方向D(Y軸)を水平方向とし、深度方向D(Z軸)を垂直方向とし、主走査方向(X軸)を紙面から手前に垂直に向かう方向としている。図3には、原稿70が天板103の上面103a(実施の形態1における合焦位置)に密着しており、第1グループG11に属する撮像素子部143の撮像面上の点に合焦画像が結像する場合の主要な光路が示されている。また、図4には、原稿70が天板103の上面103aから距離ΔZだけ離れた第1の原稿位置71にあり、第2グループG12に属する撮像素子部144の撮像面上の点に合焦画像が結像しない場合の主要な光路が示されている。 3 and 4 are schematic cross-sectional views of the optical system of the image reading apparatus 100 according to Embodiment 1 as viewed in the direction of the line S 3 -S 3 in FIG. 3 and 4, the sub-scanning direction D Y (Y-axis) is the horizontal direction, the depth direction D Z (Z-axis) is the vertical direction, and the main scanning direction (X-axis) is perpendicular to the front from the page. The direction. In FIG. 3, the document 70 is in close contact with the upper surface 103 a (the in-focus position in the first embodiment) of the top plate 103, and is focused on a point on the imaging surface of the imaging element unit 143 belonging to the first group G 11. The main optical path when the image is formed is shown. Further, in FIG. 4, in a first document position 71 where the document 70 is separated by a distance ΔZ from the upper surface 103a of the top plate 103, if a point on the imaging surface of the imaging element 144 belonging to the second group G 12 The main optical path when no focal image is formed is shown.

図3に示されるように、実施の形態1においては、第1の結像光学部113の光軸AXは、天板103の上面103aの垂線103bに対して傾斜しており、天板103の上面103a上の位置Fa1を通っている。他の第1の結像光学部111,115,117は、第1の結像光学部113と同様に配置されている。また、図3に示されるように、第2の結像光学部114の光軸AXは、垂線103bに対して、光軸AXと反対側に傾斜しており、天板103の上面103a上の位置Fa2を通っている。他の第2の結像光学部112,116,118は、第2の結像光学部114と同様に配置されている。 As shown in FIG. 3, in the first embodiment, the optical axis AX 1 of the first imaging optical unit 113 is inclined with respect to the normal 103 b of the upper surface 103 a of the top plate 103, and the top plate 103 Passes through the position F a1 on the upper surface 103a. The other first imaging optical units 111, 115, and 117 are arranged in the same manner as the first imaging optical unit 113. Further, as shown in FIG. 3, the optical axis AX 2 of the second imaging optical unit 114 with respect to the perpendicular 103b, are inclined to the side opposite to the optical axis AX 1, the upper surface 103a of the top plate 103 It passes through the upper position F a2 . The other second imaging optical units 112, 116, and 118 are arranged in the same manner as the second imaging optical unit 114.

図2(a)及び(b)から理解できるように、各結像光学部111,112,…,118(結像光学部118は図2(b)に示さず)は、同一の構成を有している。結像光学部111,112,…,118のそれぞれは、第1光学素子としての第1集光レンズ152と、絞りとしてのアパーチャ153と、これらを保持する保持部材155とを有する。   As can be understood from FIGS. 2A and 2B, each of the imaging optical units 111, 112,..., 118 (imaging optical unit 118 is not shown in FIG. 2B) has the same configuration. doing. Each of the imaging optical units 111, 112,..., 118 includes a first condenser lens 152 as a first optical element, an aperture 153 as a stop, and a holding member 155 that holds them.

第1集光レンズ152は、結像光学部111,112,…,118の光軸AX又はAX(図3及び図4に示す)の方向において結像光学部111,112,…,118のほぼ中央部に配置される。第1集光レンズ152は、例えば、凸レンズによって構成される。アパーチャ153は、結像光学部111,112,…,118における光軸AX又はAXに直交する方向において第1集光レンズ152の両側で第1集光レンズ152を支持し、第1集光レンズ152の中央部分に対応する領域に開口部を有する。したがって、被撮像領域31,32,…,38からの光は、アパーチャ153の開口部を通して第1集光レンズ152に入射し、第1集光レンズ152から出射されて、撮像素子部141,142,…,148の撮像面上又はその近傍位置に収束する。 First condenser lens 152, an imaging optical unit 111, ..., 118 of the optical axis AX 1 or AX 2 imaging optical portions 111 and 112 in the direction (shown in FIGS. 3 and 4), ..., 118 It is arrange | positioned in the approximate center part. The 1st condensing lens 152 is comprised by the convex lens, for example. Aperture 153, an imaging optical unit 111, ..., a first condensing lens 152 on either side of the first condenser lens 152 is supported in a direction perpendicular to the optical axis AX 1 or AX 2 in 118, the first current An opening is provided in a region corresponding to the central portion of the optical lens 152. Therefore, the light from the imaging regions 31, 32,..., 38 enters the first condenser lens 152 through the opening of the aperture 153, is emitted from the first condenser lens 152, and is image sensor elements 141, 142. ,..., 148 converge on the imaging surface or in the vicinity thereof.

図2(a)及び(b)に示されるように、実施の形態1において、各結像光学部111,112,…,118を通過する原稿画像は、それぞれに対応する撮像素子部141,142,…,148上に反転像として結像する。このときの結像倍率は、1より大きくてもよく(すなわち、拡大)、1より小さくてもよく(すなわち、縮小)、1でもよい(すなわち、等倍)。倍率を等倍又はその近傍とすることにより、撮像素子部141,142,…,148として一般に流通している解像度の画像センサを用いることができる。   As shown in FIGS. 2A and 2B, in the first embodiment, document images passing through the imaging optical units 111, 112,. ,..., 148 is formed as a reverse image. The imaging magnification at this time may be larger than 1 (that is, enlarged), smaller than 1 (that is, reduced), or 1 (that is, equal magnification). By setting the magnification to the same magnification or in the vicinity thereof, an image sensor having a resolution that is generally distributed as the imaging element units 141, 142,.

以下に、図2(a)及び(b)、図3、及び図4を用いて、原稿70が本である場合の画像読取装置100の動作を説明する。図2(a)及び(b)には、天板103の上面103aから原稿70の被撮像領域までの距離が、主走査方向Dの位置に応じて変化している場合が示されている。例えば、図3及び図4に示されるように、第1の結像光学部113と第2の結像光学部114との読取り範囲(被撮像領域)が重複する領域における天板103の上面103aから原稿70までの距離がΔZであり、原稿70の位置を第1の原稿位置71とする。実施の形態1においては、天板103の上面103aが合焦位置となるように各結像光学部111,112,…,118を設計した場合について説明する。 Hereinafter, the operation of the image reading apparatus 100 when the document 70 is a book will be described with reference to FIGS. 2A and 2B, FIG. 3, and FIG. 4. 2 (a) and (b) the distance from the upper surface 103a of the top plate 103 to the imaged area of the document 70 is when the shown to vary depending on the position in the main scanning direction D X . For example, as shown in FIGS. 3 and 4, the upper surface 103 a of the top plate 103 in a region where the reading ranges (imaged regions) of the first imaging optical unit 113 and the second imaging optical unit 114 overlap. The distance from the document 70 to the document 70 is ΔZ, and the position of the document 70 is a first document position 71. In the first embodiment, a case will be described in which each of the imaging optical units 111, 112,.

画像処理部106による画像のぼやけの補正処理を行なわない場合には、画像読取装置100の被写界深度は、結像光学部111,112,…,118の被写界深度でほぼ決定される。結像光学部111,112,…,118の被写界深度は、それらの内部の光学系の設計によって決定される。また、被写界深度は、光学系のF値でほぼ決定される。1つの結像光学部の視野を大きくする場合には、その結像光学部に含まれるレンズを非球面形状にしたり、複数のレンズを用いたりするなどして収差を十分に低減する必要がある。通常、600dpiの分解能が必要な場合に、F値が10のときに約±1mmの被写界深度が得られ、F値が20のときに約±2mmの被写界深度が得られる。なお、被写界深度とは、結像光学系によって結像された被撮像物の画像のピントが合っているように(すなわち、ぼやけが無いように)見える領域の広さ(深さ)のことである。また、厳密な意味で結像光学系によって結像された被撮像物の画像のピントが合う(すなわち、ぼやけが無い)位置は、合焦位置であるが、被写界深度の範囲内に被撮像物があるときには、結像画像のぼやけは許容範囲内になる。   When the image blur correction process by the image processing unit 106 is not performed, the depth of field of the image reading apparatus 100 is almost determined by the depth of field of the imaging optical units 111, 112,. . The depth of field of the imaging optical units 111, 112,..., 118 is determined by the design of the internal optical system. The depth of field is substantially determined by the F value of the optical system. In order to increase the field of view of one imaging optical unit, it is necessary to sufficiently reduce the aberration by making the lens included in the imaging optical unit an aspherical shape or using a plurality of lenses. . Usually, when a resolution of 600 dpi is required, a depth of field of about ± 1 mm is obtained when the F value is 10, and a depth of field of about ± 2 mm is obtained when the F value is 20. Note that the depth of field refers to the width (depth) of an area that can be seen as if the image of the object imaged by the imaging optical system is in focus (that is, there is no blur). That is. In a strict sense, the position of the image of the object imaged by the imaging optical system is in focus (that is, there is no blur), but is the in-focus position, but within the range of the depth of field. When there is an imaged object, the blurred image is within the allowable range.

なお、図2(a)及び(b)、並びに、図3では、原稿70が天板103の上面103aに位置するときに結像素子部に合焦画像が結像する場合を図示しているが、本発明は、このような態様に限定されない。例えば、F値が10の光学系では、天板103の上面103aからずれた所定位置、例えば、上面103aから1mmの上方位置、が合焦位置となるように天板103を配置することもできる。このように構成すれば、合焦位置を中心として深度方向Dに±1mmの被写界深度を有効に活用することができる。 2A and 2B and FIG. 3 illustrate a case where a focused image is formed on the imaging element portion when the document 70 is positioned on the upper surface 103a of the top plate 103. FIG. However, the present invention is not limited to such an embodiment. For example, in an optical system having an F value of 10, the top plate 103 can be arranged so that a predetermined position shifted from the top surface 103a of the top plate 103, for example, a position 1 mm above the top surface 103a, is an in-focus position. . According to this structure, it is possible to effectively utilize the depth of field of ± 1mm around the focus position in the depth direction D Z.

以下に、結像光学部111,112,…,118のF値が10であり、結像光学部111,112,…,118が約±1mmの被写界深度を持ち、天板103の上面103a上に合焦位置がある場合について説明する。この場合、光学系のみによる被写界深度は、天板103の上面103a位置から深度方向Dに結像光学部111,112,…,118から遠い方向に1mmの位置までの範囲である。 In the following, the imaging optical units 111, 112,..., 118 have an F value of 10, the imaging optical units 111, 112,. A case where the in-focus position is on 103a will be described. In this case, the depth of field by only the optical system is a top 103a position from the depth direction D imaged Z optical portions 111 and 112 of the top plate 103, ..., range up to the position of 1mm distant direction from 118.

図3に示されるように、天板103の上面103aが合焦位置である場合には、天板103の上面103aに密着している原稿70の被撮像領域(「原稿面」とも言う。)からの光は、撮像素子部143の撮像面上に集光され、画像のぼやけは生じない(すなわち、合焦画像が結像される)。図4に示されるように、天板103の上面103aが合焦位置である場合に、原稿70の被撮像領域が天板103の上面103aから距離ΔZずれた第1の原稿位置71にあるときには、原稿70の被撮像領域から結像光学部113に入射した光は、撮像素子部143の光入射面に集光されず、画像のぼやけが生じる(すなわち、合焦画像が結像されない)。天板103の上面103aと第1の原稿位置71との深度方向Dにおける距離ΔZが1mm以内であれば、画像のぼやけは許容範囲内に収まる。ここで、許容範囲内に収まるとは、第1の原稿位置71からの点像の半径が許容錯乱円の半径以内になるという意味である。 As shown in FIG. 3, when the top surface 103 a of the top plate 103 is in the in-focus position, the imaged area of the document 70 that is in close contact with the top surface 103 a of the top plate 103 (also referred to as “document surface”). Is condensed on the imaging surface of the imaging element unit 143, and the image is not blurred (that is, a focused image is formed). As shown in FIG. 4, when the upper surface 103 a of the top plate 103 is the in-focus position, the imaged region of the original 70 is at the first original position 71 that is shifted from the upper surface 103 a of the top plate 103 by a distance ΔZ. The light incident on the imaging optical unit 113 from the imaging region of the original 70 is not condensed on the light incident surface of the imaging element unit 143, and the image is blurred (that is, the focused image is not imaged). If the distance ΔZ is within 1mm in depth direction D Z between the upper surface 103a and the first original position 71 of the top plate 103, the blur of the image is within the allowable range. Here, being within the permissible range means that the radius of the point image from the first document position 71 is within the radius of the permissible circle of confusion.

一方、距離ΔZが1mmを超えると、点像の広がり(点像分布関数)が許容錯乱円の半径を超えてしまい、目標の解像度を達成できない。距離ΔZが1mmを超えた位置に置かれた原稿70の結像画像は、ぼやけた画像になるが、ぼやけた画像から画像処理によってぼやけのない画像(元の画像)を生成(復元)する、画像ぼやけ補正のための画像処理技術は、既知の技術である。画像ぼやけ補正の画像処理を実行するに際して、ぼやけの点像分布関数が予め分かっていれば、分からない場合よりも適切に画像ぼやけを低減することができる。   On the other hand, if the distance ΔZ exceeds 1 mm, the spread of the point image (point image distribution function) exceeds the radius of the allowable circle of confusion, and the target resolution cannot be achieved. An image formed on the original 70 placed at a position where the distance ΔZ exceeds 1 mm is a blurred image, but an image (original image) without blur is generated (restored) from the blurred image by image processing. An image processing technique for correcting image blur is a known technique. When performing image processing for image blur correction, if the point spread function of blur is known in advance, image blur can be reduced more appropriately than when it is unknown.

点像分布関数は、原稿70の深度方向Dの位置によって一意的に決まる。点像分布関数は、実測することができ、又は、光線追跡シミュレーションを用いて計算によって求めることができる。天板103の上面103aから原稿70までの距離ΔZ(すなわち、合焦位置から原稿までの距離)が分かれば、点像分布関数が分かり、画像ぼやけ補正処理が容易になる。画像ぼやけ補正処理によって画像処理後の画像の解像度が向上すれば、被撮像物が、光学系によって定まる1mmの被写界深度を超えた位置に配置された場合であっても、画像のぼやけが無い(正確に言えば、画像のぼやけが無いように感じられる)画像を得ることができる。換言すると、画像ぼやけ補正処理によって画像処理後の画像の解像度が向上すれば、画像読取装置100の実質的な被写界深度を大きくすることができる。 Point spread function is determined uniquely by the position in the depth direction D Z of the document 70. The point spread function can be actually measured or can be obtained by calculation using a ray tracing simulation. If the distance ΔZ from the upper surface 103a of the top plate 103 to the document 70 (that is, the distance from the in-focus position to the document) is known, the point spread function is known, and the image blur correction process is facilitated. If the resolution of the image after image processing is improved by the image blur correction process, the image blur may occur even when the object to be imaged is arranged at a position exceeding the depth of field of 1 mm determined by the optical system. It is possible to obtain an image that does not exist (to be precise, it feels like there is no blurring of the image). In other words, if the resolution of the image after image processing is improved by the image blur correction process, the substantial depth of field of the image reading apparatus 100 can be increased.

実施の形態1に係る画像読取装置100においては、第1グループG11に属する結像光学部と第2グループG12に属する結像光学部であって、互いに隣接する結像光学部、例えば、結像光学部111と結像光学部112とで得られた画像を復元する際、副走査方向Dにおける2枚の画像を合わせるときのシフト量から、天板103の上面103aから第1の原稿位置71までの深度方向Dの距離を算出することができる。 In the image reading apparatus 100 according to the first embodiment, the imaging optical section belonging to the first group G 11 and an image-forming optical unit belonging to the second group G 12, an imaging optical unit adjacent to each other, for example, when restoring the image obtained by the imaging optical unit 111 and the imaging optical section 112, the shift amount when combining the two images in the sub-scanning direction D Y, from the upper surface 103a of the top plate 103 first it is possible to calculate the distance in the depth direction D Z to the original position 71.

図5は、実施の形態1に係る画像読取装置100の天板103の近傍を拡大して示す図である。図5においては、副走査方向D(Y軸)を水平方向とし、深度方向D(Z軸)を垂直方向とし、主走査方向(X軸)を紙面から手前に垂直に向かう方向としている。光軸AXは、第1グループG11に属する第1の結像光学部113の光軸であり、光軸AXは、第2グループG12に属する第2の結像光学部114の光軸である。図5に示されるように、2つの光軸AX,AXは、天板103の上面103aで交差している。ただし、2つの光軸AX,AXは、必ずしも天板103の上面103aで交差する必要はない。2つの光軸AX,AXが、天板103の上面103aから上方に予め決められた距離だけ離れた位置で交差するように、結像光学系101を構成してもよい。また、2つの光軸AX,AXが、天板103の上面103aよりも下方で交差するように、結像光学系101を構成してもよい。光軸AX,AXは、天板103の上面103aの垂線103bに対して、垂線103bを挟んで反対方向に傾斜しており、天板103の上面103aの垂線103bに対して所定の角度±θ傾斜している。ただし、光軸AX,AXの傾斜角度が既知であれば、光軸AXの傾斜角度と光軸AXの傾斜角度とを異なる角度にすることも可能である。 FIG. 5 is an enlarged view showing the vicinity of the top plate 103 of the image reading apparatus 100 according to the first embodiment. In FIG. 5, the sub-scanning direction D Y (Y-axis) is the horizontal direction, the depth direction D Z (Z-axis) is the vertical direction, and the main scanning direction (X-axis) is the direction heading vertically from the page to the front. . The optical axis AX 1 is an optical axis of the first imaging optical unit 113 belonging to the first group G 11, the optical axis AX 2, the light of the second imaging optical unit 114 belonging to the second group G 12 Is the axis. As shown in FIG. 5, the two optical axes AX 1 and AX 2 intersect at the upper surface 103 a of the top plate 103. However, the two optical axes AX 1 and AX 2 do not necessarily need to intersect at the upper surface 103 a of the top plate 103. The imaging optical system 101 may be configured such that the two optical axes AX 1 and AX 2 intersect at a position that is a predetermined distance upward from the upper surface 103 a of the top plate 103. Further, the imaging optical system 101 may be configured such that the two optical axes AX 1 and AX 2 intersect below the upper surface 103a of the top plate 103. The optical axes AX 1 and AX 2 are inclined in the opposite direction with respect to the vertical line 103b of the upper surface 103a of the top plate 103 with the vertical line 103b interposed therebetween, and have a predetermined angle with respect to the vertical line 103b of the upper surface 103a of the top plate 103. ± θ tilted. However, if the tilt angles of the optical axes AX 1 and AX 2 are known, the tilt angle of the optical axis AX 1 and the tilt angle of the optical axis AX 2 can be different.

図5の場合には、天板103の上面103aでは、2つの光軸AX,AXの副走査方向Dにおける間隔はゼロであるが、深度方向Dに上面103aより距離ΔZだけ離れた第1の原稿位置71における2つの光軸AX,AXの副走査方向Dの間隔ΔYは、次式によって算出できる。
ΔY=2×ΔZ×tanθ
天板103の上面103aに原稿70の被撮像領域が位置する場合には、撮像素子部143と撮像素子部144とで撮像される各画像の副走査方向Dの位置ずれはゼロであるが、原稿70の被撮像領域が第1の原稿位置71に存在する場合には、撮像素子部143と撮像素子部144とで撮像される各画像の副走査方向Dの位置ずれはΔYは、ゼロより大きい値になる。また、原稿70が天板103の上面103aより深度方向Dに距離ΔZだけ離れた第2の原稿位置72における2つの光軸AX,AXの副走査方向Dの間隔ΔYは、次式によって算出できる。
ΔY=2×ΔZ×tanθ
In the case of Figure 5, the upper surface 103a of the top plate 103, but the two intervals in the sub-scanning direction D Y of the optical axis AX 1, AX 2 is zero, in the depth direction D Z from the upper surface 103a by a distance [Delta] Z 1 distance [Delta] Y 1 in the sub-scanning direction D Y of the two light at the first document position 71 spaced axes AX 1, AX 2 can be calculated by the following equation.
ΔY 1 = 2 × ΔZ 1 × tan θ
When the imaged area of the original 70 on the upper surface 103a of the top plate 103 is located, the position deviation in the sub-scanning direction D Y of each image captured by the image sensor unit 143 and the image sensor unit 144 is zero , when the imaged region of the document 70 is present in the first document position 71, position deviation [Delta] Y 1 in the sub-scanning direction D Y of each image captured by the image sensor unit 143 and the image pickup device 144 , Value greater than zero. The interval [Delta] Y 2 in the sub-scanning direction D Y depth document 70 from the upper surface 103a of the top plate 103 the direction D Z to a distance [Delta] Z 2 of the two in the second original position 72 at a distance of the optical axis AX 1, AX 2 is Can be calculated by the following equation.
ΔY 2 = 2 × ΔZ 2 × tan θ

実施の形態1においては、画像処理部106は、画像復元の際に、主走査方向にはセルの境界毎、副走査方向には任意のライン毎に上記間隔であるずれ量ΔY(又は、ΔYなど)を算出し、さらに天板103の上面103aから第1の原稿位置71までの距離ΔZ(又は、第2の原稿位置72までの距離ΔZなど)を算出する。さらに、画像処理部106は、算出された距離ΔZ(又は、ΔZなど)から推定した原稿形状を元に、ずれ量に応じてシフトして繋ぎ合わせた合成画像に対し、補正処理を行う。これにより、実施の形態1に係るの画像読取装置100は、特別な機構を追加することなく、画像の歪みを補正することができるという効果を有する。また、実施の形態1においては、画像処理部106は、算出された距離ΔZ(又は、ΔZなど)を元に、画像のぼやけ補正処理を行なうこともでき、ぼやけ補正処理によって、光学系が有する被写界深度(例えば、1mm)を超えて、実質的に大きな被写界深度を実現することができるという効果を有する。 In the first embodiment, the image processing unit 106, when restoring an image, includes the shift amount ΔY 1 (or the above-described interval) for each cell boundary in the main scanning direction and for each arbitrary line in the sub-scanning direction. ΔY 2 ) is calculated, and a distance ΔZ 1 from the top surface 103 a of the top plate 103 to the first document position 71 (or a distance ΔZ 2 to the second document position 72) is calculated. Further, the image processing unit 106 performs correction processing on the combined image that is shifted and connected according to the deviation amount based on the document shape estimated from the calculated distance ΔZ 1 (or ΔZ 2 or the like). . Thereby, the image reading apparatus 100 according to the first embodiment has an effect that image distortion can be corrected without adding a special mechanism. In the first embodiment, the image processing unit 106 can also perform image blur correction processing based on the calculated distance ΔZ 1 (or ΔZ 2 or the like). It has an effect that a substantially large depth of field can be realized exceeding the depth of field (for example, 1 mm) of the.

図6は、実施の形態1に係る画像処理装置100の構成を簡素化して示す図である。図6には、第1グループG11に属する2個の第1の結像光学部C0,C2と、第2グループG12に属する2個の第2の結像光学部C1,C3を有する装置が示されている。なお、図6に示していないが、基板104上には、第1の結像光学部C0,C2に対応する位置に撮像素子部が備えられており、第2の結像光学部C1,C3に対応する位置に撮像素子部が備えられている。 FIG. 6 is a diagram illustrating a simplified configuration of the image processing apparatus 100 according to the first embodiment. 6, the device having two first imaging optical section C0, C2 belonging to the first group G 11, two second imaging optical unit C1, C3 belonging to the second group G 12 It is shown. Although not shown in FIG. 6, an imaging element unit is provided on the substrate 104 at a position corresponding to the first imaging optical units C0 and C2, and the second imaging optical units C1 and C3. Is provided at a position corresponding to.

また、図7は、実施の形態1に係る画像処理装置100による処理を示すフローチャートである。図7に示されるように、実施の形態1に係る画像処理装置100においては、結像光学部C0,…,C3を通して撮像素子部により主走査方向Dの画像の読取りと、結像光学部C0,…,C3及び撮像素子部の副走査方向Dの移動(スキャン)とが行われ、原稿70の画像が読取られる(ステップST1)。読取られた原稿画像は、図示しない処理回路によって黒補正、白補正などの処理を終えた後にメモリ(例えば、フレームメモリ)105に格納される(ステップST2)。画像処理部106は、結像光学部C0,…,C3を通して撮像素子部によって読み取られた各画像は反転像となっているので、画像処理部106は、読み取られた画像を、原稿70と同じ向きになるよう並べ替える処理を行う(ステップST3)。 FIG. 7 is a flowchart showing processing by the image processing apparatus 100 according to the first embodiment. As shown in FIG. 7, in the image processing apparatus 100 according to the first embodiment, the imaging optical unit C0, ..., and reading in the main scanning direction D X of the image by the imaging device unit through C3, an imaging optical unit C0, ..., C3 and movement in the sub-scanning direction D Y of the image pickup device unit and the (scan) is performed, the image of the document 70 is read (step ST1). The read original image is stored in a memory (for example, a frame memory) 105 after finishing black correction and white correction by a processing circuit (not shown) (step ST2). In the image processing unit 106, each image read by the imaging element unit through the imaging optical units C0,..., C3 is a reverse image, so the image processing unit 106 uses the read image as the original 70. The rearrangement process is performed so as to be oriented (step ST3).

次に、画像処理部106の結合位置検出手段106aは、隣接する結像光学部によって結像され、隣接する結像光学部に対応する撮像素子部によって読取られる各画像から、2つの画像が結像される位置である結合位置を検出するための処理を、一定ライン間隔毎又は毎ラインについて行い、結合位置を検出する(ステップST4)。次に、画像処理部106の画像合成手段106bは、検出された結合位置で画像を結合する(ステップST5)。その際、画像の結合位置(繋ぎ目)部分については、繋ぎ目が目立たないよう平滑化処理を行うことが望ましい。   Next, the coupling position detection unit 106a of the image processing unit 106 forms an image by the adjacent imaging optical unit and combines two images from each image read by the imaging element unit corresponding to the adjacent imaging optical unit. A process for detecting a coupling position, which is an imaged position, is performed for each fixed line interval or every line, and the coupling position is detected (step ST4). Next, the image composition unit 106b of the image processing unit 106 combines the images at the detected combining position (step ST5). At that time, it is desirable to perform a smoothing process so that the joints are not conspicuous in the joint positions (joints) of the images.

次に、画像処理部106の距離算出手段106cは、検出された隣接する結像光学部によって結像され撮像素子部によって読取られる画像間の結合位置に関する情報から、合焦位置から原稿70の被撮像領域までの距離ΔZを算出する(ステップST6)。次に、距離算出手段106cで算出された距離から被撮像物の被撮像領域の形状を推定し、この形状推定結果に基づいて合成画像の歪みを補正する処理を行う(ステップST7)。このように処理した原稿画像が読取り結果として出力される。   Next, the distance calculation unit 106c of the image processing unit 106 detects the object 70 of the document 70 from the in-focus position based on the information regarding the coupling position between the images imaged by the detected adjacent imaging optical unit and read by the imaging element unit. A distance ΔZ to the imaging region is calculated (step ST6). Next, the shape of the imaged region of the object to be imaged is estimated from the distance calculated by the distance calculating unit 106c, and a process of correcting the distortion of the composite image based on the shape estimation result is performed (step ST7). The document image processed in this way is output as a reading result.

なお、上記説明では、画像処理部106が、メモリ105内に格納したデータに対して並べ替え処理(ステップST3)を行う場合を説明したが、メモリ105からデータを読み出す際のアドレスを変更することでデータの順序を変更することによって、並べ替え処理を行ってもよい。また、並べ替え処理(ステップST3)は、撮像素子部からのデータの読み出し時に1ライン分のデータをラインメモリに格納し、最後に格納したデータから順に1ライン遅延でデータを出力することにより、データの順序を入れ替える処理とすることもできる。このように、メモリ105内でデータの並べ替え処理を行わないことも可能である。さらに、並べ替え処理(ステップST3)は、並べ替え処理に最低限必要なライン数のメモリを用いて逐次復元画像を出力するようにしてもよい。したがって、メモリ105は、フレームメモリに限定されない。   In the above description, the case where the image processing unit 106 performs the rearrangement process (step ST3) on the data stored in the memory 105 has been described. However, the address for reading data from the memory 105 is changed. The rearrangement process may be performed by changing the data order. The rearrangement process (step ST3) stores data for one line in the line memory when reading data from the image sensor unit, and outputs the data with a one-line delay in order from the last stored data. It is also possible to change the data order. Thus, it is possible not to perform data rearrangement processing in the memory 105. Further, the rearrangement process (step ST3) may output the restored image sequentially using a memory having the minimum number of lines necessary for the rearrangement process. Therefore, the memory 105 is not limited to a frame memory.

図8は、実施の形態1に係る画像読取装置100において、合焦位置に原稿70の被撮像領域が存在する場合を示す図である。また、図9は、各結像光学部C0,…,C3を通し、対応する撮像素子部から得られる画像80,…,83及び合成画像84を示す図である。図8及び図9を用いて、画像の結合処理(図7のステップST4,ST5の処理)を説明する。結像光学部C0,…,C3及びこれらに対応する撮像素子部は、それぞれの視野範囲(撮像素子部によって読取られる被撮像領域)が主走査方向Dに互いに一部重複するように配置されている。このため、各撮像素子部によって撮像された画像80,81,82,83のうちの隣接する撮像素子部によって取得した画像の端部には、同じ画像が重複して含まれる。画像処理部106は、この重複して読み取られた領域、例えば、領域80bと領域81a、領域81bと領域82a、領域82bと領域83a、領域83bと領域84a、の中から画像が一致する位置を検出する。そして、画像処理部106は、この検出結果を元に、隣接する結像光学部によって結像される画像により取得した各画像を繋ぎ合せる結合位置を決定し、結合位置で画像80,81,82,83を結合して、合成画像84を生成(復元)する。画像が一致する位置の検出は、例えば、副走査方向Dに一定ライン間隔毎に画像の一致の程度(例えば、不一致度d、すなわち、差分)を検出することによって行われる。以下の説明においては、画像が一致する位置の検出のための不一致度dの検出を毎ライン行う場合について説明する。 FIG. 8 is a diagram illustrating a case where the imaged region of the document 70 exists at the in-focus position in the image reading apparatus 100 according to the first embodiment. FIG. 9 is a diagram showing images 80,..., 83 and a composite image 84 obtained from the corresponding imaging element units through the imaging optical units C0,. The image combining process (the processes of steps ST4 and ST5 in FIG. 7) will be described with reference to FIGS. An imaging optical unit C0, ..., the image pickup device section corresponding to C3 and it is arranged such that their field of view (the imaged region to be read by the image pickup device unit) partially overlap each other in the main scanning direction D X ing. For this reason, the same image is duplicated and included in the edge part of the image acquired by the adjacent image sensor part among the images 80, 81, 82, 83 imaged by the respective image sensor parts. The image processing unit 106 determines a position where the images match from the overlappingly read regions, for example, the region 80b and the region 81a, the region 81b and the region 82a, the region 82b and the region 83a, and the region 83b and the region 84a. To detect. Then, based on the detection result, the image processing unit 106 determines a coupling position for joining the images acquired by the images formed by the adjacent imaging optical units, and the images 80, 81, 82 at the coupling position. , 83 are combined to generate (restore) a composite image 84. Detection of the position of the image are matched, for example, the degree of coincidence of the image in the sub-scanning direction D Y every predetermined line intervals (e.g., inconsistency d, i.e., the difference) is performed by detecting the. In the following description, a case will be described in which the mismatch degree d for detecting the position where the images match is detected for each line.

図10は、実施の形態1に係る画像読取装置100において画像一致領域の求め方を説明するための図である。まず、図10に示されるように、画像処理部106は、結像光学部C0を通して撮像素子部によって得られた画像の中からラインLの画素データを選択する。選択したラインL上の画素(x,y)を中心とするN行×M列の画素の領域を注目領域Rとする。画像処理部106は、この注目領域Rに含まれる画像の輝度値からベクトルデータA={a,a,…,a}を作成する。同様に、画像処理部106は、結像光学部C0に隣接する結像光学部C1を通して撮像素子部によって得られた画像の中から任意の画素(x,y)を選択する。画素(x,y)を中心とするN行×M列の画素の領域を注目領域Rとする。画像処理部106は、この注目領域Rに含まれる画像の輝度値からベクトルデータB={b,b,…,b}を作成する。 FIG. 10 is a diagram for explaining how to obtain the image matching area in the image reading apparatus 100 according to the first embodiment. First, as shown in FIG. 10, the image processing unit 106 selects the pixel data of the line L 0 from the image obtained by the imaging device section through an imaging optical section C0. The region of pixels N A row × M A sequence around the selected line L 0 on the pixel (x 0, y 0) and the region of interest R A. The image processing unit 106 creates vector data A = {a 0 , a 1 ,..., A n } from the luminance values of the images included in the region of interest RA . Similarly, the image processing unit 106 selects an arbitrary pixel (x 1 , y 1 ) from the image obtained by the imaging element unit through the imaging optical unit C1 adjacent to the imaging optical unit C0. The region of the pixel of the N B rows × M B columns to a central pixel (x 1, y 1) and region of interest R B. The image processing unit 106, vector data B from the luminance value of the image contained in the region of interest R B = {b 0, b 1, ..., b n} to create.

次に、画像処理部106は、作成された2つベクトルデータA,Bを用いて、注目領域Rと注目領域Rとがどの程度似ているか(又は、どの程度異なるか)を示す指標、例えば、不一致度d(x,y)、を算出する。不一致度d(x,y)は、例えば、2つのベクトルデータの各成分の値が近い(2つのベクトルデータが似ている)ほど小さくなり、2つのベクトルデータの各成分の値が遠い(2つのベクトルデータが似ていない)ほど大きくなる。すなわち、不一致度d(x,y)が小さいほど、注目領域Rと注目領域Rの画像の一致度は高い。不一致度d(x,y)は、例えば、次式1により求めることができる。

Figure 0005202267
Next, the image processing unit 106, an indicator with two vector data A, B created, whether the region of interest R A and region of interest R B are similar degree (or extent or different) For example, the mismatch degree d (x 1 , y 1 ) is calculated. The mismatch degree d (x 1 , y 1 ) becomes smaller, for example, as the values of the components of the two vector data are closer (the two vector data are similar), and the values of the components of the two vector data are farther away. (The two vector data are not similar). That is, the smaller the mismatch degree d (x 1 , y 1 ), the higher the degree of matching between the images of the attention area R A and the attention area R B. The mismatch degree d (x 1 , y 1 ) can be obtained by the following equation 1, for example.
Figure 0005202267

また、不一致度d(x,y)を他の演算処理によって算出してもよい。他の演算処理としては、例えば、次式2の演算処理があり、この場合には、演算処理量を減らすことができる。

Figure 0005202267
Further, the inconsistency d (x 1 , y 1 ) may be calculated by other arithmetic processing. As another arithmetic process, for example, there is an arithmetic process of the following formula 2, and in this case, the arithmetic processing amount can be reduced.
Figure 0005202267

画像処理部106は、結像光学部C1の画像上で注目領域Rの位置を主走査方向D及び副走査方向Dに変えながら不一致度dを算出し、不一致度dが最小となる位置を検出することにより、注目領域Rと最も一致する位置を検出する。ただし、図2に示される結像光学系101では、原稿位置が深度方向Dに変わると撮像素子部141,142,…,148に対する画像の結像倍率が変化する。この場合には、注目領域Rの位置だけではなく、注目領域Rのサイズも変えながら不一致度dを算出する必要がある。 The image processing unit 106 calculates the inconsistency d while changing the position of the region of interest R B on the image of the image-forming optical unit C1 in the main scanning direction D X and the subscanning direction D Y, inconsistency d is minimum By detecting the position, the position that most closely matches the attention area RA is detected. However, the imaging optical system 101 shown in FIG. 2, the image pickup element 141, 142 when the document position is changed in the depth direction D Z, ..., the imaging magnification of the image changes for 148. In this case, not only the position of the region of interest R B, it is necessary to calculate the dissimilarity d while also changing the size of the region of interest R B.

また、不一致度dの算出に用いるベクトルデータは、注目領域Rと注目領域R内の画素の輝度値をそのまま用いてもよいし、平均化処理又はサンプリングした輝度値を用いてもよい。例えば、以下のように2段階の処理によって、画像一致領域を検出してもよい。第1段階で、平均化処理又はサンプリングした輝度値を用いてベクトルデータA及びBを作成し、注目領域Rの位置を大きく変えながら不一致度dを算出して注目領域Rと最も一致する注目領域Rの位置を大まかに絞り込む処理を行う。第2段階で、注目領域RとR内の画素の輝度値をそのまま用いてベクトルデータA及びBを作り直し、先に絞り込んだ位置の周辺で注目領域Rの位置を1画素ずつ変えながら不一致度dを算出する処理を行うことによって、注目領域Rと最も一致する注目領域Rの位置を検出する。 Moreover, the vector data used for calculating the inconsistency d is to the luminance values of the pixels in the region of interest R A and region of interest R B may be used as it is, it may be used an averaging process or sampled brightness values. For example, the image matching area may be detected by a two-stage process as described below. In the first stage, to create the vector data A and B using an averaging process or sampled brightness values is most consistent with the region of interest R A by calculating the inconsistency d while changing greatly the position of the region of interest R B performing rough refine process the position of the region of interest R B. In the second stage, the vector data A and B are recreated using the luminance values of the pixels in the attention areas R A and R B as they are, and the position of the attention area R B is changed pixel by pixel around the previously narrowed position. by performing the process of calculating the inconsistency d, it detects the position of the region of interest R B that best matches the region of interest R a.

なお、注目領域Rに特徴が無い場合には、注目領域Rの位置を変えても不一致度dはほとんど変化しない。この場合には、注目領域Rと注目領域Rとが最も一致する位置の検出を誤る可能性がある。このような事態を回避するために、初めに、注目領域R又は注目領域Rに含まれる画像に特徴があるか否かを評価し、いずれか一方の注目領域に特徴が無い場合には、注目領域Rと注目領域Rとが一致する位置の検出は行わずに、注目領域の周辺の検出結果から結合位置を推定するようにしてもよい。注目領域Rに特徴があるか否かの評価には、例えば、ベクトルデータAに含まれる各成分の標準偏差、分散、最大値と最小値の差などのいずれか一つを用いることができる。これらの値が、一定値以上となる場合には注目領域Rに含まれる画像に何らかの特徴があると判断すればよい。 Incidentally, attention when there is no feature in the region R A, inconsistency d be changing the position of the region of interest R B hardly changes. In this case, there is a possibility that the region of interest R A and region of interest R B is erroneously detected most matched position. To avoid such a situation, initially, when the region of interest R A or region of interest to assess whether R B is characterized in images included in, there is no feature either one of the region of interest , without the detection of the position of the region of interest R a and region of interest R B are identical, it may be estimated binding position from the detection result of the peripheral region of interest. For evaluating whether or not the attention area RA has a feature, for example, any one of the standard deviation, variance, and difference between the maximum value and the minimum value of each component included in the vector data A can be used. . If these values are equal to or greater than a certain value, it may be determined that the image included in the attention area RA has some characteristics.

不一致度dが最小となる注目領域Rの中心画素を(x_min,y_min)とすると、結像光学部C0を通して撮像素子部によって撮像された画像の画素(x,y)と結像光学部C1を通して撮像素子部によって撮像された画像の画素(x_min,y_min)が原稿70の同一部分を読み取っているということになる。このため、結像光学部C0を通して撮像素子部に撮像されたラインLの画像が一致する結像光学部C1を通して撮像素子部に撮像されたラインLの画像について、Lは次式3により算出できる。
=L+(y−y_min) 式3
The center pixel of the region of interest R B mismatch degree d is minimized (x 1 _min, y 1 _min ) when that pixel of the image taken by the image pickup element section through an imaging optical section C0 (x 0, y 0) That is, the pixel (x 1 —min, y 1 —min) of the image picked up by the image pickup device portion through the imaging optical portion C1 reads the same portion of the document 70. Therefore, the image of the imaged line L 1 to the image pickup element section through an imaging optical unit C1 in which the image of the line L 0 which is captured in the image sensor section are matched through an imaging optical section C0, L 1 is the formula 3 Can be calculated.
L 1 = L 0 + (y 0 −y 1 —min) Equation 3

同様に、結像光学部C1を通して撮像素子部に撮像されたラインLの画像と一致する結像光学部C2を通して撮像素子部に撮像されたラインL、結像光学部C2を通して撮像素子部に撮像されたラインLの画像と一致する結像光学部C3を通して撮像素子部に撮像されたラインLを求め、各ラインデータを繋ぎ合せることにより1ライン分の原稿画像を復元する。 Similarly, the line L 2 is imaged on the image sensor portion through an imaging optical unit C2 matching through an imaging optical section C1 and the image of the image pickup device unit line L 1 imaged in the imaging device section through an imaging optical unit C2 seek line L 3 which is captured in the imaging device section through an imaging optical section C3 for matching the captured line L 2 of the image to restore the original image of one line by combining together the respective line data.

図11は、実施の形態1に係る画像読取装置100における画像結合時の平滑化処理を説明するための図である。図11には、結像光学部C0を通して撮像素子部によって撮像された画像80のラインLと結像光学部C1を通して撮像素子部によって撮像された画像81のラインLを結合する場合の平滑化処理の一例を示す。ラインLのラインデータとラインLのラインデータとを繋ぎ合せる際には、注目領域R及び注目領域Rの各々の中心画素を境にそれぞれの隣接する結像光学部によって結像される画像を繋ぎ合せる方式を採用することも可能である。例えば、図11におけるラインLの画素データa38,…,a44に、ラインLの画素データb4,…,a11を繋ぎ合わせる方式である。しかし、この場合には、繋ぎ目部分(ラインLの画素データa44とラインLの画素データb4との間)が目立つ可能性がある。このため、隣接する結像光学部によって結像される画像の対応する画素の輝度値に所定の重み付けをして加算する平滑化処理を行うことが望ましい。 FIG. 11 is a diagram for explaining a smoothing process at the time of image combination in the image reading apparatus 100 according to the first embodiment. Smoothing the case in FIG. 11, which couples the line L 1 of the image 81 taken by the image pickup element unit through line L 0 and the imaging optical section C1 of the image 80 taken by the image pickup element section through an imaging optical section C0 An example of a digitization process is shown. When connecting the line data of the line L 0 and the line data of the line L 1 , the image is formed by the adjacent imaging optical units with the central pixel of each of the attention area R A and the attention area R B as a boundary. It is also possible to adopt a method of joining together images. For example, the pixel data a38 of the line L 0 in Fig. 11, ..., to a44, the pixel data b4 of the line L 1, ..., is a method of joining the a11. However, in this case, there is a possibility that conspicuous (between the line L pixel data a44 and the line L 1 of the pixel data b4 0) joint portions. For this reason, it is desirable to perform a smoothing process in which a predetermined weight is added to the luminance value of a corresponding pixel of an image formed by an adjacent imaging optical unit.

図11では、結像光学部C0を通して撮像素子部によって撮像された画像80のラインL上の画素a41,…,a49が、結像光学部C1を通して撮像素子部によって撮像された画像81のラインL上の画素b0,…,b8にそれぞれ対応している。このとき、ラインLの各画素値に重み係数Kを乗じた値とラインLの各画素値に重み係数Kを乗じた値とを加算することにより、繋ぎ目部分が平滑化された結合結果を得ることができる。重み係数Kと重み係数Kは、上記重み付けを行うための係数であり、対応する画素位置の係数値を加算するとそれぞれ1.0になるように設定されている。重み係数Kは、結像光学部C1を通して撮像素子部によって撮像された画像81に近づくほど小さくなる係数(0〜1の範囲内の係数)であり、例えば、図11の左から右に向かう順に、1,4/5,3/5,2/5,1/5,0である。重み係数Kは、結像光学部C0を通して撮像素子部によって撮像された画像80に近づくほど小さくなる係数(0〜1の範囲内の係数)であり、例えば、図11の右から左に向かう順に、1,4/5,3/5,2/5,1/5,0である。 In Figure 11, the pixel on the line L 0 of the image 80 taken by the image pickup element section through an imaging optical section C0 a41, ..., a49 is the line of the image 81 taken by the image pickup element section through an imaging optical unit C1 L 1 on the pixel b0, ..., respectively correspond to b8. At this time, by adding the value obtained by multiplying the weighting coefficient K 1 in each pixel value of the value and the line L 1 multiplied by a weighting coefficient K 0 to each pixel value of the line L 0, the joint portion is smoothed The combined result can be obtained. Weighting coefficient K 0 and the weighting coefficient K 1 is a coefficient for performing the weighting are set so as respectively to 1.0 adding coefficient values of the corresponding pixel position. Weighting coefficient K 0 is approached as becomes smaller coefficient to the image 81 taken by the image pickup element section through an imaging optical section C1 (coefficient in the range of 0 to 1), for example, from left to right in FIG. 11 In order, 1, 4/5, 3/5, 2/5, 1/5, 0. Weighting coefficient K 1 is a coefficient becomes smaller as closer to the image 80 taken by the image pickup element section through an imaging optical section C0 (coefficient in the range of 0 to 1), for example, toward the left from the right of FIG. 11 In order, 1, 4/5, 3/5, 2/5, 1/5, 0.

画像処理部106は、その画像合成手段106b内に平滑化処理手段を有し、この平滑化処理手段においては、結像光学部C0を通して撮像素子部によって撮像された画像80のラインLの平滑化領域の画像の画素値は重み係数Kで重み付けされ、結像光学部C1を通して撮像素子部によって撮像された画像81のラインLの平滑化領域の画像の画素値は重み係数Kで重み付けされ、画像80のラインLの平滑化領域の画像の重み付けされた画素値と画像81のラインLの平滑化領域の画像の重み付けされた画素値とをそれぞれ加算することによって、合成画像の平滑化領域における画素値が求められる。 The image processing unit 106 includes a smoothing processing unit to the image synthesizing means in 106b, in the smoothing processing means, the smoothing of the line L 0 of the image 80 taken by the image pickup element section through an imaging optical section C0 pixel values of the image regions is weighted by the weight coefficient K 0, the pixel values of the image of the smoothed region of the line L 1 of the image 81 taken by the image pickup element section through an imaging optical unit C1 in weighting coefficient K 1 weighted by adding weighted pixel values of the image of the smoothed region of the line L 0 of the image 80 and the smoothed region of the line L 1 of the image 81 image weighted with the pixel values respectively, the composite image Pixel values in the smoothing region are obtained.

結像光学部C0を通して撮像素子部によって撮像された画像から結像光学部C3を通して撮像素子部によって撮像された画像まで撮像画像の1ライン(1行)分の結合が終わった後に、前回選択したラインLの次のラインであるライン(L+1)を選択し、前回と同様の処理を行う。このとき、一方の結像光学部の画像が拡大縮小されている場合には、結像光学部C0を通して撮像素子部によって撮像された画像のライン(L+1)と結像光学部C1を通して撮像素子部によって撮像された画像のライン(L+1)とが、最も一致するという結果にならない場合もある。例えば、結像光学部C0を通して撮像素子部によって撮像された画像のライン(L+1)も、結像光学部C1を通して撮像素子部によって撮像された画像のラインLと最も一致するという結果が得られる場合がある。このとき、結像光学部C0を通して撮像素子部によって撮像された画像のライン(L+1)と結像光学部C1を通して撮像素子部によって撮像された画像のラインLを結合する処理を行う方式を採用することもできるが、その場合には、ラインLが繰り返されるので、副走査方向DにラインLが延びたような画像になる。したがって、このような場合には、結像光学部1を通して撮像素子部によって撮像された画像のラインLとライン(L+1)から新しいラインのデータを作成し、この作成されたラインと結像光学部C0を通して撮像素子部によって撮像された画像のライン(L+1)とを結合する方が好ましい。 After the combination of one line (one line) of the picked-up image from the image picked up by the image pickup device unit through the image forming optical unit C0 to the image picked up by the image pickup device unit through the image forming optical unit C3 is selected last time select the next line is the line of the line L 0 (L 0 +1), it performs the same process as before. At this time, when the image of one image forming optical unit is enlarged or reduced, the image is picked up through the image line (L 0 +1) of the image picked up by the image pickup device unit through the image forming optical unit C0 and the image forming optical unit C1. In some cases, the line (L 1 +1) of the image captured by the element unit may not be the best match. For example, the result is that the line (L 0 +1) of the image captured by the imaging element unit through the imaging optical unit C0 is the best match with the line L 1 of the image captured by the imaging element unit through the imaging optical unit C1. May be obtained. At this time, a method of combining the line (L 0 +1) of the image captured by the image sensor unit through the imaging optical unit C0 and the line L 1 of the image captured by the image sensor unit through the imaging optical unit C1. can also be employed, in this case, since the line L 1 is repeated, the sub-scanning direction D Y to as the line L 1 is extended image. Therefore, in such a case, new line data is created from the line L 1 and the line (L 1 +1) of the image picked up by the image sensor unit through the imaging optical unit 1 and connected to the created line. It is preferable to combine the line (L 0 +1) of the image captured by the image sensor unit through the image optical unit C0.

また、結像光学部C0を通して撮像素子部によって撮像された画像のライン(L+1)と結像光学部C1を通して撮像素子部によって撮像された画像のライン(L+2)が最も一致するという結果が得られる場合がある。このとき、結像光学部C0を通して撮像素子部によって撮像された画像のライン(L+1)と結像光学部C1を通して撮像素子部によって撮像された画像のライン(L+2)を結合する処理を行う方式を採用することもできるが、ライン(L+1)が削除されて副走査方向Dに不連続に見える画像になる。したがって、このような場合には、結像光学部C1を通して撮像素子部によって撮像された画像のライン(L+1)とライン(L+2)から補間処理などによって新しいラインのデータを作成し、この作成されたラインと結像光学部C0を通して撮像素子部によって撮像された画像のライン(L+1)とを結合する方が好ましい。以上の処理を、最後のラインまで繰り返し行い、1フレーム分の画像を復元する。 Further, the line (L 0 +1) of the image captured by the image sensor unit through the imaging optical unit C0 and the line (L 1 +2) of the image captured by the image sensor unit through the imaging optical unit C1 are the best match. Results may be obtained. At this time, a process of combining the line (L 0 +1) of the image picked up by the image pickup device unit through the imaging optical unit C0 and the line (L 1 +2) of the image picked up by the image pickup device unit through the image forming optical unit C1. it is also possible to employ a method of performing, but becomes discontinuous visible image in the sub-scanning direction D Y line (L 1 +1) is deleted. Therefore, in such a case, new line data is generated by interpolation processing or the like from the line (L 1 +1) and the line (L 1 +2) of the image captured by the image sensor unit through the imaging optical unit C1, It is preferable to combine the created line and the line (L 0 +1) of the image captured by the image sensor unit through the imaging optical unit C0. The above processing is repeated until the last line, and an image for one frame is restored.

次に、画像の結合位置のズレ量から原稿形状を推定し画像の歪みやぼやけを補正する処理について説明する。まず、距離情報算出の原理について説明する。図8に示した、第1グループG11と第2グループG12の各結像光学部の光軸が合焦位置で交差するように結像光学系を構成した場合、各結像光学部の合焦位置に原稿70の被撮像領域が存在するときに第1グループG11と第2グループG12との各結像光学部を通して対応する撮像素子部が原稿70の同じ位置をほぼ同じタイミングで読み取る。すなわち、ラインL,L,L,L(図9に示す)は、読取り画像の先頭(図9の画像80,…,83の上端)から数えてほぼ同じ行になる。 Next, a process for correcting the distortion and blur of an image by estimating the document shape from the shift amount of the image combining position will be described. First, the principle of distance information calculation will be described. When the imaging optical system is configured so that the optical axes of the imaging optical units of the first group G 11 and the second group G 12 shown in FIG. in almost the same timing to the same location of the image pickup device unit is a document 70 corresponding to through the first group G 11 each imaging optical unit of the second group G 12 when the imaged area of the original 70 to an in-focus position exists read. That is, the lines L 0 , L 1 , L 2 , and L 3 (shown in FIG. 9) are substantially the same row as counted from the top of the read image (the upper ends of the images 80,..., 83 in FIG. 9).

一方、図12に示されるように、原稿70の被撮像領域が合焦位置から距離ΔZ、例えば、1mm離れた位置にある場合には、第1グループG11に属する各結像光学部C0,C2を通して撮像素子部が原稿70を読み取る位置と、第2グループG12に属する各結像光学部C1,C3を通して撮像素子部が原稿70を読み取る位置にずれが生じる。例えば、結像光学系C0が副走査方向Dに移動しながら原稿70の位置70aを読み取る場合、まず第1グループG11に属する結像光学部を通して対応する撮像素子部が原稿70の位置70aを読取り、その後、ある時間が経過してから第2グループG12に属する結像光学部を通して対応する撮像素子部が原稿70の位置70aを読み取る。そのため図13に示されるように、第2グループG12に属する結像光学部を通して撮像素子部に撮像された画像は、第1グループG11に属する結像光学部を通して撮像素子部に撮像された画像に比べてずれる(図13において下側にずれる)。すなわち、隣接する結像光学部を通して撮像素子部によって撮像された隣接する画像の間で一致する画像が現れる副走査方向Dの位置の違いが、合焦位置から原稿面までの距離ΔZに対応する。なお、原稿面とは、原稿70の被撮像領域31,32,…が存在する部分である。 On the other hand, as shown in FIG. 12, the distance from the imaging area focus position of the document 70 [Delta] Z, for example, when in 1mm away, each imaging optical unit C0 belonging to the first group G 11, a position for reading the image pickup device unit is a document 70 through C2, deviation occurs in the position where the imaging device unit reads the original 70 through the imaging optical unit C1, C3 belonging to the second group G 12. For example, if the image forming optical system C0 reads the position 70a of the document 70 while moving in the sub-scanning direction D Y, first position 70a of the image pickup device unit is a document 70 corresponding through an imaging optical section belonging to the first group G 11 read, then, the image pickup device unit corresponding through an imaging optical unit that belongs after the elapse of a certain time in the second group G 12 reads the position 70a of the document 70. Therefore, as shown in FIG. 13, the image captured in the image sensor unit through an imaging optical section belonging to the second group G 12 is captured in the imaging device section through an imaging optical section belonging to the first group G 11 It shifts compared to the image (shifts downward in FIG. 13). That is, the difference of position in the sub-scanning direction D Y appearing images match between the adjacent images taken by the image pickup element section through an imaging optical unit that adjacent, corresponding to the distance ΔZ from the focus position to the original surface To do. The document surface is a portion where the imaged areas 31, 32,.

合焦位置から原稿面までの距離ΔZと隣接する結像光学部によって撮像素子部の撮像面に結像される画像の画像ずれ量との関係は、既に図4を用いて説明したように、合焦位置から原稿面までの距離をΔZ、隣接する結像光学部によって結像される画像の画像ずれ量をΔYとすると、次式で求めることができる。
ΔY=2×ΔZ×tanθ
したがって、合焦位置から原稿面までの距離ΔZは、次式で求めることができる。
ΔZ=ΔY÷2÷tanθ
The relationship between the distance ΔZ from the in-focus position to the document surface and the image shift amount of the image formed on the imaging surface of the imaging element unit by the adjacent imaging optical unit, as already described with reference to FIG. If the distance from the in-focus position to the original surface is ΔZ 1 and the image shift amount of the image formed by the adjacent imaging optical unit is ΔY, it can be obtained by the following equation.
ΔY = 2 × ΔZ 1 × tan θ
Therefore, the distance [Delta] Z 1 from the focusing position to the document surface can be obtained by the following equation.
ΔZ 1 = ΔY ÷ 2 ÷ tanθ

ただし、各結像光学部や撮像素子部の取付け位置により、各結像光学部の読取り画像には、原稿面の位置とは無関係に生じる固定的なずれがある。この固定的なずれの量は、合焦位置に置いた斜め格子などのテストパターンを読み取った画像から得られる各結像光学部間の画像ずれ量に等しい。この画像ずれ量をオフセット値として予め取得し画像処理部106内の、図示しない記憶装置に記憶しておく。そして、このオフセット値を隣接する結像光学部によって結像される画像の画像ずれ量から差し引くことで、正確に合焦位置から原稿面までの距離ΔZを求めることができる。   However, depending on the mounting position of each imaging optical unit or imaging element unit, the read image of each imaging optical unit has a fixed shift that occurs regardless of the position of the document surface. The amount of this fixed shift is equal to the amount of image shift between the image forming optical units obtained from an image obtained by reading a test pattern such as an oblique lattice placed at the in-focus position. This image shift amount is acquired in advance as an offset value and stored in a storage device (not shown) in the image processing unit 106. Then, by subtracting this offset value from the image shift amount of the image formed by the adjacent imaging optical unit, the distance ΔZ from the in-focus position to the document surface can be obtained accurately.

図14は、実施の形態1に係る画像読取装置によって被撮像物としての本(原稿)70の見開きページを読取る場合を示す図である。図14において、70bは本70の綴じ目を示す。図15は、図14の複数の直線が描かれた本70の見開きページを天板に強く押し付けてほぼ平面にすることができたと仮定した場合を示す図である。図16は、図14に示される本70の見開きページを撮像装置で実際に読取った画像を模式的に示す図である。図17は、図16に示される撮像装置の読取り画像の主走査方向の歪みを補正した図である。図18は、図17に示される撮像装置の読取り画像の副走査方向の歪みを補正した図である。   FIG. 14 is a diagram illustrating a case where a spread page of a book (original) 70 as an object to be imaged is read by the image reading apparatus according to the first embodiment. In FIG. 14, 70 b indicates the binding of the book 70. FIG. 15 is a diagram illustrating a case where it is assumed that the facing page of the book 70 on which the plurality of straight lines illustrated in FIG. FIG. 16 is a diagram schematically illustrating an image obtained by actually reading the spread page of the book 70 illustrated in FIG. 14 with the imaging device. FIG. 17 is a diagram in which distortion in the main scanning direction of the read image of the imaging apparatus shown in FIG. 16 is corrected. FIG. 18 is a diagram in which distortion in the sub-scanning direction of the read image of the imaging apparatus shown in FIG. 17 is corrected.

実施の形態1によると、被撮像物(原稿)の被撮像領域の深度方向の位置が変化すると、画像の転写倍率も変化する。このため、原稿70が天板103から離れるほど読取り画像は縮小される。また、原稿70を原稿面に垂直な方向に対して傾いた位置から斜め方向に読み取ると原稿は縮小されて読取られる。このため、図14及び図15に示す本の見開きページ(ブック型の原稿)70に描かれた同じ長さ(主走査方向に同じ長さ)の複数の直線(例えば、70c、70d)が等間隔d1で並んでいる(副走査方向に並んでいる)原稿を読み取ると、図16に示されるように歪んだ読取り画像170が得られる。例えば、原稿70に間隔d1で描かれた直線70c,70dは、読取り画像170の間隔d0の直線170c,170dとして読取られる。また、読取り画像170の原稿(本)70の綴じ目70bに最も近い直線は、図16に示されるように、読取り画像170において、長さd10に縮小されて読取られる。   According to the first embodiment, when the position of the imaging region of the imaging object (original) in the depth direction changes, the transfer magnification of the image also changes. For this reason, the read image is reduced as the original 70 moves away from the top plate 103. When the document 70 is read in an oblique direction from a position inclined with respect to a direction perpendicular to the document surface, the document is reduced and read. For this reason, a plurality of straight lines (for example, 70c and 70d) having the same length (the same length in the main scanning direction) drawn on the facing page (book-type document) 70 of the book shown in FIGS. When the originals lined up at the interval d1 (lined up in the sub-scanning direction) are read, a distorted read image 170 is obtained as shown in FIG. For example, straight lines 70 c and 70 d drawn on the original 70 with a distance d 1 are read as straight lines 170 c and 170 d with a distance d 0 of the read image 170. Further, the straight line closest to the stitch 70b of the original (book) 70 of the read image 170 is read with a reduced length d10 in the read image 170 as shown in FIG.

実施の形態1においては、各結像光学部毎に原稿面を読み取る角度が異なる構成となっているが、図9を用いて説明した合成画像生成時の処理(繋ぎ合わせ時の処理)で読取り角度の違いを補正することができるので、図14では読取り角度を90度として示している。また、図16に示されるように、直線の主走査方向の長さが縮小されてd10になるような歪みは、原稿面までの距離と原稿面の形状が分かれば補正することができる。まず、原稿面までの距離から画像の転写倍率を求め、転写倍率が変化したことによる画像の縮みを元に、直線の長さd10を直線本来の長さに戻すような拡大処理をする。この処理の結果が図17の画像171及び直線171c及び171dである。   In the first embodiment, the angle at which the document surface is read is different for each imaging optical unit, but reading is performed by the process at the time of composite image generation (process at the time of joining) described with reference to FIG. Since the difference in angle can be corrected, the reading angle is shown as 90 degrees in FIG. Further, as shown in FIG. 16, the distortion that reduces the length of the straight line in the main scanning direction to d10 can be corrected if the distance to the document surface and the shape of the document surface are known. First, an image transfer magnification is obtained from the distance to the original surface, and an enlargement process is performed to return the straight line length d10 to the original straight line length based on the shrinkage of the image due to the change in the transfer magnification. The result of this processing is an image 171 and straight lines 171c and 171d in FIG.

次に、図14に示すように、隣接する結像光学部を介して取得されたセル画像を繋ぎ合わせた画像上の任意の点p1及びp2における距離情報をそれぞれz(p1)及びz(p2)とすると、点p1と点p2の間において原稿面の距離がΔz1(=z(p2)−z(p1))変化したことになることから、読取り画像上の点p1と点p2の距離d0は、実際の原稿70上では、次式4で示される距離d1となる。

Figure 0005202267
Next, as shown in FIG. 14, the distance information at arbitrary points p1 and p2 on the image obtained by joining the cell images acquired through the adjacent imaging optical units is expressed as z (p1) and z (p2), respectively. ), The distance between the points p1 and p2 is changed by Δz1 (= z (p2) −z (p1)). Therefore, the distance d0 between the points p1 and p2 on the read image. Is a distance d1 expressed by the following expression 4 on the actual document 70.
Figure 0005202267

読取り画像の点p1と点p2の間の距離(例えば、距離d0)を、d1/d0倍することにより、読み取り時に原稿面が傾いていたために縮小された原稿を元の形状(例えば、距離d1)に復元できる。   By multiplying the distance between the points p1 and p2 of the read image (for example, the distance d0) by d1 / d0, the original that has been reduced because the original surface is inclined at the time of reading is restored to the original shape (for example, the distance d1). ) Can be restored.

合焦位置から原稿面までの距離は結合位置の検出処理を行うことによって求めることができるので、理論的には副走査方向には1走査ラインごとに、主走査方向には結像光学部の境界位置(光学セルの繋ぎ目)毎に合焦位置から原稿面までの距離を得ることができる。このような距離情報を、細かい間隔で取得するほど、原稿面の形状を高精度に推定できるので、復元の精度も向上する。   Since the distance from the in-focus position to the document surface can be obtained by performing the detection process of the combined position, theoretically, the distance of the imaging optical unit in the main scanning direction is set for each scanning line in the sub-scanning direction. The distance from the in-focus position to the document surface can be obtained for each boundary position (joint of optical cells). As such distance information is acquired at finer intervals, the shape of the original surface can be estimated with higher accuracy, so that the restoration accuracy is also improved.

以上の処理によって、画像修正手段106dは、合成画像上で一定間隔離れた位置において得られる距離の差から被撮像物の被撮像面の傾き(例えば、図14における、傾きΔz1/d0)を算出し、被撮像面の傾きから一定間隔に対応する実際の被撮像面の長さを算出し、実際の被撮像面の長さと等しくなるよう合成画像を伸縮することができる。また、画像修正手段106dは、合成画像上の副走査方向に一定ライン離れた位置において得られる距離の差から被撮像物の被撮像面の副走査方向の傾きを算出し、前記被撮像面の副走査方向の傾きから、前記合成画像上の前記一定ラインに相当する実際の被撮像面の長さを求め、実際の被撮像面の長さと等しくなるよう合成画像を副走査方向に伸縮することができる。   Through the above processing, the image correcting unit 106d calculates the inclination of the imaging surface of the imaging object (for example, the inclination Δz1 / d0 in FIG. 14) from the difference in distance obtained at positions spaced apart from each other on the composite image. Then, the actual length of the imaged surface corresponding to a certain interval can be calculated from the inclination of the imaged surface, and the composite image can be expanded and contracted to be equal to the actual length of the imaged surface. In addition, the image correction unit 106d calculates the inclination of the imaging surface of the imaging object in the sub-scanning direction from the difference in distance obtained at a position separated by a certain line in the sub-scanning direction on the composite image, and From the inclination in the sub-scanning direction, the length of the actual imaged surface corresponding to the certain line on the composite image is obtained, and the composite image is expanded and contracted in the subscanning direction so as to be equal to the length of the actual imaged surface. Can do.

図19は、点画像を撮像装置(カメラ)で撮影したときに得られるぼやけ画像と、ぼやけ画像から得られる点像分布関数を模式的に示す図である。画像修正手段106dは、ぼやけ補正処理をも行なうことができる。ぼやけ補正処理においては、画像のぼやけの特性は、点を撮像したときに得られる像の広がり具合を表す点像分布関数により把握可能である。画像のぼやけ方がわかれば、画像がぼやける場合と逆の変換を、ぼやけ画像に対して行うことで、ぼやけ画像からぼやける前の画像を復元することが可能となる。例えば、画像Fが関数Hによりぼやけ画像Gとなる場合、すなわち、F×H=Gの場合には、式5に示す逆変換により、ぼやけ画像Gから元の画像Fを復元することが可能である。
F=G×H−1 式5
FIG. 19 is a diagram schematically illustrating a blurred image obtained when a point image is captured by an imaging apparatus (camera) and a point image distribution function obtained from the blurred image. The image correcting unit 106d can also perform blur correction processing. In the blur correction process, the blur characteristics of an image can be grasped by a point spread function that represents the extent of spread of an image obtained when a point is imaged. If the blurring method of the image is known, the image before blurring can be restored from the blurry image by performing reverse conversion on the blurry image when the image blurs. For example, when the image F becomes a blurred image G by the function H, that is, when F × H = G, the original image F can be restored from the blurred image G by the inverse transformation shown in Equation 5. is there.
F = G × H- 1 Formula 5

例えば、画像のぼやけは、ぼやける前の画像の周辺画素の輝度値が、ぼやける前の画像の輝度値に混じるために生じる。画像のぼやけを積分演算と考えると、その逆の演算である微分演算を行えば、ぼやけ画像から、ぼやける前の画像を得ることができる。点像分布関数は、画像のぼやけ方、すなわち、被写体が合焦位置からどの程度ずれた位置にあるかによって変化する。よって、予め、画像の取り込みに使用する光学結像光学部を用いて、合焦位置から原稿面までの距離に応じて変化する点像分布関数を測定しておき、合焦位置から原稿面までの距離(図7のステップST6で算出した距離)に応じて、適用する逆関数を選択すればよい。   For example, the image blur occurs because the luminance values of the peripheral pixels of the image before blurring are mixed with the luminance values of the image before blurry. Considering image blurring as an integral operation, an image before blurring can be obtained from a blurry image by performing a differential operation, which is the reverse operation. The point spread function changes depending on how the image is blurred, that is, how much the subject is displaced from the in-focus position. Therefore, the point image distribution function that changes in accordance with the distance from the in-focus position to the document surface is measured in advance using the optical imaging optical unit used for image capture, and from the in-focus position to the document surface. The inverse function to be applied may be selected according to the distance (the distance calculated in step ST6 in FIG. 7).

合焦位置から原稿面までの距離は結合位置の検出処理の結果を用いて求めることができるので、副走査方向Dには1ラインごと、主走査方向Dには結像光学部の繋ぎ目ごとに合焦位置から原稿面までの距離に関する情報を得ることができる。実施の形態1に係る画像読取装置100によれば、このように細かく取得した距離情報から画像のぼやけ量を推定できるので、原稿面が平らでなく、起伏が連続しているような場合であっても、精度の高いぼやけの補正処理を行うことができる。 Since the distance from the in-focus position to the original surface can be obtained by using the result of the detection process of the combined position, each line in the sub-scanning direction DY and the connection of the imaging optical unit in the main scanning direction D X Information regarding the distance from the in-focus position to the document surface can be obtained for each eye. According to the image reading apparatus 100 according to the first embodiment, since the blur amount of the image can be estimated from the distance information obtained in this way, the document surface is not flat and the undulations are continuous. However, highly accurate blur correction processing can be performed.

図20は、実施の形態1に係る画像読取装置100の画像結合処理の他の例を説明するための図である。上記説明においては、結合位置の検出、画像の結合、距離情報の算出などの処理を、ライン毎に順に行う場合を例に説明した。しかし、結合位置の検出、画像の結合、距離情報の算出をライン毎に順に行わずに、一定ライン間隔毎に行うようにしてもよい。図20には、結像光学部C0を通して撮像素子部に撮像される画像80を基準とし、Kライン間隔で結合位置の検出を行う場合について説明する。   FIG. 20 is a diagram for explaining another example of the image combining process of the image reading apparatus 100 according to the first embodiment. In the above description, an example has been described in which processing such as detection of a coupling position, image coupling, and calculation of distance information is sequentially performed for each line. However, the detection of the combination position, the combination of the images, and the calculation of the distance information may not be performed in order for each line, but may be performed at regular line intervals. FIG. 20 illustrates a case where the coupling position is detected at an interval of K lines with reference to an image 80 picked up by the imaging element unit through the imaging optical unit C0.

図20において、第i回(iは正の整数)の結合位置の検出処理で得られた結果を第iの結合位置として実線で表す。次の第(i+1)の結合位置の検出では、結像光学部C0を通して撮像素子部に撮像される画像80の第iの結合位置からKライン(Kは正の整数)離れた位置の画像データと一致する画像データを結像光学部C1を通して撮像素子部に撮像される画像81から検出する。同様の方法で、隣接する結像光学部を通して撮像素子部に撮像される隣接する画像間(画像81と82,画像82と83)の結合位置を検出する。得られた結果の一例を、第(i+1)の結合位置として、図20に破線で表す。このとき、原稿面が平らでない場合には、各結像光学部を通して撮像素子部に撮像される画像の第iの結合位置と第(i+1)の結合位置との間のライン数が同じにならない場合がある。各結像光学部を通して撮像素子部に撮像される各画像を結合してひとつながりの画像を生成するには、まず、第iの結合位置と第(i+1)の結合位置との間のライン数が、各結像光学部を通して撮像素子部に撮像される各画像間で同一となるように補正する必要がある。この補正の方法としては、結像光学部を通して撮像素子部に撮像される各画像からラインデータの削除及び/又は挿入を行う方法、結像光学部を通して撮像素子部に撮像される各画像を拡大及び/又は縮小処理する方法などがある。ただし、ラインデータを削除すると、連続して読み取った画像から1ラインの画像データが欠落するため、副走査方向Dに不連続な部分が生じ、その部分が目立ってしまう場合がある。ラインデータの削除を行う場合には、その周辺のラインを含む複数ラインに分散させて削除する(例えば、削除されるラインが目立たないように、補間処理などによって、削除されるラインを含むQ(Qは3以上の整数)ラインの画像データから、新たな(Q−1)ラインの画像データを生成する)ことが望ましい。また、ラインデータを挿入する際には、前後のラインデータと同じラインデータを繰り返すようにする処理を採用してもよいが、その周辺のラインデータから補間データを生成することによって生成されたラインデータを挿入することが、挿入ラインが目立たないので、望ましい。 In FIG. 20, the result obtained by the i-th (i is a positive integer) coupling position detection process is represented by a solid line as the i-th coupling position. In the next detection of the (i + 1) -th coupling position, image data at a position separated from the i-th coupling position of the image 80 captured by the imaging device unit through the imaging optical unit C0 by K lines (K is a positive integer). Is detected from the image 81 picked up by the image pickup device section through the imaging optical section C1. In the same manner, a coupling position between adjacent images (images 81 and 82, images 82 and 83) captured by the imaging element unit through the adjacent imaging optical unit is detected. An example of the obtained result is represented by a broken line in FIG. 20 as the (i + 1) th coupling position. At this time, if the document surface is not flat, the number of lines between the i-th coupling position and the (i + 1) -th coupling position of the image picked up by the imaging element unit through each imaging optical unit is not the same. There is a case. In order to combine the images picked up by the imaging element unit through the imaging optical units to generate a continuous image, first, the number of lines between the i-th combined position and the (i + 1) -th combined position However, it is necessary to correct so that each image picked up by the image pickup device section through each imaging optical section is the same. This correction method includes a method of deleting and / or inserting line data from each image picked up by the image sensor unit through the imaging optical unit, and an enlargement of each image picked up by the image sensor unit through the image forming optical unit. And / or a reduction method. However, deleting line data, the image data of one line from the image read continuously is lost, there is a case where the discontinuous portions in the sub-scanning direction D Y occurs, becomes conspicuous that part. When deleting the line data, it is distributed and deleted over a plurality of lines including the surrounding lines (for example, Q (including the line to be deleted by interpolation processing or the like so that the deleted line is not conspicuous). (Q is an integer of 3 or more) It is desirable to generate new (Q-1) line image data from line image data). In addition, when inserting line data, a process of repeating the same line data as the preceding and following line data may be adopted, but the line generated by generating interpolation data from the surrounding line data Inserting data is desirable because the insertion line is not noticeable.

以上に説明したように、実施の形態1に係る画像読取装置100によれば、主走査方向Dには、結像光学部の境界ごとに、結像光学部の数に応じた細かいピッチで、天板103と原稿70の被撮像領域との間の距離を測定できる。よって、原稿面までの距離を推定できるので、原稿の浮きや傾きなどにより読取り画像に歪みが生じた場合でも、歪みを補正することができる。また、主走査方向に複数の結像光学部を設けたことで、画像読取装置100の小型化を図ることができる。原稿70が、しわのある用紙である場合や本の綴じ目近傍である場合であっても、画像内の細かい領域ごとに焦点ずれによる画像の歪みの補正が可能である。 As described above, according to the image reading apparatus 100 according to the first embodiment, the main scanning direction D X, for each border of the image forming optical unit, in a fine pitch corresponding to the number of the imaging optical section The distance between the top plate 103 and the imaged area of the original 70 can be measured. Therefore, since the distance to the document surface can be estimated, even when the read image is distorted due to the float or tilt of the document, the distortion can be corrected. Further, by providing a plurality of imaging optical units in the main scanning direction, the image reading apparatus 100 can be reduced in size. Even when the original 70 is a wrinkled sheet or near the binding of a book, it is possible to correct image distortion due to defocus for each fine area in the image.

また、以上に説明したように、実施の形態1に係る画像読取装置100によれば、主走査方向Dには、結像光学部の境界ごとに、結像光学部の数に応じた細かいピッチで、天板103と原稿70の被撮像領域との間の距離を測定できる。よって、原稿70が、しわのある用紙である場合や本の綴じ目近傍である場合であっても、画像内の細かい領域ごとに焦点ずれによる画像のぼやけの補正も可能である。このように、実施の形態1に係る画像読取装置100によれば、画像が撮像素子部の焦点深度から外れた位置に結像する場合であっても、画像が焦点深度内にあるかのように、合焦した状態に近い画像を生成できる。このため、実施の形態1に係る画像読取装置100は、実質的に大きな被写界深度を有することができる。 Further, as described above, according to the image reading apparatus 100 according to the first embodiment, in the main scanning direction D X , fine details corresponding to the number of imaging optical units are provided for each boundary of the imaging optical units. The distance between the top plate 103 and the imaged area of the original 70 can be measured with the pitch. Therefore, even when the original 70 is a wrinkled sheet or near the binding of a book, it is possible to correct image blur due to defocus for each fine region in the image. As described above, according to the image reading apparatus 100 according to the first embodiment, even when an image is formed at a position deviating from the depth of focus of the imaging element unit, the image is within the depth of focus. In addition, an image close to the focused state can be generated. For this reason, the image reading apparatus 100 according to Embodiment 1 can have a substantially large depth of field.

また、実施の形態1に係る画像読取装置100によれば、主走査方向Dに複数の結像光学部を設けたことで、画像読取装置100の小型化を図ることができる。 According to the image reading apparatus 100 according to the first embodiment, the main scanning direction D X in by providing the plurality of imaging optical unit, it is possible to reduce the size of the image reading apparatus 100.

実施の形態2.
図21は、本発明の実施の形態2に係る画像読取装置200の構成を概略的に示す図である。図21には、画像読取装置200の光学系の構成を概略的に示す斜視図(左側)と、画像信号処理系の構成を概略的に示すブロック図(右側)とが含まれている。図21に示されるように、画像読取装置200は、結像光学系201と、照明光源202と、天板203と、基板204上に配置された複数の撮像素子部241,242,…,248と、メモリ205と、画像処理部206とを有する。実施の形態2に係る画像読取装置200は、結像光学系201の構成が、実施の形態1における結像光学系101と相違する。実施の形態2における照明光源202、天板203、基板204上に配置された複数の撮像素子部241,242,…,248、メモリ205、及び画像処理部206は、実施の形態1における照明光源102、天板103、基板104上に配置された複数の撮像素子部141,142,…,148、メモリ105、及び画像処理部106とそれぞれ同様の機能を有する。
Embodiment 2. FIG.
FIG. 21 is a diagram schematically showing the configuration of the image reading apparatus 200 according to Embodiment 2 of the present invention. FIG. 21 includes a perspective view (left side) schematically showing the configuration of the optical system of the image reading apparatus 200 and a block diagram (right side) schematically showing the configuration of the image signal processing system. As shown in FIG. 21, the image reading apparatus 200 includes an imaging optical system 201, an illumination light source 202, a top plate 203, and a plurality of image sensor units 241, 242,. A memory 205 and an image processing unit 206. In the image reading apparatus 200 according to the second embodiment, the configuration of the imaging optical system 201 is different from that of the imaging optical system 101 in the first embodiment. The illumination light source 202, the top plate 203, the plurality of image sensor units 241, 242,..., 248, the memory 205, and the image processing unit 206 arranged on the substrate 204 are the illumination light source in the first embodiment. 102, the top plate 103, the plurality of image sensor units 141, 142,.

図22(a)及び(b)は、実施の形態2に係る画像読取装置200の光学系を図21のS22a−S22a線方向に見る概略的な断面図及び図21のS22b−S22b線方向に見る概略的な断面図である。図22(a)には、第1グループG21に属する第1の結像光学部211,213,…,217を通過する第1の光の主要な光路が示されている。また、図22(b)には、第2グループG22に属する第2の結像光学部212,214,216を通過する第2の光の主要な光路が示されている。 22A and 22B are a schematic cross-sectional view of the optical system of the image reading apparatus 200 according to Embodiment 2 as viewed in the direction of the line S 22a -S 22a in FIG. 21, and S 22b -S in FIG. It is a schematic sectional drawing seen in a 22b line direction. In FIG. 22 (a), the first imaging optical unit 211, 213 belonging to the first group G 21, ..., the main optical path of the first light passing through the 217 is shown. Further, in FIG. 22 (b) primary optical path of the second light passing through the second imaging optical unit 212, 214 and 216 belonging to the second group G 22 is shown.

図23は、実施の形態2に係る画像読取装置200の光学系を図21のS23−S23線方向に見る概略的な断面図である。図23には、被撮像物の一例としての原稿70が天板203の上面203a(実施の形態2におい、上面203aは合焦位置である)に密着しており、撮像素子部243及び244の撮像面上の点に合焦画像が収束する場合(合焦状態)の主要な光路が示されている。 FIG. 23 is a schematic cross-sectional view of the optical system of the image reading apparatus 200 according to Embodiment 2 as viewed in the direction of the line S 23 -S 23 in FIG. In FIG. 23, a document 70 as an example of an object to be imaged is in close contact with the upper surface 203a of the top plate 203 (in Embodiment 2, the upper surface 203a is the in-focus position). The main optical paths when the focused image converges on a point on the imaging surface (in-focus state) are shown.

実施の形態2においては、結像光学系201を構成する結像光学部211,212,…,218のそれぞれは、原稿70側にテレセントリックな光学系である。図22(a)及び(b)から理解できるように、各結像光学部211,212,…,218(結像光学部218は図22(b)に示さず)は、同じ構成を持つ。実施の形態2においては、結像光学部211,212,…,218のそれぞれは、第1光学素子としての第1レンズ252と、絞りとしてのアパーチャ253と、第2光学素子としての第2レンズ254と、これらを保持する保持部材255とを有し、独立した機能を持つ光学セルである。   In the second embodiment, each of the imaging optical units 211, 212,..., 218 constituting the imaging optical system 201 is an optical system telecentric on the document 70 side. As can be understood from FIGS. 22A and 22B, the imaging optical units 211, 212,..., 218 (the imaging optical unit 218 is not shown in FIG. 22B) have the same configuration. In the second embodiment, each of the imaging optical units 211, 212,..., 218 includes a first lens 252 as a first optical element, an aperture 253 as a stop, and a second lens as a second optical element. 254 and a holding member 255 that holds these, and an optical cell having an independent function.

各結像光学部211,212,…,218において、第1集光レンズ252は原稿70側の端部に配置され、第2集光レンズ254は撮像素子部241側の端部に配置され、アパーチャ(絞り)253は第1集光レンズ252と第2集光レンズ254との間で第1集光レンズ252の後ろ側(光の進行方向下流側)の焦点位置に配置されている。このような構成により、各結像光学部211,212,…,218を、原稿70側にテレセントリックな光学系とすることができる。   In each of the imaging optical units 211, 212,..., 218, the first condenser lens 252 is disposed at the end on the document 70 side, and the second condenser lens 254 is disposed on the end on the imaging element unit 241 side. The aperture (aperture) 253 is disposed between the first condenser lens 252 and the second condenser lens 254 at a focal position behind the first condenser lens 252 (downstream in the light traveling direction). With such a configuration, each of the imaging optical units 211, 212,..., 218 can be a telecentric optical system on the document 70 side.

また、実施の形態2における結像光学部211,212,…,218は、実施の形態1における結像光学部111,112,…,118と同様に配置されている。   In addition, the imaging optical units 211, 212,..., 218 in the second embodiment are arranged in the same manner as the imaging optical units 111, 112,.

画像処理部206は、各撮像素子部241,242,…,248で撮像された画像の結合位置を検出するための演算処理を行う結合位置検出手段206aと、撮像された画像の結合位置で各撮像素子部241,242,…,248で撮像された画像を結合(合成)するための演算処理を行う画像合成手段206bと、被撮像物側の合焦位置(天板203の上面203a)から原稿70までの深度方向Dの距離を算出するための演算処理を行う距離算出手段206cと、算出された距離を用いて合成画像の歪みの補正する(及び、必要に応じて画像のぼやけを低減させる)ための演算処理を行う画像修正手段206dとを有する。結合位置検出手段206a、画像合成手段206b、距離算出手段206c、及び画像修正手段206dは、実施の形態1における結合位置検出手段106a、画像合成手段106b、距離算出手段106c、及び画像修正手段106dと同様の機能を有する。したがって、実施の形態2に係る画像読取装置200は、実施の形態1に係る画像読取装置100と同様の効果を有する。 The image processing unit 206 includes a combined position detection unit 206a that performs arithmetic processing for detecting a combined position of images captured by the image sensor units 241, 242,..., 248, and a combined position of the captured images. From the image synthesizing means 206b for performing arithmetic processing for combining (synthesizing) the images picked up by the image pickup device portions 241, 242,..., 248, and the in-focus position on the object to be picked up (the upper surface 203a of the top plate 203). a distance calculation unit 206c for performing arithmetic processing for calculating the distance in the depth direction D Z to a document 70, by using the calculated distance to correct the distortion of the composite image (and, the blurring of the image as needed Image correcting means 206d for performing arithmetic processing for reducing the image. The combined position detecting unit 206a, the image combining unit 206b, the distance calculating unit 206c, and the image correcting unit 206d are the combined position detecting unit 106a, the image combining unit 106b, the distance calculating unit 106c, and the image correcting unit 106d in the first embodiment. It has the same function. Therefore, the image reading apparatus 200 according to the second embodiment has the same effect as the image reading apparatus 100 according to the first embodiment.

また、画像読取装置200の結像光学部211,212,…,218は原稿70側にテレセントリックな光学系であるので、合焦位置(天板203の上面203a)から原稿70までの距離ΔZが変動しても、撮像素子部241,242,…,248に結像される画像の結像倍率はほとんど変化しない。距離ΔZによって画像の結像倍率が変わらないので、画像一致領域を検出する際に、選択する画像の大きさを同じにするための拡大変換又は縮小変換が不要になり、高速な信号処理が可能となる。よって、実施の形態2に係る画像読取装置200によれば、結像光学部211,212,…,218を通して撮像素子部241,242,…,248で読取られた画像を合成する画像処理の負荷を大きく軽減することができる。   In addition, since the imaging optical units 211, 212,..., 218 of the image reading apparatus 200 are telecentric optical systems on the side of the original 70, the distance ΔZ from the focusing position (the upper surface 203a of the top plate 203) to the original 70 is small. Even if it fluctuates, the imaging magnification of the image formed on the image sensor units 241, 242,. Since the imaging magnification of the image does not change depending on the distance ΔZ, when detecting the image matching area, enlargement or reduction conversion to make the size of the selected images the same is unnecessary, and high-speed signal processing is possible. It becomes. Therefore, according to the image reading apparatus 200 according to the second embodiment, the load of image processing for combining the images read by the imaging element units 241, 242,..., 248 through the imaging optical units 211, 212,. Can be greatly reduced.

さらに、結像光学部211,212,…,218の光軸が主走査方向Dに垂直になるように、結像光学部211,212,…,218を構成及び配置する場合には、合焦位置(天板203の上面203a)から原稿70までの距離ΔZが変動しても結像光学部211,212,…,218を通して撮像素子部で撮像される画像は、主走査方向Dの位置に関しては変動せず、副走査方向Dに移動するだけである。また、合焦位置(天板203の上面203a)から原稿70までの距離ΔZが変動しても結像倍率は変わらない。よって、実施の形態2においては、主走査方向Dの画像処理は不要となり、画像合成に際して副走査方向Dに隣接する2つの画像の位置の画像ずれ量だけ、副走査方向Dにシフトする補正を行えばよい。したがって、実施の形態2に係る画像読取装置200によれば、実施の形態1の場合に比べて、画像処理部206による画像処理の負荷が軽減でき、高速に信号処理を完了することが可能となる。また、実施の形態2に係る画像読取装置200においては、画像処理部206は、高い処理能力が要求されないので、低コストの処理装置で実現できるという効果がある。 Further, when the imaging optical units 211, 212, ..., 218 are configured and arranged so that the optical axes of the imaging optical units 211, 212, ..., 218 are perpendicular to the main scanning direction D X , focus position imaging optical section 211 and 212 also distance ΔZ is varied to manuscript 70 from (upper surface 203a of the top plate 203), ..., the image captured by the image sensor unit through 218, in the main scanning direction D X It does not vary with respect to position, but only moved in the sub-scanning direction D Y. Further, the imaging magnification does not change even if the distance ΔZ from the in-focus position (the upper surface 203a of the top plate 203) to the document 70 varies. Therefore, in the second embodiment, the image processing in the main scanning direction D X is not required, the image shift amount of the position of the two images that are adjacent in the subscanning direction D Y during image synthesis only, the shift in the sub-scanning direction D Y The correction to be performed may be performed. Therefore, according to the image reading apparatus 200 according to the second embodiment, it is possible to reduce the load of the image processing by the image processing unit 206 and complete the signal processing at a higher speed than in the case of the first embodiment. Become. Further, in the image reading apparatus 200 according to the second embodiment, the image processing unit 206 is not required to have a high processing capability, and thus can be realized with a low-cost processing apparatus.

同様に、画像の歪み補正処理においても、処理の軽減を図ることができる。また、原稿面までの距離が変化しても転写倍率に変動が無いことから、図14に示した形状で、同じ長さのラインが等間隔で並ぶ原稿を読み取ると、図17のように原稿の傾き方向(主走査方向)にのみ短縮された画像が得られる。よって、実施の形態2の歪み補正処理においては、原稿面距離に応じた転写倍率の変化を補正する処理(すなわち、図16のような画像を図17のような画像に伸縮する処理)は必要ではない。   Similarly, in the image distortion correction process, the process can be reduced. Further, since the transfer magnification does not change even if the distance to the document surface changes, when a document having the shape shown in FIG. 14 and lines of the same length arranged at equal intervals is read, the document as shown in FIG. An image shortened only in the tilt direction (main scanning direction) is obtained. Therefore, in the distortion correction process according to the second embodiment, a process for correcting a change in transfer magnification according to the document surface distance (that is, a process for expanding and contracting an image as shown in FIG. 16 to an image as shown in FIG. 17) is necessary. is not.

なお、実施の形態2において、上記以外の点は、上記実施の形態1の場合と同じである。   In the second embodiment, points other than those described above are the same as those in the first embodiment.

実施の形態3.
図24は、本発明の実施の形態3に係る画像読取装置300の光学系の構成を概略的に示す図である。図24においては、Y軸(副走査方向D)は水平方向に、Z軸(深度方向D)は垂直方向に、X軸(主走査方向D)は図が描かれている紙面に垂直で紙面の手前に向かう方向に描かれている。
Embodiment 3 FIG.
FIG. 24 is a diagram schematically showing the configuration of the optical system of the image reading apparatus 300 according to Embodiment 3 of the present invention. In FIG. 24, the Y axis (sub-scanning direction D Y ) is in the horizontal direction, the Z axis (depth direction D Z ) is in the vertical direction, and the X axis (main scanning direction D X ) is on the drawing surface. It is drawn in a vertical direction toward the front of the page.

実施の形態3に係る画像読取装置300は、結像光学系301と、照明光源(図示せず)と、天板303と、基板304a上に配置された(第1グループG31に属する結像光学部に対応する)複数の第1の撮像素子部(例えば、撮像素子部343)と、基板304b上に配置された(第2グループG32に属する結像光学部に対応する)複数の第2の撮像素子部(例えば、撮像素子部344)と、メモリ(図示せず)と、画像処理部(図示せず)とを有する。結像光学系301は、第1グループG31に属する複数の結像光学部313と、第2グループG32に属する複数の結像光学部314とを有する。実施の形態3における照明光源(図示せず)、天板303、基板304a,304b上に配置された複数の撮像素子部(343,344など)、メモリ(図示せず)、及び画像処理部(図示せず)は、実施の形態2における照明光源202、天板203、基板204上に配置された複数の撮像素子部241,242,…,248、メモリ205、及び画像処理部206とそれぞれ同様の構成及び機能を有する。また、実施の形態3に係る画像読取装置300の第1グループG31に属する複数の結像光学部(例えば、結像光学部313など)に対応する複数の撮像素子部及び第2グループG32に属する複数の結像光学部(例えば、結像光学部314など)に対応する複数の撮像素子部は、実施の形態2に係る画像読取装置200の複数の撮像素子部211,213,…,217及び複数の撮像素子部212,214,…,218に対応する構成であり、同様の機能を有する。 The image reading apparatus 300 according to the third embodiment, the imaging optical system 301, an illumination light source (not shown), a top plate 303, disposed on the substrate 304a (imaging belonging to the first group G 31 corresponding) plurality of first image sensor unit to the optical unit (e.g., an imaging element unit 343) corresponding to the image-forming optical unit belonging to that disposed on the substrate 304b (the second group G 32) a plurality of second 2 imaging device units (for example, imaging device unit 344), a memory (not shown), and an image processing unit (not shown). The imaging optical system 301 includes a plurality of imaging optical unit 313 belonging to the first group G 31, and a plurality of imaging optical unit 314 belonging to the second group G 32. An illumination light source (not shown), a top plate 303, a plurality of image sensor portions (343, 344, etc.) arranged on the substrates 304a and 304b, a memory (not shown), and an image processing unit (not shown) in the third embodiment. (Not shown) are the same as the illumination light source 202, the top plate 203, the plurality of image sensor sections 241, 242,..., 248, the memory 205, and the image processing section 206 arranged on the substrate 204 in the second embodiment. It has the structure and function. In addition, a plurality of imaging element units and a second group G 32 corresponding to a plurality of imaging optical units (for example, the imaging optical unit 313) belonging to the first group G 31 of the image reading apparatus 300 according to the third embodiment. A plurality of imaging element units corresponding to a plurality of imaging optical units belonging to (for example, the imaging optical unit 314) are a plurality of imaging element units 211, 213, ..., of the image reading apparatus 200 according to the second embodiment. 217 and a plurality of image sensor sections 212, 214,..., 218, and have similar functions.

実施の形態3に係る画像読取装置300は、結像光学系301の構成が、実施の形態2における結像光学系201の構成と相違する。実施の形態3における結像光学系301は、原稿70の第1の被撮像領域(例えば、図21の被撮像領域31,33,…,37)からの光の光路を天板303にほぼ平行な水平方向に折曲げる第1の折曲げミラー351aと、原稿70の第2の被撮像領域(例えば、図21の被撮像領域32,34,…,38)からの光の光路を、第1の折曲げミラー351aによる反射光とは反対側に折曲げる第2の折曲げミラー351bとを有する。また、実施の形態3の結像光学系301においては、第1グループG31に属する第1の結像光学部(例えば、結像光学部313)は、第1の折曲げミラー351aと、光学セル363とから構成され、第2グループG32に属する第2の結像光学部(例えば、結像光学部314)は、第2の折曲げミラー351bと、光学セル364とから構成される。実施の形態3においては、第1グループG31に属する第1の結像光学部(例えば、結像光学部313)及び第2グループG32に属する第2の結像光学部(例えば、結像光学部314)の各光軸は、天板303に平行な水平方向であるが、水平方向を基準に傾斜した方向であってもよい。また、第1の折曲げミラー351a及び第2の折曲げミラー351bのそれぞれは、長尺な1つのミラーであっても、各結像光学部に対応して複数に分割されたミラーであってもよい。さらに、第1の折曲げミラー351a及び第2の折曲げミラー351bは、光の方向を変える機能を有する手段であれば、ミラー以外の光学素子であってもよい。また、光学セル363,364の構造も、実施の形態1の光学セルの構造などのような他の構造であってもよい。 In the image reading apparatus 300 according to the third embodiment, the configuration of the imaging optical system 301 is different from the configuration of the imaging optical system 201 in the second embodiment. In the imaging optical system 301 according to the third embodiment, the optical path of light from the first imaged region (for example, the imaged regions 31, 33,..., 37 in FIG. 21) of the document 70 is substantially parallel to the top plate 303. The first optical path of light from the first folding mirror 351a that bends in the horizontal direction and the second imaged area (for example, the imaged areas 32, 34,... And a second folding mirror 351b that bends in the opposite direction to the light reflected by the folding mirror 351a. In the imaging optical system 301 of the third embodiment, the first imaging optical section belonging to the first group G 31 (e.g., image-forming optical unit 313) includes a first fold mirror 351a, optical It consists cell 363 Metropolitan, second imaging optical section belonging to the second group G 32 (e.g., image-forming optical unit 314) includes a second fold mirror 351b, comprised of the optical cell 364 Prefecture. In the third embodiment, the first imaging optical unit (e.g., image-forming optical unit 313) second imaging optical unit belonging to and the second group G 32 belonging to the first group G 31 (e.g., imaging Each optical axis of the optical unit 314) is a horizontal direction parallel to the top plate 303, but may be a direction inclined with respect to the horizontal direction. Each of the first folding mirror 351a and the second folding mirror 351b is a mirror that is divided into a plurality of parts corresponding to each imaging optical unit, even if it is one long mirror. Also good. Furthermore, the first bending mirror 351a and the second bending mirror 351b may be optical elements other than the mirror as long as they have a function of changing the direction of light. The structures of the optical cells 363 and 364 may be other structures such as the structure of the optical cell of the first embodiment.

以上に説明したように、実施の形態3に係る画像読取装置300は、実施の形態2に係る画像読取装置200と同様の効果を奏することができる。具体的に言えば、主走査方向Dには、結像光学部の境界ごとに、結像光学部の数に応じた細かいピッチで、天板103と原稿70の被撮像領域との間の距離を測定できる。よって、原稿面までの距離を推定できるので、原稿の浮きや傾きなどにより読取り画像に歪みが生じた場合でも、例えば、図18に示されるような、歪みを補正した画像データを生成することができる。 As described above, the image reading apparatus 300 according to the third embodiment can achieve the same effects as the image reading apparatus 200 according to the second embodiment. Specifically, in the main scanning direction D X , between the top plate 103 and the imaged area of the document 70 at a fine pitch corresponding to the number of imaging optical units for each boundary of the imaging optical units. Distance can be measured. Therefore, since the distance to the document surface can be estimated, even when the read image is distorted due to the float or tilt of the document, for example, image data with corrected distortion as shown in FIG. 18 can be generated. it can.

また、実施の形態3に係る画像読取装置300は、第1の折曲げミラー351a及び第2の折曲げミラー351bを設けて光路を折曲げているので、深度方向D(Z軸方向)の装置の厚みを薄くすることができ、装置を小型化することができる。 Further, since the image reading apparatus 300 according to the third embodiment is provided with the first folding mirror 351a and the second folding mirror 351b to bend the optical path, the image reading apparatus 300 in the depth direction D Z (Z-axis direction). The thickness of the device can be reduced, and the device can be miniaturized.

なお、実施の形態3において、上記以外の点は、上記実施の形態2の場合と同じである。   The third embodiment is the same as the second embodiment except for the points described above.

実施の形態4.
図25は、本発明の実施の形態4に係る画像読取装置400の構成を概略的に示す図である。図25には、画像読取装置400の光学系の構成を概略的に示す斜視図(上側)と、画像信号処理系の構成を概略的に示すブロック図(下側)とが含まれている。また、図26は、実施の形態4に係る画像読取装置400の1つの結像光学部411の構成を示す概略的な斜視図及び主要な光線を示す図である。また、図27は、実施の形態4に係る画像読取装置400の光学系を図25のS27−S27線方向に見る概略的な断面及び主要な光線を示す図である。図において、画像の読取りにおける主走査方向DにX軸を置き、主走査方向Dに直交する副走査方向DにY軸を置き、主走査方向D及び副走査方向Dの両方に直交する深度方向DにZ軸を置く。
Embodiment 4 FIG.
FIG. 25 is a diagram schematically showing a configuration of an image reading apparatus 400 according to Embodiment 4 of the present invention. FIG. 25 includes a perspective view (upper side) schematically showing the configuration of the optical system of the image reading apparatus 400 and a block diagram (lower side) schematically showing the configuration of the image signal processing system. FIG. 26 is a schematic perspective view showing a configuration of one imaging optical unit 411 of the image reading apparatus 400 according to Embodiment 4, and a diagram showing main light beams. FIG. 27 is a diagram showing a schematic cross section and main light rays when the optical system of the image reading apparatus 400 according to Embodiment 4 is viewed in the direction of line S 27 -S 27 in FIG. In the figure, place the X-axis in the main scanning direction D X in the reading of the image, place the Y-axis in the sub-scanning direction D Y perpendicular to the main scanning direction D X, both in the main scanning direction D X and the subscanning direction D Y placing the Z-axis in the depth direction D Z perpendicular to.

図示されるように、実施の形態4に係る画像読取装置400は、結像光学系401と、照明光源(図示せず)と、天板403(図25には示さず)と、基板404上に配置された複数の撮像素子部441,442,…と、メモリ405と、画像処理部406とを有する。実施の形態4における、結像光学系401、照明光源(図示せず)、天板403、基板404上に配置された複数の撮像素子部441,442,…、メモリ405、及び画像処理部406は、上記実施の形態2における結像光学系201、照明光源202、天板203、基板204上に配置された複数の撮像素子部241,242,…、メモリ205、及び画像処理部206と同様の機能を有する。   As illustrated, the image reading apparatus 400 according to the fourth embodiment includes an imaging optical system 401, an illumination light source (not shown), a top plate 403 (not shown in FIG. 25), and a substrate 404. .., A memory 405, and an image processing unit 406. In the fourth embodiment, an imaging optical system 401, an illumination light source (not shown), a top plate 403, a plurality of image sensor units 441, 442,... Arranged on a substrate 404, a memory 405, and an image processing unit 406 Are the same as the imaging optical system 201, the illumination light source 202, the top plate 203, the plurality of image sensor units 241, 242,... Arranged on the substrate 204, the memory 205, and the image processing unit 206 in the second embodiment. It has the function of.

実施の形態4に係る画像読取装置400は、結像光学系401の構成が、上記実施の形態2における結像光学系201の構成と相違する。実施の形態4の結像光学系401は、原稿70の被撮像領域からの光を折曲げるミラーを含む構成を採用している。実施の形態4の結像光学系401においては、第1グループG41に属する第1の結像光学部(例えば、結像光学部411)は、折曲げミラー451aと、反射型の集光素子(例えば、集光ミラー)である第1凹面鏡452aと、絞りとして機能するアパーチャ453aと、反射型の集光素子(例えば、集光ミラー)である第2凹面鏡454aと、折曲げミラー455aとから構成される。また、第2グループG42に属する第2の結像光学部(例えば、結像光学部412)は、折曲げミラー451bと、反射型の集光素子である第1凹面鏡452bと、絞りとして機能するアパーチャ453bと、反射型の集光素子である第2凹面鏡454bと、折曲げミラー455bとから構成される。 In the image reading apparatus 400 according to the fourth embodiment, the configuration of the imaging optical system 401 is different from the configuration of the imaging optical system 201 in the second embodiment. The imaging optical system 401 according to the fourth embodiment employs a configuration including a mirror that bends light from the imaging region of the document 70. In the image forming optical system 401 of the fourth embodiment, the first imaging optical section belonging to the first group G 41 (e.g., image-forming optical unit 411) includes a fold mirror 451a, the reflection-type light-converging element A first concave mirror 452a (for example, a condensing mirror), an aperture 453a that functions as a diaphragm, a second concave mirror 454a that is a reflective condensing element (for example, a condensing mirror), and a bending mirror 455a. Composed. The second imaging optical section belonging to the second group G 42 (e.g., image-forming optical unit 412) includes a fold mirror 451 b, a first concave mirror 452b is a reflective light-converging element, functions as a throttle Aperture 453b, a second concave mirror 454b which is a reflective condensing element, and a bending mirror 455b.

実施の形態4における第1凹面鏡452a,452bはそれぞれ、実施の形態2における第1集光レンズ252に対応する集光機能を有する。実施の形態4におけるアパーチャ453a,453bはそれぞれ、実施の形態2におけるアパーチャ253に対応する絞り機能を有する。実施の形態4における第2凹面鏡454a,454bはそれぞれ、実施の形態2における第2集光レンズ254に対応する集光機能を有する。したがって、実施の形態4における結像光学系401は、実施の形態2における結像光学系201と同様の機能を有する。このため、実施の形態4に係る画像読取装置400は、実施の形態2の画像読取装置200と同様の効果を奏することができる。   The first concave mirrors 452a and 452b in the fourth embodiment each have a condensing function corresponding to the first condensing lens 252 in the second embodiment. Apertures 453a and 453b in the fourth embodiment each have a diaphragm function corresponding to aperture 253 in the second embodiment. Second concave mirrors 454a and 454b in the fourth embodiment each have a condensing function corresponding to second condensing lens 254 in the second embodiment. Therefore, the imaging optical system 401 in the fourth embodiment has the same function as the imaging optical system 201 in the second embodiment. For this reason, the image reading apparatus 400 according to the fourth embodiment can achieve the same effects as the image reading apparatus 200 according to the second embodiment.

なお、上記説明においては、各結像光学部が、第1凹面鏡452a(又は452b)と、第2凹面鏡454a(又は454b)の2つの凹面鏡を有しているので、装置の厚み方向(Z軸方向)及び装置の幅方向(Y軸方向)において画像読取装置を小型化することができる。   In the above description, each imaging optical unit has two concave mirrors, ie, the first concave mirror 452a (or 452b) and the second concave mirror 454a (or 454b). Direction) and the width direction of the apparatus (Y-axis direction), the image reading apparatus can be reduced in size.

なお、本発明は、上記態様に限定されず、第1凹面鏡452a,452b又は第2凹面鏡454a,454bを集光機能を持たない反射ミラーとすることも可能である。また、本発明においては、第1凹面鏡452a,452b又は第2凹面鏡454a,454bをレンズで構成することも可能である。さらに、各結像光学部が有する凹面鏡の数を3枚以上とすることも可能である。   In addition, this invention is not limited to the said aspect, It is also possible to make the 1st concave mirror 452a, 452b or the 2nd concave mirror 454a, 454b into a reflective mirror which does not have a condensing function. In the present invention, the first concave mirrors 452a and 452b or the second concave mirrors 454a and 454b can be formed of lenses. Furthermore, the number of concave mirrors included in each imaging optical unit can be three or more.

次に、実施の形態4に係る画像読取装置400をより具体的に説明する。1つの結像光学部及びこれに対応する撮像素子部によって撮像される被撮像領域の主走査方向Dの長さは、例えば、10mmである。天板403の上面403aの垂線に対する結像光学部の光軸の副走査方向Dにおける傾斜角θは、例えば、5°である。すなわち、原稿70から副走査方向Dにおける傾斜角、すなわち、天板403の上面403aの垂線に対して5°の方向に進む主光線を持つ光は、折曲げミラー451a又は452aによって光路を曲げられる。折曲げミラー451a又は452aによって光路を曲げられた光は、その主光線の方向が副走査方向D(Y軸)に対して8°の角度をなす緩やかな斜め下向きの方向に進み、第1凹面鏡452a又は452bに入射する。 Next, the image reading apparatus 400 according to the fourth embodiment will be described more specifically. The length of the main scanning direction D X of the imaging area imaged by the imaging element unit corresponding to one imaging optical unit and which is, for example, 10 mm. The inclination angle θ in the sub-scanning direction D Y of the optical axis of the imaging optical section relative to the normal of the upper surface 403a of the top plate 403, for example, 5 °. That is, the inclination angle in the sub-scanning direction D Y from the document 70, i.e., light having a main light beam traveling in the direction of 5 ° relative to the normal of the upper surface 403a of the top plate 403, bend the optical path by the fold mirror 451a or 452a It is done. The light whose optical path is bent by the bending mirror 451a or 452a proceeds in a gentle oblique downward direction in which the principal ray direction forms an angle of 8 ° with respect to the sub-scanning direction D Y (Y axis). The light enters the concave mirror 452a or 452b.

第1凹面鏡452a及び452bの焦点距離f452は、例えば、20mmである。原稿70から第1凹面鏡452a又は452bまでの距離は、ほぼ20mmになるように設計されており、第1凹面鏡452a又は452bによって反射された光は、コリメートされる。アパーチャ453a又は453bは、光軸に沿って第1凹面鏡452a又は452bから、例えば、20mmの位置に設けられている。20mmの距離は、第1凹面鏡452a又は452bの焦点距離と等しいので、結像光学部(例えば、図25における結像光学部411及び412)は、原稿70側にテレセントリックな光学系である。 The focal length f 452 of the first concave mirrors 452a and 452b is, for example, 20 mm. The distance from the document 70 to the first concave mirror 452a or 452b is designed to be approximately 20 mm, and the light reflected by the first concave mirror 452a or 452b is collimated. The aperture 453a or 453b is provided, for example, at a position of 20 mm from the first concave mirror 452a or 452b along the optical axis. Since the distance of 20 mm is equal to the focal length of the first concave mirror 452a or 452b, the imaging optical unit (for example, the imaging optical units 411 and 412 in FIG. 25) is an optical system telecentric on the document 70 side.

アパーチャ453a又は453bの開口径が、各結像光学部の明るさと被写界深度を決定する。ここでは、アパーチャ453a及び453bの開口直径φが1mmの場合を説明する。このときの、光学系のF値は20である。この結像光学部(例えば、図25における結像光学部411又は412)全体の光学部品の配置、及び、第1凹面鏡452a及び452b、第2凹面鏡454a及び454bを非球面形状などを用いて最適化設計すれば、合焦位置を基準として深度方向Dに少なくとも±2mm、すなわち、深度方向Dに4mmの被写界深度を得ることができる。 The aperture diameter of the aperture 453a or 453b determines the brightness and depth of field of each imaging optical unit. Here, the case where the aperture diameter φ of the apertures 453a and 453b is 1 mm will be described. At this time, the F value of the optical system is 20. Optimum arrangement of optical components of the entire imaging optical unit (for example, imaging optical unit 411 or 412 in FIG. 25), and the first concave mirrors 452a and 452b and the second concave mirrors 454a and 454b are optimally used by using an aspherical shape or the like. by designing of at least ± 2 mm in the depth direction D Z focus position as a reference, i.e., it is possible to obtain a depth of field of 4mm in the depth direction D Z.

アパーチャ453a又は453bを通過した光は、第2凹面鏡454a又は454bによって集光され、折曲げミラー455a又は455bで折り曲げられた後、撮像素子部441,443,…又は442,444,…上に結像する。ここで、第2凹面鏡454a又は454bの焦点距離f454を20mmとすれば、結像倍率が1の反転像が結像される。複数の撮像素子部で撮像された反転像から合成画像を生成(復元)する処理は、例えば、実施の形態1で説明した画像処理部106による処理と同様である。 The light that has passed through the apertures 453a or 453b is collected by the second concave mirror 454a or 454b, bent by the bending mirror 455a or 455b, and then coupled onto the image sensor portions 441, 443,. Image. Here, if the focal length f 454 of the second concave mirror 454a or 454b is 20 mm, an inverted image with an imaging magnification of 1 is formed. A process for generating (restoring) a composite image from inverted images captured by a plurality of image sensor units is the same as the process performed by the image processing unit 106 described in Embodiment 1, for example.

実施の形態4に係る画像読取装置400の一例は、アパーチャ453a又は453bから第2凹面鏡454a又は454bまでの光路長、及び、第2凹面鏡454a又は454bから撮像素子部441,443,…又は442,444,…までの距離を、ともに20mmに設定しているので、原稿70側のみならず像側にもテレセントリックな光学系となる。このように、像側にもテレセントリックな光学系を構成することで、撮像素子部441,443,…又は442,444,…の光路方向の設置位置(図4においては、Z軸方向)の設置位置によらず、結像倍率が一定になるという効果がある。   An example of the image reading apparatus 400 according to Embodiment 4 includes an optical path length from the aperture 453a or 453b to the second concave mirror 454a or 454b, and an imaging element unit 441, 443,. Since the distances to 444,... Are both set to 20 mm, a telecentric optical system is formed not only on the original 70 side but also on the image side. In this way, by constructing a telecentric optical system on the image side as well, the installation positions of the image sensor elements 441, 443,... Or 442, 444,. There is an effect that the imaging magnification becomes constant regardless of the position.

以上に説明したように、実施の形態4に係る画像読取装置400においては、集光手段として、第1凹面鏡452a及び452b並びに第2凹面鏡454a及び454bを使用しているので、色収差が発生しないという利点もある。特に、大きな被写界深度を持つ光学系では、色収差が顕著になりやすいが、実施の形態4に係る画像読取装置400においては、反射光学系を用いることで、色収差を回避することができる。   As described above, in the image reading apparatus 400 according to the fourth embodiment, the first concave mirrors 452a and 452b and the second concave mirrors 454a and 454b are used as the condensing means, so that chromatic aberration does not occur. There are also advantages. In particular, in an optical system having a large depth of field, chromatic aberration tends to be noticeable. However, in the image reading apparatus 400 according to Embodiment 4, chromatic aberration can be avoided by using a reflective optical system.

また、実施の形態4に係る画像読取装置400においては、光学素子を反射鏡で構成しているので、光路が折り返され、装置の厚み方向(Z軸方向)及び装置の幅方向(Y軸方向)において、光学系全体を小型化することができる利点もある。   In the image reading apparatus 400 according to the fourth embodiment, since the optical element is configured by a reflecting mirror, the optical path is folded back, and the apparatus thickness direction (Z-axis direction) and apparatus width direction (Y-axis direction). ) Is advantageous in that the entire optical system can be reduced in size.

また、上記説明においては、原稿70から撮像素子部441,443,…又は442,444,…までの光路長は80mmになる。したがって、仮に、第1及び第2の折曲げミラー451a及び452bを設けず、かつ、第1凹面鏡452a及び452b並びに第2凹面鏡454a及び454bと同様の機能のレンズを用いて同様の結像光学部を構成すると、その結像光学部のZ軸方向の厚みは、約80mmになる。これに対し、実施の形態4に係る画像読取装置400においては、折曲げミラー451a及び452b、第1凹面鏡452a及び452b、並びに、第2凹面鏡454a及び454bによって光路を折り返しているので、光学系のZ軸方向の厚みを約23mmに縮小することができる。   In the above description, the optical path length from the document 70 to the image sensor elements 441, 443,... 442, 444,. Therefore, if the first and second bending mirrors 451a and 452b are not provided, and the same imaging optical unit is used by using a lens having the same function as the first concave mirrors 452a and 452b and the second concave mirrors 454a and 454b. Is formed, the imaging optical part has a thickness in the Z-axis direction of about 80 mm. On the other hand, in the image reading apparatus 400 according to the fourth embodiment, the optical path is folded by the folding mirrors 451a and 452b, the first concave mirrors 452a and 452b, and the second concave mirrors 454a and 454b. The thickness in the Z-axis direction can be reduced to about 23 mm.

また、実施の形態4に係る画像読取装置400においては、結像光学部の結像倍率を1にすることができるので、撮像素子部として既存の撮像センサを使用することができ、装置の低価格化を図ることができるという利点がある。すなわち、仮に光学系が縮小系であった場合には、その縮小倍率に応じて撮像素子部の一画素単位を小さくしなければ、撮像素子部自体の解像度によって得られる像の解像度は劣化する。実施の形態4に係る画像読取装置400においては、結像光学部の結像倍率を1にすることができるので、既存の正立等倍像を撮像する密着型イメージセンサの解像度を600dpiとすることによって、600dpiの解像度を達成することができる。   Further, in the image reading apparatus 400 according to the fourth embodiment, since the imaging magnification of the imaging optical unit can be set to 1, an existing imaging sensor can be used as the imaging element unit, and the apparatus can be reduced. There is an advantage that it can be priced. In other words, if the optical system is a reduction system, the resolution of the image obtained by the resolution of the image sensor unit itself deteriorates unless one pixel unit of the image sensor unit is reduced in accordance with the reduction magnification. In the image reading apparatus 400 according to the fourth embodiment, since the imaging magnification of the imaging optical unit can be set to 1, the resolution of the existing contact image sensor that captures an existing erecting equal-magnification image is set to 600 dpi. As a result, a resolution of 600 dpi can be achieved.

また、実施の形態4に係る画像読取装置400においては、各結像光学部の結像倍率を1にする場合、各結像光学部の第1凹面鏡452a及び452b並びに第2凹面鏡454a及び454bを同一部材で構成することができる。特に、実施の形態4に係る画像読取装置400のように、原稿70側及び像側の両方でテレセントリックな光学系であれば、各結像光学部の第1凹面鏡452a及び452b並びに第2凹面鏡454a及び454bの形状を同一にしても、十分な解像度の結像条件を持った光学系を設計できる。このように、各凹面鏡に同一部材を使用することができるので、装置の低価格化を実現することができるという効果がある。   Further, in the image reading apparatus 400 according to Embodiment 4, when the imaging magnification of each imaging optical unit is set to 1, the first concave mirrors 452a and 452b and the second concave mirrors 454a and 454b of each imaging optical unit are provided. It can comprise with the same member. In particular, as in the image reading device 400 according to the fourth embodiment, if the optical system is telecentric on both the document 70 side and the image side, the first concave mirrors 452a and 452b and the second concave mirror 454a of each imaging optical unit. Even if the shapes of 454b and 454b are the same, an optical system having an imaging condition with sufficient resolution can be designed. Thus, since the same member can be used for each concave mirror, there is an effect that the cost of the apparatus can be reduced.

次に、複数の結像光学部を組み合わせた例について説明する。第1グループG41に属する結像光学部(光線を破線で示す)は、原稿70から天板403の上面403aの垂線に対して傾斜角5°の光軸を持つ。また、第2グループG42に属する結像光学部(光線を実線で示す)は、原稿70から天板403の上面403aの垂線に対して、第1グループに属する結像光学部の傾斜角とは副走査方向Dに反対側に傾斜角5°の光軸を持つ。また、隣接する結像光学部(例えば、図25における結像光学部411と412)の間隔は9mmである。また、同一列(同一グループG41又はG42)内における結像光学部間の距離は18mmである。1つの結像光学部を通して撮像素子部によって撮像される被撮像領域の読取り幅(主走査方向Dの長さ)は10mmであるので、隣接する結像光学部間での被撮像領域(読取り領域)の重複領域の幅は1mmである。主走査方向Dに1mmの撮像画像には、600dpiの場合には、約24画素が含まれている。この画素数は、隣接する結像光学部を通して撮像素子部によって撮像された画像同士を結合するための、画像処理部による処理にとって、十分な大きさである。 Next, an example in which a plurality of imaging optical units are combined will be described. An imaging optical unit (rays are indicated by broken lines) belonging to the first group G 41 has an optical axis with an inclination angle of 5 ° with respect to a perpendicular line from the original 70 to the upper surface 403 a of the top plate 403. Further, the imaging optical unit belonging to the second group G 42 (indicating the light by a solid line), relative to the normal of the upper surface 403a of the top plate 403 from the document 70, the inclination angle of the imaging optical section belonging to the first group has an optical axis inclined angle of 5 ° on the opposite side in the sub-scanning direction D Y. The interval between adjacent imaging optical units (for example, imaging optical units 411 and 412 in FIG. 25) is 9 mm. The distance between the imaging optical units in the same row (same group G 41 or G 42 ) is 18 mm. Since one imaging read width of the imaging area imaged by the imaging element unit through an optical portion (length in the main scanning direction D Z) is a 10 mm, the imaging area (read between the adjacent image-forming optical unit The width of the overlapping region (region) is 1 mm. 1mm The captured image in the main scanning direction D X, in the case of 600dpi is included about 24 pixels. This number of pixels is large enough for processing by the image processing unit to combine images captured by the imaging element unit through the adjacent imaging optical unit.

図27に示されるように、第1グループG41に属する結像光学部(光線を破線で示す)、及び、第2グループG42に属する結像光学部(光線を実線で示す)における、原稿70からアパーチャ453a又は453bまでの光路は、交差しているが、主走査方向Dにずれた(交差しない)空間を進んでいる。すなわち、第1グループG41に属する結像光学部(光線を破線で示す)、及び、第2グループG42に属する結像光学部(光線を実線で示す)におけるそれぞれの光路は、3次元的には、干渉し合っていない、すなわち、重複していない。実施の形態4に係る画像読取装置400によれば、光路が干渉し合っていない光学系の小型化を図ることができる。 As shown in FIG. 27, the originals in the imaging optical unit (rays are indicated by broken lines) belonging to the first group G 41 and the imaging optical unit (light rays are indicated by solid lines) belonging to the second group G 42 the optical path from 70 to aperture 453a or 453b is intersect, it shifted in the main scanning direction D X (do not cross) has advanced the space. That is, the respective optical paths in the imaging optical unit (rays are indicated by broken lines) belonging to the first group G 41 and the imaging optical unit (rays are indicated by solid lines) belonging to the second group G 42 are three-dimensional. Does not interfere with each other, that is, does not overlap. According to the image reading apparatus 400 according to the fourth embodiment, it is possible to reduce the size of the optical system in which the optical paths do not interfere with each other.

また、原稿70側の合焦位置を、実施の形態4に係る画像読取装置400では、天板403bの上面403aから1mmの第3の原稿位置73に設計し、さらに、第1グループG41に属する結像光学部(光線を破線で示す)を通して読み取られる被撮像領域のラインと、第2グループG42に属する結像光学部(光線を実線で示す)を通して読み取られる被撮像領域のラインとが、第3の原稿位置73で交わるように設計している。上述したように、光学系自体は、±2mmの被写界深度を持っているので、天板403の上面から3mmの第4の原稿位置75まで十分に良好な解像度を得ることができる。言い換えると、実施の形態4に係る画像読取装置400の被写界深度は、天板403の上面403aから3mmまでである。原稿70が被写界深度の範囲内に置かれれば、結像光学系によって結像され撮像素子部によって撮像された画像は良好な解像度を有するが、原稿70の被撮像領域は、できるだけ合焦位置に近い位置に置かれることが好ましい。したがって、撮像画像の品質を重視する場合には、合焦位置を天板403の上面403aに一致させる設計を採用することが望ましい。しかし、できるだけ画像のぼやけの発生を回避できるように、より大きな被写界深度を持つ装置とするために、天板403の上面403aから上方に、例えば、2mmの位置に合焦位置が存在するように、天板403の位置を下げる設計を採用することも可能である。この場合には、被写界深度を、天板403の上面403aから、その上方4mmの位置までの範囲と、大きくすることができる。 Moreover, the focus position of the document 70 side, the image reading apparatus 400 according to the fourth embodiment, designed from the upper surface 403a of the top plate 403b to the third document position 73 of 1 mm, furthermore, the first group G 41 a line of the imaging area to be read through an imaging optical section (indicating the light by the dashed line) that belongs, and the line of the imaging area to be read through an imaging optical section belonging to the second group G 42 (indicating the light by the solid line) The third document position 73 is designed to intersect. As described above, since the optical system itself has a depth of field of ± 2 mm, a sufficiently good resolution can be obtained from the upper surface of the top plate 403 to the fourth original position 75 of 3 mm. In other words, the depth of field of the image reading apparatus 400 according to Embodiment 4 is 3 mm from the upper surface 403 a of the top plate 403. If the document 70 is placed within the range of the depth of field, the image formed by the imaging optical system and picked up by the imaging element unit has a good resolution, but the imaged region of the document 70 is focused as much as possible. It is preferable to be placed at a position close to the position. Therefore, when importance is attached to the quality of the captured image, it is desirable to adopt a design in which the in-focus position matches the upper surface 403a of the top plate 403. However, in order to avoid an image blur as much as possible, an in-focus position exists, for example, at a position of 2 mm above the top surface 403a of the top plate 403 in order to obtain a device having a greater depth of field. Thus, it is also possible to adopt a design that lowers the position of the top plate 403. In this case, the depth of field can be increased to a range from the upper surface 403a of the top plate 403 to a position 4 mm above it.

原稿70の位置が第3の原稿位置73(実施の形態4における合焦位置)から遠ざかるにつれて、第1グループG41に属する結像光学部(光線を破線で示す)を通して読み取られる被撮像領域のラインと、第2グループG42に属する結像光学部(光線を実線で示す)を通して読み取られるラインとは、副走査方向Dに離れる。これは以下の理由による。第1の理由は、実施の形態2で説明したように、光学系が原稿70側にテレセントリックであり、原稿70の位置が第3の原稿位置73(実施の形態4における合焦位置)から遠ざかっても、主走査方向D及び副走査方向Dとも結像倍率が変化しないからである。第2の理由は、主走査方向Dに対して結像光学部の光軸が垂直であることから、第1グループG41に属する結像光学部(光線を破線で示す)を通して読み取られる被撮像領域のラインと、第2グループG42に属する結像光学部(光線を実線で示す)を通して読み取られるラインは、主走査方向Dには移動せず、副走査方向Dにのみ移動するからである。よって、実施の形態4に係る画像読取装置400においては、原稿70の深度方向Dの位置が、原稿の主走査方向Dの位置に応じて変動している場合であっても、第1グループG41に属する結像光学部を通して読み取られる被撮像領域のラインと第2グループG42に属する結像光学部を通して読み取られるラインとの副走査方向のずれを考慮に入れた画像の結合及び修正処理を、実施の形態1で説明した画像処理部による処理方法と同様の方法によって、行うことができる。 As the position of the document 70 moves away from the third original position 73 (focus position in the fourth embodiment), of the imaging area to be read through an imaging optical section belonging to the first group G 41 (indicating the light by a broken line) and line, and the line to be read through an imaging optical section belonging to the second group G 42 (indicating the light by the solid line), leaving the sub-scanning direction D Y. This is due to the following reason. The first reason is that, as described in the second embodiment, the optical system is telecentric on the original 70 side, and the position of the original 70 is moved away from the third original position 73 (the in-focus position in the fourth embodiment). even, because image magnification does not change with the main scanning direction D X and the subscanning direction D Y. The second reason is that since the optical axis of the imaging optical unit is perpendicular to the main scanning direction D X , the object to be read is read through the imaging optical unit belonging to the first group G 41 (rays are indicated by broken lines). a line of the imaging region, the line to be read through an imaging optical section belonging to the second group G 42 (indicating the light by a solid line) is not moved in the main scanning direction D X, moves only in the sub-scanning direction D Y Because. Therefore, in the image reading apparatus 400 according to the fourth embodiment, the position in the depth direction D Z of the document 70, even if the varied according to the position of the main scanning direction D X of the document, the first Combining and correcting images taking into account the deviation in the sub-scanning direction between the line of the imaged region read through the imaging optical unit belonging to the group G 41 and the line read through the imaging optical unit belonging to the second group G 42 The processing can be performed by a method similar to the processing method by the image processing unit described in the first embodiment.

図28は、実施の形態4に係る画像読取装置400の遮光部材を含む構成を原稿70側から見た概略的な斜視図である。また、図29は、実施の形態4に係る画像読取装置400の遮光部材を含む構成を撮像素子部側から見た概略的な斜視図である。図28又は図29に示されるように、画像読取装置400は、遮光部材462及び463、スリット(孔)461a及び461bを備えた遮光スリット部材461とを有することが望ましい。実施の形態4に係る画像読取装置400は、被写界深度を大きくするためにF値を20とし、結像光学系401に取り込まれる光量が少なく、使用されない光が多い光学系である。このため、原稿70から散乱される光の多くが、結像光学系に入射しない不要な光となる。したがって、不要な光を適切に遮光する必要がある。   FIG. 28 is a schematic perspective view of the configuration including the light shielding member of the image reading apparatus 400 according to the fourth embodiment, viewed from the document 70 side. FIG. 29 is a schematic perspective view of the configuration including the light-shielding member of the image reading apparatus 400 according to Embodiment 4 as viewed from the imaging element unit side. As shown in FIG. 28 or FIG. 29, the image reading apparatus 400 preferably includes light shielding members 462 and 463 and light shielding slit members 461 provided with slits (holes) 461a and 461b. The image reading apparatus 400 according to Embodiment 4 is an optical system in which the F value is set to 20 in order to increase the depth of field, the amount of light taken into the imaging optical system 401 is small, and there is much light that is not used. For this reason, much of the light scattered from the document 70 becomes unnecessary light that does not enter the imaging optical system. Therefore, it is necessary to appropriately shield unnecessary light.

そのためには、図28に示される例においては、遮光スリット部材461はスリット(孔)461a及び461bを、結像光学部の配列に対応する千鳥状に配列している。また、遮光部材462及び463は、アパーチャ453a及び453bよりも光の進む方向に下流の光路も外界から遮光することで、より一層迷光に対する耐性が強くなる。さらに、折曲げミラー455a及び455bよりも下流側の光路部分にも開口部470a及び470bを有する遮光スリット部材470を設置することで、より迷光に対する耐性を強くできる。開口部470a及び470bは、撮像素子部441,442,443,…に対応して設けられている。   For this purpose, in the example shown in FIG. 28, the light-shielding slit member 461 has slits (holes) 461a and 461b arranged in a staggered pattern corresponding to the arrangement of the imaging optical units. In addition, the light shielding members 462 and 463 are more resistant to stray light by shielding the downstream optical path from the outside in the light traveling direction than the apertures 453a and 453b. Furthermore, by installing the light-shielding slit member 470 having the openings 470a and 470b in the optical path portion on the downstream side of the bending mirrors 455a and 455b, the resistance to stray light can be further increased. The openings 470a and 470b are provided corresponding to the imaging element portions 441, 442, 443,.

また、図25に示されるように、アパーチャ453aを透過型とし、同一グループG41又はG42内において隣接する結像光学部間に遮光壁471を設け、アパーチャ453a及び453bよりも光の進行方向の下流における光学系を、迷光を侵入させ難い独立な構成としているので、撮像画像を迷光によって劣化させることがなく、撮像画像の品質を向上させることができる。また、遮光壁471、遮光部材462,463などの内壁面を黒色とすることで、アパーチャ453a及び453bの小さな開口部から侵入する迷光による撮像画像の劣化を軽減することができる。 Further, as shown in FIG. 25, an aperture 453a is a transmission type, the light shielding wall 471 between the imaging optical unit adjacent in the same group G 41 or G 42 is provided, the traveling direction of the light than the aperture 453a and 453b Since the downstream optical system has an independent configuration that makes it difficult for stray light to enter, the captured image is not deteriorated by stray light, and the quality of the captured image can be improved. In addition, by setting the inner wall surfaces of the light shielding wall 471 and the light shielding members 462 and 463 to black, it is possible to reduce deterioration of the captured image due to stray light entering from the small openings of the apertures 453a and 453b.

また、結像光学系401を実現する方法として、以下の方法を採用することができる。例えば、図25から理解できるように、主走査方向Dに複数個並ぶ同様の光学要素(例えば、主走査方向Dに複数個並ぶ第1凹面鏡、主走査方向Dに複数個並ぶ第2凹面鏡、又は、主走査方向Dに複数個並ぶアパーチャ)を長尺な支持部材上に配列してもよい。例えば、結像光学系401を、支持部材上に複数個の第1凹面鏡を1列に18mm間隔で並べた第1凹面鏡アレイと、スリット(孔)を1列に18mm間隔で開けたアパーチャアレイと、支持部材上に複数個の第2凹面鏡を1列に18mm間隔で並べた第2凹面鏡アレイとを用いる構成することができる。また、折曲げミラー451a,451b及び折曲げミラー455a,455bは、1枚の細長い板にアルミなどの反射材料を蒸着することによって製造できる。また、折曲げミラー451a,451bは、隣接して配置されるので、例えば、断面形状が三角形(又はL字状)の部材の両斜面に反射材料を蒸着して作製してもよい。 Further, as a method of realizing the imaging optical system 401, the following method can be employed. For example, as can be understood from FIG. 25, the main scanning direction D plurality arranged similar optical elements in X (e.g., main scanning direction D X plurality arranged first concave mirror, a second aligned plurality in the main scanning direction D X concave mirror, or an aperture) arranged plurality may be arranged on the elongate support member in the main scanning direction D X. For example, the imaging optical system 401 includes a first concave mirror array in which a plurality of first concave mirrors are arranged in a row on a support member at an interval of 18 mm, and an aperture array in which slits (holes) are opened at an interval of 18 mm in a row. A second concave mirror array in which a plurality of second concave mirrors are arranged in a row at intervals of 18 mm on the support member can be used. Further, the bending mirrors 451a and 451b and the bending mirrors 455a and 455b can be manufactured by vapor-depositing a reflective material such as aluminum on a single thin plate. Further, since the folding mirrors 451a and 451b are disposed adjacent to each other, for example, the reflecting mirror may be formed by vapor-depositing a reflective material on both slopes of a member having a triangular (or L-shaped) cross-sectional shape.

以上に説明したように、実施の形態4に係る画像読取装置400は、実施の形態3に係る画像読取装置300と同様の効果を奏することができる。具体的に言えば、主走査方向Dには、結像光学部の境界ごとに、結像光学部の数に応じた細かいピッチで、天板と原稿の被撮像領域との間の距離を測定できる。よって、原稿面までの距離を推定できるので、原稿の浮きや傾きなどにより読取り画像に歪みが生じた場合でも、例えば、図18に示されるような、歪みを補正した画像データを生成することができる。 As described above, the image reading apparatus 400 according to the fourth embodiment can achieve the same effects as the image reading apparatus 300 according to the third embodiment. Specifically, in the main scanning direction D X , the distance between the top plate and the imaged area of the document is set at a fine pitch corresponding to the number of imaging optical units for each boundary of the imaging optical units. It can be measured. Therefore, since the distance to the document surface can be estimated, even when the read image is distorted due to the float or tilt of the document, for example, image data with corrected distortion as shown in FIG. 18 can be generated. it can.

また、合焦位置から原稿面までの距離に基づく画像ぼやけ補正処理を行なえば、光学系によって定まる被写界深度(天板403の上面403aから3mmまでの範囲)をより一層大きくすることが可能になる。例えば、合焦位置から原稿面までの距離ΔZが3mm以下の場合には、画像処理部406による画像ぼやけの補正処理を行なわず、距離ΔZが3mmを超えた場合にのみ、画像ぼやけの補正処理を行なうようにしてもよい。なお、出願人は、光学系によって定まる被写界深度が天板103から3mmまでの範囲であっても、画像処理部406による画像ぼやけの補正処理を併用することによって、距離ΔZが6mmまで、十分に良好な解像度の画像を取得することができることを、確認している。   Further, if image blur correction processing based on the distance from the in-focus position to the document surface is performed, the depth of field (range from the top surface 403a of the top 403 to 3 mm) determined by the optical system can be further increased. become. For example, when the distance ΔZ from the in-focus position to the document surface is 3 mm or less, the image blur correction process by the image processing unit 406 is not performed, and the image blur correction process is performed only when the distance ΔZ exceeds 3 mm. May be performed. In addition, even if the depth of field determined by the optical system is in the range from the top plate 103 to 3 mm, the applicant can use the image blur correction process by the image processing unit 406 to reduce the distance ΔZ to 6 mm. It has been confirmed that an image with sufficiently good resolution can be acquired.

また、実施の形態4に係る画像読取装置400によれば、折曲げミラー451a,451b、第1凹面鏡452a,452b、第2凹面鏡453a,453b、折曲げミラー455a,455bを用いて光路を折り返しているので、光学系の構成の簡素化及び小型化を実現できる。また、画像処理部406の処理によって画像のぼやけを低減する画像処理を行っているので、実質的な被写界深度を大きくできる。   Further, according to the image reading apparatus 400 according to the fourth embodiment, the optical path is folded using the folding mirrors 451a and 451b, the first concave mirrors 452a and 452b, the second concave mirrors 453a and 453b, and the folding mirrors 455a and 455b. Therefore, simplification and downsizing of the configuration of the optical system can be realized. In addition, since image processing that reduces image blurring is performed by the processing of the image processing unit 406, a substantial depth of field can be increased.

なお、上記説明においては、実施の形態4の結像光学系401は、上記実施の形態2における結像光学系201の第1集光レンズ252、アパーチャ253、第2集光レンズ254に対応する、第1凹面鏡452a,452b、アパーチャ453a,453b、第2凹面鏡454a,454bを有するが、実施の形態4の結像光学系401として他の構成を採用することも可能である。例えば、結像光学系401が、上記実施の形態1における結像光学系101の第1集光レンズ152、アパーチャ153(図2)に対応する、第1凹面鏡452a,452bとアパーチャ453a,453bとを有するように、結像光学系401を構成してもよい。   In the above description, the imaging optical system 401 of the fourth embodiment corresponds to the first condenser lens 252, the aperture 253, and the second condenser lens 254 of the imaging optical system 201 in the second embodiment. The first concave mirrors 452a and 452b, the apertures 453a and 453b, and the second concave mirrors 454a and 454b can be used, but other configurations can be adopted as the imaging optical system 401 of the fourth embodiment. For example, the imaging optical system 401 includes first concave mirrors 452a and 452b and apertures 453a and 453b corresponding to the first condenser lens 152 and the aperture 153 (FIG. 2) of the imaging optical system 101 in the first embodiment. The imaging optical system 401 may be configured to have

また、実施の形態4において、上記以外の点は、上記実施の形態1乃至3の場合と同じである。   In the fourth embodiment, points other than those described above are the same as those in the first to third embodiments.

実施の形態5.
図30は、本発明の実施の形態5に係る画像読取装置500の光学系の構成を概略的に示す斜視図である。また、図31は、実施の形態5に係る画像読取装置500の光学系を図30のS31−S31線方向に見る概略的な断面及び主要な光線(原稿が合焦位置にある場合)を示す図である。また、図32は、実施の形態5に係る画像読取装置500の光学系を図30のS31−S31線方向に見る概略的な断面及び主要な光線(原稿が合焦位置からずれた位置にある場合)を示す図である。さらに、図33は、実施の形態5に係る画像読取装置500の遮光部材を含む構成を概略的に示す斜視図である。
Embodiment 5 FIG.
FIG. 30 is a perspective view schematically showing the configuration of the optical system of the image reading apparatus 500 according to Embodiment 5 of the present invention. FIG. 31 is a schematic cross-sectional view of the optical system of the image reading apparatus 500 according to the fifth embodiment in the direction of the line S 31 -S 31 in FIG. 30 and main light rays (when the document is at the in-focus position). FIG. Further, FIG. 32, see the optical system of the image reading apparatus 500 according to the fifth embodiment in S 31 -S 31 along the line of FIG. 30 schematic cross-sectional and major rays (document is deviated from the in-focus position position FIG. FIG. 33 is a perspective view schematically showing a configuration including a light shielding member of the image reading apparatus 500 according to the fifth embodiment.

実施の形態5に係る画像読取装置500は、結像光学系501と、照明光源(図示せず)と、天板503と、基板(図示せず)上に配置された複数の撮像素子部541,542,…と、メモリ(図示せず)と、画像処理部(図示せず)とを有する。実施の形態5における結像光学系501、照明光源(図示せず)、天板503、基板上に配置された複数の撮像素子部541,542,…、メモリ505、及び画像処理部506は、上記実施の形態4における結像光学系401、照明光源(図示せず)、天板403、基板404上に配置された複数の撮像素子部441,442,…、メモリ405、及び画像処理部406と同様の機能を有する。   The image reading apparatus 500 according to the fifth embodiment includes an imaging optical system 501, an illumination light source (not shown), a top plate 503, and a plurality of image sensor units 541 arranged on a substrate (not shown). , 542,..., A memory (not shown), and an image processing unit (not shown). An imaging optical system 501, an illumination light source (not shown), a top plate 503, a plurality of image sensor units 541, 542,..., A memory 505, and an image processing unit 506 in Embodiment 5 are: The imaging optical system 401, the illumination light source (not shown), the top plate 403, the plurality of image sensor units 441, 442,... Arranged on the substrate 404, the memory 405, and the image processing unit 406 in the fourth embodiment. Has the same function.

実施の形態5における結像光学系501は、第1グループG51に属する複数の結像光学部と、第2グループG52に属する複数の結像光学部とを有する。図30乃至図33において、主要な光線を破線で示す結像光学部(例えば、結像光学部511)は、第1グループG51に属する結像光学部であり、主要な光線を実線で示す結像光学部(例えば、結像光学部512)は、第2グループG52に属する結像光学部である。 The imaging optical system 501 according to Embodiment 5 includes a plurality of imaging optical units belonging to the first group G 51 and a plurality of imaging optical units belonging to the second group G 52 . In FIGS. 30 to 33, the imaging optical unit showing a main light beam by a broken line (for example, image-forming optical unit 511) is an image-forming optical unit belonging to the first group G 51, showing the main light beam by a solid line an imaging optical unit (e.g., image-forming optical unit 512) is an image-forming optical unit belonging to the second group G 52.

第1グループG51に属する結像光学部は、原稿70からの光を折曲げる折曲げミラー551aと、この折曲げられた光を反射する第1凹面鏡552aと、この第1凹面鏡552aで反射した光を反射する反射ミラー553aと、反射ミラー553aで反射した光を反射する第2凹面鏡554aと、折曲げミラー555aとを有する。折曲げミラー551aで反射された光は、第1凹面鏡552aでコリメートされて、反射ミラー553aに到達する。反射ミラー553aは、例えば、直径φが1mmの反射領域と、この反射領域の外側の光吸収用の黒色領域(図示せず)とから構成される。反射ミラー553aの反射領域で反射された光線は、第2凹面鏡554aに到達し、ここで集光されて、折曲げミラー555aに到達する。折曲げミラー555aで反射した光は、撮像素子部541,543,…上に結像する。 The imaging optical unit belonging to the first group G 51 is reflected by a folding mirror 551a for folding light from the document 70, a first concave mirror 552a for reflecting the folded light, and the first concave mirror 552a. It includes a reflection mirror 553a that reflects light, a second concave mirror 554a that reflects light reflected by the reflection mirror 553a, and a bending mirror 555a. The light reflected by the bending mirror 551a is collimated by the first concave mirror 552a and reaches the reflection mirror 553a. For example, the reflection mirror 553a includes a reflection area having a diameter φ of 1 mm and a black area (not shown) for light absorption outside the reflection area. The light beam reflected by the reflection region of the reflection mirror 553a reaches the second concave mirror 554a, is condensed here, and reaches the bending mirror 555a. The light reflected by the bending mirror 555a forms an image on the image sensor sections 541, 543,.

同様に、第2グループG52に属する結像光学部は、原稿70からの光を折曲げる折曲げミラー551bと、この折曲げられた光を反射する第1凹面鏡552bと、この第1凹面鏡552bで反射した光を反射する反射ミラー553bと、反射ミラー553bで反射した光を反射する第2凹面鏡554bと、折曲げミラー555bとを有している。折曲げミラー551bで反射された光は、第1凹面鏡552bでコリメートされて、反射ミラー553bに到達する。反射ミラー553bは、例えば、直径φが1mmの反射領域と、この反射領域の外側の光吸収用の黒色領域(図示せず)とから構成される。反射ミラー553bの反射領域で反射された光は、第2凹面鏡554bに到達し、ここで集光されて、折曲げミラー555bに到達する。折曲げミラー555bで反射した光は、撮像素子部542,544,…上に結像する。 Similarly, the imaging optical unit belonging to the second group G 52 includes a fold mirror 551b bending the light from the document 70, a first concave mirror 552b for reflecting the folded light, the first concave mirror 552b A reflection mirror 553b that reflects the light reflected by the reflection mirror 553, a second concave mirror 554b that reflects the light reflected by the reflection mirror 553b, and a bending mirror 555b. The light reflected by the bending mirror 551b is collimated by the first concave mirror 552b and reaches the reflection mirror 553b. The reflection mirror 553b includes, for example, a reflection region having a diameter φ of 1 mm and a black region (not shown) for light absorption outside the reflection region. The light reflected by the reflection region of the reflection mirror 553b reaches the second concave mirror 554b, is condensed here, and reaches the bending mirror 555b. The light reflected by the bending mirror 555b forms an image on the image sensor sections 542, 544,.

光学系全体は、外部からの迷光を遮断するために、図33に示されるように、複数のスリット(孔)561a,561bを備えた遮光スリット部材561と、遮光部材562を有する。   The entire optical system includes a light shielding slit member 561 having a plurality of slits (holes) 561a and 561b and a light shielding member 562, as shown in FIG. 33, in order to block stray light from the outside.

実施の形態5に係る画像読取装置500は、実施の形態4に係る画像読取装置400におけるアパーチャ453a及び453b(透過型の開口部)に代えて、光束径よりも小径の反射ミラー553a及び553bを用いている。反射ミラー553a及び553bは、実施の形態4の画像読取装置400におけるアパーチャ453a及び453bと同様の絞り機能を有する。   In the image reading apparatus 500 according to the fifth embodiment, instead of the apertures 453a and 453b (transmission-type openings) in the image reading apparatus 400 according to the fourth embodiment, reflection mirrors 553a and 553b having a diameter smaller than the light beam diameter are provided. Used. The reflection mirrors 553a and 553b have the same aperture function as the apertures 453a and 453b in the image reading apparatus 400 of the fourth embodiment.

実施の形態5に係る画像読取装置500においても、以下に説明する相違点を除き、実施の形態4に係る画像読取装置400と同様の構成を有する。また、画像読取装置500は、画像読取装置400と同様の構成を有することから、基本的に、画像読取装置500は、画像読取装置400と同様の効果を奏することができる。具体的に言えば、主走査方向Dには、結像光学部の境界ごとに、結像光学部の数に応じた細かいピッチで、天板103と原稿の被撮像領域との間の距離を測定できる。よって、原稿面までの距離を推定できるので、原稿の浮きや傾きなどにより読取り画像に歪みが生じた場合でも、例えば、図18に示されるような、歪みを補正した画像データを生成することができる。 The image reading apparatus 500 according to the fifth embodiment also has the same configuration as that of the image reading apparatus 400 according to the fourth embodiment, except for differences described below. Further, since the image reading apparatus 500 has the same configuration as that of the image reading apparatus 400, the image reading apparatus 500 can basically exhibit the same effects as the image reading apparatus 400. Specifically, in the main scanning direction D X , the distance between the top plate 103 and the imaged region of the document at a fine pitch corresponding to the number of imaging optical units for each boundary of the imaging optical units. Can be measured. Therefore, since the distance to the document surface can be estimated, even when the read image is distorted due to the float or tilt of the document, for example, image data with corrected distortion as shown in FIG. 18 can be generated. it can.

また、実施の形態5に係る画像読取装置500によれば、絞り機能をアパーチャによって実現する代わりに、反射ミラー553a,553bで実現しているので、画像読取装置500の副走査方向D(Y軸方向)の結像光学系のサイズを小型化することができる。具体的に言えば、実施の形態4においては、副走査方向Dにおける対向する第1凹面鏡と第2凹面鏡との距離は約60mmであるが、実施の形態5においては、副走査方向Dにおける対向する第1凹面鏡と第2凹面鏡との距離は約20mmであり、約3分の1にすることができる。 Further, according to the image reading apparatus 500 according to the fifth embodiment, the aperture function is realized by the reflecting mirrors 553a and 553b instead of being realized by the aperture, so that the sub-scanning direction D Y (Y The size of the imaging optical system in the axial direction can be reduced. Specifically, in the fourth embodiment, the distance between the first concave mirror and the second concave mirror facing in the sub-scanning direction D Y is about 60 mm, in the fifth embodiment, the sub-scanning direction D Y The distance between the first concave mirror and the second concave mirror facing each other is about 20 mm, and can be about one third.

さらに、実施の形態5に係る画像読取装置500の結像光学系の結像倍率を1とすることができるので、図31に示されるように、第1グループG51に属する結像光学部に含まれる第1凹面鏡552a及び第2凹面鏡554aと、第2グループG52に属する結像光学部に含まれる反射ミラー553bとを、同一平面(XZ面に平行な面)上に設置可能である。同様に、第2グループG52における光学系に含まれる第1凹面鏡552b、第2凹面鏡554bと、第2グループG52に属する結像光学部に含まれる反射ミラー553aを同一平面(XZ面に平行な面)上に設置可能である。 Furthermore, since the imaging magnification of the imaging optical system of the image reading apparatus 500 according to Embodiment 5 can be 1, as shown in FIG. 31, the imaging optical unit belonging to the first group G 51 a first concave mirror 552a and the second concave mirror 554a included, and a reflection mirror 553b included in the image-forming optical unit belonging to the second group G 52, can be placed on the same plane (plane parallel to the XZ plane). Similarly, the first concave mirror 552b included in the optical system in the second group G 52, a second concave mirror 554b, parallel to the reflecting mirror 553a included in the image-forming optical unit belonging to the second group G 52 in the same plane (XZ plane It can be installed on the surface.

実施の形態5に係る画像読取装置500の結像光学系501は、複数の第1凹面鏡552a及び複数の第2凹面鏡554aを同一の支持部材上に配列した凹面鏡アレイを用いて製造することが可能である。このような複数の第1凹面鏡552a及び複数の第2凹面鏡554aを2次元的に備えた凹面鏡アレイは、例えば、樹脂成型によって形成することができるので、実施の形態5に係る画像読取装置500によれば、光学系の組み立てを、精度良く簡単に行うことができるという効果が得られる。   The imaging optical system 501 of the image reading apparatus 500 according to Embodiment 5 can be manufactured using a concave mirror array in which a plurality of first concave mirrors 552a and a plurality of second concave mirrors 554a are arranged on the same support member. It is. Since such a concave mirror array having a plurality of first concave mirrors 552a and a plurality of second concave mirrors 554a can be formed by resin molding, for example, the image reading apparatus 500 according to the fifth embodiment has According to this, an effect that the assembly of the optical system can be easily performed with high accuracy is obtained.

また、実施の形態5に係る画像読取装置500は、複数の開口部に鏡面仕上げした反射部材を取付け、複数の開口部以外の部分を黒色部材にて作製して、複数の反射ミラー553aをアレイ状に配列した反射ミラーアレイを用いて製造することが可能である。このような反射ミラーアレイを用いれば、光学系の組み立てを、精度良く簡単に行うことができるという効果が得られる。   In addition, the image reading apparatus 500 according to Embodiment 5 attaches a reflective member having a mirror finish to a plurality of openings, produces a portion other than the plurality of openings with a black member, and arranges a plurality of reflection mirrors 553a. It is possible to manufacture using a reflecting mirror array arranged in a shape. If such a reflection mirror array is used, an effect that the assembly of the optical system can be easily performed with high accuracy can be obtained.

なお、実施の形態5において、上記以外の点は、上記実施の形態1乃至4の場合と同じである。   The fifth embodiment is the same as the first to fourth embodiments except for the points described above.

なお、本発明に係る画像読取装置は、上記実施の形態1乃至5から選択された2つ以上の実施の形態の構成を適宜組み合わせた構成を採用することも可能である。   Note that the image reading apparatus according to the present invention may employ a configuration in which two or more embodiments selected from the first to fifth embodiments are appropriately combined.

本発明の実施の形態1に係る画像読取装置の構成を概略的に示す図である。1 is a diagram schematically showing a configuration of an image reading apparatus according to Embodiment 1 of the present invention. (a)は、実施の形態1に係る画像読取装置の光学系を図1のS2a−S2a線方向に見る概略的な断面及び主要な光線を示す図であり、(b)は、実施の形態1に係る画像読取装置の光学系を図1のS2b−S2b線方向に見る概略的な断面及び主要な光線を示す図である。(A) is a diagram showing a schematic cross-section and main beam view optical system of the image reading apparatus according to Embodiment 1 S 2a -S 2a line direction of FIG. 1, (b) is carried out FIG. 2 is a diagram illustrating a schematic cross section and main light rays when the optical system of the image reading apparatus according to the first embodiment is viewed in the direction of the line S 2b -S 2b in FIG. 1. 実施の形態1に係る画像読取装置の光学系を図1のS−S線方向に見る概略的な断面及び主要な光線(原稿が合焦位置にある場合)を示す図である。It is a diagram illustrating a S 3 -S 3-wire seen in the direction schematic cross-sectional and major rays Figure 1 the optical system of the image reading apparatus according to the first embodiment (when the original is in the focus position). 実施の形態1に係る画像読取装置の光学系を図1のS−S線方向に見る概略的な断面及び主要な光線(原稿が合焦位置からずれた位置にある場合)を示す図である。FIG. 3 is a schematic cross-sectional view of the optical system of the image reading apparatus according to the first embodiment in the direction of lines S 3 -S 3 in FIG. It is. 実施の形態1に係る画像読取装置の天板の近傍を拡大して示す図である。2 is an enlarged view showing the vicinity of a top plate of the image reading apparatus according to Embodiment 1. FIG. 実施の形態1に係る画像処理装置の構成を簡素化して示す図である。1 is a diagram showing a simplified configuration of an image processing apparatus according to Embodiment 1. FIG. 実施の形態1に係る画像読取装置が実行する処理を示すフローチャートである。3 is a flowchart illustrating processing executed by the image reading apparatus according to the first embodiment. 実施の形態1に係る画像読取装置において、合焦位置に原稿の被撮像領域が存在する場合を示す図である。4 is a diagram illustrating a case where an imaged region of a document exists at a focus position in the image reading apparatus according to Embodiment 1. FIG. 実施の形態1に係る画像読取装置において、合焦位置に原稿の被撮像領域が存在する場合に、4つの撮像素子部から得られる画像及びそれらを結合して生成された合成画像を示す図である。In the image reading apparatus according to the first embodiment, when an imaged region of a document is present at the in-focus position, images obtained from four image sensor units and a composite image generated by combining them are shown. is there. 実施の形態1に係る画像読取装置の画像処理部による画像一致領域の求め方を説明するための図である。FIG. 6 is a diagram for explaining how to obtain an image matching area by an image processing unit of the image reading apparatus according to the first embodiment. 実施の形態1に係る画像読取装置の画像処理部による画像結合部分の平滑化処理を説明するための図である。6 is a diagram for explaining a smoothing process of an image combination portion by an image processing unit of the image reading apparatus according to Embodiment 1. FIG. 実施の形態1に係る画像読取装置において、合焦位置からずれた位置に原稿の被撮像領域が存在する場合を示す図である。6 is a diagram illustrating a case where an imaged region of a document exists at a position shifted from a focus position in the image reading apparatus according to Embodiment 1. FIG. 実施の形態1に係る画像読取装置において、合焦位置からずれた位置に原稿の被撮像領域が存在する場合に、4つの撮像素子部から得られる画像及びそれらを結合して生成された合成画像を示す図である。In the image reading apparatus according to the first embodiment, when the imaged region of the document exists at a position shifted from the in-focus position, the images obtained from the four image sensor units and the composite image generated by combining them are generated. FIG. 実施の形態1に係る画像読取装置によって被撮像物としての本(原稿)の見開きページを読取る場合を示す図である。3 is a diagram illustrating a case where a spread page of a book (original) as an object to be read is read by the image reading apparatus according to Embodiment 1. FIG. 図14の複数の直線が描かれた本の見開きページを天板に強く押し付けてほぼ平面にしたと仮定した場合を示す図である。It is a figure which shows the case where it assumes that the facing page of the book in which the some straight line of FIG. 14 was drawn was strongly pressed on the top plate, and was made into the substantially plane. 図14に示される本の見開きページを撮像装置で読取った画像を示す図である。It is a figure which shows the image which read the facing page of the book shown by FIG. 14 with the imaging device. 図16に示される撮像装置の読取り画像の主走査方向の歪みを補正した図である。It is the figure which correct | amended distortion of the main scanning direction of the read image of the imaging device shown by FIG. 図17に示される撮像装置の読取り画像の副走査方向の歪みを補正した図である。It is the figure which correct | amended the distortion of the subscanning direction of the read image of the imaging device shown by FIG. 実施の形態1に係る画像読取装置のぼやけ補正処理を説明するための図である。6 is a diagram for explaining blur correction processing of the image reading apparatus according to Embodiment 1. FIG. 実施の形態1に係る画像読取装置の画像結合処理を説明するための図である。FIG. 6 is a diagram for explaining image combining processing of the image reading apparatus according to the first embodiment. 本発明の実施の形態2に係る画像読取装置の構成を概略的に示す斜視図である。It is a perspective view which shows schematically the structure of the image reading apparatus which concerns on Embodiment 2 of this invention. (a)は、実施の形態2に係る画像読取装置の光学系を図21のS22a−S22a線方向に見る概略的な断面及び主要な光線を示す図であり、(b)は、実施の形態2に係る画像読取装置の光学系を図21のS22b−S22b線方向に見る概略的な断面及び主要な光線を示す図である。(A) is a diagram showing a schematic cross-section and main beam view optical system of the image reading apparatus according to the second embodiment to S 22a -S 22a line direction of FIG. 21, (b) is carried out FIG. 22 is a diagram illustrating a schematic cross section and main light rays when the optical system of the image reading apparatus according to the second embodiment is viewed in the direction of the line S 22b -S 22b of FIG. 実施の形態2に係る画像読取装置の光学系を図21のS23−S23線方向に見る概略的な断面及び主要な光線を示す図である。FIG. 22 is a diagram showing a schematic cross section and main light rays when the optical system of the image reading apparatus according to the second embodiment is viewed in the direction of the line S 23 -S 23 in FIG. 21. 本発明の実施の形態3に係る画像読取装置の光学系の構成及び主要な光線を示す図である。It is a figure which shows the structure of the optical system of the image reading apparatus which concerns on Embodiment 3 of this invention, and main light rays. 本発明の実施の形態4に係る画像読取装置における光学系の構成を概略的に示す斜視図である。It is a perspective view which shows roughly the structure of the optical system in the image reading apparatus which concerns on Embodiment 4 of this invention. 実施の形態4に係る画像読取装置の1つの結像光学部の構成を示す概略的な斜視図及び主要な光線を示す図である。FIG. 6 is a schematic perspective view illustrating a configuration of one imaging optical unit of an image reading apparatus according to Embodiment 4, and a diagram illustrating main light beams. 実施の形態4に係る画像読取装置の光学系を図25のS27−S27線方向に見る概略的な断面及び主要な光線を示す図である。It is a diagram showing a schematic cross section and major ray view optical system of the image reading apparatus according to the fourth embodiment in S 27 -S 27 along the line of FIG. 25. 実施の形態4に係る画像読取装置の遮光部材を含む構成を原稿側から見た概略的な斜視図である。FIG. 10 is a schematic perspective view of a configuration including a light shielding member of an image reading apparatus according to Embodiment 4 as viewed from the document side. 実施の形態4に係る画像読取装置の遮光部材を含む構成を撮像素子部側から見た概略的な斜視図である。FIG. 10 is a schematic perspective view of a configuration including a light shielding member of an image reading apparatus according to Embodiment 4 as viewed from the image sensor unit side. 本発明の実施の形態5に係る画像読取装置における光学系の構成を概略的に示す斜視図である。It is a perspective view which shows roughly the structure of the optical system in the image reading apparatus which concerns on Embodiment 5 of this invention. 実施の形態5に係る画像読取装置の光学系を図30のS31−S31線方向に見る概略的な断面及び主要な光線(原稿が合焦位置にある場合)を示す図である。FIG. 32 is a diagram showing a schematic cross section and main light rays (when a document is in a focus position) when the optical system of the image reading apparatus according to the fifth embodiment is viewed in the direction of line S 31 -S 31 in FIG. 30; 実施の形態5に係る画像読取装置の光学系を図30のS31−S31線方向に見る概略的な断面及び主要な光線(原稿が合焦位置からずれた位置にある場合)を示す図である。30 is a schematic cross-sectional view of the optical system of the image reading apparatus according to Embodiment 5 as viewed in the direction of the line S 31 -S 31 in FIG. It is. 実施の形態5に係る画像読取装置の遮光部材を含む構成を概略的に示す斜視図である。FIG. 10 is a perspective view schematically showing a configuration including a light shielding member of an image reading apparatus according to a fifth embodiment.

符号の説明Explanation of symbols

31〜38 被撮像領域、 70 原稿(被撮像物)、 70b 本の綴じ目、 70c、70d 本に描かれた直線、 71〜75 原稿位置、 80〜83,90〜93 撮像された画像、 84,94 合成画像(結合画像)、 100,200,300,400,500 画像読取装置、 101,201,301,401,501 結像光学系、 102,202 照明光源、 103,203,303,403,503 天板、 103a,203a,303a,403a,503a 天板の上面、 104,204,304a,304b,404 基板、 105,205,405,505 メモリ、 106,206,406,506 画像処理部、 106a,206a 結合位置検出手段、 106b,206b 画像合成手段、 106c,206c 距離算出手段、 106d,206d 画像修正手段、 111〜118,211〜218 結像光学部(光学セル)、 111a〜118a 光軸、 141〜148,241〜248,343,344,441〜444,541〜544 撮像素子部、 152 第1集光レンズ、 153 アパーチャ(絞り)、 155 保持部材、 170,171 合成画像、 170c,170d,171c,171d 本に描かれた直線の読取り画像、 172 修正後の合成画像、 172c,172d 本に描かれた直線の修正後の画像、 252 第1集光レンズ、 253 アパーチャ(絞り)、 254 第2集光レンズ、 255 保持部材、 313,314 結像光学部、 363,364 光学セル、 411,412,511,512 結像光学部、 451a,451b 折曲げミラー、 452a,452b 第1凹面鏡、 453a,453b アパーチャ(絞り)、 454a,454b 第2凹面鏡、 455a,455b 折曲げミラー、 551a,551b 折曲げミラー、 552a,552b 第1凹面鏡、 553a,553b 反射ミラー(絞り)、 554a,554b 第2凹面鏡、 555a,555b 折曲げミラー、 AX,AX 光軸、 C0〜C3 結像光学部、 G11,G21,G31,G41,G51 第1グループ(第1列)、 G12,G22,G32,G42,G52 第2グループ(第2列)、 D 主走査方向(X軸方向)、 D 副走査方向(Y軸方向)、 D 深度方向(Z軸方向)、 R 第1の注目領域、 R 第2の注目領域。 31-38 Imaged area, 70 Document (object to be imaged), 70b stitches, 70c, 70d straight line drawn, 71-75 Document position, 80-83, 90-93 Captured image, 84 , 94 composite image (combined image), 100, 200, 300, 400, 500 image reading device, 101, 201, 301, 401, 501 imaging optical system, 102, 202 illumination light source, 103, 203, 303, 403, 503 Top plate, 103a, 203a, 303a, 403a, 503a Top surface of the top plate, 104, 204, 304a, 304b, 404 Substrate, 105, 205, 405, 505 Memory, 106, 206, 406, 506 Image processing unit, 106a 206a, coupling position detection means, 106b, 206b image synthesis means, 106c, 206c distance calculation means, 06d, 206d Image correction means, 111-118, 211-218 Imaging optics (optical cell), 111a-118a optical axis, 141-148, 241-248, 343, 344, 441-444, 541-544 , 152 first condensing lens, 153 aperture (aperture), 155 holding member, 170,171 composite image, 170c, 170d, 171c, 171d straight line drawn image, 172 corrected composite image, 172c , 172d image after straight line correction, 252 first condenser lens, 253 aperture (aperture), 254 second condenser lens, 255 holding member, 313, 314 imaging optical unit, 363, 364 optics Cell, 411, 412, 511, 512 imaging optical unit, 451a, 451b bending mirror, 4 52a, 452b first concave mirror, 453a, 453b aperture (aperture), 454a, 454b second concave mirror, 455a, 455b folding mirror, 551a, 551b folding mirror, 552a, 552b first concave mirror, 553a, 553b reflecting mirror (aperture) ), 554a, 554b second concave mirror, 555a, 555b fold mirror, AX 1, AX 2 optical axis, C0 to C3 forming optical unit, G 11, G 21, G 31, G 41, G 51 first group ( first column), G 12, G 22, G 32, G 42, G 52 the second group (second column), D X main scanning direction (X axis direction), D Y sub-scanning direction (Y axis direction), D Z depth direction (Z-axis direction), R A first region of interest, R B second region of interest.

Claims (17)

主走査方向及び副走査方向の両方に垂直な深度方向について被撮像物の位置を決め、該被撮像物を所定の合焦位置又は該合焦位置から前記深度方向にずれた位置に置く位置決め部と、
前記被撮像物上の複数の第1の被撮像領域からの複数の第1の光をそれぞれ集光することによって、複数の第1の画像を結像させる複数の第1の結像光学部と、
前記被撮像物上の、前記主走査方向に前記複数の第1の被撮像領域と交互に並ぶ複数の第2の被撮像領域であって、隣り合う第1の被撮像領域と第2の被撮像領域とが前記主走査方向に部分的に重複する前記複数の第2の被撮像領域から、前記副走査方向において前記複数の第1の光と異なる方向に進む複数の第2の光をそれぞれ集光することによって、複数の第2の画像を結像させる複数の第2の結像光学部と、
前記複数の第1の結像光学部に対応して配置され、前記複数の第1の画像を撮像する複数の第1の撮像素子部と、
前記複数の第2の結像光学部に対応して配置され、前記複数の第2の画像を撮像する複数の第2の撮像素子部と、
前記複数の第1の撮像素子部及び前記複数の第2の撮像素子部によって取得された画像情報を一時的に記憶する記憶部と、
前記記憶された画像情報を合成することによって合成画像を生成する画像処理部と
を有し、
前記複数の第1の結像光学部のそれぞれは、前記合焦位置に置かれた前記被撮像物の合焦画像を、対応する前記第1の撮像素子部の撮像面上に結像させる構であり
前記複数の第2の結像光学部のそれぞれは、前記合焦位置に置かれた前記被撮像物の合焦画像を、対応する前記第2の撮像素子部の撮像面上に結像させる構であり
前記画像処理部は、
前記複数の第1の撮像素子部のうちの第1の撮像素子部と前記複数の第2の撮像素子部のうちの第2の撮像素子部であって前記複数の第1の被撮像領域及び前記複数の第2の被撮像領域のうちの隣り合う前記第1の被撮像領域と前記第2の被撮像領域をそれぞれ撮像する前記第1の撮像素子部と前記第2の撮像素子部の前記組のそれぞれについて、前記第1の撮像素子部が撮像した第1の画像の中の第1の注目領域の画像と前記第2の撮像素子部が撮像した第2の画像の中の第2の注目領域の画像とが一致する画像一致領域を検出し、前記第1の画像における前記画像一致領域の位置と前記第2の画像における前記画像一致領域の位置とに基づいて前記第1の画像と前記第2の画像とを結合させる結合位置を決める結合位置検出手段と、
前記第1の画像と前記第2の画像とを前記結合位置で結合させて、前記合成画像を生成する画像合成手段と、
前記第1の画像における前記画像一致領域の前記副走査方向の位置と前記第2の画像における前記画像一致領域の前記副走査方向の位置との差である画像ずれ量を用いて、前記合焦位置から前記第1の被撮像領域前記第2の被撮像領域の重複する領域の前記深度方向の距離を算出する距離算出手段と、
前記距離算出手段で算出された距離から前記被撮像物の形状を推定し、前記形状推定結果に基づいて前記合成画像の歪みを補正する画像修正手段と
を有することを特徴とする画像読取装置。
A positioning unit that determines the position of the object to be imaged in the depth direction perpendicular to both the main scanning direction and the sub-scanning direction, and places the imaged object at a predetermined in-focus position or a position shifted in the depth direction from the in-focus position When,
A plurality of first imaging optical units that form a plurality of first images by condensing a plurality of first lights from a plurality of first imaging regions on the imaging object; ,
A plurality of second image pickup areas arranged alternately with the plurality of first image pickup areas in the main scanning direction on the image pickup object, wherein the adjacent first image pickup areas and the second image pickup areas are arranged. A plurality of second lights traveling in a direction different from the plurality of first lights in the sub-scanning direction from the plurality of second imaging areas partially overlapping with the imaging area in the main scanning direction, respectively. A plurality of second imaging optical units that form a plurality of second images by condensing; and
A plurality of first imaging element units that are arranged corresponding to the plurality of first imaging optical units and that capture the plurality of first images;
A plurality of second imaging element units that are arranged corresponding to the plurality of second imaging optical units and that capture the plurality of second images;
A storage unit for temporarily storing image information acquired by the plurality of first image sensor units and the plurality of second image sensor units;
An image processing unit that generates a composite image by combining the stored image information,
Each of the plurality of first imaging optical unit, a focused image of the object to be imaged placed in the focus position, Ru is formed on the imaging surface of the corresponding first image sensor unit a configuration,
Each of the plurality of second imaging optical unit, a focused image of the object to be imaged placed in the focus position, Ru is formed on the imaging surface of the corresponding second image sensor unit a configuration,
The image processing unit
The first image sensor unit of the plurality of first image sensor units and the second image sensor unit of the plurality of second image sensor units, wherein the plurality of first imaged regions and the first and the second image pickup device unit and the first image sensor unit for each image the second imaged region and the imaging region adjacent of the plurality of second imaged region for each of the sets, the second in the second image by the image and the second image sensor portion of the first region of interest in the first image by the first image sensor portion is imaged by imaging An image matching region that matches the image of the region of interest is detected, and the first image is based on the position of the image matching region in the first image and the position of the image matching region in the second image. A coupling position detecting means for determining a coupling position for coupling the second image and the second image;
Image combining means for generating the composite image by combining the first image and the second image at the connection position;
The focusing is performed using an image shift amount that is a difference between the position of the image matching area in the first image in the sub-scanning direction and the position of the image matching area in the second image in the sub-scanning direction. Distance calculating means for calculating a distance in the depth direction of a region where the first imaged region and the second imaged region overlap from a position ;
An image reading apparatus comprising: an image correcting unit that estimates a shape of the object to be imaged from a distance calculated by the distance calculating unit and corrects distortion of the composite image based on the shape estimation result.
前記複数の第1の被撮像領域から前記複数の第1の結像光学部に向かう前記複数の第1の光の主光線は、互いに平行であり、
前記複数の第2の被撮像領域から前記複数の第2の結像光学部に向かう前記複数の第2の光の主光線は、互いに平行である
ことを特徴とする請求項1に記載の画像読取装置。
The principal rays of the plurality of first lights traveling from the plurality of first imaging regions to the plurality of first imaging optical units are parallel to each other,
The image according to claim 1, wherein chief rays of the plurality of second lights traveling from the plurality of second imaging regions to the plurality of second imaging optical units are parallel to each other. Reader.
前記距離算出手段は、
隣り合う前記第1の被撮像領域と前記第2の被撮像領域の前記深度方向の位置が前記合焦位置に一致するときにおける前記画像ずれ量を画像ずれの基準値として保持する手段と、
前記画像ずれ量と前記保持されている基準値との差に基づいて、前記距離を算出する手段と
を有することを特徴とする請求項1又は2に記載の画像読取装置。
The distance calculating means includes
Means for holding the image shift amount when the position in the depth direction of the adjacent first imaged region and the second imaged region coincides with the in-focus position as a reference value of image displacement;
The image reading apparatus according to claim 1, further comprising: a unit that calculates the distance based on a difference between the image shift amount and the held reference value.
前記距離算出手段は、
前記画像ずれ量を一定量変化させたときの前記距離の変化量を予め記憶する手段と、
前記画像ずれ量と前記保持されている基準値との差を、前記距離の変化量で除した値である距離換算係数を算出する手段と
を有し、
前記画像修正手段は、前記距離換算係数を用いて前記合成画像の歪みを低減する前記画像処理を行う
ことを特徴とする請求項3に記載の画像読取装置。
The distance calculating means includes
Means for preliminarily storing a change amount of the distance when the image shift amount is changed by a certain amount;
Means for calculating a distance conversion coefficient that is a value obtained by dividing the difference between the image shift amount and the held reference value by the amount of change in the distance;
The image reading apparatus according to claim 3, wherein the image correction unit performs the image processing to reduce distortion of the composite image using the distance conversion coefficient.
前記画像修正手段は、前記合成画像上で主走査方向に前記第1の結像光学部と前記第2の結像光学部との繋ぎ目ごとに得られる前記深度方向の距離の差から、主走査方向の距離に対する前記被撮像物の深度方向の距離の変化率を算出し、
前記主走査方向の距離に対する深度方向の距離の変化率を用いて前記第1の結像光学部と前記第2の結像光学部との繋ぎ目の間隔に対応する実際の被撮像領域の長さを算出し、
前記結像光学部の繋ぎ目の間隔に対応する部分が、前記算出された実際の被撮像領域の長さと等しくなるように、前記合成画像を主走査方向に伸縮することを特徴とする請求項1乃至4のいずれか1項に記載の画像読取装置。
The image correction means is configured to calculate a main distance from a difference in distance in the depth direction obtained for each joint between the first imaging optical unit and the second imaging optical unit in the main scanning direction on the composite image. Calculating the rate of change of the distance in the depth direction of the object to be imaged relative to the distance in the scanning direction ;
The actual length of the imaged region corresponding to the interval between the first imaging optical unit and the second imaging optical unit using the change rate of the distance in the depth direction with respect to the distance in the main scanning direction Calculate
The composite image is expanded or contracted in a main scanning direction so that a portion corresponding to the interval between joints of the imaging optical unit becomes equal to the calculated actual length of the imaged region. The image reading apparatus according to any one of 1 to 4.
前記画像修正手段は、前記合成画像上の副走査方向に一定ライン離れた位置において得られる前記深度方向の距離の差から、副走査方向の距離に対する前記被撮像物の深度方向の距離の変化率を算出し、
前記副走査方向の距離に対する深度方向の距離の変化率を用いて前記一定ラインの間隔に対応する実際の被撮像領域の長さを算出し、
前記合成画像の中の前記一定ラインの間隔に対応する部分が、前記算出された実際の被撮像領域の長さと等しくなるように、前記合成画像を副走査方向に伸縮することを特徴とする請求項1乃至5のいずれか1項に記載の画像読取装置。
The image correction unit is configured to determine a change rate of a distance in the depth direction of the imaging target with respect to a distance in the sub-scanning direction from a difference in the distance in the depth direction obtained at a position separated by a certain line in the sub-scanning direction on the composite image. To calculate
Using the rate of change in the depth direction distance with respect to the sub-scanning direction distance , calculate the actual length of the imaged region corresponding to the constant line interval ,
The composite image is expanded or contracted in a sub-scanning direction so that a portion corresponding to the interval of the certain line in the composite image becomes equal to the calculated actual length of the imaged region. Item 6. The image reading apparatus according to any one of Items 1 to 5.
前記結合位置検出手段は、
前記第1の被撮像領域と前記第2の被撮像領域とが重複する領域に対応する前記第1の画像と前記第2の画像の重複領域内に、前記第1の画像の前記第1の注目領域と前記第2の画像の前記第2の注目領域とを設定する手段と、
前記第1の注目領域の画像情報と前記第2の注目領域の画像情報との差異の算出を、前記第1の注目領域及び前記第2の画像注目領域の位置を変えながら行う手段と、
前記差異が最小となるときの前記第1の注目領域と前記第2の注目領域を前記画像一致領域と判断する手段と
を有することを特徴とする請求項1乃至6のいずれか1項に記載の画像読取装置。
The coupling position detecting means includes
The first image of the first image is within an overlapping region of the first image and the second image corresponding to a region where the first imaged region and the second imaged region overlap. Means for setting a region of interest and the second region of interest of the second image;
Means for calculating the difference between the image information of the first region of interest and the image information of the second region of interest while changing the positions of the first region of interest and the second image region of interest;
7. The apparatus according to claim 1, further comprising: a unit that determines the first attention area and the second attention area when the difference is minimum as the image matching area. Image reading apparatus.
前記差異の算出を行う手段は、
前記第1の注目領域に含まれる画像の輝度値前記第2の注目領域に含まれる画像の輝度値の対応する成分間の差から前記第1の注目領域と前記第2の注目領域の前記差異を算出する
ことを特徴とする請求項7に記載の画像読取装置。
The means for calculating the difference is:
Wherein a first luminance value of the image included in the target region, the second of said first region of interest and the second region of interest from the difference between corresponding components of the luminance values of the image included in the target region The image reading apparatus according to claim 7, wherein the difference is calculated.
前記結合位置検出手段は、
前記第1の注目領域に含まれる画像情報及び/又は前記第2の注目領域に含まれる画像情報について、画像情報の標準偏差、分散、及び最大値と最小値の差のいずれか1つが一定値以上となる場合には前記画像一致領域を判断する処理を行い
前記第1の注目領域に含まれる画像情報及び/又は前記第2の注目領域に含まれる画像情報について、画像情報の標準偏差、分散、及び最大値と最小値の差のいずれもが一定値以上とならない場合には前記画像一致領域を判断する処理を行わない
段を有することを特徴とする請求項8に記載の画像読取装置。
The coupling position detecting means includes
For image information included in the first region of interest and / or image information included in the second region of interest, any one of standard deviation, variance, and difference between the maximum value and the minimum value of the image information is a constant value. If it is above, perform the process of determining the image matching area ,
For the image information included in the image information and / or the second region of interest contained in the first region of interest, the standard deviation of the image information, distributed, and none of the difference between the maximum value and the minimum value is a constant value the image reading apparatus according to claim 8, characterized in that it comprises a <br/> hand stage is not performed the process for determining the image matching area if not a more.
前記差異の算出を行う手段による前記差異の算出は、前記第1の注目領域及び前記第2の画像注目領域の位置のいずれかを1ラインずつ又は所定の複数ラインずつ変えながら行うことを特徴とする請求項7乃至9のいずれか1項に記載の画像読取装置。   The calculation of the difference by the means for calculating the difference is performed by changing any one of the positions of the first region of interest and the second image region of interest one line at a time or a predetermined plurality of lines. The image reading apparatus according to any one of claims 7 to 9. 前記画像合成手段は、
前記第1の画像と前記第2の画像との前記結合位置を含む平滑化領域を設定する手段と、
前記第1の画像の前記平滑化領域内の複数の画素の各画素値に前記第2の画像側に近づくほど小さくなる重み係数を乗算して、重み付けされた複数の第1の画素値を計算し、前記第2の画像の前記平滑化領域内の複数の画素の各画素値に前記第1の画像側に近づくほど小さくなる重み係数を乗算して、重み付けされた複数の第2の画素値を計算し、重み付けされた前記複数の第1の画素値と重み付けされた前記複数の第2の画素値とをそれぞれ加算することによって、前記合成画像の前記平滑化領域における画素値を求める平滑化手段と
を有することを特徴とする請求項1乃至10のいずれか1項に記載の画像読取装置。
The image composition means includes
Means for setting a smoothing region including the coupling position of the first image and the second image;
Multiplying each pixel value of a plurality of pixels in the smoothed area of the first image by a weighting factor that decreases as the second image side is approached, calculates a plurality of weighted first pixel values And multiplying each pixel value of the plurality of pixels in the smoothing region of the second image by a weighting factor that decreases as the first image side is approached, thereby weighting the plurality of second pixel values And calculating the pixel values in the smoothing region of the composite image by adding the weighted first pixel values and the weighted second pixel values, respectively. The image reading apparatus according to claim 1, further comprising: means.
前記第1及び第2の結像光学部はそれぞれ、光学セルを有し、
前記光学セルは、前記被撮像物からの光を集光する少なくとも1つの集光レンズと、
前記光の光束径を規制する絞りとを有する
ことを特徴とする請求項1乃至11のいずれか1項に記載の画像読取装置。
Each of the first and second imaging optical units has an optical cell;
The optical cell includes at least one condensing lens for condensing light from the object to be imaged;
The image reading apparatus according to claim 1, further comprising: a diaphragm that restricts a diameter of the light beam of the light.
前記第1及び第2の結像光学部はそれぞれ、前記被読取物からの光を前記光学セルに向けて折曲げる折曲げ手段を有することを特徴とする請求項12に記載の画像読取装置。   The image reading apparatus according to claim 12, wherein each of the first and second imaging optical units includes a bending unit that bends light from the object to be read toward the optical cell. 前記第1及び第2の結像光学部はそれぞれ、
前記被撮像物からの光を折曲げる折曲げ手段と、
折曲げられた前記光を集光する少なくとも1つの凹面鏡と、
前記光の光束径を規制する絞りとを有する
ことを特徴とする請求項1乃至11のいずれか1項に記載の画像読取装置。
The first and second imaging optical units are respectively
Bending means for bending light from the object to be imaged;
At least one concave mirror for collecting the bent light;
The image reading apparatus according to claim 1, further comprising: a diaphragm that restricts a diameter of the light beam of the light.
前記絞りは、該絞りに向かう前記光の光束径よりも小さい径を有する反射ミラーから構成されることを特徴とする請求項14に記載の画像読取装置。   The image reading apparatus according to claim 14, wherein the diaphragm includes a reflection mirror having a diameter smaller than a light beam diameter of the light traveling toward the diaphragm. 前記第1及び第2の結像光学部はそれぞれ、前記被撮像物側にテレセントリックな光学系であることを特徴とする請求項1乃至15のいずれか1項に記載の画像読取装置。   The image reading apparatus according to claim 1, wherein each of the first and second imaging optical units is an optical system that is telecentric on the side of the object to be imaged. 前記第1及び第2の結像光学部はそれぞれ、結像画像側にテレセントリックな光学系であることを特徴とする請求項1乃至16のいずれか1項に記載の画像読取装置。   17. The image reading apparatus according to claim 1, wherein each of the first and second imaging optical units is an optical system telecentric on the imaged image side.
JP2008315473A 2008-12-11 2008-12-11 Image reading device Expired - Fee Related JP5202267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008315473A JP5202267B2 (en) 2008-12-11 2008-12-11 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008315473A JP5202267B2 (en) 2008-12-11 2008-12-11 Image reading device

Publications (2)

Publication Number Publication Date
JP2010141558A JP2010141558A (en) 2010-06-24
JP5202267B2 true JP5202267B2 (en) 2013-06-05

Family

ID=42351300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008315473A Expired - Fee Related JP5202267B2 (en) 2008-12-11 2008-12-11 Image reading device

Country Status (1)

Country Link
JP (1) JP5202267B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5806103B2 (en) * 2011-12-20 2015-11-10 三菱電機株式会社 Image reading device
JP5970970B2 (en) 2012-06-13 2016-08-17 富士通株式会社 Image processing apparatus, method, and program
CN107409164B (en) * 2015-03-16 2019-11-08 三菱电机株式会社 Image reading device and image reading method
JP6536183B2 (en) 2015-06-01 2019-07-03 富士ゼロックス株式会社 Image reading apparatus and program
JP7153424B2 (en) * 2017-01-23 2022-10-14 セイコーエプソン株式会社 Scanners, scan programs and methods of producing scan data
JP6932934B2 (en) * 2017-01-23 2021-09-08 セイコーエプソン株式会社 How to produce scanners, scan programs and scan data
JP7153425B2 (en) * 2017-01-23 2022-10-14 セイコーエプソン株式会社 Scanners, scan programs and methods of producing scan data
CN110521197B (en) * 2017-04-27 2021-08-13 三菱电机株式会社 image reading device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61146063A (en) * 1984-12-20 1986-07-03 Matsushita Graphic Commun Syst Inc Original reader
JPH0344966A (en) * 1989-07-13 1991-02-26 Sony Corp Solid-state image pickup device
JPH0897980A (en) * 1994-09-28 1996-04-12 Fuji Xerox Co Ltd Method and device for adjusting image reader
KR0147665B1 (en) * 1995-09-13 1998-10-01 김광호 Changing illumination method reflection mirror and making method used thereof
JPH118742A (en) * 1997-06-13 1999-01-12 Mark:Kk Mirror array reader
JP4141235B2 (en) * 2002-02-08 2008-08-27 株式会社リコー Image correction apparatus and program
JP2004172856A (en) * 2002-11-19 2004-06-17 Fuji Photo Film Co Ltd Image data making method and its apparatus
JP4250044B2 (en) * 2003-09-16 2009-04-08 株式会社リコー Image reading device

Also Published As

Publication number Publication date
JP2010141558A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5202267B2 (en) Image reading device
JP4947072B2 (en) Image reading device
CN103179312B (en) Image read-out
JP4699995B2 (en) Compound eye imaging apparatus and imaging method
WO2009122483A1 (en) Image scanner
JP4913089B2 (en) Image reading device
JP5068236B2 (en) Image reading device
JP2002335375A (en) Image reading/forming optical system and image reading apparatus using the same
JP2012109737A (en) Image coupler, image coupling method, image input/output system. program and recording medium
JP5821563B2 (en) Image reading apparatus, image reading method, and MTF correction parameter determination method
JPH08274956A (en) Image scanner
JP2012143003A (en) Image reading device
JP5224976B2 (en) Image correction apparatus, image correction method, program, and recording medium
JP2011091638A (en) Image combining device and method of calculating image combining position
JP5495710B2 (en) Image combination apparatus and image combination position calculation method
JP2008158414A (en) Imaging optical system and image reading device using the same
US8274716B2 (en) Image reading apparatus and method of controlling the same
JP2003344956A (en) Image reader
JP2010206358A (en) Image reading apparatus
JP2008078877A (en) Method for adjusting image-forming optical system for reading image
JP4804563B2 (en) Imaging optical system and image reading apparatus having the same
JP2004138799A (en) Imaging optical system
JP4759310B2 (en) Reading optical system and image reading apparatus using the same
JP2008054201A (en) Image reading device
JP4569344B2 (en) Image reading device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130212

R150 Certificate of patent or registration of utility model

Ref document number: 5202267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees