[go: up one dir, main page]

JP5108373B2 - Image reading apparatus and image forming apparatus - Google Patents

Image reading apparatus and image forming apparatus Download PDF

Info

Publication number
JP5108373B2
JP5108373B2 JP2007125322A JP2007125322A JP5108373B2 JP 5108373 B2 JP5108373 B2 JP 5108373B2 JP 2007125322 A JP2007125322 A JP 2007125322A JP 2007125322 A JP2007125322 A JP 2007125322A JP 5108373 B2 JP5108373 B2 JP 5108373B2
Authority
JP
Japan
Prior art keywords
image
lens
signal
light
image reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007125322A
Other languages
Japanese (ja)
Other versions
JP2008281737A (en
Inventor
喜一朗 仁科
芳文 須藤
昌弘 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007125322A priority Critical patent/JP5108373B2/en
Priority to US12/118,083 priority patent/US7961365B2/en
Publication of JP2008281737A publication Critical patent/JP2008281737A/en
Application granted granted Critical
Publication of JP5108373B2 publication Critical patent/JP5108373B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Lenses (AREA)
  • Facsimile Heads (AREA)
  • Facsimile Scanning Arrangements (AREA)

Description

本発明は、画像読取装置及び該画像読取装置を用いた画像形成装置に関するものである。   The present invention relates to an image reading apparatus and an image forming apparatus using the image reading apparatus.

デジタル複写機、ファクシミリおよびイメージスキャナ等の原稿読取部(画像読取装置)においては、原稿画像を光学系により受光素子である光電変換素子に結像させて原稿画像を電気信号化している。ここで、原稿情報をカラーで読取るために、照明系に異なる波長領域を有する光源を複数具備し、その光源を順次点灯させて原稿のカラー情報を信号化する方法や、受光素子として例えば赤、緑、青のフィルタを持ったラインセンサが1チップに3列に配列されている所謂3ラインCCDを用い、この受光素子に原稿像を結像させることにより3原色に色分解し、カラー画像情報を信号化する方法がある。   2. Description of the Related Art Document reading units (image reading apparatuses) such as digital copying machines, facsimile machines, and image scanners form an image of a document image on a photoelectric conversion element, which is a light receiving element, by an optical system to convert the document image into an electrical signal. Here, in order to read document information in color, the illumination system is provided with a plurality of light sources having different wavelength regions, and the light source is sequentially turned on to convert the color information of the document into a signal. A so-called three-line CCD in which line sensors having green and blue filters are arranged in three rows on one chip is used, and a color image is separated into three primary colors by forming an original image on this light receiving element. There is a method to signal.

デジタル複写機の画像読取装置においては、原稿情報に写真、網点画像、文字等の線画が混在している場合、コピーの高画質化のために、写真部に対しては擬似中間調処理を施し、網点部にはモアレ除去処理を、文字等の線画部には解像度を重視した鮮鋭化処理を施すことが知られている。また、画像を伝送する場合も、画像の圧縮率を向上させるために各領域に対して最適な符号化方式を選択している。デジタル複写機の画像読取装置では、このような処理を実現するために、その前処理として画像中の文字領域と絵柄領域(写真部、網点部)を高精度で分離する、所謂像域分離処理と呼ばれる画像処理を有する。   In an image reading apparatus of a digital copying machine, when a line drawing such as a photograph, a halftone dot image, or a character is mixed in the document information, a pseudo halftone process is performed on the photograph portion in order to improve the image quality of the copy. In addition, it is known that moire removal processing is performed on halftone dots, and sharpening processing with emphasis on resolution is performed on line drawings such as characters. Also in the case of transmitting an image, an optimal encoding method is selected for each region in order to improve the compression rate of the image. In an image reading apparatus of a digital copying machine, in order to realize such processing, so-called image area separation that separates a character area and a picture area (photograph area, halftone dot area) in an image with high accuracy as preprocessing. It has image processing called processing.

また、このような画像読取装置に使用する読取レンズは、一般に像面において高空間周波数領域での高いコントラストが要求されると共に、開口効率が画角周辺部まで100%近くある事が要求されている。更に、カラー原稿を良好に読み取るためには、受光面上で赤、緑、青の各色の結像位置を光軸方向に合致させる必要があり各色の色収差補正を極めて良好に補正しなければならない。このため、使用される読取レンズとしては、像面湾曲を非常に小さく抑え、光軸近傍から周辺までの各像高における結像性能が均一となるように設計する必要がある。   In addition, a reading lens used in such an image reading apparatus is generally required to have high contrast in a high spatial frequency region on the image plane and to have an aperture efficiency close to 100% up to the periphery of the angle of view. Yes. Furthermore, in order to read a color original satisfactorily, it is necessary to make the image forming positions of red, green and blue colors coincide with the optical axis direction on the light receiving surface, and the chromatic aberration correction of each color must be corrected very well. . For this reason, it is necessary to design the reading lens to be used so that the curvature of field is very small and the imaging performance at each image height from the vicinity of the optical axis to the periphery is uniform.

更に近年コピーの生産性向上の要求に対応するため、読取レンズに対してF4.2程度の明るいレンズが求められており、これらの性能及び仕様値を満足するための結像レンズとして、比較的大口径にしてもコマフレアの発生を小さく抑えられ、色収差補正能力も高い、4群6枚構成のガウスタイプが用いられている。   Furthermore, in order to meet the demand for improving the productivity of copying in recent years, a bright lens of about F4.2 is required for the reading lens. As an imaging lens for satisfying these performances and specification values, it is relatively A Gauss type of 4 elements in 6 groups is used, which suppresses the occurrence of coma flare even when the aperture is large and has high chromatic aberration correction capability.

ここで、ガウスタイプを用いて、軸上の色収差を良好に補正するために、負レンズである、第3、第4レンズの少なくとも一つのレンズに、部分分散偏差がプラスの性質を有する、所謂異常分散ガラスを使用して良好な性能を得る発明が開示されている(特許文献1〜6参照。)。   Here, in order to satisfactorily correct axial chromatic aberration using a Gaussian type, at least one of the third and fourth lenses, which are negative lenses, has a property that the partial dispersion deviation has a positive property. An invention for obtaining good performance using an anomalous dispersion glass is disclosed (see Patent Documents 1 to 6).

しかし、ガウスタイプは、レンズの構成枚数が6枚と多いため、レンズ外径が大きくなり、レンズおよびそれを用いた装置の小型化や低コスト化に対して限界があった。更に、一般的に負レンズに使用される比較的高分散(アッベ数が40〜45近傍)の異常分散ガラスは、やけやすい等の加工面での問題があり、加工コストが高くなるデメリットがあった。   However, since the Gauss type has a large number of lenses of six, the outer diameter of the lens becomes large, and there is a limit to miniaturization and cost reduction of the lens and a device using the lens. Furthermore, anomalous dispersion glass having a relatively high dispersion (Abbe number in the vicinity of 40 to 45) generally used for a negative lens has a problem in processing such as faintness and has a demerit that increases processing cost. It was.

これに対して、4群4枚構成とレンズの構成枚数が少ないテレフォトタイプの発明が開示されている(特許文献7、8参照。)が、Fナンバが6以上と暗く、高速化に対応できないものであった。また、テレフォトタイプで大口径化を達成する発明が特許文献9、10に開示されているが、特許文献9記載の発明は、Fナンバが4.5と比較的大口径であるが、絶対収差量が非常に大きく、例えば600dpiのような高密度な読取には使用できる結像性能を有していない。また、特許文献10記載の発明は、Fナンバが4と大口径であるが、ブルー、レッド両方の領域の軸上色収差が非常に大きく、フルカラーに使用できる性能を有していなかった。   On the other hand, a telephoto type invention with a four-group, four-element configuration and a small number of lenses has been disclosed (see Patent Documents 7 and 8), but the F number is as dark as 6 or more, which supports high speed. It was impossible. Patent Documents 9 and 10 disclose an invention that achieves a large aperture with a telephoto type, but the invention described in Patent Document 9 has an F number of 4.5 and a relatively large aperture. The amount of aberration is very large, and it does not have imaging performance that can be used for high density reading such as 600 dpi. Further, although the invention described in Patent Document 10 has an F number of 4 and a large aperture, the axial chromatic aberration in both the blue and red regions is very large, and it does not have a performance that can be used for full color.

特許第2729039号公報Japanese Patent No. 2729039 特許第2790919号公報Japanese Patent No. 2790919 特開平9−304696号公報JP-A-9-304696 特開平10−253881号公報Japanese Patent Laid-Open No. 10-253881 特開平11−109221号公報JP-A-11-109221 特開2001−166359号公報JP 2001-166359 A 特開2002−31753号公報JP 2002-31753 A 特開2001−166359号公報JP 2001-166359 A 特許第3856258号公報Japanese Patent No. 3856258 特開平9−101452号公報Japanese Patent Application Laid-Open No. 9-101452

本発明は、上述した事情に鑑みてなされたもので、レンズ構成枚数が少なく低コストで、十分な画角および明るさを得ることが可能な結像レンズを用いて、良好な像域分離処理性能を有する、低コスト、コンパクトで高画質な画像読取装置およびそれを用いた画像形成装置の提供を目的としている。   The present invention has been made in view of the above-described circumstances, and has a good image area separation process using an imaging lens that can obtain a sufficient angle of view and brightness at a low cost with a small number of lenses. An object of the present invention is to provide a low-cost, compact and high-quality image reading apparatus having performance and an image forming apparatus using the same.

前記課題を解決するために提供する本発明は、以下の通りである。
(1) 原稿に照明光を照射する照明系、該照明光を前記原稿が反射した光(反射光)を結像させる結像素子、該結像素子で結像された光を原稿像の電気信号に光電変換する受光素子、および該原稿像の電気信号を用いて前記原稿の対象領域の原稿情報を判別する画像処理を行う画像処理部を有する画像読取装置において、前記照明系または前記結像素子を用いた結像光学系の任意の光路中に、前記照明光または反射光を、第一の波長領域である青色光の波長領域、第二の波長領域である緑色光の波長領域、第三の波長領域である赤色光の波長領域の3種類の波長領域の光に色分解する色分解手段を備えるとともに、前記結像素子は、下記(1)式を満足する光学特性を有し、前記受光素子は前記色分解手段により色分解された波長領域の光ごとで原稿像の電気信号に光電変換し、前記画像処理部は、該原稿像の電気信号のうち第一の波長領域の光に基づく信号(第一の色信号)と第二の波長領域に基づく信号(第二の色信号)を用いて前記原稿情報として網点領域であるか否かを判別する画像処理を行うことを特徴とする画像読取装置。
|Bf1−Bf2| < |Bf3−Bf2| ・・・ (1)式
(但し、
Bf1:前記第一の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離、Bf2:前記第二の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離、Bf3:前記第三の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離である。
(2) 前記(1)に記載の画像読取装置において、前記結像素子は、原稿像を縮小結像させる結像レンズであることを特徴とする画像読取装置。
) 前記()記載の画像読取装置において、前記結像素子の焦点距離が下記(2)式及び(3)式を満足することを特徴とする画像読取装置。
|f1−f2| < |f3−f2| ・・・ (2)式
0.003 < |f3−f2|/f2 < 0.0045 ・・・ (3)式
(但し、
f1:F線(486.13nm)における焦点距離、
f2:基準波長e線(546.07nm)における焦点距離、
f3:C線(656.27nm)における焦点距離である。)
) 前記()記載の画像読取装置において、前記結像素子は、原稿側から順に正のパワーの第1レンズ、負のパワーの第2レンズ、正のパワーの第3レンズ、負パワーの第4レンズで構成されていることを特徴とする画像読取装置。
) 前記()記載の画像読取装置において、前記第1レンズは物体側に凸面を向けたメニスカス形状のレンズ、第2レンズは両凹レンズ、第3レンズは両凸レンズ、第4レンズは原稿側に凹面を向けたメニスカス形状のレンズであり、前記結像素子は、第2レンズと第3レンズの間に絞りを有することを特徴とする画像読取装置。
) 前記()または()に記載の画像読取装置において、前記結像素子は、下記(4)式及び(5)式を満足することを特徴とする画像読取装置。
0.05 < n凸−n凹 < 0.25 ・・・ (4)式
25.0 < ν凸−ν凹 < 36.5 ・・・ (5)式
(但し、
n凸:正レンズ(第1レンズ、第3レンズ)のd線(587.56nm)における屈折率の合計、
n凹:負レンズ(第2レンズ、第4レンズ)のd線(587.56nm)における屈折率の合計、
ν凸:正レンズ(第1レンズ、第3レンズ)のd線(587.56nm)におけるアッベ数の合計、
ν凹:負レンズ(第2レンズ、第4レンズ)のd線(587.56nm)におけるアッベ数の合計である。)
) 前記()〜()のいずれかに記載の画像読取装置において、前記結像素子は、下記(6)式を満足することを特徴とする画像読取装置。
31.0 < fL1×ν1/f2 < 37.0 ・・・ (6)式
(但し、
fL1:第1レンズのe線(546.07nm)における焦点距離、
ν1:第1レンズのアッベ数、
f2:基準波長e線(546.07nm)における焦点距離である。)
) 前記()〜()のいずれかに記載の画像読取装置において、前記結像素子は、有害物質を含有していないガラス材料からなるレンズであることを特徴とする画像読取装置。
) 前記()〜()のいずれかに記載の画像読取装置において、前記結像素子は全て球面により構成されていることを特徴とする画像読取装置。
10) 原稿画像をフルカラーで読取って画像信号を出力する手段として、前記(1)〜()のいずれかに記載の画像読取装置を有し、該画像信号に対応する画像を書込んで画像を形成することを特徴とする画像形成装置。
11) 前記(10)記載の画像形成装置において、前記画像信号に対応する画像の書込みを、光書込みにより行うことを特徴とする画像形成装置。
12) 前記(11)記載の画像形成装置において、光書込みにより、光導電性の感光体に、形成すべき画像に対応する静電潜像を形成することを特徴とする画像形成装置。

The present invention provided to solve the above problems is as follows.
(1) An illumination system that irradiates an original with illumination light, an image forming element that forms an image of light (reflected light) reflected by the original with the illumination light, and the light imaged by the image forming element In the image reading apparatus having a light receiving element that performs photoelectric conversion to a signal and an image processing unit that performs image processing for determining document information of a target area of the document using an electrical signal of the document image, the illumination system or the imaging element In any optical path of the imaging optical system using the optical element, the illumination light or the reflected light is transmitted through the first wavelength region , the blue wavelength region , the second wavelength region , the green wavelength region , The image forming element includes color separation means for color-separating into light of three types of wavelength regions of the red light wavelength region that is the third wavelength region , and the imaging element has optical characteristics that satisfy the following formula (1): The light receiving element has a wavelength region separated by the color separation means. And photoelectrically converting it into an electrical signal of the original image, and the image processing unit converts the signal (first color signal) based on the light in the first wavelength region out of the electrical signal of the original image and the second wavelength region. An image reading apparatus that performs image processing to determine whether or not the document information is a halftone dot region using a signal (second color signal) based thereon.
| Bf1-Bf2 | <| Bf3-Bf2 | (1) (however,
Bf1: distance from the rear end of the imaging element to the imaging position for light of an arbitrary wavelength in the first wavelength region, Bf2: imaging element for light of an arbitrary wavelength in the second wavelength region Bf3: distance from the rear end of the imaging element to the imaging position for light of an arbitrary wavelength in the third wavelength region. )
(2 ) In the image reading apparatus according to (1 ), the image forming element is an image forming lens that reduces and forms an original image.
( 3 ) The image reading apparatus according to ( 2 ), wherein the focal length of the imaging element satisfies the following expressions (2) and (3).
| F1-f2 | <| f3-f2 | (2) Equation 0.003 <| f3-f2 | / f2 <0.0045 (3) (however,
f1: Focal length at F line (486.13 nm)
f2: Focal length at reference wavelength e-line (546.07 nm)
f3: focal length at C line (656.27 nm). )
( 4 ) In the image reading apparatus according to ( 3 ), the imaging element includes, in order from the document side, a positive power first lens, a negative power second lens, a positive power third lens, and a negative power. An image reading apparatus comprising the fourth lens.
( 5 ) In the image reading apparatus according to ( 4 ), the first lens is a meniscus lens having a convex surface facing the object side, the second lens is a biconcave lens, the third lens is a biconvex lens, and the fourth lens is a document. An image reading apparatus comprising: a meniscus lens having a concave surface directed toward the side, wherein the imaging element has a diaphragm between the second lens and the third lens.
( 6 ) The image reading apparatus according to ( 4 ) or ( 5 ), wherein the imaging element satisfies the following expressions (4) and (5).
0.05 <n convex-n concave <0.25 (4) Formula 25.0 <ν convex-ν concave <36.5 (5) (However,
n-convex: the total refractive index of the positive lens (first lens, third lens) at d-line (587.56 nm),
n-concave: the total refractive index of d-line (587.56 nm) of the negative lens (second lens, fourth lens),
ν-convex: the sum of the Abbe numbers in the d-line (587.56 nm) of the positive lens (first lens, third lens),
v-concave: Total of Abbe numbers of d-line (587.56 nm) of negative lenses (second lens and fourth lens). )
( 7 ) The image reading apparatus according to any one of ( 4 ) to ( 6 ), wherein the imaging element satisfies the following expression (6).
31.0 <fL1 × ν1 / f2 <37.0 (6) (however,
fL1: focal length of the first lens at the e-line (546.07 nm),
ν1: Abbe number of the first lens,
f2: focal length at reference wavelength e-line (546.07 nm). )
( 8 ) The image reading apparatus according to any one of ( 3 ) to ( 7 ), wherein the imaging element is a lens made of a glass material that does not contain a harmful substance. .
( 9 ) The image reading apparatus according to any one of ( 3 ) to ( 8 ), wherein the imaging elements are all formed of a spherical surface.
( 10 ) As means for reading a document image in full color and outputting an image signal, the image reading apparatus according to any one of (1) to ( 9 ) is provided, and an image corresponding to the image signal is written. An image forming apparatus for forming an image.
( 11 ) The image forming apparatus according to ( 10 ), wherein the image corresponding to the image signal is written by optical writing.
( 12 ) The image forming apparatus according to ( 11 ), wherein an electrostatic latent image corresponding to an image to be formed is formed on a photoconductive photosensitive member by optical writing.

本発明に係る画像読取装置によれば、R信号を用いずB信号とG信号を用いて網点領域の判定を行うことにより、結像素子として構成枚数を低減したコンパクトで低コストな結像レンズを使用しても、網点を良好に検出することが可能となり、モアレなどの画像品質低下を起こさない、高精度な画像読取ができる。
また、本発明に係る画像形成装置によれば、本発明の画像読取装置を用いることで、像域分離性能を劣化させず、原稿の良好な読取が可能となることから、各色毎の画素ずれのない良好な画像形成が可能となる。
According to the image reading apparatus of the present invention, a compact and low-cost image formation in which the number of components is reduced as the image forming element by determining the halftone dot region using the B signal and the G signal without using the R signal. Even if a lens is used, it is possible to detect halftone dots satisfactorily, and high-precision image reading can be performed without causing image quality degradation such as moire.
Further, according to the image forming apparatus of the present invention, by using the image reading apparatus of the present invention, it is possible to read the original satisfactorily without deteriorating the image area separation performance. It is possible to form a good image without any problem.

以下に、本発明に係る画像読取装置を用いた画像形成装置の構成について説明する。
本発明に係る画像形成装置は、原稿画像をフルカラーで読取って画像信号を出力する手段として、後述する本発明の画像読取装置を有し、該画像信号に対応する画像を書込んで画像を形成することを特徴とするものである。この画像形成装置において、画像信号の書込みは、インクジェット方式やインクリボン方式、感熱方式等、公知の種々の方法で行うことができるが、「画像信号に対応する画像の書込みを、光書込みにより行う」ことが好ましい。さらにこの場合、光書込みによる書込みを、銀塩フィルム等に対して行ってもよいが、「光導電性の感光体に光書込みを行い、形成すべき画像に対応する静電潜像を形成する」ことが好適である。
The configuration of the image forming apparatus using the image reading apparatus according to the present invention will be described below.
An image forming apparatus according to the present invention has an image reading apparatus according to the present invention, which will be described later, as means for reading a document image in full color and outputting an image signal, and forms an image by writing an image corresponding to the image signal. It is characterized by doing. In this image forming apparatus, the image signal can be written by various known methods such as an ink jet method, an ink ribbon method, a heat sensitive method, and the like. “The image corresponding to the image signal is written by optical writing. Is preferred. Further, in this case, writing by optical writing may be performed on a silver salt film or the like, but “an optical writing is performed on a photoconductive photoreceptor to form an electrostatic latent image corresponding to an image to be formed. Is preferred.

図1に画像形成装置の一態様であるデジタル式のフルカラー複写機の構成例を示す。
本発明に係る画像形成装置は、装置上部に位置する原稿読取部であるスキャナ1とスキャナ補正部(不図示)及び圧縮処理部(不図示)からなる第1の画像処理部とを有する画像読取装置と、その下位に位置する「画像形成部」とを有する。
FIG. 1 shows a configuration example of a digital full-color copying machine which is an embodiment of an image forming apparatus.
An image forming apparatus according to the present invention includes an image reading unit including a scanner 1 serving as a document reading unit located at an upper portion of the apparatus, and a first image processing unit including a scanner correction unit (not shown) and a compression processing unit (not shown). And an “image forming unit” positioned below the apparatus.

ここで、本発明に係る画像読取装置は、原稿に照明光を照射する照明系、該照明光を前記原稿が反射した光(反射光)を結像させる結像素子、該結像素子で結像された光を原稿像の電気信号に光電変換する受光素子を備える原稿読取部と、該原稿像の電気信号を用いて前記原稿の対象領域の原稿情報を判別する画像処理を行う画像処理部とを有する画像読取装置において、前記照明系または前記結像素子を用いた結像光学系の任意の光路中に、前記照明光または反射光を、第一の波長領域、第二の波長領域、第三の波長領域を含む少なくとも3種類の波長領域の光に色分解する色分解手段を備えるとともに、前記結像素子は、前記第一の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離をBf1、前記第二の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離をBf2、前記第三の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離をBf3とした時、以下の(1)式を満足する光学特性を有し、前記受光素子は前記色分解手段により色分解された波長領域の光ごとで原稿像の電気信号に光電変換し、前記画像処理部は、該原稿像の電気信号のうち第一の波長領域の光に基づく信号(第一の色信号)と第二の波長領域の光に基づく信号(第二の色信号)を用いて前記原稿情報を判別する画像処理を行うことを特徴とする画像読取装置である。
|Bf1−Bf2| < |Bf3−Bf2| ・・・ (1)式
またこのとき、前記第一の波長領域における任意の波長の光が青色光(ブルー(B))、第二の波長領域における任意の波長の光が緑色光(グリーン(G))、第三の波長領域における任意の波長の光が赤色光(レッド(R))の3原色の光であることが好ましい。
さらに、前記画像処理部は、前記第一の色信号と第二の色信号を用いて、前記原稿情報として網点領域であるか否かを判定することが好適である。
Here, an image reading apparatus according to the present invention includes an illumination system that irradiates a document with illumination light, an imaging element that forms an image of light (reflected light) reflected by the document, and the imaging element. A document reading unit including a light receiving element that photoelectrically converts the imaged light into an electrical signal of a document image, and an image processing unit that performs image processing for determining document information of a target area of the document using the electrical signal of the document image In the image reading apparatus having the above, in the optical path of the imaging optical system using the illumination system or the imaging element, the illumination light or the reflected light, the first wavelength region, the second wavelength region, A color separation unit that separates light into at least three types of wavelength regions including a third wavelength region; and the imaging element includes an imaging element for light of an arbitrary wavelength in the first wavelength region. The distance from the rear end to the imaging position is Bf1, the first The distance from the rear end of the imaging element to the imaging position for light of an arbitrary wavelength in the wavelength region of Bf2 is from the rear end of the imaging element for light of an arbitrary wavelength in the third wavelength region. When the distance to the image forming position is Bf3, the light receiving element has an optical characteristic that satisfies the following expression (1), and the light receiving element converts the electric power of the original image for each light in the wavelength region separated by the color separation means. The image processing unit performs photoelectric conversion to a signal, and the image processing unit outputs a signal based on light in the first wavelength region (first color signal) and a signal based on light in the second wavelength region (first color signal) of the electrical signal of the document image. The image reading apparatus performs image processing for discriminating the document information using a second color signal.
| Bf1-Bf2 | <| Bf3-Bf2 | (1) Also, at this time, light of an arbitrary wavelength in the first wavelength region is blue light (blue (B)), and in the second wavelength region. It is preferable that light of an arbitrary wavelength is green light (green (G)) and light of an arbitrary wavelength in the third wavelength region is light of three primary colors of red light (red (R)).
Furthermore, it is preferable that the image processing unit determines whether or not the document information is a halftone dot region using the first color signal and the second color signal.

図2に、本発明に係る画像読取装置であるスキャナ1の構成例として、受光素子に所謂3ラインCCDを用いた一例を示す。
スキャナ1において、原稿102は、コンタクトガラス101の上に配置され、コンタクトガラス101の下部に配置された照明光学系107により、原稿102が照明される。原稿102の照明反射光Lは、第1走行体103の第1ミラー103aにより反射され、その後、第2走行体4の第1ミラー104aと第2ミラー104bで反射され、縮小結像レンズ105へ導かれ、結像レンズ105によりラインセンサユニット106の各ラインセンサ106R,106G,106Bに結像される。
原稿2の長手方向を読み取る場合は、第1走行体103が図中左端から右方向にVの速度で図中右端の(103’)の位置迄移動し、それと同時に第2走行体104が、図中左端から右方向に第1走行体103の半分の速度1/2Vで、図中中央の(104’)の位置迄移動し、原稿全体を読み取る。
FIG. 2 shows an example in which a so-called three-line CCD is used as a light receiving element as a configuration example of the scanner 1 which is an image reading apparatus according to the present invention.
In the scanner 1, the document 102 is disposed on the contact glass 101, and the document 102 is illuminated by an illumination optical system 107 disposed below the contact glass 101. The illumination reflected light L of the document 102 is reflected by the first mirror 103 a of the first traveling body 103, and then reflected by the first mirror 104 a and the second mirror 104 b of the second traveling body 4, to the reduction imaging lens 105. The light is guided and formed on the line sensors 106R, 106G, and 106B of the line sensor unit 106 by the imaging lens 105.
When the longitudinal direction of the document 2 is read, the first traveling body 103 moves from the left end in the drawing to the right at a speed of V to the position (103 ′) on the right end in the drawing. From the left end in the figure, the document moves to the position (104 ′) in the center in the figure at a speed of 1/2 V, which is half the speed of the first traveling body 103, and reads the entire original.

ラインセンサユニット106は、ラインCCDであるラインセンサ106R,106G,106Bそれぞれが、ラインセンサの長手方向が副走査方向(図紙面垂直方向)となるように1チップに3列に平行配列された構成(所謂3ラインCCD)となっており、また照明反射光Lをラインセンサ106R,106G,106Bに対応した3種類の波長領域の光に色分解するためのフィルタ(R、G、Bのフィルタ(照明反射光Lを赤(R)の波長領域の光に色分解するフィルタ、照明反射光Lを緑(G)の波長領域の光に色分解するフィルタ、照明反射光Lを青(B)の波長領域の光に色分解するフィルタ))がセンサ前面に配置されている。   The line sensor unit 106 includes line sensors 106R, 106G, and 106B, which are line CCDs, arranged in parallel in three rows on one chip so that the longitudinal direction of the line sensor is the sub-scanning direction (vertical direction in the drawing). (So-called 3-line CCD), and filters (R, G, B filters (R, G, B) for separating the illumination reflected light L into light of three types of wavelength regions corresponding to the line sensors 106R, 106G, 106B. A filter that separates the illumination reflected light L into light in the red (R) wavelength region, a filter that separates the illumination reflected light L into light in the green (G) wavelength region, and the illumination reflected light L as blue (B). A filter for color separation into light in the wavelength region)) is arranged in front of the sensor.

図3にラインセンサユニット106の出力の一例を示す。ここでは、一般的な白色光が照明反射光Lとしてラインセンサユニットに入射した場合を示しており、横軸が波長、縦軸が分光感度となっている。
図中、Rの曲線はラインセンサ6Rに対応するものであり、赤色光に高い透過率を示す。また、Gの曲線はラインセンサ6Gに対応するものであり、緑色光に高い透過率を示し、Bの曲線はラインセンサ6Bに対応するものであり、青色光に高い透過率を示す。このR,G,Bの曲線の各波長領域は、例えば400nm〜700nmの可視域において次のような領域である。すなわち、Rの波長領域は650nm近傍をピーク波長として、550〜700nmの範囲で分光感度を有する領域である。また、Gの波長領域は550nmをピーク波長として、450〜650nmの範囲で分光感度を有する領域である。また、Bの波長領域は450nmをピーク波長として、400〜550nmの範囲で分光感度を有する領域である。
FIG. 3 shows an example of the output of the line sensor unit 106. Here, a case where general white light enters the line sensor unit as illumination reflected light L is shown, where the horizontal axis indicates the wavelength and the vertical axis indicates the spectral sensitivity.
In the figure, the curve of R corresponds to the line sensor 6R, and shows a high transmittance for red light. The G curve corresponds to the line sensor 6G and shows a high transmittance for green light, and the B curve corresponds to the line sensor 6B and shows a high transmittance for blue light. Each wavelength region of the R, G, and B curves is as follows in the visible region of 400 nm to 700 nm, for example. That is, the wavelength region of R is a region having spectral sensitivity in the range of 550 to 700 nm with a peak wavelength in the vicinity of 650 nm. The G wavelength region is a region having spectral sensitivity in a range of 450 to 650 nm with a peak wavelength of 550 nm. The B wavelength region is a region having spectral sensitivity in the range of 400 to 550 nm with 450 nm as the peak wavelength.

なお、色分解の方法としては、結像レンズ5とラインセンサ106R,106G,106Bの間に色分解プリズムやフィルタを選択的に挿入しR、G、Bに色分解する方法や、R、G、B光源を順次点灯させ原稿102を照明する方法などがあるが、所定の波長領域に分解できればどのような方法でも良い。また画像読取光学系としては、上記のような方式以外に、図4に示すように、光路を複数枚(枚数は任意)のミラーで折り返し、結像レンズ105とラインセンサユニット106を一体型のユニット108に保持し、そのユニット108全体が移動して原稿情報を読取る方式としても良い。   As a color separation method, a color separation prism or filter is selectively inserted between the imaging lens 5 and the line sensors 106R, 106G, and 106B to separate the colors into R, G, and B, or R, G There is a method of illuminating the original 102 by sequentially turning on the B light source, but any method can be used as long as it can be decomposed into a predetermined wavelength region. As the image reading optical system, in addition to the above-described method, as shown in FIG. 4, the optical path is folded back by a plurality of mirrors (the number is arbitrary), and the imaging lens 105 and the line sensor unit 106 are integrated. It is also possible to employ a method in which the document information is read by holding the unit 108 and moving the entire unit 108.

ラインセンサユニット106の受光面にカラー画像(原稿像)が結像すると、ラインセンサ6R,6G,6Bにおいて前述したフィルタによりR、G、B3色の光の原稿像に色分解され、ついでこのR、G、B3色の光の原稿像がそれぞれ光電変換されて、R,G,B各色の電気信号(それぞれR信号、G信号、B信号。RGB画像データともいう)となり、後段の第1の画像処理部に出力される。このとき、B信号は図3に示すBの曲線で高い透過率を示す波長領域の電気信号、G信号は図3に示すGの曲線で高い透過率を示す波長領域の電気信号、R信号は図3に示すRの曲線で高い透過率を示す波長領域の電気信号である。   When a color image (original image) is formed on the light receiving surface of the line sensor unit 106, the line sensors 6R, 6G, and 6B are color-separated into R, G, and B3 light original images by the filters described above. , G, and B light original images are photoelectrically converted to R, G, and B color electrical signals (R signal, G signal, and B signal, also referred to as RGB image data, respectively). It is output to the image processing unit. At this time, the B signal is an electric signal in the wavelength region showing a high transmittance in the curve B shown in FIG. 3, the G signal is an electric signal in the wavelength region showing a high transmittance in the curve G shown in FIG. 3, and the R signal is FIG. 4 is an electric signal in a wavelength region showing a high transmittance in the curve of R shown in FIG.

つぎに、第1の画像処理部において、ラインセンサユニット106からのRGB画像データについて所定の画像処理を行い、「書込み用の画像信号(イエロー・マゼンタ・シアン・黒の各色を書込むための信号)」に変換された信号であるC,M,Y,Bkデータを出力する。この詳細については後述する。ついで圧縮処理部にて該C,M,Y,Bkデータを圧縮する。   Next, in the first image processing unit, predetermined image processing is performed on the RGB image data from the line sensor unit 106, and a "write image signal (signal for writing each color of yellow, magenta, cyan, and black). C, M, Y, Bk data, which is a signal converted into “)”. Details of this will be described later. Next, the C, M, Y, Bk data is compressed by the compression processing unit.

図1における画像形成部は、第2の画像処理部と画像出力部とから構成される。
第2の画像処理部は、伸張処理部とプリンタ補正部とからなる。まず、伸張処理部において、圧縮された画像データ(前記C,M,Y,Bkデータ)を元の多値データに伸張し、ついでプリンタ補正部7にてプリンタγ(ガンマ)補正処理、階調処理が行われ、後段の画像出力部の明暗特性の補正処理や該画像出力部の階調特性及び像域分離結果に応じた誤差拡散処理やディザ処理等による画像データの量子化を行い、出力するものである。なお、前記第1の画像処理部と第2の画像処理部は図中に示す画像処理部1200にまとめてもよい。
ついで、画像出力部によってその画像データの書込みを行って画像を形成する。
The image forming unit in FIG. 1 includes a second image processing unit and an image output unit.
The second image processing unit includes an expansion processing unit and a printer correction unit. First, the decompression processing unit decompresses the compressed image data (the C, M, Y, and Bk data) to the original multi-value data, and then the printer correction unit 7 performs printer γ (gamma) correction processing and gradation. Processing is performed, and image data is quantized and output by error diffusion processing or dither processing according to the gradation characteristics of the image output unit and the image area separation result, and correction processing of the light and dark characteristics of the subsequent image output unit To do. The first image processing unit and the second image processing unit may be combined into an image processing unit 1200 shown in the drawing.
Next, the image output unit writes the image data to form an image.

ここで、画像出力部では、図1に示すように、「潜像担持体」として円筒状に形成された光導電性の感光体1100を有し、その周囲に、帯電手段としての帯電ローラ1110、リボルバ式の現像装置1130、転写ベルト1140、クリーニング装置1150が配設されている。帯電手段としては帯電ローラ1110に代えて「コロナチャージャ」を用いることもできる。また、画像処理部300から書込み用の信号を受けて光走査により感光体1100に書込みを行う光走査装置1170は、帯電ローラ1110と現像装置1130との間において感光体1100の光走査を行うようになっている。また、符号1160は定着装置、符号1180はカセット、符号1190はレジストローラ対、符号1220は給紙コロ、符号1210はトレイ、符号Pは「記録媒体」としての転写紙を示している。   Here, as shown in FIG. 1, the image output unit includes a photoconductive photoconductor 1100 formed in a cylindrical shape as a “latent image carrier”, and a charging roller 1110 as a charging unit around the photoconductive photoconductor 1100. A revolver type developing device 1130, a transfer belt 1140, and a cleaning device 1150 are provided. As the charging means, a “corona charger” can be used instead of the charging roller 1110. Further, the optical scanning device 1170 that receives a signal for writing from the image processing unit 300 and writes on the photosensitive member 1100 by optical scanning performs optical scanning of the photosensitive member 1100 between the charging roller 1110 and the developing device 1130. It has become. Reference numeral 1160 denotes a fixing device, reference numeral 1180 denotes a cassette, reference numeral 1190 denotes a registration roller pair, reference numeral 1220 denotes a paper feed roller, reference numeral 1210 denotes a tray, and reference numeral P denotes a transfer sheet as a “recording medium”.

画像形成を行うときは、光導電性の感光体1100が図中時計回り方向に等速回転され、その表面が帯電ローラ1110により均一帯電され、光走査装置1170のレーザビームの光書込による露光を受けて静電潜像が形成される。形成された静電潜像は所謂「ネガ潜像」であって画像部が露光されている。   When image formation is performed, the photoconductive photosensitive member 1100 is rotated at a constant speed in the clockwise direction in the drawing, the surface thereof is uniformly charged by the charging roller 1110, and exposure by optical writing of the laser beam of the optical scanning device 1170 is performed. In response, an electrostatic latent image is formed. The formed electrostatic latent image is a so-called “negative latent image”, and the image portion is exposed.

「画像の書込み」は、感光体1100の回転に従い、イエロー画像、マゼンタ画像、シアン画像、黒画像の順に行われ、形成された静電潜像はリボルバ式の現像装置1130の各現像ユニットY(イエロートナーによる現像を行う)、M(マゼンタトナーによる現像を行う)、C(シアントナーによる現像を行う)、K(黒トナーによる現像を行う)により順次反転現像されてポジ画像として可視化され、得られた各色トナー画像は、転写ベルト1140上に、転写電圧印加ローラ114Aにより順次転写され、上記各色トナー画像が転写ベルト1140上で重ね合わせられてカラー画像となる。   “Image writing” is performed in the order of a yellow image, a magenta image, a cyan image, and a black image in accordance with the rotation of the photoconductor 1100, and the formed electrostatic latent image is stored in each developing unit Y ( Development with yellow toner), M (development with magenta toner), C (development with cyan toner), K (development with black toner) are sequentially reversed and visualized as a positive image. The respective color toner images are sequentially transferred onto the transfer belt 1140 by the transfer voltage application roller 114A, and the respective color toner images are superimposed on the transfer belt 1140 to form a color image.

転写紙Sを収納したカセット1180は、画像形成装置本体に脱着可能であり、図のごとく装着された状態において、収納された転写紙Sの最上位の1枚が給紙コロ1220により給紙され、給紙された転写紙Sはその先端部をレジストローラ対1190に捕えられる。このとき、レジストローラ対1190は、転写ベルト1140上の「トナーによるカラー画像」が転写位置へ移動するのにタイミングを合わせて転写紙Sを転写部へ送り込む。送り込まれた転写紙Sは、転写部においてカラー画像と重ね合わせられ、転写ローラ114Bの作用によりカラー画像を静電転写される。転写ローラ114Bは、転写時に転写紙Sをカラー画像に押圧させる。   The cassette 1180 containing the transfer paper S is detachable from the main body of the image forming apparatus, and the uppermost sheet of the stored transfer paper S is fed by the paper feed roller 1220 when mounted as shown in the figure. The leading edge of the fed transfer paper S is caught by the registration roller pair 1190. At this time, the registration roller pair 1190 feeds the transfer sheet S to the transfer unit at the timing when the “color image by toner” on the transfer belt 1140 moves to the transfer position. The transferred transfer paper S is superimposed on the color image at the transfer portion, and the color image is electrostatically transferred by the action of the transfer roller 114B. The transfer roller 114B presses the transfer sheet S against the color image during transfer.

カラー画像を転写された転写紙Sは定着装置1160へ送られ、定着装置1160においてカラー画像を定着され、図示されないガイド手段による搬送路を通り、図示されない排紙ローラ対によりトレイ1210上に排出される。各色トナー画像が転写されるたびに、感光体1100の表面はクリーニング装置1150によりクリーニングされ、残留トナーや紙粉等が除去される。   The transfer sheet S on which the color image is transferred is sent to the fixing device 1160, where the color image is fixed in the fixing device 1160, passes through a conveyance path by a guide means (not shown), and is discharged onto the tray 1210 by a pair of paper discharge rollers (not shown). The Each time each color toner image is transferred, the surface of the photoreceptor 1100 is cleaned by a cleaning device 1150 to remove residual toner, paper dust, and the like.

つぎに、図1のデジタル式のフルカラー複写機における画像処理システムについて説明する。
図5は、該デジタル式のフルカラー複写機における画像処理システムの概略構成を示すブロック図である。
ここでは、図5を参照して、画像処理システムの各部の構成及び原稿をコピーする際の処理、即ち、原稿画像の読取り、読取り画像の蓄積、蓄積画像を用いたプリント出力、という過程で行なわれるコピー時の画像データの処理フローに沿い、その内容の概要を説明する。
Next, an image processing system in the digital full-color copying machine of FIG. 1 will be described.
FIG. 5 is a block diagram showing a schematic configuration of an image processing system in the digital full-color copying machine.
Here, referring to FIG. 5, the configuration of each part of the image processing system and the process for copying the original, that is, the process of reading the original image, accumulating the read image, and outputting the print using the accumulated image are performed. The outline of the contents will be described along the processing flow of image data at the time of copying.

フルカラー複写機として動作する場合、スキャナ1は、原稿画像をR(レッド)、G(グリーン)、B(ブルー)に色分解したアナログ画像信号としてラインセンサユニット106で読取り、得た画像信号をデジタルデータに変換して出力する。   When operating as a full-color copying machine, the scanner 1 reads the original image as an analog image signal that is color-separated into R (red), G (green), and B (blue) by the line sensor unit 106, and digitally converts the obtained image signal. Convert to data and output.

スキャナ補正部2は、スキャナ1で読取ったRGB画像データ(デジタルデータ)に対し、スキャナγ補正処理やフィルタ処理等の画像処理を施してスキャナの特性を補正する。ここで行う画像処理は、原稿画像を異なる複数種の画像領域に分離(文字・線画や絵柄などに像域分離)し、画像種に適合する処理(例えば、画像の文字部は強調して絵柄部は平滑化するフィルタ処理)を施す。なお、スキャナ補正部2における像域分離に係わる処理は、本発明を特徴付ける要素であり、詳細は後述する。   The scanner correction unit 2 performs image processing such as scanner γ correction processing and filter processing on the RGB image data (digital data) read by the scanner 1 to correct the characteristics of the scanner. In the image processing performed here, the original image is separated into a plurality of different image areas (image areas are separated into characters, line drawings, patterns, etc.) and adapted to the image type (for example, the character portion of the image is emphasized and the pattern is emphasized). Part is subjected to a smoothing filter process). Note that the processing related to image area separation in the scanner correction unit 2 is an element characterizing the present invention, and details will be described later.

圧縮処理部3は、スキャナ補正後の多値画像データを圧縮処理して、汎用バス10にデータを送出する。圧縮後の画像データは汎用バス10を通って、コントローラ4に送られる。コントローラ4は図示しない半導体メモリを持ち、送られてくるデータを蓄積する。半導体メモリに蓄積されたデータは、随時大容量の記憶装置であるハードディスクドライブ(HDD)5に書き込まれる。これはプリント出力時に用紙が詰まり、出力が正常に終了しなかった場合でも、再び原稿を読み直すのを避けるためや、複数の原稿画像データを並べ替える電子ソートを行うため、或いは読取った原稿を蓄積しておき、必要なときに再出力するためである。なお、ここでは画像データに対し圧縮処理部3で圧縮を施すとしたが、汎用バス10の帯域が十分に広く、蓄積するHDD5の容量が大きければ、非圧縮の状態でデータを扱っても良い。   The compression processing unit 3 compresses the multivalued image data after the scanner correction, and sends the data to the general-purpose bus 10. The compressed image data is sent to the controller 4 through the general-purpose bus 10. The controller 4 has a semiconductor memory (not shown) and accumulates transmitted data. Data stored in the semiconductor memory is written to a hard disk drive (HDD) 5 which is a large capacity storage device as needed. This is because even when paper is jammed at the time of print output and the output does not end normally, to avoid rereading the document again, to perform electronic sorting to rearrange multiple document image data, or to store the read document This is to re-output when necessary. Although the compression processing unit 3 compresses the image data here, the data may be handled in an uncompressed state if the bandwidth of the general-purpose bus 10 is sufficiently wide and the capacity of the HDD 5 to be stored is large. .

次にコントローラ4は、HDD5に蓄積した画像データを伸張処理部6に汎用バス10を介して送出する。伸張処理部6は、圧縮処理された画像データを元の多値データに伸張し、プリンタ補正部7に送出する。   Next, the controller 4 sends the image data stored in the HDD 5 to the expansion processing unit 6 via the general-purpose bus 10. The decompression processing unit 6 decompresses the compressed image data to the original multi-value data and sends it to the printer correction unit 7.

プリンタ補正部7では、プリンタγ(ガンマ)補正処理、階調処理が行われ、プロッタ8(後段の画像出力部)の明暗特性の補正処理やプロッタ8の階調特性及び像域分離結果に応じた誤差拡散処理やディザ処理等による画像データの量子化が行われる。   The printer correction unit 7 performs printer γ (gamma) correction processing and gradation processing, and according to the light / dark characteristic correction processing of the plotter 8 (the image output unit at the subsequent stage), the gradation characteristics of the plotter 8 and the image area separation result. The image data is quantized by error diffusion processing or dither processing.

プロッタ8は、レーザービーム書込み方式の転写紙印字ユニットで、画像データによりレーザを駆動することにより、画像を感光体に潜像として描画し、トナーによる作像・転写処理後、転写紙にコピー画像を形成する。   The plotter 8 is a laser beam writing type transfer paper printing unit that drives a laser with image data to draw an image as a latent image on a photosensitive member, and after image formation / transfer processing with toner, a copy image is printed on the transfer paper. Form.

図5に示す画像処理システムが配信スキャナとして動作する場合、即ち、スキャナ入力画像データを利用する外部装置としてのPC11にネットワークを介して画像データを配信する場合の動作を説明する。
この場合も、上記した複写機として動作する場合と同様に、原稿画像がスキャナ1から読込まれ、スキャナ補正部2及び圧縮処理部3の処理を経て、コントローラ4に画像が送られる。
コントローラ4は、ネットワークへの負荷を少なくし、外部装置としてのPC11の利用性を考慮した形式のデータへ画像データを変換するフォーマット処理を行い、その後、NIC(Network Interface Controller)9を介してPC11への配信を行う。フォーマット処理では、例えば、汎用画像フォーマットとして用いられている、JPEG(JointPhotographic Experts Group)やTIFF(Tagged Image File Format)或いはBMP(Bit Map)形式への変換を行う。
The operation when the image processing system shown in FIG. 5 operates as a distribution scanner, that is, when image data is distributed via the network to the PC 11 as an external apparatus using the scanner input image data will be described.
Also in this case, the original image is read from the scanner 1 and is sent to the controller 4 through the processing of the scanner correction unit 2 and the compression processing unit 3 as in the case of operating as a copying machine.
The controller 4 reduces the load on the network and performs a format process for converting the image data into data in a format that takes into account the usability of the PC 11 as an external device, and then performs the PC 11 via the NIC (Network Interface Controller) 9. Deliver to. In the format processing, for example, conversion into a JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), or BMP (Bit Map) format used as a general-purpose image format is performed.

画像処理システム(図5)におけるスキャナ補正部2の内部構成を図6のブロック図に示す。
図6に示すように、スキャナ補正部2は、スキャナ1で原稿を読取り、入力されたRGB画像データに基づき、スキャナの特性によるRGB画像データのデジタル値を明度に比例するデジタル値に変換するスキャナγ(ガンマ)補正部21と、RGB画像データの各画素(領域)が文字、網点文字、絵柄等の異なる画像種のいずれに属するかを判定し、原稿の画像領域(像域)を各画像種の領域に分離する像域分離部22と、像域分離の結果に基づいて画像データに鮮鋭化処理をかけたり、平滑化処理をかけたりするフィルタ処理部23と、RGB色空間に色分解された画像データを他の色空間であるC(シアン)、M(マゼンダ)、Y(イエロー)、Bk(ブラック)の記録色情報(なお、以下で単に“K”と記す場合も“Bk(ブラック)”を指す)を含むカラー画像データに変換する色補正部25と、入力画像における主走査方向の大きさを拡大・縮小して出力する変倍処理部27を構成要素として有する。
上記スキャナ補正部2における像域分離部22と像域分離結果を利用する関連処理部は、本発明を特徴付ける要素であり、以下に、詳細に説明する。
The internal configuration of the scanner correction unit 2 in the image processing system (FIG. 5) is shown in the block diagram of FIG.
As shown in FIG. 6, the scanner correction unit 2 reads a document with the scanner 1 and converts a digital value of RGB image data based on the characteristics of the scanner into a digital value proportional to lightness based on the input RGB image data. The γ (gamma) correction unit 21 determines whether each pixel (region) of the RGB image data belongs to a different image type such as a character, halftone character, or design, and sets the image region (image region) of the document. An image area separation unit 22 that separates into image type regions, a filter processing unit 23 that applies sharpening processing or smoothing processing to image data based on the result of the image region separation, and a color in the RGB color space The separated image data is recorded color information of C (cyan), M (magenta), Y (yellow), and Bk (black), which are other color spaces (hereinafter “Bk” may be simply referred to as “K”). (black A color correction unit 25 which converts the color image data including the point) ", with a scaling section 27 and outputs the scaling the size of the main scanning direction in the input image as a component.
The image processing unit 22 and the related processing unit using the image region separation result in the scanner correction unit 2 are elements that characterize the present invention, and will be described in detail below.

図7は、像域分離部22の内部構成を示すブロック図である。
図7に示すように、像域分離部22は、フィルタ部221、白領域抽出部222、網点分離部223、エッジ抽出部224、網点エッジ抽出部225、色判定部226、総合判定部227を有し、入力RGB画像データをもとに、像域分離の結果(画像種)を表すC/P信号(絵柄、文字、網点文字、網点の各領域)およびB/C信号(有彩領域/無彩領域を表す)を発生し、出力する。
C/P及びB/C信号は、処理フローに従って、スキャナ補正部2の各処理部に入力されるRGB又はCMYKの色空間で表現された画像データに同期して、入力され、必要に応じて参照される。画像データとともに圧縮・伸張処理をなされた後に、プリンタ補正部7にも入力され、プリンタ補正部7の各処理部において必要に応じて参照される。
以下に、像域分離部22の各処理部について、詳細な説明をする。
FIG. 7 is a block diagram showing the internal configuration of the image area separation unit 22.
As shown in FIG. 7, the image area separation unit 22 includes a filter unit 221, a white region extraction unit 222, a halftone dot separation unit 223, an edge extraction unit 224, a halftone dot edge extraction unit 225, a color determination unit 226, and a comprehensive determination unit. 227, and based on the input RGB image data, a C / P signal (pattern, character, halftone character, halftone dot region) and B / C signal (image region) representing an image area separation result (image type) A chromatic area / achromatic area).
The C / P and B / C signals are input in synchronization with the image data expressed in the RGB or CMYK color space input to each processing unit of the scanner correction unit 2 according to the processing flow, and if necessary. Referenced. After the compression / decompression process is performed together with the image data, it is also input to the printer correction unit 7 and is referred to as necessary in each processing unit of the printer correction unit 7.
Hereinafter, each processing unit of the image area separation unit 22 will be described in detail.

フィルタ部221においては、G画像データが入力され、主に文字のエッジの抽出ために、画像データのエッジを強調することによりMTF特性の劣化を補正したG画像データを出力する。このフィルタ処理は、既存の技術を用いることにより実施することが可能であり、例えば、特開2003−46772号公報に記載されたフィルタ部の処理(同公報[0069]〜[0077]参照)を適用することが可能である。フィルタ部221によって処理されたG画像データは、エッジ抽出部224に出力される。   The filter unit 221 receives G image data, and outputs G image data in which the deterioration of the MTF characteristic is corrected by emphasizing the edge of the image data in order to mainly extract the edge of the character. This filter processing can be performed by using an existing technique. For example, the processing of the filter unit described in Japanese Patent Laid-Open No. 2003-46772 (see the publications [0069] to [0077]). It is possible to apply. The G image data processed by the filter unit 221 is output to the edge extraction unit 224.

エッジ抽出部224においては、フィルタ部221によってエッジを強調されたG画像データが入力され、高レベル濃度の黒画素と低レベル濃度の白画素それぞれの連続性に基づいて文字エッジ領域を定め、エッジ領域に属すると判定した画素に対して“1”edge信号を出力し、非エッジ領域に属すると判定した画素に対して“0”のedge信号を出力する。このエッジ抽出処理は、既存の技術を用いることにより実施することが可能であり、例えば、特開2003−46772号公報に記載されたエッジ抽出部の処理(同公報[0078]〜[0083]参照)を適用することが可能である。エッジ抽出部224によって発生されたedge信号は、網点エッジ抽出部225と総合判定部227に出力される。   In the edge extraction unit 224, the G image data in which the edge is enhanced by the filter unit 221 is input, a character edge region is determined based on the continuity of each of the high level density black pixels and the low level density white pixels, The “1” edge signal is output to the pixel determined to belong to the region, and the “0” edge signal is output to the pixel determined to belong to the non-edge region. This edge extraction processing can be performed by using an existing technique. For example, the edge extraction processing described in Japanese Patent Laid-Open No. 2003-46772 (see the above publications [0078] to [0083]). ) Can be applied. The edge signal generated by the edge extraction unit 224 is output to the halftone dot extraction unit 225 and the overall determination unit 227.

白領域抽出部222においては、入力RGB画像データとフィルタ部221によってエッジを強調されたG画像データが入力され、白領域に属すると判定した画素に対して“1”wh信号を出力し、白領域に属さないと判定した画素に対し“0”wh信号を出力する。
最終的な白背景分離結果を示すwh信号は、白地と境界部分に対して、非白地側の境界領域を含む結果となる。言いかえれば、原稿上の実際の白地よりも大きな領域となる。この白領域抽出処理は、既存の技術を用いることにより実施することが可能であり、例えば、特開2003−46772号公報に記載された白領域抽出部の処理(同公報[0084]〜[0126]参照)を適用することが可能である。白領域抽出部222によって発生されたwh信号は、総合判定部227に出力される。
In the white area extraction unit 222, the input RGB image data and the G image data in which the edge is enhanced by the filter unit 221 are input, and a “1” wh signal is output to a pixel determined to belong to the white area. A “0” wh signal is output to a pixel determined not to belong to the region.
The wh signal indicating the final white background separation result includes a non-white background boundary region with respect to the white background and the boundary portion. In other words, the area is larger than the actual white background on the document. This white area extraction process can be performed by using an existing technique. For example, the white area extraction unit described in Japanese Patent Application Laid-Open No. 2003-46772 (the same publication [0084] to [0126]). ]) Can be applied. The wh signal generated by the white area extraction unit 222 is output to the comprehensive determination unit 227.

像域分離部22における網点分離部223は、G画像データ(G信号)とB画像データ(B信号)が入力され、網点ピーク検出信号peak及び網点領域信号htを出力する。
図8は、本実施形態に係わる網点分離部223の内部構成を示すブロック図である。
図8に示すように、網点分離部223は、第1網点ピーク検出部2231、第2網点ピーク検出部2232、ピーク信号発生部2234、網点領域検出部2236および網点総合判定部2238を有する。
The halftone dot separation unit 223 in the image area separation unit 22 receives the G image data (G signal) and the B image data (B signal), and outputs a halftone dot detection signal peak and a halftone dot region signal ht.
FIG. 8 is a block diagram showing an internal configuration of the halftone separator 223 according to the present embodiment.
As shown in FIG. 8, the halftone dot separation unit 223 includes a first halftone dot peak detection unit 2231, a second halftone dot peak detection unit 2232, a peak signal generation unit 2234, a halftone dot region detection unit 2236, and a halftone dot total determination unit. 2238.

第1網点ピーク検出部2231及び第2網点ピーク検出部2232には、G画像データおよびB画像データが入力される。G画像データは、カラー画像の黒濃度に敏感な画像データであり、画像データを輝度信号などへ変換する必要がなくなる。但し、G画像データは、Y(イエロー:黄色)に対して感度がなく、それに基づいたピーク検出は、Yピークが漏れたものとなる。他方、B画像データは、Yに感度があるので、それに基づいたピーク検出がG信号を用いるピーク検出の漏れを補う。従って、G、Bの両方を検出することで、網点検出の精度を高くすることができる。   G image data and B image data are input to the first halftone peak detector 2231 and the second halftone peak detector 2232. The G image data is image data sensitive to the black density of the color image, and it is not necessary to convert the image data into a luminance signal or the like. However, the G image data is not sensitive to Y (yellow: yellow), and the peak detection based on it is a leak of the Y peak. On the other hand, since B image data is sensitive to Y, peak detection based on it compensates for leakage of peak detection using the G signal. Therefore, by detecting both G and B, the accuracy of halftone dot detection can be increased.

第1網点ピーク検出部2231は、G画像データを用いて、二次元に所定の大きさを持つ局所領域内の画素濃度情報から、網点ドットの一部を形成する画素(「網点ピーク画素」と呼ぶ)を検出する。
また第2網点ピーク検出部2232は、第1網点ピーク検出部2231でG画像信号が入力された代わりにB画像信号が入力される。内部のピーク画素検出処理は、第1網点ピーク検出部2231と全く同じ方法で処理されるものである。同様に検出処理が行われて、領域の中心画素を網点ピーク画素として検出した場合、第2網点ピーク検出部2232は、網点ピーク検出信号bpk=1を発生し、それ以外の場合は、bpk=0を発生する。
すなわち第1網点ピーク検出部2231は、検出結果として2値信号gpkを出力し、第2網点ピーク検出部2232はbpkを出力する。ピーク信号発生部2234には、このgpk及びbpkが入力され、論理和をとったものがpeakとして出力される。
The first halftone dot peak detection unit 2231 uses G image data to form a pixel (“halftone peak”) that forms part of a halftone dot from pixel density information in a local area having a predetermined size in two dimensions. (Referred to as “pixel”).
The second halftone peak detection unit 2232 receives a B image signal instead of the G image signal input by the first halftone peak detection unit 2231. Internal peak pixel detection processing is performed in exactly the same manner as the first halftone peak detection unit 2231. Similarly, when the detection process is performed and the center pixel of the area is detected as a halftone peak pixel, the second halftone peak detection unit 2232 generates a halftone peak detection signal bpk = 1, otherwise , Bpk = 0 is generated.
That is, the first halftone dot peak detection unit 2231 outputs a binary signal gpk as the detection result, and the second halftone dot peak detection unit 2232 outputs bpk. The gpk and bpk are input to the peak signal generator 2234, and a logical sum is output as peak.

網点領域検出部2236には、第1,第2網点ピーク検出部2231、2232それぞれからの検出信号gpk及びbpkが入力され、網点領域検出結果として2値信号amiを発生する。
詳しくは、網点領域検出部2236は、入力される網点ピーク検出信号gpk及びbpkをもとに、次の検出方法により2値の網点領域検出信号を検出する。即ち、網点ピーク検出信号gpk=1又は網点ピーク検出信号bpk=1の画素が、網点ピーク画素として入力されると、その画素数を二次元に所定の大きさを持つ小領域毎に計数し、山及び谷の網点ピーク画素の合計を計数値Pとする。この計数値Pが閾値Pthよりも大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。
こうした方法によって網点領域と判定された場合、該当する画素の網点領域検出信号ami=1を出力する。そうでない場合は、ami=0を出力する。
なお、実際に原稿の網点領域にある網点ピーク画素は、ある程度の大きさを持つかたまりとして検出される。孤立して網点ピーク検出信号gpk=1又はbpk=1である画素が検出された場合は、文字に起因するもの、あるいは単なる画像のノイズによるものである確率が高い。そこで、閾値Pthの値を上げることにより、孤立して存在するgpk=1である画素、または孤立して存在するbpk=1である画素を網点領域として判定する確率を低下させることができる。
上記のようにして検出された網点領域検出信号amiは、網点総合判定部2238に入力される
The halftone dot detection unit 2236 receives detection signals gpk and bpk from the first and second halftone peak detection units 2231 and 2232, and generates a binary signal ami as a halftone dot region detection result.
Specifically, the halftone dot region detection unit 2236 detects a binary halftone dot region detection signal by the following detection method based on the halftone dot peak detection signals gpk and bpk that are input. That is, when a pixel with a halftone dot detection signal gpk = 1 or a halftone dot detection signal bpk = 1 is input as a halftone dot peak pixel, the number of pixels is two-dimensionally assigned to each small region. Counting is performed, and the sum of halftone dot peak pixels of peaks and valleys is taken as a count value P. When the count value P is larger than the threshold value Pth, all the pixels in the small area (or only the central pixel of the small area in the case of pixel unit processing) are determined as the halftone dot area.
When the halftone dot region is determined by such a method, the halftone dot region detection signal ami = 1 of the corresponding pixel is output. Otherwise, ami = 0 is output.
Note that halftone dot peak pixels that are actually in the halftone dot region of the document are detected as clusters having a certain size. If a pixel with a halftone dot detection signal gpk = 1 or bpk = 1 is detected in isolation, there is a high probability that it is due to characters or simply due to image noise. Therefore, by increasing the threshold value Pth, it is possible to reduce the probability that a pixel with isolated gpk = 1 or a pixel with isolated bpk = 1 is determined as a halftone dot region.
The halftone dot region detection signal ami detected as described above is input to the halftone dot total determination unit 2238.

ついで網点総合判定部2238には、網点領域検出部2236からの検出信号amiが入力され、最終的な網点分離結果を示す2値信号htを出力する。
すなわち、網点総合判定部2238は、入力される網点領域検出信号amiをもとに、最終的に網点領域を判断して、網点検出信号htを発生させ、この信号を総合判定部227に出力する。
網点総合判定部2238では、注目している所定の大きさを持つ小領域内において、網点領域検出信号ami=1の画素が網点領域の画素として入力されると、その画素数を計数する。その合計値AmiPが予め定められた閾値Amithよりも大きい場合に、網点総合判定部は、注目している小領域が最終的に網点領域にあると判定し、網点検出信号ht=1を出力する。そうでない場合は、非網点領域と判定し、網点検出信号ht=0を出力する。
Next, the halftone dot comprehensive determination unit 2238 receives the detection signal ami from the halftone dot region detection unit 2236, and outputs a binary signal ht indicating the final halftone dot separation result.
That is, the halftone dot total determination unit 2238 finally determines a halftone dot region based on the input halftone dot region detection signal ami and generates a halftone dot detection signal ht. Output to H.227.
When the pixel of the halftone dot area detection signal ami = 1 is input as a pixel of the halftone dot area in the small area having a predetermined size of interest, the halftone dot total determination unit 2238 counts the number of pixels. To do. When the total value AmiP is larger than a predetermined threshold value Amith, the halftone dot total determination unit determines that the focused small area is finally in the halftone dot area, and the halftone dot detection signal ht = 1. Is output. Otherwise, it is determined as a non-halftone area and a halftone detection signal ht = 0 is output.

像域分離部22における網点エッジ抽出部225は、エッジ抽出部224からの文字のedge信号と網点分離部223からの網点ピークを検出したpeak信号が入力され、網点エッジ信号htedを出力する。   The halftone dot extraction unit 225 in the image area separation unit 22 receives the edge signal of the character from the edge extraction unit 224 and the peak signal from which the halftone dot peak is detected from the halftone separation unit 223, and receives the halftone dot signal hted. Output.

色判定部226においては、R、G、Bの各画像データが入力され、注目画素が有彩画素か、無彩画素であるかを判定し、有彩の場合にiro=1、又無彩の場合にiro=0の2値信号を出力する。この色判定処理は、既存の技術を用いることにより実施することが可能であり、例えば、特開2003−46772号公報に記載された色判定部の処理(同公報[0158]〜[0205]参照)を適用することが可能である。
色判定部226によって判定された有彩/無彩画素の判定結果を示すiro信号は、総合判定部227に出力される。
The color determination unit 226 receives R, G, and B image data and determines whether the pixel of interest is a chromatic pixel or an achromatic pixel. If chromatic, iro = 1, or achromatic In this case, a binary signal with iro = 0 is output. This color determination process can be performed by using an existing technique. For example, the process of the color determination unit described in Japanese Patent Application Laid-Open No. 2003-46772 (see the publications [0158] to [0205]). ) Can be applied.
The iro signal indicating the chromatic / achromatic pixel determination result determined by the color determination unit 226 is output to the comprehensive determination unit 227.

像域分離部22における総合判定部227は、白領域抽出部222からの白領域を表すwh信号、網点分離部223からの網点検出結果を示すht信号、エッジ抽出部224からのedge信号、網点エッジ抽出部225からのhted信号及び色判定部226からの有彩/無彩画素の判定結果を示すiro信号が入力され、像域分離の結果(画像種)を表すC/P信号(絵柄、文字、網点文字、網点の各領域)およびB/C信号(有彩領域/無彩領域を表す)を発生し、出力する。   The comprehensive determination unit 227 in the image area separation unit 22 includes a wh signal indicating a white area from the white region extraction unit 222, an ht signal indicating a halftone detection result from the halftone separation unit 223, and an edge signal from the edge extraction unit 224. Then, the hted signal from the halftone dot extraction unit 225 and the iro signal indicating the determination result of the chromatic / achromatic pixel from the color determination unit 226 are input, and the C / P signal representing the result of image area separation (image type) (Picture, character, halftone character, halftone dot regions) and B / C signals (representing chromatic / achromatic regions) are generated and output.

像域分離部22による像域分離の結果、得られるC/P信号(絵柄、文字、網点文字、網点の各領域)およびB/C信号(有彩領域/無彩領域を表す)は、分離された領域の画像種に応じた処理を施すために、先に示した図6に示すように、画像データを処理するフィルタ処理部23、色補正部25、変倍処理部27、プリンタ補正部7の各部に、画像データに同期してカスケードに与えられる。   As a result of the image area separation by the image area separation unit 22, C / P signals (picture, character, halftone character, halftone dot areas) and B / C signals (representing chromatic / achromatic areas) are obtained. In order to perform processing according to the image type of the separated area, as shown in FIG. 6, the filter processing unit 23, the color correction unit 25, the scaling processing unit 27, the printer that processes the image data, Each part of the correction unit 7 is cascaded in synchronization with the image data.

フィルタ処理部23は、RGB画像データのMTFを補正するフィルタであり、N×Nの画素マトリックスに対応する係数マトリクスと、各係数に各画像データを乗じて重み付け平均値を得るロジックで構成されている。C/P信号が1(文字領域)、2(網点文字領域)を示すものである時には、鮮鋭化処理用の係数マトリクスを用い、0(絵柄領域)又は3(網点領域)を示すものである時には、平滑化処理用の係数マトリクスを用いて、重み付け平均値を導出し、色補正部25に出力する。   The filter processing unit 23 is a filter that corrects the MTF of the RGB image data, and includes a coefficient matrix corresponding to an N × N pixel matrix and logic that multiplies each coefficient by each image data to obtain a weighted average value. Yes. When the C / P signal indicates 1 (character area) or 2 (halftone character area), the coefficient matrix for sharpening processing is used to indicate 0 (picture area) or 3 (halftone area) In such a case, a weighted average value is derived using a coefficient matrix for smoothing processing and output to the color correction unit 25.

また、色補正部25では、R,G,Bの各画像データを1次のマスキング処理等でC,M,Yデータに変換し、さらにUCR(Under Color Removal)処理がなされる。このUCR処理により、画像データの色再現を向上させることができる。UCR処理では、C,M,Yデータの共通部分を加色除去処理してBkデータを生成し、それにより色補正部はC,M,Y,Bkデータを出力する。ここで、C/P信号が1(文字領域)又は2(網点文字領域)である場合は、フルブラック処理を行う。さらにC/P信号が1又は2であって、なおかつB/C信号が0(無彩領域)の時は、C,M,Yのデータをイレースする。これは、黒文字の時、黒成分のみで表現するためである。   The color correction unit 25 converts R, G, and B image data into C, M, and Y data by a primary masking process or the like, and further performs UCR (Under Color Removal) processing. By this UCR processing, color reproduction of image data can be improved. In the UCR process, a common part of C, M, and Y data is subjected to additive color removal processing to generate Bk data, whereby the color correction unit outputs C, M, Y, and Bk data. Here, when the C / P signal is 1 (character area) or 2 (halftone character area), full black processing is performed. Further, when the C / P signal is 1 or 2 and the B / C signal is 0 (achromatic region), the C, M, and Y data are erased. This is because black characters are expressed only by the black component.

画像形成に際して、プリンタ補正部7は、スキャナ入力側の処理を経てHDD5に蓄積された圧縮データを伸張処理部6で伸張し、復元されたCMYKの画像データに対して、プロッタ8の周波数特性に応じてγ(ガンマ)補正を行い、さらにディザ処理・誤差拡散処理などの量子化を行って、得られた画像データC”M”Y”K”をその画像データ書込み動作に同期して、プロッタ8に出力する。   At the time of image formation, the printer correction unit 7 decompresses the compressed data stored in the HDD 5 through the processing on the scanner input side by the decompression processing unit 6, and changes the frequency characteristics of the plotter 8 to the restored CMYK image data. Accordingly, γ (gamma) correction is performed, quantization such as dither processing and error diffusion processing is performed, and the obtained image data C "M" Y "K" is synchronized with the image data writing operation to obtain a plotter. 8 is output.

上記のように、本実施形態によれば、像域分離部22による像域分離結果を用いて、文字部と網点文字部とを切り分け、両者間で画像処理を切り換えることにより、それぞれに適した画像処理を施すことにより、画像品質の向上を図ることができる。特に、白地上の網点文字領域への対応を確実にすることが可能になる。   As described above, according to the present embodiment, the character region and the halftone character portion are separated using the image region separation result by the image region separation unit 22, and the image processing is switched between the two. The image quality can be improved by performing the image processing. In particular, it is possible to ensure the correspondence to the halftone dot character area on the white ground.

ここで、前記像域分離部22における網点分離部223にて、入力されるRGB画像データのうち、G画像データ(G信号)とB画像データ(B信号)を利用する根拠について詳述する。
図9に原稿印刷用に用いられる一般的なインクの分光反射率の一例を示す。
通常インクの反射率が高い波長域においては、インクの有無による受光量の変化が小さく、強度差が無いため、原稿情報の検出が困難となる。例えば、B信号の補色となるイエローインク(図中イエローのプロット)に着目すると、R・G信号に対応する波長域においては共に反射率が高く、B信号に対応する波長域において反射率がほぼ0%となっている。つまり、原稿上にイエローインクで印刷された情報があり、図1のような原稿読取部で原稿を読み取る場合、B信号の強度は非常に小さくなり、イエローインクで印刷された情報が無い場合は強度が強くなるため、B信号を用いることで、イエローインクで印刷された情報の有無を検出することができる。このため、イエローインクで印刷された部分の原稿情報を良好に検知するためには、B信号に対応する波長域の結像性能が必要となる。
Here, the basis for using the G image data (G signal) and the B image data (B signal) among the input RGB image data in the halftone dot separation unit 223 of the image area separation unit 22 will be described in detail. .
FIG. 9 shows an example of spectral reflectance of general ink used for printing an original.
Usually, in a wavelength region where the reflectance of ink is high, the change in the amount of received light due to the presence or absence of ink is small and there is no difference in intensity, making it difficult to detect document information. For example, when attention is paid to yellow ink (yellow plot in the figure) which is a complementary color of the B signal, the reflectance is high in the wavelength region corresponding to the R / G signal, and the reflectance is substantially in the wavelength region corresponding to the B signal. 0%. That is, when there is information printed with yellow ink on a document, and when the document is read by the document reading unit as shown in FIG. 1, the intensity of the B signal becomes very small, and there is no information printed with yellow ink. Since the intensity increases, the presence or absence of information printed with yellow ink can be detected by using the B signal. For this reason, in order to satisfactorily detect the document information of the portion printed with yellow ink, imaging performance in a wavelength region corresponding to the B signal is required.

また、G信号の補色であるマゼンタインク(図中マゼンタのプロット)の場合は、R信号に対応する波長域においては高い反射率となっているが、補色であるG信号に対応する波長域においては反射率がほぼ0%となっており、補色であるG信号を用いることで、マゼンタインクで印刷された情報の有無を検出することができる。しかし、B信号に対応する波長域においても反射率が低くなっているため、マゼンタインクにおいては、B信号でも検出することが可能である。   Further, in the case of magenta ink (magenta plot in the figure) that is a complementary color of the G signal, the reflectance is high in the wavelength range corresponding to the R signal, but in the wavelength range corresponding to the G signal that is the complementary color. The reflectance is almost 0%, and the presence or absence of information printed with magenta ink can be detected by using the G signal which is a complementary color. However, since the reflectance is low even in the wavelength region corresponding to the B signal, the magenta ink can also detect the B signal.

また、R信号の補色であるシアンインク(図中シアンのプロット)に着目すると、B信号に対応する波長域においては反射率が高いが、R信号に対応する波長域においては反射率がほぼ0となっており補色であるR信号を用いて、シアンインクで印刷された原稿情報を検出可能となっている。しかし、G信号に対応する波長域においても反射率が低くなっているため、シアンインクに対してはG信号でも検出することができる。   When attention is paid to cyan ink (cyan plot in the figure) that is a complementary color of the R signal, the reflectance is high in the wavelength region corresponding to the B signal, but the reflectance is almost 0 in the wavelength region corresponding to the R signal. Thus, it is possible to detect document information printed with cyan ink using an R signal which is a complementary color. However, since the reflectance is low even in the wavelength region corresponding to the G signal, it is possible to detect the cyan ink even with the G signal.

以上のことから分かるようにイエローインクは補色のB信号が検出のために必要であるが、シアンインクおよびマゼンタインクに関しては、補色以外の信号においても検出できる。なお、ブラックインクについては、R,G,Bいずれの信号に対応する波長域においても反射率が低いことから、R信号、G信号、B信号のいずれでも検出することができる。   As can be seen from the above, for yellow ink, a complementary B signal is necessary for detection, but for cyan ink and magenta ink, signals other than complementary colors can also be detected. Note that the black ink has a low reflectance in the wavelength range corresponding to any of the R, G, and B signals, and therefore can detect any of the R, G, and B signals.

画像処理においては、処理を簡潔にしてできるだけ小さなメモリで処理をおこなうために、出来るだけ少ないデータで処理を行う方が良い。
ここで、G信号は人間の視感度において、最も高い感度を有しており、R、G、Bの信号を輝度信号と色差信号に変換する場合、G信号の影響を最も大きくするため、G信号は画像処理時に必須の信号となる。また、イエローインクの情報を検出するためには、上記記載のようにB信号のみでしか検出できないため、B信号も必要となる。シアンインクは、上記記載のようにG信号でも強度検出できるため、本発明の画像読取装置における画像処理では、B信号とG信号の二つの信号を用いて像域分離に関する画像処理を行う。
In image processing, in order to simplify processing and perform processing with as little memory as possible, it is better to perform processing with as little data as possible.
Here, the G signal has the highest sensitivity in human visual sensitivity. When the R, G, and B signals are converted into a luminance signal and a color difference signal, the G signal has the greatest influence. The signal becomes an essential signal during image processing. In order to detect yellow ink information, only the B signal can be detected as described above, so the B signal is also required. As described above, the intensity of the cyan ink can be detected even with the G signal. Therefore, in the image processing in the image reading apparatus of the present invention, image processing related to image area separation is performed using the two signals of the B signal and the G signal.

本発明では、この二つの信号(B信号とG信号)を用いて、網点領域の判定を行うための画像処理を実行するものである。ここで、網点原稿は、印刷された写真画像や薄く塗りつぶされた画像を小さな点の集合体で表現するもので、滑らかな濃淡を表現するために使用される。このため、網点領域の検出に失敗すると、その結果に基づいて形成された画像にはモアレが発生する。モアレは、人間の目で非常に目立つため、大きな画質劣化と評価されてしまう。また、小さな点の集合体であるため、結像素子として比較的高空間周波数(通常、ナイキスト周波数の1/2以上の領域)の結像性能が必要とされる。そこで、網点検出にR信号を使用しないで、B信号とG信号とすることで、Rの光学素子の高空間周波数領域の結像性能を低下させることが可能となる。   In the present invention, image processing for determining a halftone dot region is executed using these two signals (B signal and G signal). Here, a halftone document is a representation of a printed photographic image or a lightly painted image as a collection of small dots, and is used to express smooth shading. For this reason, when the detection of the halftone dot area fails, moire occurs in the image formed based on the result. Moire is very conspicuous with human eyes, and is therefore regarded as a significant deterioration in image quality. In addition, since it is an aggregate of small points, it needs an imaging performance of a relatively high spatial frequency (usually a region of 1/2 or more of the Nyquist frequency) as an imaging element. Therefore, by using the B signal and the G signal without using the R signal for halftone dot detection, it is possible to reduce the imaging performance in the high spatial frequency region of the R optical element.

このようにR信号の性能を低下させた画像読取装置を得るために必要となる条件式が、前記(1)式であり、画像処理に使用しない波長領域である第3波長領域(R信号)と基準となる第2波長領域(G信号)の結像素子後端から結像位置までの距離の差を、画像処理で使用する第1波長領域(B信号)と基準となる第2波長領域(G信号)の結像素子後端から結像位置までの距離の差に対して大きくすることが必要である。   The conditional expression necessary to obtain an image reading apparatus with reduced R signal performance is the expression (1), and is a third wavelength region (R signal) that is a wavelength region not used for image processing. And the difference between the distance from the rear end of the imaging element to the imaging position in the reference second wavelength region (G signal), the first wavelength region (B signal) used in image processing and the reference second wavelength region It is necessary to increase the difference in distance from the rear end of the imaging element (G signal) to the imaging position.

この構成をとることにより、図2のスキャナ1における結像素子105として構成枚数を低減したコンパクトで低コストな結像レンズを使用しても、画像読取装置としては、網点を良好に検出することが可能となり、モアレなどの画像品質低下を起こさない、高精度な画像読取ができる。また、このことにより、画像読取装置に用いる結像素子(結像レンズ)に対しても、G信号とB信号に対応する波長域の結像性能を良好にすることが必要となるが、画像処理に使用しないR信号に対応する波長領域の性能は、低く抑えることが可能となり、光学設計上の自由度が大幅に広げられる。   With this configuration, even when a compact and low-cost imaging lens with a reduced number of components is used as the imaging element 105 in the scanner 1 of FIG. Therefore, highly accurate image reading can be performed without causing image quality degradation such as moire. This also makes it necessary to improve the imaging performance in the wavelength region corresponding to the G signal and the B signal for the imaging element (imaging lens) used in the image reading apparatus. The performance in the wavelength region corresponding to the R signal not used for processing can be kept low, and the degree of freedom in optical design is greatly expanded.

また、本発明の画像読取装置で使用する結像素子105は、原稿像を縮小結像させる結像レンズであることが好ましい。画像読取装置に用いられる結像素子としては、原稿情報を縮小結像させる縮小光学系と原稿情報を等倍結像させる等倍結像光学系がある。本発明の画像読取装置はどちらの光学系にも対応可能であるが、縮小光学系のほうが、原稿面の深度が深く原稿がコンタクトガラス上に密着しないで浮いた場合にも良好な性能を確保可能である。このため、より高精度な画像読取装置が得られる。   The imaging element 105 used in the image reading apparatus of the present invention is preferably an imaging lens that forms a reduced original image. As an image forming element used in the image reading apparatus, there are a reduction optical system for reducing image formation of original information and an equal magnification image formation optical system for forming original information at the same magnification. The image reading apparatus of the present invention is compatible with either optical system, but the reduction optical system ensures good performance even when the document surface is deep and the document floats on the contact glass. Is possible. For this reason, a more accurate image reading apparatus can be obtained.

またこのとき、結像素子105のF線(486.13nm)における焦点距離をf1、e線(546.07nm)における焦点距離をf2、C線(656.27nm)における焦点距離をf3とした場合、下記(2)式及び(3)式の条件を満足することが好ましい。
|f1−f2| < |f3−f2| ・・・ (2)式
0.003 < |f3−f2|/f2 < 0.0045 ・・・ (3)式
At this time, the focal length of the imaging element 105 at the F line (486.13 nm) is f1, the focal length of the e line (546.07 nm) is f2, and the focal length of the C line (656.27 nm) is f3. It is preferable to satisfy the conditions of the following formulas (2) and (3).
| F1-f2 | <| f3-f2 | (2) Equation 0.003 <| f3-f2 | / f2 <0.0045 (3) Equation

結像素子105を前記原稿像を縮小結像させる結像レンズとした縮小光学系を用いた場合に、前記(1)式を満足するための該結像レンズの条件式を定めるものが(2)式及び(3)式である。   In the case of using a reduction optical system in which the image forming element 105 is an image forming lens for reducing the original image, the conditional expression of the image forming lens for satisfying the expression (1) is defined as (2 ) And (3).

(2)式は、(1)式の範囲に対応する結像レンズの所謂軸上色収差を規定するものであり、R信号に対応する結像レンズの軸上色収差の波長をC線(656.27nm)、G信号に対応する結像レンズの軸上色収差の波長をe線(546.07nm)、B信号に対応する結像レンズの軸上色収差の波長をF線(486.13nm)とし、レンズ設計の基準波長をG信号に対応したe線(546.07nm)とした場合、画像読取装置として必要となるG信号以外に性能確保に必要となるB信号に対応したF線(486.13nm)の軸上色収差量(|f1−f2|)が、R信号に対応したC線(656.27nm)の軸上色収差量(|f3−f2|)より小さくすることが必要となるものである。   The expression (2) defines the so-called axial chromatic aberration of the imaging lens corresponding to the range of the expression (1). The wavelength of the axial chromatic aberration of the imaging lens corresponding to the R signal is defined as the C-line (656. 27 nm), the wavelength of the axial chromatic aberration of the imaging lens corresponding to the G signal is e line (546.07 nm), the wavelength of the axial chromatic aberration of the imaging lens corresponding to the B signal is F line (486.13 nm), When the reference wavelength of the lens design is the e-line (546.07 nm) corresponding to the G signal, the F-line (486.13 nm) corresponding to the B signal necessary for ensuring performance in addition to the G signal necessary for the image reading apparatus. ) Axial chromatic aberration amount (| f1-f2 |) is required to be smaller than the axial chromatic aberration amount (| f3-f2 |) of the C line (656.27 nm) corresponding to the R signal. .

更に(3)式は、C線(656.27nm)の軸上色収差量を規定するものであり、C線の軸上の色収差をこの範囲とすることにより、レンズの構成枚数の低減およびコンパクト化が可能となり、低コストな結像レンズが得られる。なお、(3)式の下限を下回るとC線の色収差は良好な状態となるがそれを達成するために、良好な色補正が必要となりレンズ構成枚数の増大やレンズ全長が長くなってしまう。逆に上限を超えると、C線の色収差が大きくなりすぎ、R信号の結像性能が大きく劣化してしまうため、良好に画像処理が行えなくなると共に、読取画像品質も大幅に劣化してしまう。   Further, the expression (3) defines the amount of chromatic aberration on the axis of the C line (656.27 nm). By setting the chromatic aberration on the axis of the C line within this range, the number of lenses can be reduced and the lens can be made compact. Therefore, a low-cost imaging lens can be obtained. If the lower limit of the expression (3) is not reached, the chromatic aberration of the C line is in a good state, but in order to achieve this, good color correction is required, and the number of lens components increases and the total length of the lens becomes long. On the contrary, if the upper limit is exceeded, the chromatic aberration of the C line becomes too large and the imaging performance of the R signal is greatly deteriorated, so that the image processing cannot be performed satisfactorily and the read image quality is greatly deteriorated.

また、前記(2)式及び(3)式で規定された原稿像を縮小結像させる結像レンズである結像素子105は、物体側から順に正のパワーの第1レンズ、負のパワーの第2レンズ、正のパワーの第3レンズ、負パワーの第4レンズで構成されていることが好ましい(構成A)。   The imaging element 105, which is an imaging lens for reducing the original image defined by the equations (2) and (3), has a positive power first lens and a negative power in order from the object side. It is preferable that the lens is composed of a second lens, a positive power third lens, and a negative power fourth lens (Configuration A).

さらに、構成Aに加えて、第1レンズは、物体側に凸面を向けたメニスカス形状のレンズ、第2レンズは両凹レンズ、第3レンズは両凸レンズ、第4レンズは物体側に凹面を向けたメニスカス形状のレンズであって、第2レンズと第3レンズの間に絞りを有することが好適である(構成B)。   Further, in addition to the configuration A, the first lens has a meniscus lens with a convex surface facing the object side, the second lens has a biconcave lens, the third lens has a biconvex lens, and the fourth lens has a concave surface facing the object side. It is a meniscus lens, and it is preferable to have a stop between the second lens and the third lens (Configuration B).

結像素子105をこれら構成A,Bとすることで、従来4群6枚構成の所謂ガウスタイプのレンズで達成していたものを4群4枚構成の所謂テレフォトタイプのレンズとしても良好な結像性能が得られるものである。   By forming the imaging element 105 with these configurations A and B, what has been achieved with a so-called Gauss type lens having a four-group six-lens configuration is also good as a so-called telephoto type lens having a four-group four-lens configuration. Imaging performance can be obtained.

また、構成A,Bの結像素子105は、正レンズ(第1レンズ、第3レンズ)のd線(587.56nm)における屈折率の合計をn凸、負レンズ(第2レンズ、第4レンズ)のd線(587.56nm)における屈折率の合計をn凹、正レンズ(第1レンズ、第3レンズ)のd線(587.56nm)におけるアッベ数の合計をν凸、負レンズ(第2レンズ、第4レンズ)のd線(587.56nm)におけるアッベ数の合計をν凹としたとき、下記(4)式及び(5)式の条件を満足することが好ましい(構成C)。
0.05 < n凸−n凹 < 0.25 ・・・ (4)式
25.0 < ν凸−ν凹 < 36.5 ・・・ (5)式
The imaging element 105 having configurations A and B has a total refractive index of the positive lens (first lens, third lens) d-line (587.56 nm) of n convex, negative lens (second lens, fourth lens). ) Of the refractive index of the d-line (587.56 nm) is n-concave, and the sum of the Abbe numbers of the positive lens (first lens and third lens) of the d-line (587.56 nm) is ν-convex, negative lens (second lens) When the sum of the Abbe numbers on the d-line (587.56 nm) of the fourth lens) is ν concave, it is preferable that the conditions of the following formulas (4) and (5) are satisfied (configuration C).
0.05 <n convex-n concave <0.25 (4) Formula 25.0 <ν convex-ν concave <36.5 (5) Formula

本発明に係る画像読取装置は、R信号を原稿情報(網点情報)の検出に使用しないようにしたため、R領域の結像位置を基準となるG領域に対して、B領域より遠くにすることができる。しかし、その他の結像性能に関しては、一般的な画像読取装置と同等の性能が必要となる。つまり、高空間周波数領域で光軸近傍から周辺まで均一で高いコントラストを有することが要求され、このために結像レンズとしては、像面湾曲を良好に補正する必要があり、特に副走査方向のコントラストを均一とするため、サジタル方向の像面湾曲を良好に補正し、かつコマフレアを小さく抑える必要がある。   In the image reading apparatus according to the present invention, the R signal is not used for detection of document information (halftone dot information), so that the image formation position of the R region is farther from the B region than the reference G region. be able to. However, with respect to other imaging performance, performance equivalent to that of a general image reading apparatus is required. In other words, it is required to have a uniform and high contrast from the vicinity of the optical axis to the periphery in the high spatial frequency region. For this reason, the imaging lens needs to correct field curvature well, particularly in the sub-scanning direction. In order to make the contrast uniform, it is necessary to satisfactorily correct the field curvature in the sagittal direction and suppress the coma flare.

また、G信号とB信号を良好に読み取るためには、受光面上で緑、青の各色の結像位置を光軸方向に合致させる必要があり、結像レンズとしてGとBの二つの波長の軸上の色収差は極めて良好に補正しなければならない。更に、開口効率が画角周辺部まで100%近くある事が要求されている。   In addition, in order to read the G signal and the B signal satisfactorily, it is necessary to match the image forming positions of green and blue colors on the light receiving surface in the optical axis direction. The on-axis chromatic aberration must be corrected very well. Furthermore, it is required that the aperture efficiency is close to 100% up to the periphery of the angle of view.

前記(4)式及び(5)式の条件は、上記のような性能を満足するために、結像レンズに使用する材料を規定するもので、(4)式は、結像レンズを構成する凸レンズと凹レンズの屈折率の範囲を定めるもので、上限を超えると、ペッツバール和が小さくなりすぎ、像面が正の側に倒れ像面湾曲が大きくなる。下限を下回ると逆に、ペッツバール和が大きくなりすぎ、像面が負の側に倒れ、非点隔差が大きくなり、この条件の範囲外では、全画面にわたって良好な結像性能を得ることが出来なくなる。   The conditions of the expressions (4) and (5) define the material used for the imaging lens in order to satisfy the above-described performance, and the expression (4) constitutes the imaging lens. The range of the refractive index of the convex lens and the concave lens is determined. If the upper limit is exceeded, the Petzval sum becomes too small, and the image plane falls to the positive side and the field curvature increases. On the contrary, if the value falls below the lower limit, the Petzval sum becomes too large, the image surface falls to the negative side, and the astigmatic difference becomes large.Under these conditions, good imaging performance can be obtained over the entire screen. Disappear.

(5)式は、軸上の色収差を良好に補正する条件である。上限を超えると軸上の色収差が補正過剰になり基準波長より短波長側で軸上の色収差が正の側に大きくなる。下限を下回ると軸上の色収差が補正不足になり主波長より短波長側で負の側に軸上の色収差が大きくなってしまう。
以上のように(4)式及び(5)式の条件を外れると結像レンズに要求される性能を満足できなくなる。
Equation (5) is a condition for satisfactorily correcting axial chromatic aberration. If the upper limit is exceeded, the axial chromatic aberration will be overcorrected, and the axial chromatic aberration will become larger on the positive side at shorter wavelengths than the reference wavelength. Below the lower limit, the axial chromatic aberration becomes insufficiently corrected, and the axial chromatic aberration becomes larger on the negative side on the shorter wavelength side than the dominant wavelength.
As described above, if the conditions of the expressions (4) and (5) are not satisfied, the performance required for the imaging lens cannot be satisfied.

前記構成A,B,Cの結像素子105の、第1レンズのe線(546.07nm)における焦点距離をfL1、第1レンズのアッベ数をν1、基準波長e線(546.07nm)における焦点距離をf2としたとき、下記式(6)の条件を満足することが好ましい(構成D)。
31.0 < fL1×ν1/f2 < 37.0 ・・・ (6)式
In the imaging elements 105 having the configurations A, B, and C, the focal length of the first lens at the e-line (546.07 nm) is fL1, the Abbe number of the first lens is ν1, and the reference wavelength is at the e-line (546.07 nm). When the focal length is f2, it is preferable to satisfy the condition of the following formula (6) (Configuration D).
31.0 <fL1 × ν1 / f2 <37.0 (6)

前記構成A,B,Cの条件を満足して、更に良好な画像処理性能と読み取り画像品質を満足して、結像レンズを低コストにするための条件が(6)式の条件式であり、(6)式の下限値を下回ると、第一レンズのパワーが強くなりすぎてしまうため、コマフレアが増大すると共に、軸上の色収差が大きくなりすぎ、Rの結像位置が基準のGの結像位置から離れすぎてしまう。逆に上限値を超えると、第一レンズのパワーがゆるくなりすぎてしまい、レンズ全体が大きくなり、低コスト化や小型化が達成できなくなる。   The condition for satisfying the conditions of the configurations A, B, and C, further satisfying the image processing performance and read image quality, and reducing the cost of the imaging lens is the conditional expression (6). If the value falls below the lower limit of the expression (6), the power of the first lens becomes too strong, so the coma flare increases and the axial chromatic aberration becomes too large. It is too far from the imaging position. On the other hand, when the upper limit is exceeded, the power of the first lens becomes too loose, the entire lens becomes large, and it becomes impossible to achieve cost reduction and size reduction.

また、前記結像素子105はガラスレンズであり、そのガラス材料は鉛、砒素などの有害物質を含有していないことを特徴とする画像読取レンズである(構成E)。全てのレンズを化学的に安定で鉛や砒素等の有害物質を含まない光学ガラスで構成することにより、材料のリサイクル化が可能で、加工時の廃液による水質汚染が無く、省資源化や加工時に発生するCO2等を低減でき、地球環境を考慮した、小型で低コストな読取用レンズとする事が出来る。 The imaging element 105 is a glass lens, and the glass material does not contain a harmful substance such as lead or arsenic (Configuration E). All lenses are made of optical glass that is chemically stable and does not contain harmful substances such as lead and arsenic, so that materials can be recycled and there is no water pollution due to waste liquid during processing, saving resources and processing. It is possible to reduce CO 2 and the like that are sometimes generated, and to obtain a small and low-cost reading lens in consideration of the global environment.

また、前記構成B,C,D,Eの結像素子は全て球面により構成されていることを特徴とする読取レンズであることが好ましい。現在デジタルカメラなどに非球面レンズが採用されているが、非球面レンズはレンズ外径が大きくなると、成型時に時間を要し、加工コストがアップしたり、面形状が良好に保てなくなる。そこで、本発明の読取レンズは、全ての面を球面で構成することにより、大きさの制限が無く、加工性や面形状精度が良好なレンズとする事ができる。   In addition, it is preferable that the imaging elements having the configurations B, C, D, and E are all formed of spherical surfaces, which is a reading lens. Currently, aspherical lenses are used in digital cameras and the like. However, if the outer diameter of the aspherical lens is increased, it takes time for molding, and the processing cost increases and the surface shape cannot be kept good. Therefore, the reading lens according to the present invention can be a lens having a good workability and surface shape accuracy without any size limitation by constituting all surfaces with spherical surfaces.

以下に、本発明の画像読取装置の実施例を示す。ここでは、結像素子105である読取レンズの構成及び諸元を変化させて、その光学特性を検証した。
また、図10に示すように、読取レンズは物体側から光軸上に第1レンズL1、第2レンズL2、絞りI、第3レンズL3、第4レンズと配列されたものであり、物体側から数えて第i番目のレンズ面の曲率半径をri、第i番目と第i+1番目のレンズ面の間の光軸上の面間隔をdi、物体側から数えて第j番目のレンズの材料の屈折率及びアッベ数をそれぞれnj,νjとする(詳しくは、d線,e線,F線,C線に対する屈折率として、それぞれndj,nej,nFj,nCjとする)。なお、第2レンズL2と第3レンズL3の間に設けている絞りIについてはi=5とする。また、画像読取装置におけるコンタクトガラス101とラインセンサユニット106のCCDカバーガラス106cについて、物体側から数えて第i番目のガラス板面の曲率半径をrci、第i番目と第i+1番目のガラス板面の間の光軸上の面間隔をdci、コンタクトガラス101のガラス板の材料の屈折率及びアッベ数をそれぞれnc1,νc1(詳しくは、d線,e線,F線,C線に対する屈折率として、それぞれndc1,nec1,nFc1,nCc1とする)、CCDカバーガラス106cのガラス板の材料の屈折率及びアッベ数をそれぞれnc3,νc3とする(詳しくは、d線,e線,F線,C線に対する屈折率として、それぞれndc3,nec3,nFc3,nCc3とする)。
Examples of the image reading apparatus according to the present invention will be described below. Here, the configuration and specifications of the reading lens that is the imaging element 105 were changed, and the optical characteristics were verified.
Further, as shown in FIG. 10, the reading lens is arranged on the optical axis from the object side with the first lens L1, the second lens L2, the aperture I, the third lens L3, and the fourth lens. The radius of curvature of the i-th lens surface counted from ri, the surface interval on the optical axis between the i-th and i + 1-th lens surfaces di, and the material of the j-th lens counted from the object side The refractive index and Abbe number are nj and νj, respectively (specifically, the refractive indexes for the d-line, e-line, F-line, and C-line are ndj, nej, nFj, and nCj, respectively). Note that i = 5 for the diaphragm I provided between the second lens L2 and the third lens L3. For the contact glass 101 and the CCD cover glass 106c of the line sensor unit 106 in the image reading apparatus, the radius of curvature of the i-th glass plate surface counted from the object side is rci, and the i-th and i + 1-th glass plate surfaces. The distance between the surfaces on the optical axis is dci, the refractive index and Abbe number of the glass plate material of the contact glass 101 are nc1 and νc1, respectively (specifically, the refractive indices for the d-line, e-line, F-line, and C-line) , Ndc1, nec1, nFc1, and nCc1), and the refractive index and Abbe number of the glass plate material of the CCD cover glass 106c are nc3 and νc3, respectively (specifically, d line, e line, F line, and C line) As the refractive indices of ndc3, nec3, nFc3, and nCc3).

また、各実施例における記号の意味は下記の通りである。
f : 全系のe線の合成焦点距離
FNo : Fナンバ
m : 縮率
ω : 半画角(度)
Y : 物体高
ri(i=1〜9) : 物体側から数えてi番目のレンズ面の曲率半径
di(i=1〜8) : 物体側から数えてi番目の面間隔
nj(j=1〜4) : 物体側から数えてj番目のレンズの材料の屈折率
νj(j=1〜4) : 物体側から数えてj番目のレンズの材料のアッベ数
rc1 : コンタクトガラスの物体側の曲率半径
rc2 : コンタクトガラスの像側の曲率半径
rc3 : CCDカバーガラスの物体側の曲率半径
rc4 : CCDカバーガラスの像側の曲率半径
dc1 : コンタクトガラスの肉厚
dc3 : CCDカバーガラスの肉厚
nc1 : CCDカバーガラスの屈折率
nc3 : コンタクトガラスの屈折率
νc1 : コンタクトガラスのアッベ数
νc3 : CCDカバーガラスのアッベ数
nd : d線(587.56nm)の屈折率
ne : e線(546.07nm)の屈折率
nF : F線(486.13nm)の屈折率
nC : C線(656.27nm)の屈折率
The meanings of symbols in each example are as follows.
f: Composite focal length FNo of entire system FNo: F number m: Reduction ratio ω: Half angle of view (degrees)
Y: object height ri (i = 1-9): radius of curvature of i-th lens surface counted from the object side di (i = 1-8): i-th surface interval nj (j = 1) counted from the object side 4): Refractive index νj (j = 1 to 4) of the material of the j-th lens counted from the object side: Abbe number rc1 of the material of the j-th lens counted from the object side: Curvature of the contact glass on the object side Radius rc2: curvature radius rc3 on the image side of the contact glass rc4 radius of curvature rc4 on the object side of the CCD cover glass: curvature radius dc1 on the image side of the CCD cover glass: thickness dc3 of the contact glass: nc1 thickness of the CCD cover glass: CCD cover glass refractive index nc3: Contact glass refractive index νc1: Contact glass Abbe number νc3: CCD cover glass Abbe number nd: d-line (587.56 nm) refractive index ne: e-line (546.07 nm) refractive index nF: F Refractive index of line (486.13nm) nC: Refractive index of C line (656.27nm)

(実施例1〜5)
読取レンズの構成(概略形状及び配置関係)を、図11(実施例1)、図13(実施例2)、図15(実施例3)、図17(実施例4)、図19(実施例5)に示す。また、表1〜5に順次実施例1〜5に関する読取レンズの諸元及び使用したガラスの材料名を示す。また、これらの収差図を、図12(実施例1)、図14(実施例2)、図16(実施例3)、図18(実施例4)、図20(実施例5)に示す。収差図において、e,F,Cはそれぞれe線(546.07nm)、F線(486.13nm)、C線(656.27nm)に関するものであることを示す。また、球面収差の図で波線は正弦条件を示し、非点収差の図で実線はサジタル光線、点線はメリディオナル光線を示す。
(Examples 1-5)
FIG. 11 (Example 1), FIG. 13 (Example 2), FIG. 15 (Example 3), FIG. 17 (Example 4), and FIG. Shown in 5). Tables 1 to 5 show the specifications of the reading lenses and the names of the used glasses in the order of Examples 1 to 5. These aberration diagrams are shown in FIG. 12 (Example 1), FIG. 14 (Example 2), FIG. 16 (Example 3), FIG. 18 (Example 4), and FIG. 20 (Example 5). In the aberration diagrams, e, F, and C are related to the e-line (546.07 nm), the F-line (486.13 nm), and the C-line (656.27 nm), respectively. In the spherical aberration diagram, the wavy line indicates the sine condition, and in the astigmatism graph, the solid line indicates the sagittal ray and the dotted line indicates the meridional ray.

Figure 0005108373
Figure 0005108373

Figure 0005108373
Figure 0005108373

Figure 0005108373
Figure 0005108373

Figure 0005108373
Figure 0005108373

Figure 0005108373
Figure 0005108373

(従来例)
また、対比のために、4群6枚構成のガウスタイプの従来例を検討した。
読取レンズの構成(概略形状及び配置関係)を図21に、読取レンズの諸元及び使用したガラスの材料名を表6に示す。記号は実施例と同一であるが、面番号のみ構成枚数の差分だけ増加している。また、従来例の収差図を図22に示す。この収差図における表記は実施例の場合と同じである。
(Conventional example)
For comparison, a conventional example of a Gauss type with four groups and six elements was examined.
FIG. 21 shows the configuration (schematic shape and arrangement relationship) of the reading lens, and Table 6 shows the specifications of the reading lens and the material name of the glass used. The symbol is the same as in the embodiment, but only the surface number is increased by the difference in the number of components. FIG. 22 shows aberration diagrams of the conventional example. The notation in this aberration diagram is the same as in the example.

Figure 0005108373
Figure 0005108373

ここで、実施例1〜5及び従来例における、F線の結像素子後端から結像位置までの距離Bf1、e線の結像素子後端から結像位置までの距離Bf2、C線の結像素子後端から結像位置までの距離Bf3、F線の焦点距離f1、e線の焦点距離f2、C線の焦点距離f3は、表7の通りとなる。表7の値を用いて求めた前記(1)式、(2)式、(3)式の値を表8に示す。   Here, in Examples 1 to 5 and the conventional example, the distance Bf1 from the rear end of the imaging element of the F line to the imaging position, the distance Bf2 from the rear end of the imaging element of the e line to the imaging position, and the C line Table 7 shows the distance Bf3 from the rear end of the imaging element to the imaging position, the focal length f1 of the F line, the focal length f2 of the e line, and the focal length f3 of the C line. Table 8 shows values of the expressions (1), (2), and (3) obtained using the values in Table 7.

Figure 0005108373
Figure 0005108373

Figure 0005108373
Figure 0005108373

また、表9に、実施例1〜5及び従来例における前記(4)式、(5)式、(6)式の値を示す。   Table 9 shows values of the expressions (4), (5), and (6) in Examples 1 to 5 and the conventional example.

Figure 0005108373
Figure 0005108373

条件式の値(表8,表9)及び収差図(図12,図14,図16,図18,図20,図22)を見れば明らかなように、従来例と比較して本実施例ではR信号に対応するC線(656.27nm)の軸上の色収差が増大しており、その結果、実使用状態における結像素子の後端(結像レンズの最終面)から受光素子までの距離が基準波長であるG信号に対応したe線(546.07nm)に対する差が大きくなっている。しかし、本発明では像域分離処理の網点を検出するためにR信号を使用しないことから、像域分離性能への影響はない。
またその他の収差に着目すると、半画角が19度を超える画角でありながら、歪曲収差は±0.1%程度と小さく抑えられており、更に像面湾曲特にサジタル像面湾曲は非常に小さく、更にコマ収差もF4.2と大口径であるにも関わらず、フレア成分が良好に補正されて、従来例と同等の性能を有しており、光軸近傍から最周辺にわたって全域で良好な性能を有していることが判る。また、倍率の色収差に関しては、軸上の色収差が大きいにもかかわらず、従来例よりも小さく抑えられており、最終画像における各色毎の画素ずれはほとんど発生しない。
As is apparent from the values of the conditional expressions (Tables 8 and 9) and the aberration diagrams (FIGS. 12, 14, 16, 18, 20, and 22), this embodiment is compared with the conventional example. In this case, the chromatic aberration on the axis of the C line (656.27 nm) corresponding to the R signal is increased. As a result, the distance from the rear end (final surface of the imaging lens) of the imaging element to the light receiving element in the actual use state. The difference with respect to the e-line (546.07 nm) corresponding to the G signal having a reference wavelength is large. However, in the present invention, since the R signal is not used to detect the halftone dot of the image area separation process, there is no influence on the image area separation performance.
Focusing on other aberrations, although the half angle of view exceeds 19 degrees, distortion is suppressed to as small as about ± 0.1%, and field curvature, particularly sagittal field curvature, is extremely low. Despite being small and coma has a large aperture of F4.2, the flare component is corrected well and has the same performance as the conventional example. It can be seen that it has excellent performance. Further, the chromatic aberration of magnification is suppressed to be smaller than that of the conventional example, although the axial chromatic aberration is large, and the pixel shift for each color in the final image hardly occurs.

なお、これまで本発明を図面に示した実施形態をもって説明してきたが、本発明は図面に示した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   Although the present invention has been described with the embodiments shown in the drawings, the present invention is not limited to the embodiments shown in the drawings, and other embodiments, additions, modifications, deletions, etc. Can be changed within the range that can be conceived, and any embodiment is included in the scope of the present invention as long as the effects and advantages of the present invention are exhibited.

本発明に係る画像形成装置の一態様であるデジタル式のフルカラー複写機の構成図である。1 is a configuration diagram of a digital full-color copying machine that is an aspect of an image forming apparatus according to the present invention. FIG. 本発明に係る画像読取装置であるスキャナの構成(1)を示す断面図である。It is sectional drawing which shows the structure (1) of the scanner which is an image reading apparatus which concerns on this invention. ラインセンサユニットの出力例である。It is an example of an output of a line sensor unit. 本発明に係る画像読取装置であるスキャナの構成(2)を示す断面図である。It is sectional drawing which shows the structure (2) of the scanner which is an image reading apparatus which concerns on this invention. 図1のデジタル式のフルカラー複写機における画像処理システムの概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of an image processing system in the digital full-color copying machine of FIG. 1. 図5に示した画像処理システムにおけるスキャナ補正部の内部構造を示すブロック図である。FIG. 6 is a block diagram illustrating an internal structure of a scanner correction unit in the image processing system illustrated in FIG. 5. 図6に示したスキャナ補正部における像域分離部の内部構造を示すブロック図である。FIG. 7 is a block diagram showing an internal structure of an image area separation unit in the scanner correction unit shown in FIG. 6. 図7に示した像域分離部における網点分離部の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of the halftone dot separation part in the image area separation part shown in FIG. 原稿印刷用に用いられる一般的なインクの分光反射特性を示す図である。It is a figure which shows the spectral reflection characteristic of the general ink used for original printing. 実施例における結像素子のレンズ構成を示す概略図である。It is the schematic which shows the lens structure of the image formation element in an Example. 実施例1の結像素子のレンズの概略形状及び配置関係を示す図である。FIG. 3 is a diagram illustrating a schematic shape and an arrangement relationship of lenses of the imaging element according to the first embodiment. 実施例1の収差曲線図である。FIG. 3 is an aberration curve diagram of Example 1. 実施例2の結像素子のレンズの概略形状及び配置関係を示す図である。6 is a diagram illustrating a schematic shape and an arrangement relationship of lenses of an imaging element according to Embodiment 2. FIG. 実施例2の収差曲線図である。FIG. 6 is an aberration curve diagram of Example 2. 実施例3の結像素子のレンズの概略形状及び配置関係を示す図である。6 is a diagram illustrating a schematic shape and an arrangement relationship of lenses of an imaging element according to Embodiment 3. FIG. 実施例3の収差曲線図である。FIG. 6 is an aberration curve diagram of Example 3. 実施例4の結像素子のレンズの概略形状及び配置関係を示す図である。6 is a diagram illustrating a schematic shape and an arrangement relationship of lenses of an imaging element according to Embodiment 4. FIG. 実施例4の収差曲線図である。FIG. 6 is an aberration curve diagram of Example 4. 実施例5の結像素子のレンズの概略形状及び配置関係を示す図である。FIG. 10 is a diagram illustrating a schematic shape and an arrangement relationship of lenses of an imaging element according to a fifth embodiment. 実施例5の収差曲線図である。FIG. 6 is an aberration curve diagram of Example 5. 従来例の結像素子のレンズの概略形状及び配置関係を示す図である。It is a figure which shows schematic shape and arrangement | positioning relationship of the lens of the image formation element of a prior art example. 従来例の収差曲線図である。It is an aberration curve figure of a prior art example.

符号の説明Explanation of symbols

1 スキャナ
2 スキャナ補正部
3 圧縮処理部
4 コントローラ
5 HDD
6 伸張処理部
7 プリンタ補正部
8 プロッタ
9 NIC
11 外部PC端末
21 スキャナγ補正部
22 像域分離部
23 フィルタ処理部
25 色補正部
27 変倍処理部
101 コンタクトガラス
102 原稿
103,103´ 第1走行体
103a,104a,104b ミラー
104,104´ 第2走行体
105 結像素子
106 ラインセンサユニット
106R,106G,106B ラインセンサ
106c CCDカバーガラス
107 照明光学系
108 一体型ユニット
221 フィルタ部
222 白領域抽出部
223 網点分離部
224 エッジ抽出部
225 網点エッジ抽出部
226 色判定部
227 総合判定部
1100 感光体
1110 帯電ローラ
1130 現像装置
1140 転写ベルト
114A 転写電位印加ローラ
114B 転写ローラ
1150 クリーニング装置
1160 定着装置
1170 光走査装置
1180 カセット
1190 レジストローラ対
1200 画像処理部
1210 トレイ
1220 給紙コロ
2231 第1網点ピーク検出部
2232 第2網点ピーク検出部
2234 ピーク信号発生部
2236 網点領域検出部
2238 網点総合判定部
I 絞り
L1,L2,L3,L4,L5,L6 レンズ
S 記録媒体
DESCRIPTION OF SYMBOLS 1 Scanner 2 Scanner correction | amendment part 3 Compression processing part 4 Controller 5 HDD
6 Decompression processing unit 7 Printer correction unit 8 Plotter 9 NIC
DESCRIPTION OF SYMBOLS 11 External PC terminal 21 Scanner gamma correction part 22 Image area separation part 23 Filter processing part 25 Color correction part 27 Scaling processing part 101 Contact glass 102 Original 103,103 '1st traveling body 103a, 104a, 104b Mirror 104,104' Second traveling body 105 Imaging element 106 Line sensor unit 106R, 106G, 106B Line sensor 106c CCD cover glass 107 Illumination optical system 108 Integrated unit 221 Filter unit 222 White area extraction unit 223 Halftone separation unit 224 Edge extraction unit 225 Network Point edge extraction unit 226 Color determination unit 227 General determination unit 1100 Photoconductor 1110 Charging roller 1130 Development device 1140 Transfer belt 114A Transfer potential application roller 114B Transfer roller 1150 Cleaning device 1160 Fixing device 1 170 Optical scanning device 1180 Cassette 1190 Registration roller pair 1200 Image processing unit 1210 Tray 1220 Paper feed roller 2231 First halftone peak detection unit 2232 Second halftone peak detection unit 2234 Peak signal generation unit 2236 Halftone dot region detection unit 2238 Halftone dot Comprehensive judgment part I Aperture L1, L2, L3, L4, L5, L6 Lens S Recording medium

Claims (12)

原稿に照明光を照射する照明系、該照明光を前記原稿が反射した光(反射光)を結像させる結像素子、該結像素子で結像された光を原稿像の電気信号に光電変換する受光素子、および該原稿像の電気信号を用いて前記原稿の対象領域の原稿情報を判別する画像処理を行う画像処理部を有する画像読取装置において、
前記照明系または前記結像素子を用いた結像光学系の任意の光路中に、前記照明光または反射光を、第一の波長領域である青色光の波長領域、第二の波長領域である緑色光の波長領域、第三の波長領域である赤色光の波長領域の3種類の波長領域の光に色分解する色分解手段を備えるとともに、前記結像素子は、下記(1)式を満足する光学特性を有し、
前記受光素子は前記色分解手段により色分解された波長領域の光ごとで原稿像の電気信号に光電変換し、前記画像処理部は、該原稿像の電気信号のうち第一の波長領域の光に基づく信号(第一の色信号)と第二の波長領域に基づく信号(第二の色信号)を用いて前記原稿情報として網点領域であるか否かを判別する画像処理を行うことを特徴とする画像読取装置。
|Bf1−Bf2| < |Bf3−Bf2| ・・・ (1)式
(但し、
Bf1:前記第一の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離、Bf2:前記第二の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離、Bf3:前記第三の波長領域における任意の波長の光についての結像素子の後端部から結像位置までの距離である。)
An illumination system that irradiates an original with illumination light, an imaging element that forms an image of light (reflected light) reflected from the original by the illumination light, and photoelectrically converts the light imaged by the imaging element into an electrical signal of the original image In an image reading apparatus having a light receiving element for conversion and an image processing unit for performing image processing for determining document information of a target area of the document using an electrical signal of the document image,
In the optical path of the imaging optical system using the illumination system or the imaging element, the illumination light or the reflected light is a first wavelength region of blue light wavelength region , a second wavelength region . The imaging element includes color separation means for color-separating into light of three types of wavelength regions, a wavelength region of green light and a wavelength region of red light which is the third wavelength region , and the imaging element satisfies the following expression (1) With optical properties
The light receiving element photoelectrically converts each light in the wavelength region color-separated by the color separation means into an electrical signal of an original image, and the image processing unit emits light in the first wavelength region of the electrical signal of the original image. Image processing for determining whether the document information is a halftone dot region using a signal based on the first color signal (first color signal) and a signal based on the second wavelength region (second color signal). A characteristic image reading apparatus.
| Bf1-Bf2 | <| Bf3-Bf2 | (1) (however,
Bf1: distance from the rear end of the imaging element to the imaging position for light of an arbitrary wavelength in the first wavelength region, Bf2: imaging element for light of an arbitrary wavelength in the second wavelength region Bf3: distance from the rear end of the imaging element to the imaging position for light of an arbitrary wavelength in the third wavelength region. )
請求項1に記載の画像読取装置において、
前記結像素子は、原稿像を縮小結像させる結像レンズであることを特徴とする画像読取装置。
The image reading apparatus according to claim 1 ,
The image reading device, wherein the image forming element is an image forming lens for forming a reduced image of an original image.
請求項記載の画像読取装置において、
前記結像素子の焦点距離が下記(2)式及び(3)式を満足することを特徴とする画像読取装置。
|f1−f2| < |f3−f2| ・・・ (2)式
0.003 < |f3−f2|/f2 < 0.0045 ・・・ (3)式
(但し、
f1:F線(486.13nm)における焦点距離、
f2:基準波長e線(546.07nm)における焦点距離、
f3:C線(656.27nm)における焦点距離である。)
The image reading apparatus according to claim 2 .
An image reading apparatus characterized in that a focal length of the imaging element satisfies the following expressions (2) and (3).
| F1-f2 | <| f3-f2 | (2) Equation 0.003 <| f3-f2 | / f2 <0.0045 (3) (however,
f1: Focal length at F line (486.13 nm)
f2: Focal length at reference wavelength e-line (546.07 nm)
f3: focal length at C line (656.27 nm). )
請求項記載の画像読取装置において、
前記結像素子は、原稿側から順に正のパワーの第1レンズ、負のパワーの第2レンズ、正のパワーの第3レンズ、負パワーの第4レンズで構成されていることを特徴とする画像読取装置。
The image reading apparatus according to claim 3 .
The imaging element includes a first lens having a positive power, a second lens having a negative power, a third lens having a positive power, and a fourth lens having a negative power in order from the document side. Image reading device.
請求項記載の画像読取装置において、
前記第1レンズは物体側に凸面を向けたメニスカス形状のレンズ、第2レンズは両凹レンズ、第3レンズは両凸レンズ、第4レンズは原稿側に凹面を向けたメニスカス形状のレンズであり、
前記結像素子は、第2レンズと第3レンズの間に絞りを有することを特徴とする画像読取装置。
The image reading apparatus according to claim 4 .
The first lens is a meniscus lens with a convex surface facing the object side, the second lens is a biconcave lens, the third lens is a biconvex lens, and the fourth lens is a meniscus lens with a concave surface facing the document side,
The image reading device, wherein the imaging element has a stop between the second lens and the third lens.
請求項またはに記載の画像読取装置において、
前記結像素子は、下記(4)式及び(5)式を満足することを特徴とする画像読取装置。
0.05 < n凸−n凹 < 0.25 ・・・ (4)式
25.0 < ν凸−ν凹 < 36.5 ・・・ (5)式
(但し、
n凸:正レンズ(第1レンズ、第3レンズ)のd線(587.56nm)における屈折率の合計、
n凹:負レンズ(第2レンズ、第4レンズ)のd線(587.56nm)における屈折率の合計、
ν凸:正レンズ(第1レンズ、第3レンズ)のd線(587.56nm)におけるアッベ数の合計、
ν凹:負レンズ(第2レンズ、第4レンズ)のd線(587.56nm)におけるアッベ数の合計である。)
The image reading apparatus according to claim 4 or 5 ,
The image reading device is characterized in that the imaging element satisfies the following expressions (4) and (5).
0.05 <n convex-n concave <0.25 (4) Formula 25.0 <ν convex-ν concave <36.5 (5) (However,
n-convex: the total refractive index of the positive lens (first lens, third lens) at d-line (587.56 nm),
n-concave: the total refractive index of d-line (587.56 nm) of the negative lens (second lens, fourth lens),
ν-convex: the sum of the Abbe numbers in the d-line (587.56 nm) of the positive lens (first lens, third lens),
v-concave: Total of Abbe numbers of d-line (587.56 nm) of negative lenses (second lens and fourth lens). )
請求項のいずれかに記載の画像読取装置において、
前記結像素子は、下記(6)式を満足することを特徴とする画像読取装置。
31.0 < fL1×ν1/f2 < 37.0 ・・・ (6)式
(但し、
fL1:第1レンズのe線(546.07nm)における焦点距離、
ν1:第1レンズのアッベ数、
f2:基準波長e線(546.07nm)における焦点距離である。)
The image reading apparatus according to any one of claims 4 to 6 ,
The image forming device satisfies the following expression (6).
31.0 <fL1 × ν1 / f2 <37.0 (6) (however,
fL1: focal length of the first lens at the e-line (546.07 nm),
ν1: Abbe number of the first lens,
f2: focal length at reference wavelength e-line (546.07 nm). )
請求項のいずれかに記載の画像読取装置において、
前記結像素子は、有害物質を含有していないガラス材料からなるレンズであることを特徴とする画像読取装置。
The image reading apparatus according to any one of claims 3 to 7 ,
The image reading device, wherein the imaging element is a lens made of a glass material not containing a harmful substance.
請求項のいずれかに記載の画像読取装置において、
前記結像素子は全て球面により構成されていることを特徴とする画像読取装置。
The image reading apparatus according to any one of claims 3 to 8 ,
An image reading apparatus characterized in that all of the imaging elements are formed of spherical surfaces.
原稿画像をフルカラーで読取って画像信号を出力する手段として、請求項1〜のいずれかに記載の画像読取装置を有し、該画像信号に対応する画像を書込んで画像を形成することを特徴とする画像形成装置。 A means for reading a document image in full color and outputting an image signal includes the image reading apparatus according to any one of claims 1 to 9 , and writing an image corresponding to the image signal to form an image. An image forming apparatus. 請求項10記載の画像形成装置において、
前記画像信号に対応する画像の書込みを、光書込みにより行うことを特徴とする画像形成装置。
The image forming apparatus according to claim 10 .
An image forming apparatus, wherein an image corresponding to the image signal is written by optical writing.
請求項11記載の画像形成装置において、
光書込みにより、光導電性の感光体に、形成すべき画像に対応する静電潜像を形成することを特徴とする画像形成装置。
The image forming apparatus according to claim 11 .
An image forming apparatus, wherein an electrostatic latent image corresponding to an image to be formed is formed on a photoconductive photosensitive member by optical writing.
JP2007125322A 2007-05-10 2007-05-10 Image reading apparatus and image forming apparatus Expired - Fee Related JP5108373B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007125322A JP5108373B2 (en) 2007-05-10 2007-05-10 Image reading apparatus and image forming apparatus
US12/118,083 US7961365B2 (en) 2007-05-10 2008-05-09 Image reading apparatus and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007125322A JP5108373B2 (en) 2007-05-10 2007-05-10 Image reading apparatus and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2008281737A JP2008281737A (en) 2008-11-20
JP5108373B2 true JP5108373B2 (en) 2012-12-26

Family

ID=40142615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007125322A Expired - Fee Related JP5108373B2 (en) 2007-05-10 2007-05-10 Image reading apparatus and image forming apparatus

Country Status (1)

Country Link
JP (1) JP5108373B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149430A (en) * 1996-11-20 1998-06-02 Brother Ind Ltd Collimator lens, optical scanning device, optical information reading device, optical information recording device, and copying device

Also Published As

Publication number Publication date
JP2008281737A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
US7961365B2 (en) Image reading apparatus and image forming apparatus
JP5966748B2 (en) Reading lens, image reading apparatus, and image forming apparatus
JP5910191B2 (en) Image reading lens, image reading apparatus, and image forming apparatus
US7184222B2 (en) Original reading lens, original reading lens unit, original reading device, and image forming device
JP5445090B2 (en) Reading lens, image reading apparatus, and image forming apparatus
JP5594107B2 (en) Reading lens, image reading apparatus, and image forming apparatus
JP2014013293A (en) Image reading lens, image reading device, and image forming apparatus
JP2012042766A (en) Readout lens, image reader, and image forming apparatus
JP4139159B2 (en) Document reading lens, document reading method and apparatus, and image forming apparatus
JP2012133298A (en) Image read lens, image reader, and image forming apparatus
JP6229921B2 (en) Image reading lens, image reading apparatus, and image forming apparatus
JP2013054294A (en) Image reading lens, image reading device, and image forming device
JP2013054295A (en) Image scanning lens, image scanner, and image forming apparatus
JP2008275783A (en) Image reading lens, image reading apparatus, and image forming apparatus
JP2008250331A (en) Original reading lens, original reading method and device, and image forming apparatus
JP5598295B2 (en) Reading lens, image reading apparatus, and image forming apparatus
JP2005017506A (en) Original reading lens/original reading lens unit, original reader, and image forming apparatus
JP2014035396A (en) Image reading lens, image reading device, and image forming device
JP2012118332A (en) Image reading lens, image reading device, and image forming apparatus
JP5108373B2 (en) Image reading apparatus and image forming apparatus
JP2012123178A (en) Image reading lens, image reader including image reading lens and image forming apparatus
JP2006323288A (en) Reading lens, image reading lens unit, image reader and image forming apparatus
JP2000249912A (en) Image forming lens and image reader using it
JP2011059640A (en) Reading lens and image reader using the same, and image forming apparatus
JP6436379B2 (en) Image reading lens, image reading apparatus, and image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121005

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees