[go: up one dir, main page]

JP4803676B2 - Image input device and personal authentication device - Google Patents

Image input device and personal authentication device Download PDF

Info

Publication number
JP4803676B2
JP4803676B2 JP2007060530A JP2007060530A JP4803676B2 JP 4803676 B2 JP4803676 B2 JP 4803676B2 JP 2007060530 A JP2007060530 A JP 2007060530A JP 2007060530 A JP2007060530 A JP 2007060530A JP 4803676 B2 JP4803676 B2 JP 4803676B2
Authority
JP
Japan
Prior art keywords
image
reconstruction
parallax
processing means
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007060530A
Other languages
Japanese (ja)
Other versions
JP2008225671A (en
Inventor
展弘 森田
祐治 山中
敏之 井関
利通 名須川
信一 小菅
博明 高橋
彰 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007060530A priority Critical patent/JP4803676B2/en
Publication of JP2008225671A publication Critical patent/JP2008225671A/en
Application granted granted Critical
Publication of JP4803676B2 publication Critical patent/JP4803676B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Description

本発明は、生体内部の被写体を撮像した画像を利用して個人認証を行う個人認証装置と、そのような個人認証装置の被写体画像入力手段として好適な画像入力装置に関する。   The present invention relates to a personal authentication device that performs personal authentication using an image obtained by imaging a subject inside a living body, and an image input device suitable as a subject image input unit of such a personal authentication device.

人の指を赤外光又は近赤外光で照明した状態で、単眼光学系を通して指内部の静脈パターンを撮像し、その静脈パターンから個人認証を行う個人認証装置が特許文献1,2,3に記載されている。   Patent Documents 1, 2, and 3 disclose personal authentication devices that image a vein pattern inside a finger through a monocular optical system and perform personal authentication from the vein pattern in a state where a human finger is illuminated with infrared light or near infrared light. It is described in.

また、複眼光学系を用いた薄型の画像入力装置が特許文献4,5及び非特許文献1に記載されている。非特許文献1には、指紋認証システムへの適用を目的とした指紋入力への応用例も記載されている。   Patent Documents 4 and 5 and Non-Patent Document 1 describe thin image input devices using a compound eye optical system. Non-Patent Document 1 also describes an application example to fingerprint input for the purpose of application to a fingerprint authentication system.

特開2004−27281号公報JP 2004-27281 A 特開2005−92375号公報JP 2005-92375 A 特開平7−21373号公報JP 7-21373 A 特許第3705766号公報Japanese Patent No. 3705766 特開2001−61109号公報JP 2001-61109 A 生源寺類ほか,「複眼光学系を用いた薄型画像入力装置の開発」,映像情報メディア学会誌 Vol.57,No.9, pp.1135−1141(2003)Igenji et al., "Development of thin image input device using compound eye optical system", Journal of the Institute of Image Information and Television Engineers Vol.57, No.9, pp.1135-1141 (2003)

指の静脈パターン等を利用して個人認証を行う個人認証装置を携帯電話やノートパソコン等の小型電子機器に搭載する場合、個人認証装置の小型化、特に薄型化が強く求められる。   When a personal authentication device that performs personal authentication using a finger vein pattern or the like is mounted on a small electronic device such as a mobile phone or a notebook computer, it is strongly required to reduce the size of the personal authentication device, in particular, to reduce its thickness.

しかし、特許文献1,2,3に記載されているような個人認証装置は、静脈パターンを、単眼光学系を通して撮像する構成であるため、光学結像関係から被写体距離や撮像距離が制限され、装置の薄型化に限界がある。   However, since the personal authentication device as described in Patent Documents 1, 2, and 3 is configured to image the vein pattern through the monocular optical system, the subject distance and the imaging distance are limited due to the optical imaging relationship, There is a limit to making the device thinner.

個人認証装置の薄型化のためには、指の静脈等の生体内部の被写体の像を入力するための画像入力装置の薄型化が最も重要である。画像入力装置の薄型化には、特許文献4,5や非特許文献1に記載されているような複眼光学系を応用すると一般に有利であろう。しかし、個人認証装置の被写体画像入力手段としての画像入力装置は、単に薄型化できればよいという訳ではなく、被写体像を品質の良い画像として入力できるものでなければならない。   In order to reduce the thickness of a personal authentication device, it is most important to reduce the thickness of an image input device for inputting an image of a subject inside a living body such as a finger vein. In order to reduce the thickness of the image input device, it is generally advantageous to apply a compound eye optical system as described in Patent Documents 4 and 5 and Non-Patent Document 1. However, the image input device as the subject image input means of the personal authentication device is not simply required to be thin, but must be capable of inputting the subject image as a high-quality image.

また、個人認証装置のための画像入力装置では、被写体距離の変動に対応できなければならない。例えば指の内部の静脈を被写体として撮像する場合、指の皮膚厚等の個人差により被写体距離はかなりの幅で変動するからである。そして、複眼光学系を用いる画像入力装置の場合、被写体像は複眼画像として撮像されるため、その複眼画像から単一の画像を再構成して入力する必要があるが、被写体距離が変動しても品質のよい画像を再構成することができなけばならない。   In addition, an image input device for a personal authentication device must be able to cope with variations in subject distance. For example, when a vein inside a finger is imaged as a subject, the subject distance fluctuates with a considerable width due to individual differences such as the skin thickness of the finger. In the case of an image input device using a compound eye optical system, a subject image is captured as a compound eye image. Therefore, it is necessary to reconstruct and input a single image from the compound eye image, but the subject distance varies. Even a good quality image must be reconstructed.

以上の点に鑑み、本発明は、薄型化が容易な構成であって、かつ、被写体距離が変動しても品質の良い被写体画像を入力することができる、個人認証装置の被写体画像入力手段として好適な画像入力装置を提供することを目的とする。本発明のもう1つの目的は、薄型化が容易であって、かつ、被写体距離の変動に強い個人認証装置を提供することにある。   In view of the above points, the present invention provides a subject image input unit of a personal authentication device that has a configuration that can be easily reduced in thickness and that can input a subject image of good quality even when the subject distance varies. An object is to provide a suitable image input device. Another object of the present invention is to provide a personal authentication device that can be easily thinned and that is resistant to variations in subject distance.

請求項1記載の発明に係る画像入力装置は、
複数の単レンズがアレイ配列されたレンズアレイを通して生体の内部の被写体を複眼画像として撮像する撮像光学系と、
前記撮像光学系により撮像された複眼画像中の個眼画像間の視差を検出する視差検出手段と、
前記視差検出手段により検出された視差を利用し、前記複眼画像中の複数の個眼画像を繋ぎ合わせる第1の再構成方法によって、前記複眼画像中の複数の個眼画像から単一の画像を再構成する繋ぎ合わせ処理手段、及び、前記視差検出手段により検出された視差を利用し、前記複眼画像中の複数の個眼画像の画素輝度を再配置する第2の再構成方法によって、前記複眼画像中の複数の個眼画像から単一の画像を再構成する画素再配置処理手段を含む再構成処理手段と、
前記再構成処理手段における再構成方法として、前記視差検出手段により検出された視差が所定の閾値より大きい場合は前記第1の再構成方法を選択し、前記視差が所定の閾値より小さい場合は前記第2の再構成方法を選択する再構成方法選択手段とを有し、
前記再構成処理手段は、前記再構成方法選択手段により前記第1の再構成方法が選択された場合には前記繋ぎ合わせ処理手段により再構成した画像を出力し、前記再構成方法選択手段により前記第2の再構成方法が選択された場合には前記画素再配置処理手段により再構成した画像を出力することを特徴とする。
An image input apparatus according to the invention of claim 1 is provided.
An imaging optical system for imaging a subject inside a living body as a compound eye image through a lens array in which a plurality of single lenses are arrayed; and
Parallax detection means for detecting parallax between single-eye images in a compound eye image captured by the imaging optical system;
Using the parallax detected by the parallax detection means, a single image is obtained from the plurality of single-eye images in the compound-eye image by the first reconstruction method for joining the plurality of single-eye images in the compound-eye image. The compound eye is reconstructed by using a second reconstruction method for rearranging pixel luminances of a plurality of single-eye images in the compound eye image using the disparity stitching processing means and the disparity detected by the disparity detecting means. Reconstruction processing means including pixel rearrangement processing means for reconstructing a single image from a plurality of single-eye images in the image;
As a reconstruction method in the reconstruction processing unit , the first reconstruction method is selected when the parallax detected by the parallax detection unit is larger than a predetermined threshold, and when the parallax is smaller than a predetermined threshold, and a reconstruction method selecting means for selecting a second reconstruction process,
The reconstruction processing means outputs the image reconstructed by the splicing processing means when the first reconstruction method is selected by the reconstruction method selection means, and the reconstruction method selection means outputs the image if the second reconstruction method is selected and outputting a reconstructed image by the pixel rearrangement processing means.

請求項2記載の発明の特徴は、請求項1記載の発明に係る画像入力装置において、前記再構成処理手段が、前記繋ぎ合わせ処理手段又は前記画素再配置処理手段により再構成された画像のサイズを正規化するサイズ正規化処理手段を含み、該サイズ正規化処理手段により正規化後の画像を出力することにある。 According to a second aspect of the present invention, in the image input apparatus according to the first aspect of the invention, the size of the image reconstructed by the reconstruction processing means by the splicing processing means or the pixel rearrangement processing means. Size normalization processing means for normalizing the image and outputting a normalized image by the size normalization processing means.

請求項3記載の発明の特徴は、請求項1または2記載の発明に係る画像入力装置において、前記撮像光学系が前記生体を照明する光源を含むことにある。 According to a third aspect of the present invention, in the image input apparatus according to the first or second aspect of the invention, the imaging optical system includes a light source that illuminates the living body.

請求項4記載の発明に係る個人認証装置は、
請求項1乃至3のいずれか1項記載の発明に係る画像入力装置と、
前記画像入力装置の再構成処理手段より出力された画像又はその特徴と、登録情報記憶手段に登録者情報として記憶されている画像又はその特徴とのマッチング演算により個人認証を行う認証処理手段とを有することを特徴とする。
The personal authentication device according to the invention of claim 4 is:
An image input device according to any one of claims 1 to 3 ,
Authentication processing means for performing personal authentication by a matching operation between the image output from the reconstruction processing means of the image input device or the feature thereof and the image stored as registrant information in the registration information storage means or the feature thereof. It is characterized by having.

請求項5記載の発明の特徴は、請求項4記載の発明に係る個人認証装置の構成に加え、前記再構成処理手段より出力された画像又はその特徴を登録者情報として前記登録情報記憶手段に記憶させる手段を有することにある。 According to a fifth aspect of the present invention, in addition to the configuration of the personal authentication device according to the fourth aspect of the invention, an image output from the reconstruction processing unit or a characteristic thereof is stored in the registration information storage unit as registrant information. It has a means for memorizing.

本発明の画像入力装置は、以下のような利点を有し、個人認証装置の被写体画像入力手段として好適である。
(1)撮像光学系はレンズアレイを用いる複眼光学系であるので容易に薄型化することができ、したがって装置全体の薄型化が容易である。
(2)再構成処理手段は2種類の再構成方法(繋ぎ合わせ法と画素再配置法)による再構成処理が可能な構成であり、再構成方法選択手段により選択された再構成方法を実施することにより、被写体距離が大きい(視差が小さい)場合から被写体距離が小さい(視差が大きい)場合まで、それぞれに適した再構成方法により再構成した品質の安定した被写体画像を入力させることができる。
(3)再構成処理手段サイズ正規化処理手段を含めることにより、いずれの再構成方法が選択されてもサイズが一定した被写体画像を入力することができる。このことは、被写体画像を利用して個人認証を行う側で画像サイズの変動の影響を受けやすい場合に重要である。
(4)撮像光学系に生体を照明するための光源を含めることにより、自然光や室内照明等の光量が不足する環境においてもコントラストの良好な複眼画像を撮像し、コントラストの良好な被写体画像を再構成して入力することができる。
The image input device of the present invention has the following advantages and is suitable as a subject image input unit of a personal authentication device.
(1) Since the imaging optical system is a compound eye optical system using a lens array, the imaging optical system can be easily reduced in thickness, and thus the entire apparatus can be easily reduced in thickness.
(2) The reconstruction processing unit is configured to be able to perform reconstruction processing by two types of reconstruction methods (joining method and pixel rearrangement method), and implements the reconstruction method selected by the reconstruction method selection unit. Accordingly, it is possible to input a subject image with a stable quality reconstructed by a reconstruction method suitable for each case from a case where the subject distance is large (parallax is small) to a case where the subject distance is small (parallax is large) .
(3) By including the size normalization processing means in the reconstruction processing means , it is possible to input a subject image having a constant size regardless of which reconstruction method is selected. This is important when the subject is used for personal authentication and is susceptible to variations in image size.
(4) By including a light source for illuminating the living body in the imaging optical system, a compound eye image with good contrast can be taken even in an environment where the amount of light is insufficient, such as natural light or indoor lighting, and a subject image with good contrast can be reproduced. Can be configured and entered.

本発明の個人認証装置は、被写体画像の入力手段として上記のような画像入力装置を用いるため、装置全体を容易に薄型化することができ、また、被写体距離が変動しても精度の良い個人認証が可能である等々の利点を有する。 Since the personal authentication device of the present invention uses the above-described image input device as the subject image input means, the entire device can be easily reduced in thickness, and a highly accurate individual even if the subject distance varies. It has advantages such as being able to authenticate.

以下、図面を参照し本発明の実施の形態について詳細に説明する。ここでは、生体として人の指を想定し、指内部の静脈を被写体として撮像して静脈パターンの画像を入力する画像入力装置と、この画像入力装置を含み、それにより入力された静脈パターン画像又はその特徴を個人認証に利用する個人認証装置について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a human finger is assumed as a living body, an image input device that inputs a vein pattern image by imaging a vein inside the finger as a subject, and a vein pattern image or an image input by the image input device. A personal authentication apparatus that uses the features for personal authentication will be described.

図1は、本発明の一実施形態に係る画像入力装置及び個人認証装置の構成説明図である。図1において、1は横方向から観察した指を模式的に表している。2は指内部の被写体である静脈を模式的に示している。   FIG. 1 is an explanatory diagram of a configuration of an image input device and a personal authentication device according to an embodiment of the present invention. In FIG. 1, 1 schematically represents a finger observed from the lateral direction. Reference numeral 2 schematically shows a vein as a subject inside the finger.

10は、指1の内部の静脈2を複眼画像として撮像するための撮像光学系である。この撮像光学系10において、3は被写体像を結像させるためのレンズアレイであり、複数の非球面の単レンズがレンズ光軸に直交する平面内に2次元アレイ配列された構造である。ただし、レンズアレイ3の単レンズは片面球面レンズや両面球面レンズとしてもよい。4は遮光壁であり、レンズアレイ3の各単レンズを通過した光線の像面上でのクロストークを防止し、ゴーストやフレアなどのノイズ光を抑制する。   Reference numeral 10 denotes an imaging optical system for imaging the vein 2 inside the finger 1 as a compound eye image. In this imaging optical system 10, reference numeral 3 denotes a lens array for forming a subject image, and has a structure in which a plurality of aspherical single lenses are two-dimensionally arrayed in a plane orthogonal to the lens optical axis. However, the single lens of the lens array 3 may be a single-sided spherical lens or a double-sided spherical lens. Reference numeral 4 denotes a light shielding wall, which prevents crosstalk on the image plane of the light beam that has passed through each single lens of the lens array 3 and suppresses noise light such as ghost and flare.

レンズアレイ3は、透明の樹脂やガラスを材料として、リフロー法や面積階調マスク法、研磨法などの加工法により、あるいは、それらの加工法で作製した型を用いた成形加工法等により作製することができる。遮光壁4は、樹脂、ガラス、金属などを材料とした平板に、エッチングや研磨、レーザ加工等で穴あけすることにより作製することができる。遮光壁4は、不透明材料を用いたり、透明材料にコーティングを施したりして、光の透過や反射を抑制できるようにすることが望ましい。   The lens array 3 is manufactured by a processing method such as a reflow method, an area gradation mask method, and a polishing method using a transparent resin or glass as a material, or a molding method using a mold manufactured by these processing methods. can do. The light shielding wall 4 can be produced by punching a flat plate made of resin, glass, metal or the like by etching, polishing, laser processing or the like. The light shielding wall 4 is desirably made of an opaque material or coated with a transparent material so that light transmission and reflection can be suppressed.

撮像光学系10において、5はレンズアレイ3により結像される像を撮像するための撮像素子であり、受光素子5aが2次元アレイ配置されている。この撮像素子5としては、一般的なCCD撮像素子やCMOS撮像素子を用いることができる。なお、撮像素子5の撮像面に撮像される画像は、レンズアレイ3上の個々の単レンズにより結像される像(個眼画像)の集まりである複眼画像であるが、個々の個眼画像を必要な画素数の画像として撮像できる密度で受光素子5aが配列されている。また、撮像素子5は、受光素子5aによる光電変換信号のゲインを調整したりアナログ信号からデジタル信号へ変換したりする回路を内蔵し、撮像画像をデジタル画像データとして出力する構成のものである。6は撮像素子5の撮像面を保護するための透明ガラス板である。   In the image pickup optical system 10, reference numeral 5 denotes an image pickup element for picking up an image formed by the lens array 3, and the light receiving elements 5 a are arranged in a two-dimensional array. As this image sensor 5, a general CCD image sensor or a CMOS image sensor can be used. In addition, although the image imaged on the imaging surface of the image pick-up element 5 is a compound eye image which is a collection of images (single-eye images) formed by individual single lenses on the lens array 3, each individual eye image The light receiving elements 5a are arranged at a density capable of capturing an image as a necessary number of pixels. The image sensor 5 has a circuit that adjusts the gain of the photoelectric conversion signal by the light receiving element 5a or converts the analog signal into a digital signal, and outputs the captured image as digital image data. Reference numeral 6 denotes a transparent glass plate for protecting the imaging surface of the imaging element 5.

7は生体による吸収率が低い近赤外帯の波長の光を指1に照射するための光源である。この光源6としては、発光ダイオード(LED)やレーザダイオード(LD)、あるいは、そのアレイ光源を用いることができる。8は光源7の発光波長近傍の光のみを通過させる光学的バンドバスフィルターである。光源7により指1に照射された近赤外光は指内部の静脈(被写体)2内の還元ヘモグロビンに吸収されるが、静脈以外の組織には殆ど吸収されないため、静脈2を暗いパターンとして透視可能である。したがって、レンズアレイ3により、静脈パターンが暗く、それ以外の部分が明るい静脈パターン像が撮像素子5の撮像面上に結像される。   Reference numeral 7 denotes a light source for irradiating the finger 1 with light in the near-infrared band having a low absorption rate by the living body. As the light source 6, a light emitting diode (LED), a laser diode (LD), or an array light source thereof can be used. Reference numeral 8 denotes an optical bandpass filter that allows only light in the vicinity of the emission wavelength of the light source 7 to pass therethrough. Near-infrared light applied to the finger 1 by the light source 7 is absorbed by reduced hemoglobin in the vein (subject) 2 inside the finger, but is hardly absorbed by tissues other than the vein, so that the vein 2 is seen through as a dark pattern. Is possible. Therefore, the lens array 3 forms a vein pattern image on the image pickup surface of the image pickup device 5 with a dark vein pattern and a bright portion.

なお、図1では光源7が1個だけ示されているが、指1の所定範囲を照明できるように光源7を複数個設けてもよい。また、図1では指1を挟んでレンズアレイ3と反対側の方向から照明するように光源7が配置されているが、照明光は指1の内部であらゆる方向に拡散されるため、レンズアレイ3側や指1の側面側から照明するように光源7を配置してもよい。また、太陽光などの自然光にも近赤外線は含まれるため、自然光あるいは室内照明で十分なコントラストの画像を撮像できるような環境を前提とする場合には、光源7を省くことも可能である。ただし、光源7を設ければ、環境に影響されることなく、コントラストの良好な複眼画像を撮像できる。なお、近赤外光以外のノイズ光の影響を考慮する必要がない場合には、光学的バンドパスフィルター8を省くことも可能である。   Although only one light source 7 is shown in FIG. 1, a plurality of light sources 7 may be provided so that a predetermined range of the finger 1 can be illuminated. In FIG. 1, the light source 7 is arranged so as to illuminate from the direction opposite to the lens array 3 with the finger 1 in between. However, since the illumination light is diffused in all directions inside the finger 1, the lens array The light source 7 may be arranged so as to illuminate from the side 3 or the side of the finger 1. In addition, since natural light such as sunlight includes near infrared rays, the light source 7 can be omitted when it is assumed that the image can be captured with natural light or indoor lighting with sufficient contrast. However, if the light source 7 is provided, a compound eye image with good contrast can be captured without being affected by the environment. In the case where it is not necessary to consider the influence of noise light other than near-infrared light, the optical bandpass filter 8 can be omitted.

以上に説明した撮像光学系10は、レンズアレイ3を通して被写体を複眼画像として撮像する複眼光学系であるので、容易に全体の厚みを小さくすることができ、したがって携帯情報端末やノートパソコンのような小型電子機器に搭載する場合に有利である。   Since the imaging optical system 10 described above is a compound eye optical system that images a subject as a compound eye image through the lens array 3, the entire thickness can be easily reduced. This is advantageous when mounted on a small electronic device.

図5に、撮像素子5の撮像面に結像される複眼画像を模式的に示す。ここでは人間の顔を被写体とした場合の複眼画像が便宜上示されているが、実際には静脈パターンの複眼画像である。図示した複眼画像中の格子状の暗い部分は遮光壁4の影である。この影の部分で区切られた方形領域が各単レンズに対応した個眼画像である。図1において、2aは各単レンズの視野を示しており、2bは隣接した単レンズの視野が共有する領域である。したがって、結像される複眼画像中の隣接した個眼画像は、そのような共有領域を有する。単レンズの視野2aの、隣接単レンズの視野と共有しない領域が両単レンズ間の「視差」に相当する。複眼画像中の隣接した個眼画像は視差の分だけx,y方向に相対的にシフトした画像となる。   FIG. 5 schematically shows a compound eye image formed on the imaging surface of the imaging device 5. Here, a compound eye image when a human face is the subject is shown for convenience, but it is actually a compound eye image of a vein pattern. The grid-like dark part in the illustrated compound eye image is a shadow of the light shielding wall 4. A square area divided by the shadow is a single-eye image corresponding to each single lens. In FIG. 1, 2a shows the field of view of each single lens, and 2b is an area shared by the field of view of adjacent single lenses. Therefore, adjacent single-eye images in the compound-eye image to be formed have such a shared area. An area of the single lens field of view 2a that is not shared with the field of adjacent single lenses corresponds to “parallax” between the two single lenses. The adjacent single-eye images in the compound-eye image are images that are relatively shifted in the x and y directions by the amount of parallax.

図1を参照する。画像入力部100は撮像素子5より出力される複眼画像データ(以下、単に複眼画像と記す)を取り込む手段である。個眼像抽出部101は取り込まれた複眼画像中の個眼画像を抽出する手段である。視差検出部102は複眼画像中の個眼画像間の視差を検出する手段である。   Please refer to FIG. The image input unit 100 is means for taking in compound eye image data (hereinafter simply referred to as a compound eye image) output from the image sensor 5. The single-eye image extraction unit 101 is means for extracting a single-eye image from the captured compound eye image. The parallax detection unit 102 is means for detecting parallax between single-eye images in a compound-eye image.

再構成処理部103は複眼画像中の多数の個眼画像から単一の画像を再構成する手段である。再構成処理部103は、繋ぎ合わせ法(第1の再構成方法)による再構成処理のための繋ぎ合わせ処理部104A、画素再配置法(第2の再構成方法)による再構成処理のための画素再配置処理部104B、及び、繋ぎ合わせ処理部104A又は画素再配置処理部104Bによる再構成画像のサイズを正規化する処理を行うサイズ正規化処理部105から構成される。   The reconstruction processing unit 103 is means for reconstructing a single image from a large number of single-eye images in a compound eye image. The reconstruction processing unit 103 includes a joining processing unit 104A for reconstruction processing by the joining method (first reconstruction method), and a reconstruction processing by the pixel rearrangement method (second reconstruction method). The pixel rearrangement processing unit 104B and the size normalization processing unit 105 that performs processing for normalizing the size of the reconstructed image by the stitching processing unit 104A or the pixel rearrangement processing unit 104B.

再構成方法選択部106は、再構成処理103における再構成方法の選択(すなわち繋ぎ合わせ処理部104と画素再配置処理部104Bのいずれを利用するかの選択)を行う手段である。再構成方法選択部106は、視差の大きさに応じて自動的に再構成方法を選択する機能と、不図示の操作部等からの指定に従って一方の再構成方法を選択する機能とを有する。ここまで説明した要素は画像入力装置の構成要素である。   The reconstruction method selection unit 106 is a unit that performs selection of a reconstruction method in the reconstruction processing 103 (that is, selection of which one of the joining processing unit 104 and the pixel rearrangement processing unit 104B is used). The reconstruction method selection unit 106 has a function of automatically selecting a reconstruction method according to the magnitude of parallax and a function of selecting one reconstruction method according to designation from an operation unit (not shown). The elements described so far are constituent elements of the image input apparatus.

認証処理部107は、再構成処理部103よる再構成画像又はその特徴(例えば再構成画像中の静脈パターンの分岐位置や分岐数)と、登録情報記憶部110に登録者情報として記憶されている同様の画像又はその特徴とのマッチング演算により、指1の持ち主が登録者本人である否かの個人認証を行う処理手段である。認証処理部107は、特徴抽出部108とマッチング演算部109とから構成されている。登録処理部111は、再構成処理部103による再構成画像(静脈パターン画像)又は特徴抽出部108により抽出された特徴を登録情報記憶部110に登録者情報として記憶させる手段である。   The authentication processing unit 107 stores the reconstructed image by the reconstruction processing unit 103 or its features (for example, the branch position and the number of branches of the vein pattern in the reconstructed image) and the registration information storage unit 110 as registrant information. It is a processing means for performing personal authentication to determine whether or not the owner of the finger 1 is the registrant by matching calculation with similar images or features thereof. The authentication processing unit 107 includes a feature extraction unit 108 and a matching calculation unit 109. The registration processing unit 111 is a means for storing the reconstructed image (vein pattern image) by the reconstruction processing unit 103 or the feature extracted by the feature extraction unit 108 in the registration information storage unit 110 as registrant information.

図2は、本実施形態に係る画像入力装置及び個人認証装置の動作説明のためのフローチャートである。以下、このフローチャートに示す処理の流れに沿って、各部の動作を詳細に説明する。   FIG. 2 is a flowchart for explaining operations of the image input apparatus and the personal authentication apparatus according to the present embodiment. Hereinafter, the operation of each unit will be described in detail along the flow of processing shown in this flowchart.

まず、撮像素子5により撮像された静脈パターンの複眼画像が画像入力部100によって取り込まれ、不図示のメモリ上に記憶される(ステップS100)。   First, a compound eye image of a vein pattern imaged by the image sensor 5 is captured by the image input unit 100 and stored in a memory (not shown) (step S100).

次に個眼画像抽出部101によって、メモリ上の複眼画像中の各個眼画像の領域が抽出される(ステップS101)。図5に模式的に示したように、複眼画像中の個々の個眼画像は遮光壁の影部によって区切られてあるが、遮光壁影部は最も暗いため、複眼画像の輝度を適当な閾値と比較することにより遮光壁影部を検出することにより、遮光壁影部に囲まれた方形領域である個眼画像の領域を容易に認識することができる。このようにして遮光壁影部を除いた個眼画像の集合を、再構成処理部101及び視差検出部102よりアクセスすることができる。   Next, the single-eye image extraction unit 101 extracts a region of each single-eye image in the compound-eye image on the memory (step S101). As schematically shown in FIG. 5, each single-eye image in the compound-eye image is divided by the shadow portion of the light-shielding wall. Since the light-shielding wall shadow portion is the darkest, the luminance of the compound-eye image is set to an appropriate threshold value. By detecting the light-shielding wall shadow portion by comparing with the above, it is possible to easily recognize the region of the single-eye image that is a square region surrounded by the light-shielding wall shadow portion. In this way, a set of single-eye images excluding the shading wall shadow portion can be accessed from the reconstruction processing unit 101 and the parallax detection unit 102.

次に、視差検出部102により個眼画像間の視差が検出される(ステップS102)。この視差検出処理においては、まずレンズアレイ3上の単レンズと同じ個数の個眼画像の中から、視差検出のための個眼画像のペアを選び出す。視差を検出するためには、静脈パターンが含まれている個眼画像を用いる必要がある。個眼像に静脈パターンが含まれているか否かの判定は、例えば、画像の横,縦(x,y)方向について隣接画素間の輝度の差を求め、その輝度差が所定の閾値以上であるか調べる方法によって行うことができる。   Next, the parallax between the single-eye images is detected by the parallax detection unit 102 (step S102). In this parallax detection process, first, a pair of single-eye images for parallax detection is selected from the same number of single-eye images as a single lens on the lens array 3. In order to detect parallax, it is necessary to use a single-eye image including a vein pattern. For example, the determination of whether or not a vein pattern is included in a single-eye image is performed by calculating a luminance difference between adjacent pixels in the horizontal and vertical (x, y) directions of the image, and the luminance difference is equal to or greater than a predetermined threshold value. It can be done by a method to check if there is.

次に、選び出した個眼画像のペアの輝度分布を、ブロックマッチング演算の(1)式に代入することにより、x,y方向における視差を求める。   Next, the parallax in the x and y directions is obtained by substituting the selected luminance distribution of the pair of single-eye images into equation (1) of the block matching calculation.

Figure 0004803676
Figure 0004803676

上記(1)式において、IBは基準側の個眼画像で、Imはもう一方の個眼画像である。Px,Pyを徐々に変化させながら、個眼画像を構成する全画素について両個眼画像の輝度偏差の二乗和Eを計算し、その値が最小となるときのPx,Pyがx,y方向における両個眼像間の視差となる。図3はx軸にPx、y軸にPy、z軸にEをとり、Px,Pyを変化させたときのEの変化を示す鳥瞰図である。このように、一方の個眼画像に対する、もう一方の個眼画像のx,y方向のシフト量(単位は長さ)を視差として求めている。検出された視差は再構成処理部103及び再構成処理方法選択部106へ入力される。なお、輝度偏差の二乗和を最小化する方法に代えて、個眼画像間の相互相関を最大化する方法を用いて視差を求めることもできる。 In the above (1), I B is the reference side ommatidium image, I m is the other ommatidium images. While gradually changing Px and Py, the sum of squares E of the luminance deviations of the two-eye images is calculated for all the pixels constituting the single-eye image, and Px and Py when the values are minimum are in the x and y directions. Is the parallax between the two eye images. FIG. 3 is a bird's eye view showing changes in E when Px is taken as the x axis, Py is taken as the y axis, and E is taken as the z axis, and Px and Py are changed. As described above, the shift amount (unit: length) in the x and y directions of the other single-eye image with respect to one single-eye image is obtained as the parallax. The detected parallax is input to the reconstruction processing unit 103 and the reconstruction processing method selection unit 106. Note that the parallax can be obtained by using a method of maximizing the cross-correlation between single-eye images instead of the method of minimizing the sum of squares of luminance deviations.

当該個人認証装置の備える不図示の操作部、あるいは当該個人認証装置が搭載された電子機器等の操作部を操作することにより、制御信号200を通じて再構成方法選択部106に対し、再構成方法の自動選択と、任意の再構成方法の選択を指定可能である。   By operating an operation unit (not shown) included in the personal authentication device or an operation unit such as an electronic device on which the personal authentication device is mounted, the reconfiguration method selection unit 106 is notified of the reconfiguration method via the control signal 200. Automatic selection and selection of any reconstruction method can be specified.

再構成方法の自動選択が指定されている場合(ステップS103,Yes)、再構成方法選択部106は、視差検出部102により検出された視差と所定の閾値THとの比較判定を行う(ステップS104)。そして、視差が閾値THより大きいと判定したときには(ステップS104,Yes)、繋ぎ合わせ法を選択して繋ぎ合わせ処理部104Aを作動させ(ステップS105)、視差が閾値TH以下であると判定したときには(ステップS104,No)、画素再配置法を選択して画素再配置処理部104Bを作動させる(ステップS106)。   When the automatic selection of the reconstruction method is designated (step S103, Yes), the reconstruction method selection unit 106 performs a comparison determination between the parallax detected by the parallax detection unit 102 and the predetermined threshold value TH (step S104). ). When it is determined that the parallax is greater than the threshold TH (step S104, Yes), the stitching method is selected by operating the stitching processing unit 104A (step S105), and when it is determined that the parallax is equal to or smaller than the threshold TH. (Step S104, No), the pixel rearrangement method is selected to activate the pixel rearrangement processing unit 104B (Step S106).

再構成方法の自動選択ではなく、繋ぎ合わせ法が指定されている場合(ステップS103,No,ステップS107,Yes)、再構成方法選択部106は繋ぎ合わせ法を選択して繋ぎ合わせ処理部104Aを作動させる(ステップS105)。再構成方法の自動選択ではなく画素再配置法が指定されている場合(ステップS103,No,ステップS107,No)、再構成方法選択部106は画素再配置法を選択して画素再配置処理部104Bを作動させる(ステップS106)。   When the joining method is designated instead of the automatic selection of the reconstruction method (step S103, No, step S107, Yes), the reconstruction method selection unit 106 selects the joining method and selects the joining processing unit 104A. Operate (step S105). When the pixel rearrangement method is designated instead of the automatic selection of the reconstruction method (Step S103, No, Step S107, No), the reconstruction method selection unit 106 selects the pixel rearrangement method and selects the pixel rearrangement processing unit. 104B is operated (step S106).

ここで、被写体距離・視差と再構成方法との関係について図4により説明する。指の皮膚厚さ等の個人差から、被写体距離はかなりばらつきがある。図4(a)のように、被写体である静脈2がレンズアレイ3から遠い位置にあると、隣接した単レンズの視野の共有領域2bが大きくなり、したがって、両単レンズにより結像される個眼画像間の視差は小さくなる。図4(b)のように、被写体である静脈2がレンズアレイ3に近づくと、隣接した単レンズの視野の共有領域2bは極めて小さくなり、したがって、両単レンズにより結像される個眼画像間の視差はほぼ最大となる。   Here, the relationship between the subject distance / parallax and the reconstruction method will be described with reference to FIG. Due to individual differences such as finger skin thickness, the subject distance varies considerably. As shown in FIG. 4A, when the vein 2 as a subject is at a position far from the lens array 3, the shared field 2b of the field of view of the adjacent single lens becomes large. The parallax between the eye images is reduced. As shown in FIG. 4B, when the vein 2 that is the subject approaches the lens array 3, the shared area 2b of the field of view of the adjacent single lens becomes extremely small. Therefore, a single-eye image formed by both single lenses. The parallax between them is almost the maximum.

本発明においては、複眼画像中の複数の個眼画像から単一画像を再構成する方法として、繋ぎ合わせ法と画素再配置法を選択可能である。繋ぎ合わせ法は、隣接した個眼画像を上下左右に反転させてから、その共有領域が重なるように単純に繋ぎ合わせる方法であり、画素再配置法に比べ処理負担が軽く高速処理が可能である。しかし、繋ぎ合わせ法では、隣接した個眼画像の一方の共通領域は無効とされるため、図4(a)のように視差が小さく、したがって隣接個眼画像間の共有領域が大きい場合、無効とされる領域が増え、その分だけ再構成画像の画素数(サイズ)が減少し解像力が低下する。これに対し、画素再配置法は、視差を利用し、個眼画像の画素輝度を再配置することによって、複数の個眼画像から単一の画像を再構成する方法であるため、図4(a)のように視差が小さく個眼画像間の共有領域が大きくなっても、解像力の高い再構成画像の生成が可能である。   In the present invention, a stitching method and a pixel rearrangement method can be selected as a method for reconstructing a single image from a plurality of single-eye images in a compound-eye image. The joining method is a method in which adjacent single-eye images are inverted vertically and horizontally and then simply joined so that their shared areas overlap, and the processing load is lighter and higher-speed processing is possible than the pixel rearrangement method. . However, in the stitching method, since one common area of adjacent single-eye images is invalidated, the parallax is small as shown in FIG. 4A, and therefore, invalid when the shared area between adjacent single-eye images is large. The number of regions is increased, and the number of pixels (size) of the reconstructed image is reduced accordingly, and the resolution is lowered. In contrast, the pixel rearrangement method is a method for reconstructing a single image from a plurality of single-eye images by using parallax and rearranging the pixel luminances of the single-eye images. Even if the parallax is small and the shared area between single-eye images is large as in a), a reconstructed image with high resolving power can be generated.

一方、図4(b)のように、隣接単レンズの視野の共有領域が極めて小さく、視差が大きくなった場合、視差の検出精度が悪くなるため画素再配置法では再構成画像の品質が悪化する恐れがある。この場合、繋ぎ合わせ法で、個眼画像を上下左右に反転したものを単純に繋ぎ合わせても、それなりの品質の再構成画像が得られるため、画像品質の安定性の面で繋ぎ合わせ法が有利である。   On the other hand, as shown in FIG. 4B, when the shared area of the field of view of the adjacent single lens is extremely small and the parallax becomes large, the detection accuracy of the parallax deteriorates, so that the quality of the reconstructed image is deteriorated by the pixel rearrangement method. There is a fear. In this case, since the reconstructed image of a certain quality can be obtained even by simply joining the single-eye images inverted vertically and horizontally by the stitching method, the stitching method is used in terms of stability of the image quality. It is advantageous.

なお、撮像距離を被写体距離に比べ充分に短くできるならば、図4(b)のような状況を回避できる。しかし、通常、撮像面の前面に保護のための透明ガラス板6を設けるので、レンズアレイ3と撮像面との間にその分の距離を空ける必要があるため、撮像距離の短縮には限界がある。また、皮膚厚等の個人差から被写体距離のばらつき幅がかなり大きい。したがって、現実的には図4(b)のような状況を考慮しなければならない。   If the imaging distance can be made sufficiently shorter than the subject distance, the situation as shown in FIG. 4B can be avoided. However, since the transparent glass plate 6 for protection is usually provided on the front surface of the imaging surface, it is necessary to provide a distance between the lens array 3 and the imaging surface, so there is a limit to shortening the imaging distance. is there. In addition, the variation range of the subject distance is considerably large due to individual differences such as skin thickness. Therefore, in reality, the situation shown in FIG. 4B must be considered.

本発明では以上の事情を考慮し、前述のように視差の大きさに応じて再構成方法を自動的に選択できるようにしている。すなわち、視差の判定閾値THを適切に選ぶことにより、繋ぎ合わせ法が有利な視差範囲では再構成方法として繋ぎ合わせ法を選択し、画素再配置法が有利な視差の範囲では再構成方法として画素再配置法を選択する。このようにすることにより、図4に示したような視差の小さい場合から視差の大きい場合まで、所要品質の単一画像の再構成が可能となる。
In the present invention, in consideration of the above circumstances, a reconstruction method can be automatically selected according to the magnitude of parallax as described above. That is, by appropriately selecting the parallax determination threshold TH, the stitching method is selected as the reconstruction method in the parallax range where the stitching method is advantageous, and the pixel is used as the reconstruction method in the parallax range where the pixel rearrangement method is advantageous. Select a relocation method. In this way, it is possible to reconstruct a single image of a required quality from the case where the parallax is small as shown in FIG. 4 to the case where the parallax is large .

また、子供の場合、一般に成人の場合に比べ被写体距離が小さい。成人でも、男性に比べ女性のほうが、一般に被写体距離が小さい傾向がある。したがって、認証対象者の属性等に基づいて再構成方法を指定したい場合もあり得る。この点を考慮し、本実施形態においては、不図示の操作部等の操作に応じて、制御信号200により、繋ぎ合わせ法又は画素再配置法を任意に指定できるようにしている。   In addition, in the case of a child, the subject distance is generally smaller than that of an adult. Even in adults, women generally tend to have a shorter subject distance than men. Accordingly, there may be a case where it is desired to specify a reconstruction method based on the attribute of the person to be authenticated. In consideration of this point, in the present embodiment, the joining method or the pixel rearrangement method can be arbitrarily designated by the control signal 200 in accordance with an operation of an operation unit (not shown) or the like.

次に、再構成処理部103において、再構成方法選択部106により選択された再構成方法により複眼画像中の複数の個眼画像から単一画像を再構成する処理が繋ぎ合わせ処理部104A又は画素再配置処理部104Bで実行される(ステップS108又はS109)。再構成画像のサイズは、その再構成方法によって、また視差によって変化するため、再構成処理部103のサイズ正規化処理部105で、再構成画像を所定サイズに正規化する処理を行う(ステップS110)。ただし、認証処理部107側で画像サイズのばらつきが問題にならない場合には、このサイズ正規化処理を省くこともできる。   Next, in the reconstruction processing unit 103, a process of reconstructing a single image from a plurality of single-eye images in a compound eye image by the reconstruction method selected by the reconstruction method selection unit 106 is combined processing unit 104A or pixel The relocation processing unit 104B executes (Step S108 or S109). Since the size of the reconstructed image changes depending on the reconstruction method and parallax, the size normalization processing unit 105 of the reconstruction processing unit 103 performs a process of normalizing the reconstructed image to a predetermined size (step S110). ). However, this size normalization process can be omitted when there is no problem in image size variation on the authentication processing unit 107 side.

繋ぎ合わせ処理部104は、繋ぎ合わせ法による再構成処理を行う。この処理は、図5の下部分に模式的に示すように、隣接した個眼画像(1)と個眼画像(2)を左右上下の反転を元に戻した後、その共有領域を重なるように繋ぎ合わせる処理である。個眼画像間のx,y方向の視差を均等とみなすことができる場合の繋ぎ合わせ法による再構成処理の例を図6を用いて説明する。ここでは、図5に示す複眼画像の最上段の行(1行目)の個眼画像を左から(0,0),(0,1),(0,2),..の座標で表し、その下の2行目の個眼画像を左から(1,0),(1,1),(1,2),...の座標で表すものとする。   The splicing processing unit 104 performs reconstruction processing by a splicing method. As schematically shown in the lower part of FIG. 5, this processing is performed so that the adjacent single-eye image (1) and single-eye image (2) are reversed from left to right and upside down, and then the shared areas overlap. It is a process to connect to. An example of reconstruction processing by the joining method when the parallaxes in the x and y directions between the single-eye images can be regarded as being equal will be described with reference to FIG. Here, the single-eye images in the uppermost row (first row) of the compound-eye image shown in FIG. 5 are (0, 0), (0, 1), (0, 2),. . The single-eye images in the second row below are represented by (1, 0), (1, 1), (1, 2),. . . It shall be expressed with the coordinates of.

図6(a)に示すように、1行目の個眼画像を、上下左右を反転してから、共有領域を重ねるように繋ぎ合わせる。すなわち、メモリ上に、上下左右反転後の個眼画像(0,0)を書き込み、次に上下左右反転後の個眼画像(0,1)を、x方向の視差の分だけシフトした位置に書き込む。1行目ではx方向の視差のみ考慮すればよい。斜線領域は個眼画像(0,0)と個眼画像(0,1)の共有領域で、この領域は個眼画像(0,1)により上書きされる形になる。同様の書き込みを繰り返し、1行目の個眼画像を繋ぎ合わせた画像が得られる。   As shown in FIG. 6A, the single-line images in the first row are connected so as to overlap the shared areas after being inverted vertically and horizontally. In other words, the single-eye image (0, 0) after flipping up / down / left / right is written in the memory, and then the single-eye image (0, 1) after flipping up / down / left / right is shifted to a position shifted by the amount of parallax in the x direction. Write. In the first row, only the parallax in the x direction needs to be considered. The hatched area is a shared area of the single-eye image (0, 0) and the single-eye image (0, 1), and this area is overwritten by the single-eye image (0, 1). Similar writing is repeated to obtain an image obtained by joining the single-eye images in the first row.

次に、図6(b)に示すように、2行目の個眼画像(1,0),(1,1),(1,2),...を上下左右に反転したものを、x,y方向の視差の分だけシフトした位置に順次書き込む。斜線領域は、個眼画像(1,0)と1行目の個眼画像(0,0)の共有領域である。これで2行目までの個眼画像の繋ぎ合わせた画像が得られる。3行目以降の個眼画像についても同様の繋ぎ合わせ処理を行うことにより、全個眼画像を繋ぎ合わせた再構成画像を得ることができる。なお、各行について、図6(a)のような繋ぎ合わせ処理を行って行画像を生成し、隣接した行画像を繋ぎ合わせる処理を行うような処理方法をとることも可能である。   Next, as shown in FIG. 6B, the single-eye images (1, 0), (1, 1), (1, 2),. . . Are sequentially written at positions shifted by the amount of parallax in the x and y directions. The hatched area is a shared area of the single-eye image (1, 0) and the single-line image (0, 0) in the first row. Thus, an image obtained by joining the single-eye images up to the second row is obtained. By performing the same joining process for the single-eye images on and after the third row, it is possible to obtain a reconstructed image obtained by joining all the single-eye images. For each row, it is also possible to take a processing method such as performing a joining process as shown in FIG. 6A to generate a row image and joining adjacent row images.

画素再配置処理部104は、画素再配置法による再構成処理を行う。この処理は、図7に模式的に示すように、複眼画像9中の各個眼画像9aから画素輝度を取り出し、メモリ上の再構成画像空間8の該個眼画像の位置及び視差に応じて決まる位置に、取り出した画素輝度を再配置する操作を、各個眼画像の全画素について繰り返すことにより、再構成画像空間8に単一画像を再構成する処理である。なお、再構成画像に輝度が欠失した画素が生じるときは、その隣接画素の輝度を参照して補間する。視差が画素サイズより小さい場合には、視差の大きさが画素サイズ又はその整数倍になるように再構成画像を拡大し、すなわち再構成画像の構成画素数を増やし、同様の画素輝度の再配置を行えばよい。   The pixel rearrangement processing unit 104 performs reconstruction processing by a pixel rearrangement method. As schematically illustrated in FIG. 7, this process is determined according to the position and parallax of the single-eye image in the reconstructed image space 8 in the memory by extracting the pixel luminance from each single-eye image 9 a in the compound-eye image 9. This is a process of reconstructing a single image in the reconstructed image space 8 by repeating the operation of rearranging the extracted pixel brightness at the position for all the pixels of each single-eye image. In addition, when a pixel having lost luminance is generated in the reconstructed image, interpolation is performed with reference to the luminance of the adjacent pixel. When the parallax is smaller than the pixel size, the reconstructed image is enlarged so that the size of the parallax is the pixel size or an integer multiple thereof, that is, the number of constituent pixels of the reconstructed image is increased, and the same pixel luminance rearrangement is performed. Can be done.

ここまでの説明から理解されるように、個眼画像抽出部101は、視差検出部102及び再構成処理部103の前処理部として位置づけられるものである。したがって、視差検出部102及び/又は再構成処理部103に個眼画像抽出部101の機能を持たせるならば、独立した個眼画像抽出部101を設ける必要はない。以上、画像入力装置としての動作を説明した。   As can be understood from the above description, the single-eye image extraction unit 101 is positioned as a preprocessing unit for the parallax detection unit 102 and the reconstruction processing unit 103. Therefore, if the parallax detection unit 102 and / or the reconstruction processing unit 103 has the function of the single-eye image extraction unit 101, it is not necessary to provide the independent single-eye image extraction unit 101. The operation as the image input device has been described above.

さて、再構成処理部103より再構成画像が出力されると、認証処理部107による認証処理(ステップS112)又は登録処理部111による登録処理(ステップS113)が実行される。いずれの処理を行うかは、不図示の操作部の操作に応じた制御信号201,202に基づいて決定される(ステップS111)。   When a reconstructed image is output from the reconstruction processing unit 103, authentication processing by the authentication processing unit 107 (step S112) or registration processing by the registration processing unit 111 (step S113) is executed. Which process is to be performed is determined based on the control signals 201 and 202 corresponding to the operation of an operation unit (not shown) (step S111).

認証処理(ステップS112)について説明する。認証処理部107においては、画像マッチングによる認証処理と特徴マッチングによる認証処理とが可能であり、いずれの認証処理を選択するかは制御信号201により指定される。   The authentication process (step S112) will be described. The authentication processing unit 107 can perform authentication processing by image matching and authentication processing by feature matching, and which authentication processing is selected is designated by the control signal 201.

特徴マッチングによる認証処理が指定された場合、再構成処理部103より出力された画像中の静脈パターンの特徴、例えば分岐点位置や分岐点数等が特徴抽出部108により抽出される。マッチング演算部109では、その抽出された特徴と、登録情報記憶部110より読み込んだ登録者の同様の特徴とのマッチング演算を行い、所定以上の類似度が得られたときに指1の持ち主を登録者本人と認証する。   When authentication processing by feature matching is designated, features of vein patterns in the image output from the reconstruction processing unit 103, such as branch point positions and the number of branch points, are extracted by the feature extraction unit 108. The matching calculation unit 109 performs a matching calculation between the extracted feature and the similar feature of the registrant read from the registration information storage unit 110, and when the similarity equal to or higher than a predetermined level is obtained, the owner of the finger 1 is determined. Authenticate with the registrant.

画像マッチングによる認証処理が指定された場合、特徴抽出部108による特徴抽出は行われない。マッチング演算部109では、再構成処理部103より出力された画像と、登録情報記憶部110より読み込んだ登録者の同様の画像とのマッチング演算を行い、所定以上の類似度が得られたときに登録者本人と認証する。   When authentication processing by image matching is designated, feature extraction by the feature extraction unit 108 is not performed. The matching calculation unit 109 performs a matching calculation between the image output from the reconstruction processing unit 103 and the similar image of the registrant read from the registration information storage unit 110, and when a similarity degree equal to or higher than a predetermined level is obtained. Authenticate with the registrant.

登録処理(ステップS113)について説明する。登録処理部107においては、登録者情報として画像を登録する処理と特徴を登録する処理とが可能であり、いずれの認証処理を選択するかは、不図示の操作部等の操作に応じた制御信号202により指定される。特徴を登録する処理が指定される場合には、制御信号201により特徴抽出部108が作動させられる。   The registration process (step S113) will be described. The registration processing unit 107 can perform processing for registering an image as registrant information and processing for registering a feature. Which authentication processing is selected is controlled according to the operation of an operation unit (not shown). Designated by signal 202. When processing for registering a feature is designated, the feature extraction unit 108 is activated by the control signal 201.

画像を登録する処理が指定された場合、登録処理部111により、再構成処理部103より出力された画像が登録情報記憶部110に書き込まれる。特徴を登録する処理が指定された場合、特徴抽出108により画像中の静脈パターンの特徴が抽出され、この特徴が登録処理部111により登録者情報として登録情報記憶部110に書き込まれる。   When processing for registering an image is designated, the registration processing unit 111 writes the image output from the reconstruction processing unit 103 into the registration information storage unit 110. When the process for registering the feature is designated, the feature of the vein pattern in the image is extracted by the feature extraction 108, and this feature is written in the registration information storage unit 110 as registrant information by the registration processing unit 111.

再構成方法の違いにより、再構成された画像又はそれから抽出される特徴に多少の違いが生じる可能性がある。しかし、同じ登録者については、登録時及び認証時の両方で同じ再構成方法が選択される確率が極めて高いため、そのような再構成方法の違いによる影響を受けにくい。なお、登録処理部111に、特徴抽出部107と同様の特徴抽出手段を設けることも可能である。ただし、同様の手段を認証処理部107と登録処理部111に重複して設けることはコスト的には不利である。   Due to differences in reconstruction methods, there may be some differences in the reconstructed image or the features extracted from it. However, the same registrant has a very high probability that the same reconstruction method is selected both at the time of registration and at the time of authentication, and thus is less susceptible to the difference in such a reconstruction method. Note that the registration processing unit 111 can be provided with a feature extraction unit similar to the feature extraction unit 107. However, it is disadvantageous in terms of cost to provide similar means in the authentication processing unit 107 and the registration processing unit 111 in an overlapping manner.

本発明の他の実施形態によれば、登録処理において、再構成処理部103による再構成画像に代え、個眼画像抽出部101により抽出された個眼画像の集合である複眼画像(遮光壁の影を除去した複眼画像)を登録情報記憶部111に記憶させることも可能である。この場合、視差検出部102により検出された視差を複眼画像と組にして登録情報記憶部110に記憶させるのが好ましい。解像力が低く像の上下左右が反転した多数の単眼画像の集まりである複眼画像は、その再構成画像に比べ、内容を認識しにくく秘匿性が高い。したがって、複眼画像を登録する方が、再構成画像を登録する場合に比べ個人情報の保護の面で有利である。   According to another embodiment of the present invention, in the registration process, instead of the reconstructed image by the reconstruction processing unit 103, a compound eye image (a light shielding wall of a light shielding wall) that is a set of single-eye images extracted by the single-eye image extraction unit 101 is used. It is also possible to store the compound eye image from which the shadow is removed) in the registration information storage unit 111. In this case, the parallax detected by the parallax detection unit 102 is preferably stored in the registration information storage unit 110 in combination with a compound eye image. A compound eye image, which is a collection of a large number of monocular images with low resolving power and inversion of the top, bottom, left, and right of the image, is less recognizable than the reconstructed image and has high confidentiality. Therefore, registering a compound eye image is more advantageous in terms of protecting personal information than registering a reconstructed image.

登録情報記憶部110に登録された複眼画像を利用する個人認証処理は次の通りである。登録情報記憶部110より登録者の複眼画像及び視差が読み出され、その複眼画像及び視差は再構成処理部103に入力され、また、その視差は再構成方法選択部106へ入力される。再構成方法選択部106で視差に基づいて再構成方法が選択され、選択された再構成方法による再構成処理が再構成処理部103で実行され、その再構成画像が認証処理部109へ入力される。認証処理部107には、画像入力部100より取り込んだ複眼画像に基づき生成された再構成画像も入力される。認証処理部109においては、その2つの再構成画像についての画像マッチング演算がマッチング演算部109で実行され、あるいは、特徴抽出部108により両再構成画像から抽出された特徴についての特徴マッチング演算がマッチング演算部109で実行される。   The personal authentication process using the compound eye image registered in the registration information storage unit 110 is as follows. The registrant's compound eye image and parallax are read from the registration information storage unit 110, the compound eye image and parallax are input to the reconstruction processing unit 103, and the parallax is input to the reconstruction method selection unit 106. The reconstruction method selection unit 106 selects a reconstruction method based on the parallax, the reconstruction processing by the selected reconstruction method is executed by the reconstruction processing unit 103, and the reconstructed image is input to the authentication processing unit 109. The The reconstructed image generated based on the compound eye image captured from the image input unit 100 is also input to the authentication processing unit 107. In the authentication processing unit 109, the image matching operation for the two reconstructed images is executed by the matching operation unit 109, or the feature matching operation for the features extracted from the reconstructed images by the feature extracting unit 108 is matched. This is executed by the calculation unit 109.

なお、再構成処理部103に個眼像抽出部101の機能を持たせる場合には、画像入力部100により取り込まれた複眼画像そのものを登録者情報として登録情報記憶部110に記憶させることも可能である。この場合、再構成処理部103において、登録者情報としての複眼画像より遮光壁の影部分を除いた個眼画像を抽出し、その単一画像への再構成処理を行うことになる。   When the reconstruction processing unit 103 has the function of the single-eye image extraction unit 101, the compound eye image itself captured by the image input unit 100 can be stored in the registration information storage unit 110 as registrant information. It is. In this case, the reconstruction processing unit 103 extracts a single-eye image excluding the shadow portion of the light shielding wall from the compound eye image as the registrant information, and performs the reconstruction processing to the single image.

本発明の一実施形態に係る画像入力装置と個人認証装置の構成説明図である。1 is a configuration explanatory diagram of an image input device and a personal authentication device according to an embodiment of the present invention. FIG. 個人認証装置の動作説明のためのフローチャートである。It is a flowchart for operation | movement description of a personal authentication apparatus. 個眼画像間のx,y方向の視差をx,y軸に、個眼画像間の画素輝度の偏差の二乗和Eをz軸にとったときの、視差の変化に伴うEの変化を表した図である。The change in E accompanying the change in parallax when the parallax in the x and y directions between the single images is taken on the x and y axes and the square sum E of the pixel luminance deviation between the single images is taken on the z axis. FIG. 被写体距離と、各単レンズの視野及び隣接単レンズ間で共有する視野との関係を示した模式図である。It is the schematic diagram which showed the relationship between a to-be-photographed object distance and the visual field shared between the visual field of each single lens, and an adjacent single lens. 複眼画像と、個眼画像の繋ぎ合わせ処理を説明するための模式図である。It is a schematic diagram for demonstrating the joining process of a compound eye image and a single-eye image. 個眼画像間の視差が均等な場合の繋ぎ合わせ法による再構成処理の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the reconstruction process by the joining method in case the parallax between single-eye images is equal. 画素再配置法による再構成処理を説明するための模式図である。It is a schematic diagram for demonstrating the reconstruction process by a pixel rearrangement method.

符号の説明Explanation of symbols

1 指(生体)
2 静脈(被写体)
2a 単レンズの視野
2b 隣接した単レンズの視野の共通領域
3 レンズアレイ
4 遮光壁
5 撮像素子
6 透明ガラス板
7 光源
8 光学的バンドパスフィルター
10 撮像光学系
100 画像入力部
101 個眼画像抽出部
102 視差検出部
103 再構成処理部
104A 繋ぎ合わせ処理部
104B 画素再配置処理部
105 サイズ正規化処理部
106 再構成方法選択部
107 認証処理部
108 特徴抽出部
109 マッチング演算部
110 登録情報記憶部
111 登録処理部
1 finger (living body)
2 Veins (subject)
2a Field of view of single lens 2b Common area 3 of field of adjacent single lens 3 Lens array 4 Light blocking wall 5 Image sensor 6 Transparent glass plate 7 Light source 8 Optical bandpass filter 10 Imaging optical system 100 Image input unit 101 Single eye image extraction unit 102 Parallax Detection Unit 103 Reconstruction Processing Unit 104A Joint Processing Unit 104B Pixel Relocation Processing Unit 105 Size Normalization Processing Unit 106 Reconstruction Method Selection Unit 107 Authentication Processing Unit 108 Feature Extraction Unit 109 Matching Operation Unit 110 Registration Information Storage Unit 111 Registration processing department

Claims (5)

複数の単レンズがアレイ配列されたレンズアレイを通して生体の内部の被写体を複眼画像として撮像する撮像光学系と、
前記撮像光学系により撮像された複眼画像中の個眼画像間の視差を検出する視差検出手段と、
前記視差検出手段により検出された視差を利用し、前記複眼画像中の複数の個眼画像を繋ぎ合わせる第1の再構成方法によって、前記複眼画像中の複数の個眼画像から単一の画像を再構成する繋ぎ合わせ処理手段、及び、前記視差検出手段により検出された視差を利用し、前記複眼画像中の複数の個眼画像の画素輝度を再配置する第2の再構成方法によって、前記複眼画像中の複数の個眼画像から単一の画像を再構成する画素再配置処理手段を含む再構成処理手段と、
前記再構成処理手段における再構成方法として、前記視差検出手段により検出された視差が所定の閾値より大きい場合は前記第1の再構成方法を選択し、前記視差が所定の閾値より小さい場合は前記第2の再構成方法を選択する再構成方法選択手段とを有し、
前記再構成処理手段は、前記再構成方法選択手段により前記第1の再構成方法が選択された場合には前記繋ぎ合わせ処理手段により再構成した画像を出力し、前記再構成方法選択手段により前記第2の再構成方法が選択された場合には前記画素再配置処理手段により再構成した画像を出力することを特徴とする画像入力装置。
An imaging optical system for imaging a subject inside a living body as a compound eye image through a lens array in which a plurality of single lenses are arrayed; and
Parallax detection means for detecting parallax between single-eye images in a compound eye image captured by the imaging optical system;
Using the parallax detected by the parallax detection means, a single image is obtained from the plurality of single-eye images in the compound-eye image by the first reconstruction method for joining the plurality of single-eye images in the compound-eye image. The compound eye is reconstructed by using a second reconstruction method for rearranging pixel luminances of a plurality of single-eye images in the compound eye image using the disparity stitching processing means and the disparity detected by the disparity detecting means. Reconstruction processing means including pixel rearrangement processing means for reconstructing a single image from a plurality of single-eye images in the image;
As a reconstruction method in the reconstruction processing unit , the first reconstruction method is selected when the parallax detected by the parallax detection unit is larger than a predetermined threshold, and when the parallax is smaller than a predetermined threshold, and a reconstruction method selecting means for selecting a second reconstruction process,
The reconstruction processing means outputs the image reconstructed by the splicing processing means when the first reconstruction method is selected by the reconstruction method selection means, and the reconstruction method selection means outputs the image An image input apparatus that outputs an image reconstructed by the pixel rearrangement processing means when the second reconstruction method is selected.
前記再構成処理手段は、前記繋ぎ合わせ処理手段又は前記画素再配置処理手段により再構成された画像のサイズを正規化するサイズ正規化処理手段を含み、該サイズ正規化処理手段により正規化後の画像を出力することを特徴とする請求項1記載の画像入力装置。The reconstruction processing means includes a size normalization processing means for normalizing the size of the image reconstructed by the splicing processing means or the pixel rearrangement processing means, and after the normalization by the size normalization processing means The image input apparatus according to claim 1, wherein an image is output. 前記撮像光学系は、前記生体を照明する光源を含むことを特徴とする請求項1または2記載の画像入力装置。The image input apparatus according to claim 1, wherein the imaging optical system includes a light source that illuminates the living body. 請求項1乃至3のいずれか1項記載の画像入力装置と、An image input device according to any one of claims 1 to 3,
前記画像入力装置の再構成処理手段より出力された画像又はその特徴と、登録情報記憶手段に登録者情報として記憶されている画像又はその特徴とのマッチング演算により個人認証を行う認証処理手段とを有することを特徴とする個人認証装置。Authentication processing means for performing personal authentication by a matching operation between the image output from the reconstruction processing means of the image input device or the feature thereof and the image stored as registrant information in the registration information storage means or the feature thereof. A personal authentication device comprising:
前記再構成処理手段より出力された画像又はその特徴を登録者情報として前記登録情報記憶手段に記憶させる手段を有することを特徴とする請求項4記載の個人認証装置。5. The personal authentication apparatus according to claim 4, further comprising means for storing the image output from the reconstruction processing means or a feature thereof as registrant information in the registration information storage means.
JP2007060530A 2007-03-09 2007-03-09 Image input device and personal authentication device Expired - Fee Related JP4803676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007060530A JP4803676B2 (en) 2007-03-09 2007-03-09 Image input device and personal authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007060530A JP4803676B2 (en) 2007-03-09 2007-03-09 Image input device and personal authentication device

Publications (2)

Publication Number Publication Date
JP2008225671A JP2008225671A (en) 2008-09-25
JP4803676B2 true JP4803676B2 (en) 2011-10-26

Family

ID=39844247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007060530A Expired - Fee Related JP4803676B2 (en) 2007-03-09 2007-03-09 Image input device and personal authentication device

Country Status (1)

Country Link
JP (1) JP4803676B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4640415B2 (en) * 2008-01-18 2011-03-02 ソニー株式会社 Biometric authentication device
CN107944366B (en) * 2017-11-16 2020-04-17 山东财经大学 Finger vein identification method and device based on attribute learning

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155839A (en) * 1998-11-18 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> Marked area image extraction method, device therefor and recoding medium recorded with marked area image extracting program
JP3699921B2 (en) * 2001-11-02 2005-09-28 独立行政法人科学技術振興機構 Image reconstruction method and image reconstruction apparatus
JP2004086784A (en) * 2002-08-29 2004-03-18 Hitachi Ltd Method and device for connecting image
DE602004031564D1 (en) * 2004-10-04 2011-04-07 Hitachi Ltd PERSONAL IDENTIFICATION EQUIPMENT
JP2006135823A (en) * 2004-11-09 2006-05-25 Canon Inc Image processor, imaging apparatus and image processing program
JP4826152B2 (en) * 2005-06-23 2011-11-30 株式会社ニコン Image composition method and imaging apparatus

Also Published As

Publication number Publication date
JP2008225671A (en) 2008-09-25

Similar Documents

Publication Publication Date Title
JP4864632B2 (en) Image input device, image input method, personal authentication device, and electronic device
US10340280B2 (en) Method and system for object reconstruction
CN113892254B (en) Image sensor under the display
JP5293950B2 (en) Personal authentication device and electronic device
JP6260006B2 (en) IMAGING DEVICE, IMAGING SYSTEM USING THE SAME, ELECTRONIC MIRROR SYSTEM, AND RANGING DEVICE
JP5067885B2 (en) Image input device and personal authentication device
KR101701559B1 (en) Image correction apparatus, image correction method, and biometric authentication apparatus
JP2008212311A (en) Biometrics device
US11837029B2 (en) Biometric authentication device and biometric authentication method
CN112232163B (en) Fingerprint acquisition method and device, fingerprint comparison method and device, and equipment
JP4802121B2 (en) Biometric authentication device and authentication method using biometric authentication device
CN112232155A (en) Non-contact fingerprint identification method and device, terminal and storage medium
JP2008181220A (en) Personal authentication apparatus and personal authentication method
CN112232159A (en) Fingerprint identification method, device, terminal and storage medium
WO2019078338A1 (en) Electronic apparatus
JP4803676B2 (en) Image input device and personal authentication device
JP2006288872A (en) Blood vessel image input apparatus, blood vessel image constituting method, and personal authentication system using the apparatus and method
JP5056662B2 (en) Subcutaneous pattern acquisition device, subcutaneous pattern acquisition method, and structure template
JP4953292B2 (en) Image input device, personal authentication device, and electronic device
JP4954819B2 (en) Blood vessel image input device and blood vessel image reading device
CN106483338A (en) Image output device, picture transmitter device, image received device, image output method
JP2009223526A (en) Image input device and personal identification device
JP5299632B2 (en) Personal authentication device, program and recording medium
US20230410548A1 (en) Imaging apparatus and imaging method
JP2009098815A (en) Image input device, authentication device, and electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110804

R151 Written notification of patent or utility model registration

Ref document number: 4803676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees