JP2012155405A - Biological image photography system, biological image acquisition method, and program - Google Patents
Biological image photography system, biological image acquisition method, and program Download PDFInfo
- Publication number
- JP2012155405A JP2012155405A JP2011012084A JP2011012084A JP2012155405A JP 2012155405 A JP2012155405 A JP 2012155405A JP 2011012084 A JP2011012084 A JP 2011012084A JP 2011012084 A JP2011012084 A JP 2011012084A JP 2012155405 A JP2012155405 A JP 2012155405A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- unit
- living body
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
Abstract
【課題】認証生体情報としての適性が高い画像に映っている生体部位の姿勢を精度良く検出できる画像の取得を可能にする。
【解決手段】第一算出部12は、撮影部11が取得した生体部位の画像に基づき、当該画像についての、生体認証における認証生体情報としての適性を表す指標を算出する。選択部13は、撮影部11が次に取得する次画像の撮影時における撮影環境を、次画像よりも前に撮影部11が取得していた生体部位の画像についての当該指標に基づき、第一環境と第二環境との間で選択して切り替える。第一環境とは、認証生体情報として用いる画像の取得に使用する環境であり、第二環境とは、生体部位の姿勢の情報の検出に用いる画像の取得に使用する環境である。出力部14は、この選択の結果を表している情報と、当該選択の結果に係る撮影環境の下で撮影部11が取得した次画像とを対応付けて出力する。
【選択図】図3An object of the present invention is to obtain an image capable of accurately detecting the posture of a living body part reflected in an image having high suitability as authentication biometric information.
A first calculation unit calculates an index representing suitability as authentication biometric information in biometric authentication for the image based on an image of a biological part acquired by an imaging unit. The selection unit 13 determines the imaging environment when the next image acquired by the imaging unit 11 next is acquired based on the index of the biological part image acquired by the imaging unit 11 before the next image. Select and switch between environment and second environment. The first environment is an environment used for acquiring an image used as authentication biometric information, and the second environment is an environment used for acquiring an image used for detecting posture information of a living body part. The output unit 14 outputs information indicating the result of the selection in association with the next image acquired by the imaging unit 11 under the imaging environment related to the selection result.
[Selection] Figure 3
Description
本明細書で議論する技術分野は、手の指紋、掌の静脈、顔などといった人の身体特徴を利用して個人認証を行う生体認証技術に関するものである。 The technical field discussed in this specification relates to a biometric authentication technique for performing personal authentication using human body characteristics such as fingerprints of hands, palm veins, and faces.
近代社会では様々なシチュエーションにおいて本人確認が必要とされる。この本人確認を精度良く行う手法のひとつとして、指紋・静脈・顔などといった人体の各部の特徴を利用して個人認証を行う生体認証技術が、近年広まってきている。例えば、許可された人しか入ることのできない制限エリアへの入退室の可否の判定、パソコンへのログイン判定、オンライン取引などといった様々なサービスへのアクセスの可否の判定などのために、生体認証が利用されている。 In modern society, identity verification is required in various situations. In recent years, biometric authentication technology that performs personal authentication by using the characteristics of each part of the human body such as fingerprints, veins, faces, etc. has become widespread as one method for accurately performing identity verification. For example, biometric authentication is used to determine whether to enter or leave a restricted area where only authorized people can enter, whether to log in to a personal computer, whether to access various services such as online transactions, etc. It's being used.
このような生体認証を実施するには、まず、利用者の生体情報として、例えば指紋・静脈・顔などの画像を予め取得して、その利用者の登録生体情報として記録媒体に記録しておく。その後、上記のようなサービスを利用するための本人確認が必要になった際に、利用者の生体情報を登録時と同じように再び取得する。そして、このときに取得した生体情報(認証生体情報)と、記録媒体に記録しておいた前述の登録生体情報との照合を行い、その両者の類似度の高低を判別する。ここで、この類似度が所定の閾値よりも高ければ、本人であるとの認証結果を得る。 In order to perform such biometric authentication, first, as a user's biometric information, for example, an image such as a fingerprint, a vein, or a face is acquired in advance and recorded as a registered biometric information of the user on a recording medium. . Thereafter, when the identity verification for using the service as described above becomes necessary, the biometric information of the user is acquired again in the same manner as at the time of registration. Then, the biometric information (authenticated biometric information) acquired at this time is compared with the registered biometric information recorded on the recording medium, and the level of similarity between the two is determined. Here, if the similarity is higher than a predetermined threshold, an authentication result indicating that the person is the person is obtained.
このような生体認証を高い精度で行うためには、認証に使用する生体情報である生体部位の画像(生体画像)の取得を、登録時と照合時とで同じ位置・同じ姿勢で行うことが好ましい。しかしながら、このような撮影ができない場合が実際には多く、このことが認証精度を低下させる要因のひとつとなっている。 In order to perform such biometric authentication with high accuracy, an image of a biological part (biological image), which is biometric information used for authentication, can be acquired at the same position and posture during registration and verification. preferable. However, there are actually many cases where such photographing cannot be performed, and this is one of the factors that reduce the authentication accuracy.
これは、例えば、生体画像を取得するセンサ(例えば生体部位を撮影するカメラ)に対し、毎回全く同じ位置・同じ姿勢で生体部位をかざすことは通常極めて困難であるためである。また、多くの場合において、利用者が登録時にどのような位置・姿勢で生体部位を撮影したかを忘れてしまうことも、このような撮影を困難にしている。更には、人の身体は、その部位によっては姿勢や形状の自由度が大きいために、同じ部位を撮影しても、得られる生体画像は姿勢や形状がその撮影の度に微妙に異なるものとなってしまう。例えば、掌のような生体部位は姿勢や形状の自由度が極めて高い生体部位であるため、カメラでの撮影により得られる画像における掌の形状が微妙に異なるものとなってしまう。 This is because, for example, it is usually extremely difficult to hold a living body part at the same position and the same posture with respect to a sensor that acquires a biological image (for example, a camera that captures a living body part). Also, in many cases, it is difficult to take such an image because the user forgets at which position / posture the image of the living body part was imaged at the time of registration. Furthermore, since the human body has a large degree of freedom in posture and shape depending on the part, even if the same part is imaged, the obtained biological image is slightly different in posture and shape each time the image is taken. turn into. For example, a biological part such as a palm is a biological part having a very high degree of freedom in posture and shape, so that the shape of the palm in an image obtained by photographing with a camera is slightly different.
このような登録時と照合時とでの位置・姿勢・形状の違いに起因する認証精度の低下を避けるための手法が幾つか知られている。そのひとつに、生体部位を同じ位置・姿勢・形状にしっかりと固定して撮影するというものがある。しかしながら、この手法は利用者に多大な負担をかけることになり、一般には好まれるものではない。また、このような固定を行うために、かなりの時間を要する場合もある。 Several methods are known for avoiding a decrease in authentication accuracy due to such differences in position, posture, and shape between registration and verification. One of them is to shoot with the body part firmly fixed at the same position, posture and shape. However, this method places a great burden on the user and is not generally preferred. In addition, it may take a considerable time to perform such fixing.
また、別の手法として、様々に異なる位置・姿勢・形状で同一利用者の生体部位を複数回撮影して取得した複数枚の生体画像を認証生体情報とし、登録生体情報である1枚の登録画像とこの複数枚の生体画像とで画像の照合を行うというものがある。このような複数枚の生体画像を認証時に取得するために、前述のような生体部位の固定は行わずに、センサ(カメラ)に対して利用者に自由に提示してもらった生体部位を取得するという手法がある。しかしながら、この手法では、取得される生体部位のセンサに対する相対的な位置や姿勢が不揃いになってしまう。そこで、この不揃いを解消する技術として、センサに対する生体部位の距離や姿勢を検出し、その検出結果に応じて、取得した生体画像の選択や補正を行うという技術が知られている。但し、生体部位の大きさは人によって千差万別であるため、画像に映った生体部位の像の面積を、センサに対する生体部位の距離の情報として用いることはできない。そこで、この技術においては、スポット光を生体部位に照射したときの当該スポット光の生体部位上での映り方に基づいて、生体部位のセンサに対する距離や角度等の情報を得ることで、生体部位の距離や姿勢の検出を行っている。 As another method, a plurality of biometric images acquired by imaging a biometric part of the same user at various different positions, postures, and shapes are used as authentication biometric information, and one registered biometric information is registered. There is one in which an image is collated with the plurality of biological images. In order to acquire such a plurality of living body images at the time of authentication, the living body part that is freely presented to the sensor (camera) by the user is acquired without fixing the living body part as described above. There is a technique to do. However, with this method, the relative positions and postures of the acquired biological parts with respect to the sensors become uneven. Therefore, as a technique for eliminating this irregularity, a technique is known in which the distance and posture of a living body part with respect to a sensor are detected, and the acquired biological image is selected and corrected according to the detection result. However, since the size of the living body part varies from person to person, the area of the image of the living body part shown in the image cannot be used as information on the distance of the living body part with respect to the sensor. Therefore, in this technique, based on how the spot light is projected on the living body part when the spot light is irradiated to the living body part, information such as the distance and angle of the living body part with respect to the sensor is obtained. The distance and posture are detected.
また、この他の背景技術として、顔を撮影して得た一連の顔画像から、顔の領域の面積や明るさ等に基づき、最もバランスの取れた正面画像を選択するという技術が知られている。 As another background technique, a technique is known in which a most balanced front image is selected from a series of face images obtained by photographing a face based on the area and brightness of the face region. Yes.
また、連続的に顔を撮影して得た画像から、目や口などの顔部品の位置の変化量が所定値以上のものを、ベストショット画像として抽出するという技術が知られている。 In addition, a technique is known in which an image obtained by continuously photographing a face is extracted as a best shot image when the amount of change in the position of face parts such as eyes and mouth is a predetermined value or more.
前述した生体部位の距離や姿勢を検出する技術で使用されるスポット光は、認証に用いる生体画像の取得のための撮影時における生体部位の照明には不適切である。これは、このようなスポット光で照明を行って生体部位を撮影した場合には、得られる生体画像に含まれている、生体認証に必要な情報を不鮮明にしてしまう等の理由によるものである。このため、この技術を用いて行う生体部位の距離や姿勢の検出は、様々な認証用の生体画像を得るためのカメラでの連写撮影の合間に、生体部位への照明を、生体画像の取得用のものからスポット光へと切り替えて行う必要がある。 The spot light used in the technology for detecting the distance and posture of the living body part described above is inappropriate for illumination of the living body part at the time of photographing for obtaining a biological image used for authentication. This is because, when a living body part is imaged by illuminating with such spot light, information necessary for biometric authentication included in the obtained biometric image is blurred. . For this reason, the detection of the distance and posture of the living body part performed using this technology is performed by illuminating the living body part during the continuous shooting with the camera for obtaining various biological images for authentication. It is necessary to switch from acquisition to spot light.
図1は、生体部位である掌をカメラで撮影して得られた複数枚の画像の第一の例である。この第一の例は、認証用の生体画像のための撮影と、生体部位の距離や姿勢の検出のための撮影とを交互に行った場合の例である。 FIG. 1 is a first example of a plurality of images obtained by photographing a palm, which is a living body part, with a camera. This first example is an example in which imaging for a biometric image for authentication and imaging for detection of a distance and posture of a biological body are alternately performed.
この第一の例として表されている画像Aから画像Mまでの計13枚の画像のうちの幾つかの画像上に描かれている十字形状の印は、生体部位の距離や姿勢の検出用のスポット光が掌の像に映っていることを表現している。つまり、この第一の例において、当該印が描かれている画像B、D、F、H、J、及びLの計6枚の画像は、生体部位の距離や姿勢の検出のために用いられる画像である。従って、残りの画像A、C、E、G、I、K、及びMの計7枚の画像が、生体画像の取得用の照明を用いて撮影された生体画像である。 The cross-shaped marks drawn on some of the 13 images from image A to image M shown as the first example are for detecting the distance and posture of the living body part. It expresses that the spotlight is reflected in the palm image. That is, in this first example, a total of six images B, D, F, H, J, and L on which the mark is drawn are used for detecting the distance and posture of the living body part. It is an image. Accordingly, the remaining seven images A, C, E, G, I, K, and M are biological images taken using illumination for acquiring biological images.
但し、この7枚の画像のうち、画像A及び画像Mは、撮影時の掌のカメラからの距離が遠過ぎたために掌の像の大きさが極度に小さくなってしまっており、認証生体情報としては適さない。一方、画像Gは、撮影時の掌のカメラからの距離が今度は近過ぎたために掌の像が画像から過度にはみ出してしまっており、これも認証生体情報としては適さない。従って、この第一の例では、認証生体情報としての適性を有している画像は、図1において破線の楕円で囲まれている、画像C、E、I、及びKの僅か4枚しか得られなかったことになる。 However, among these seven images, the image A and the image M are extremely small in the size of the palm image because the distance from the palm camera at the time of shooting is too far, and the authentication biometric information Not suitable for. On the other hand, the image G is too close to the palm camera at the time of photographing, and the palm image protrudes excessively from the image, which is also not suitable as authentication biometric information. Therefore, in this first example, only four images C, E, I, and K, which are surrounded by a dashed ellipse in FIG. It was not possible.
このように、生体認証における認証生体情報としての使用が可能である画像の枚数が減ってしまうことは、本人確認時においてカメラに掌をかざす一連の動作において生体認証処理を実施できる回数が減ることを意味する。 In this way, the reduction in the number of images that can be used as authentication biometric information in biometric authentication means that the number of times that biometric authentication processing can be performed in a series of operations of holding the palm over the camera at the time of identification is reduced. Means.
本人確認時に提示された生体部位が登録時と同一のものであっても、生体部位のカメラからの距離や姿勢によって、得られる生体情報は微妙に異なってしまうため、生体認証では、一回の認証処理では正しく本人と確認できない本人拒否率が多少なりとも存在する。このため、生体認証では、一般的に、複数の認証生体情報を用いて生体認証処理を何度か繰り返す(リトライ)ことによって、総合的な本人拒否率を減らしている。従って、認証生体情報としての使用が可能である画像の枚数が前述のように減ってしまうと、それだけ総合的な本人拒否率も増大してしまう虞がある。 Even if the biometric part presented at the time of identity verification is the same as that at the time of registration, the biometric information obtained differs slightly depending on the distance and orientation of the biometric part from the camera. There is some identity rejection rate that cannot be correctly verified by the authentication process. For this reason, in biometric authentication, generally, the biometric authentication process is repeated several times using a plurality of pieces of authenticated biometric information (retry), thereby reducing the overall identity rejection rate. Therefore, if the number of images that can be used as authentication biometric information decreases as described above, the overall rejection rate may increase accordingly.
そこで、例えば、生体部位の距離や姿勢の検出のための撮影の頻度を減らし、この減らした分だけ認証用の生体画像のための撮影の頻度を高くすることを考える。 Therefore, for example, consider reducing the frequency of imaging for detecting the distance and posture of the living body part and increasing the frequency of imaging for the biometric image for authentication by the reduced amount.
図2は、生体部位である掌をカメラで撮影して得られた複数枚の画像の第二の例である。この第二の例は、認証用の生体画像のための撮影を4回行う毎に、生体部位の距離や姿勢の検出のための撮影を1回行うという頻度とした場合の例である。 FIG. 2 is a second example of a plurality of images obtained by photographing a palm, which is a living body part, with a camera. This second example is an example of a case where imaging for detecting the distance and posture of a living body is performed once every time imaging for a biometric image for authentication is performed four times.
この第二の例では、前述した第一の例と同様の十字形状の印が描かれている画像D及びIの計2枚の画像が、生体部位の距離や姿勢の検出のために用いられる画像である。従って、残りの画像A、B、C、E、F、G、H、J、K、L、及びMの計11枚の画像が、生体画像の取得用の照明を用いて撮影された生体画像である。但し、前述した第一の例と同様に、画像A、G、及びMの計3枚の画像は、認証生体情報としては適さない。従って、この第二の例では、図2において破線の楕円で囲まれている、画像B、C、E、F、H、J、K、及びLの計8枚の画像が、認証生体情報としての適性を有している画像となる。 In this second example, a total of two images D and I on which a cross-shaped mark similar to the first example described above is drawn are used for detecting the distance and posture of the living body part. It is an image. Accordingly, a total of 11 images of the remaining images A, B, C, E, F, G, H, J, K, L, and M are captured using the illumination for acquiring the biological image. It is. However, as in the first example described above, a total of three images A, G, and M are not suitable as authentication biometric information. Therefore, in this second example, a total of eight images B, C, E, F, H, J, K, and L surrounded by a broken-line ellipse in FIG. It becomes an image having the aptitude.
このように、第二の例では、認証生体情報としての適性を有している画像として、第一の例よりも多くの画像を得ることができる。しかしながら、この第二の例では、生体部位の距離や姿勢の検出のために用いられる画像は、画像D及びIの計2枚の画像のみである。このため、特に、画像D及びIについての撮影時から離れた時点での撮影により得た画像に映っている掌のカメラに対する距離や姿勢は、画像D及びIから検出したものからかなり違ったものとなってしまっていると考えられる。 Thus, in the second example, more images than the first example can be obtained as images having suitability as authentication biometric information. However, in this second example, the images used for detection of the distance and posture of the living body part are only the two images D and I in total. For this reason, in particular, the distance and posture of the palm camera shown in the image obtained by shooting at a time away from the time of shooting for the images D and I are considerably different from those detected from the images D and I. It is thought that it has become.
このように、生体部位の距離や姿勢の検出のための撮影の頻度を減らすことは、認証生体情報とする画像についての撮影時の生体部位の距離や姿勢の情報を得ることに対しては不都合となる。このような精度の低い情報に基づいて生体画像の補正を行えば、生体認証の精度を却って低下させてしまうことにもなりかねない。 Thus, reducing the frequency of imaging for detecting the distance and posture of the living body part is inconvenient for obtaining information on the distance and posture of the living body part at the time of shooting for the image as the authentication biometric information. It becomes. If the biometric image is corrected based on such low-accuracy information, the accuracy of biometric authentication may be reduced.
上述した問題に鑑み、本明細書で後述する生体画像撮影システムは、認証生体情報としての適性が高い画像に映っている生体部位の姿勢を精度良く検出できる画像の取得を可能にする。 In view of the above-described problems, the biometric image capturing system described later in this specification makes it possible to acquire an image that can accurately detect the posture of a living body part reflected in an image having high suitability as authentication biometric information.
本明細書で後述する生体画像撮影システムのひとつに、撮影部と、第一算出部と、選択部と、出力部とを備えるというものがある。ここで、撮影部は、生体部位を所定の時間間隔で順次撮影して該生体部位の画像を取得する。第一算出部は、撮影部が取得した前述の画像に基づき、当該画像についての、生体認証における認証生体情報としての適性を表す指標を算出する。選択部は、撮影部が次に取得する画像である次画像の撮影時における撮影の環境を第一環境と第二環境との間で選択し、当該撮影の環境を当該選択された環境に切り替える。ここで、第一環境とは、生体認証における認証生体情報として用いる画像の取得に使用する環境であり、第二環境とは、生体部位の姿勢の情報である姿勢情報の検出に用いる画像の取得に使用する環境である。選択部は、この撮影の環境の選択を、次画像よりも前に撮影部が生体部位を撮影して取得していた画像について第一算出部が算出した前述の指標に基づいて行う。出力部は、選択部による上述の選択の結果を表している撮影環境選択情報と、当該選択の結果に係る撮影環境の下で撮影部が取得した上述の次画像とを対応付けて出力する。 One of the biological image photographing systems described later in this specification includes an imaging unit, a first calculation unit, a selection unit, and an output unit. Here, the imaging unit acquires images of the biological part by sequentially imaging the biological part at a predetermined time interval. The first calculation unit calculates an index representing suitability as authentication biometric information in biometric authentication for the image based on the image acquired by the imaging unit. The selection unit selects a shooting environment between the first environment and the second environment at the time of shooting the next image, which is an image acquired next by the shooting unit, and switches the shooting environment to the selected environment. . Here, the first environment is an environment used for acquiring an image used as authentication biometric information in biometric authentication, and the second environment is an acquisition of an image used for detecting posture information that is information on the posture of a biological part. It is the environment used for. The selection unit selects the imaging environment based on the above-described index calculated by the first calculation unit with respect to an image acquired by the imaging unit imaging the living body part before the next image. The output unit associates and outputs the shooting environment selection information indicating the result of the selection by the selection unit and the next image acquired by the shooting unit under the shooting environment related to the selection result.
また、本明細書で後述する生体画像取得方法のひとつは、まず、生体部位を所定の時間間隔で順次撮影して当該生体部位の画像を取得する撮影装置が取得した該画像に基づき、該画像についての、生体認証における認証生体情報としての適性を表す指標を算出する。次に、この撮影装置が次に取得する画像である次画像の撮影時における撮影の環境を、当該次画像よりも前に撮影装置が生体部位を撮影して取得していた画像についての指標に基づき、前述の第一環境と第二環境との間で選択する。そして、次に、上述の撮影の環境を、この選択された環境に切り替える。そして、この選択の結果を表している撮影環境選択情報と、当該選択結果に係る撮影環境の下で撮影装置が取得した前述の次画像とを対応付けて出力する。 In addition, one of the biological image acquisition methods described later in this specification is based on the image acquired by an imaging apparatus that first acquires images of the biological part by sequentially imaging the biological part at a predetermined time interval. An index indicating the suitability as authentication biometric information in biometric authentication is calculated. Next, the shooting environment at the time of shooting the next image, which is the next image acquired by the imaging device, is used as an index for the image acquired by imaging the living body part before the next image. Based on the first environment and the second environment described above. Next, the above-described shooting environment is switched to the selected environment. Then, the shooting environment selection information representing the selection result and the above-described next image acquired by the shooting apparatus under the shooting environment related to the selection result are output in association with each other.
また、本明細書で後述するプログラムのひとつは、以下の処理をコンピュータに行わせる。この処理は、まず、生体部位を所定の時間間隔で順次撮影して当該生体部位の画像を取得する撮影装置が取得した該画像に基づき、該画像についての、生体認証における認証生体情報としての適性を表す指標を算出する。次に、この撮影装置が次に取得する画像である次画像の撮影時における撮影の環境を、当該次画像よりも前に撮影装置が生体部位を撮影して取得していた画像についての指標に基づき、前述の第一環境と第二環境との間で選択する。そして、次に、上述の撮影の環境を、この選択された環境に切り替える。そして、この選択の結果を表している撮影環境選択情報と、当該選択結果に係る撮影環境の下で撮影装置が取得した前述の次画像とを対応付けて出力する。 One of the programs described later in this specification causes a computer to perform the following processing. In this process, first, based on the images acquired by the imaging device that sequentially captures the biological parts at predetermined time intervals and acquires the images of the biological parts, the suitability of the images as the authentication biometric information in the biometric authentication. An index representing is calculated. Next, the shooting environment at the time of shooting the next image, which is the next image acquired by the imaging device, is used as an index for the image acquired by imaging the living body part before the next image. Based on the first environment and the second environment described above. Next, the above-described shooting environment is switched to the selected environment. Then, the shooting environment selection information representing the selection result and the above-described next image acquired by the shooting apparatus under the shooting environment related to the selection result are output in association with each other.
本明細書で後述する生体画像撮影システムは、認証生体情報としての適性が高い画像に映っている生体部位の姿勢を精度良く検出できる画像を取得できるという効果を奏する。 The biometric image capturing system described later in this specification has an effect of acquiring an image that can accurately detect the posture of a living body part reflected in an image having high suitability as authentication biometric information.
まず図3について説明する。図3は、生体画像撮影システムの一実施例の機能ブロック図である。この生体画像撮影システム10は、被認証者の生体部位の撮影を行って、生体認証における認証生体情報として使用する生体画像を取得するものである。 First, FIG. 3 will be described. FIG. 3 is a functional block diagram of an embodiment of the biological image photographing system. The biometric image capturing system 10 captures a biometric part of a person to be authenticated and acquires a biometric image used as authentication biometric information in biometric authentication.
実線を用いて図3に図解したように、この生体画像撮影システム10は、撮影部11、第一算出部12、選択部13、及び出力部14を備えている。なお、破線を用いて図3に図解したように、この生体画像撮影システム10が、更に検出部15、推定部16、及び第二算出部17を備えるようにしてもよい。 As illustrated in FIG. 3 using a solid line, the biological image photographing system 10 includes a photographing unit 11, a first calculating unit 12, a selecting unit 13, and an output unit 14. In addition, as illustrated in FIG. 3 using a broken line, the biological image capturing system 10 may further include a detection unit 15, an estimation unit 16, and a second calculation unit 17.
撮影部11は、生体部位を所定の時間間隔で順次撮影して当該生体部位の画像を取得する。
第一算出部12は、撮影部11が取得した前述の画像に基づき、当該画像についての、生体認証における認証生体情報としての適性を表す指標を算出する。
The imaging unit 11 sequentially captures a biological part at a predetermined time interval and acquires an image of the biological part.
The first calculation unit 12 calculates an index representing suitability as authentication biometric information in biometric authentication for the image based on the above-described image acquired by the imaging unit 11.
選択部13は、撮影部11が次に取得する画像である次画像の撮影時における撮影の環境を第一環境と第二環境との間で選択し、当該撮影の環境を当該選択された環境に切り替える。ここで、第一環境とは、生体認証における認証生体情報として用いる画像の取得に使用する環境であり、第二環境とは、生体部位の姿勢の情報である姿勢情報の検出に用いる画像の取得に使用する環境である。選択部13は、この撮影の環境の選択を、次画像よりも前に撮影部11が生体部位を撮影して取得していた画像について第一算出部12が算出した前述の指標に基づいて行う。 The selection unit 13 selects a shooting environment between the first environment and the second environment at the time of shooting the next image, which is an image that the shooting unit 11 acquires next, and selects the shooting environment as the selected environment. Switch to. Here, the first environment is an environment used for acquiring an image used as authentication biometric information in biometric authentication, and the second environment is an acquisition of an image used for detecting posture information that is information on the posture of a biological part. It is the environment used for. The selection unit 13 selects the imaging environment based on the above-described index calculated by the first calculation unit 12 for the image acquired by the imaging unit 11 by imaging the living body part before the next image. .
出力部14は、選択部13による上述の選択の結果を表している撮影環境選択情報と、当該選択の結果に係る撮影環境の下で撮影部11が取得した上述の次画像とを対応付けて出力する。 The output unit 14 associates the shooting environment selection information indicating the result of the selection by the selection unit 13 with the above-described next image acquired by the shooting unit 11 under the shooting environment according to the selection result. Output.
このように構成されている生体画像撮影システム10では、撮影部11が取得した画像が、認証生体情報としての適性を有している場合には、当該画像の次に撮影部11が取得する次画像を、姿勢情報の検出用の画像の取得のための撮影環境(第二環境)で撮影する。従って、この次画像から検出される姿勢情報は、当該次画像の取得時の直前に撮影部11が取得していた画像(すなわち、認証生体情報としての適性を有している画像)についての撮影時の生体部位の姿勢を精度よく表しているといえる。 In the biometric image capturing system 10 configured as described above, when an image acquired by the image capturing unit 11 has suitability as authentication biometric information, the image capturing unit 11 acquires the next image after the image. The image is shot in a shooting environment (second environment) for acquiring an image for detecting posture information. Therefore, the posture information detected from the next image is obtained by photographing an image acquired by the photographing unit 11 immediately before obtaining the next image (that is, an image having suitability as authentication biometric information). It can be said that the posture of the living body part is accurately represented.
なお、第一算出部12は、前述の指標として、例えば、撮影部11が取得した画像に映っている生体部位の像の領域の面積値を算出するようにしてもよい。この場合には、選択部13は、前述の次画像についての撮影よりも前に撮影部11が生体部位を撮影して取得していた画像についてのこの面積値が所定の複数の条件のうちの少なくとも1つに合致したときには、第二環境を撮影の環境として選択するようにする。また、選択部13は、この所定の複数の条件のいずれにも合致しないときには、第一環境を撮影の環境として選択するようにする。 Note that the first calculation unit 12 may calculate, for example, the area value of the region of the image of the biological part shown in the image acquired by the imaging unit 11 as the above-described index. In this case, the selection unit 13 determines that the area value of the image acquired by the imaging unit 11 by imaging the biological part before imaging of the next image is a predetermined number of conditions. When at least one of them is met, the second environment is selected as the shooting environment. The selection unit 13 selects the first environment as a shooting environment when none of the predetermined plurality of conditions is met.
ここで、上述の所定の複数の条件のうちの1つは、例えば、以下の2条件が同時に成立する場合としてもよい。この2条件のうちの1つは、前画像についての前述の面積値が、生体認証における認証生体情報としての使用に適する下限の広さとして設定される所定の第一閾値よりも広いことを表していることである。なお、前画像とは、次画像についての撮影の直前に撮影部11が記生体部位を撮影して取得していた画像である。そして、この2条件のうちの別の1つは、当該前画像についての撮影の直前に撮影部11が生体部位を撮影して取得していた画像についての面積値が、当該第一閾値よりも狭いことを表していることである。 Here, one of the predetermined plurality of conditions described above may be, for example, a case where the following two conditions are simultaneously satisfied. One of the two conditions represents that the aforementioned area value for the previous image is wider than a predetermined first threshold value set as a lower limit width suitable for use as authentication biometric information in biometric authentication. It is that. Note that the previous image is an image acquired by the imaging unit 11 by imaging the living body part immediately before imaging the next image. Another one of the two conditions is that the area value of the image acquired by the imaging unit 11 by imaging the biological part immediately before imaging the previous image is more than the first threshold value. It means that it is narrow.
また、前述の所定の複数の条件のうちの別の1つは、例えば、以下の2条件が同時に成立する場合としてもよい。この2条件のうちの1つは、上述の前画像についての前述の面積値が、生体認証における認証生体情報としての使用に最適の広さとして設定される所定の第二閾値よりも広いことを表していることである。そして、この2条件のうちの別の1つは、当該前画像についての撮影の直前に撮影部11が生体部位を撮影して取得していた画像についての前述の面積値が、当該第二閾値よりも狭いことを表していることである。 Further, another one of the predetermined plurality of conditions may be, for example, a case where the following two conditions are simultaneously satisfied. One of these two conditions is that the above-mentioned area value for the above-mentioned previous image is wider than a predetermined second threshold value set as an optimum width for use as authentication biometric information in biometric authentication. It is to represent. Another one of the two conditions is that the area value described above for the image acquired by the imaging unit 11 imaging the living body part immediately before imaging the previous image is the second threshold value. It means that it is narrower than that.
また、前述の所定の複数の条件のうちの更なる別の1つは、例えば、以下の2条件が同時に成立する場合としてもよい。この2条件のうちの1つは、前述の前画像についての前述の面積値が、生体認証における認証生体情報としての使用に適する下限の広さとして設定される所定の第三閾値よりも狭いことを表していることである。そして、この2条件のうちの別の1つは、当該前画像についての撮影の直前に撮影部11が生体部位を撮影して取得していた画像についての前述の面積値が、当該第三閾値よりも広いことを表しているという条件である。 Further, another one of the predetermined conditions described above may be, for example, a case where the following two conditions are simultaneously satisfied. One of these two conditions is that the above-mentioned area value for the above-mentioned previous image is narrower than a predetermined third threshold value set as a lower limit width suitable for use as authentication biometric information in biometric authentication. It represents that. Another one of the two conditions is that the area value described above for the image acquired by the imaging unit 11 by imaging the biological part immediately before imaging the previous image is the third threshold value. It is a condition that represents a wider area.
また、選択部13は、生体部位を照らす照明を、前述の選択の結果に応じて第一照明と第二照明との間で切り替えることによって、前述の撮影の環境を前記第一環境と前記第二環境との間で切り替えるようにしてもよい。ここで、第一照明とは、認証生体情報として用いる画像の撮影に使用する照明であり、第二照明とは、姿勢情報の検出に用いる画像の撮影に使用する照明である。 In addition, the selection unit 13 switches the illumination for illuminating the living body part between the first illumination and the second illumination according to the result of the selection, thereby changing the environment for the imaging described above to the first environment and the first environment. You may make it switch between two environments. Here, the first illumination is illumination used for photographing an image used as authentication biometric information, and the second illumination is illumination used for photographing an image used for detecting posture information.
検出部15は、前述の第二環境の下で撮影部11が生体部位を撮影して取得した画像を用いて、当該生体部位についての姿勢情報を検出する。
推定部16は、前述の第一環境の下で撮影部11が前述の次画像についての撮影を行った時点における姿勢情報の推定を行う。推定部16は、この推定を、当該時点の前及び後においての第二環境の下で撮影部11が生体部位を撮影して取得した画像を用いて検出部15が検出した姿勢情報に基づいて行う。
The detection unit 15 detects posture information about the biological part using the image acquired by the imaging unit 11 by imaging the biological part under the second environment described above.
The estimation unit 16 estimates posture information at the time when the imaging unit 11 performs imaging on the above-described next image under the above-described first environment. The estimation unit 16 performs this estimation based on the posture information detected by the detection unit 15 using the images acquired by the imaging unit 11 imaging the living body part under the second environment before and after the time point. Do.
この検出部15及び推定部16を生体画像撮影システム10が備えることで、認証生体情報用の画像の取得のための撮影環境(第一環境)の下で取得された次画像についての撮影時の生体部位の姿勢情報を、推定により得ることができる。 The detection unit 15 and the estimation unit 16 are provided in the biometric image capturing system 10, so that the next image acquired under the capturing environment (first environment) for acquiring the image for authentication biometric information can be captured. The posture information of the living body part can be obtained by estimation.
なお、このとき、検出部15は、姿勢情報として、例えば、生体部位と当該生体部位を撮影したときの撮影部11の撮影位置との間の距離の検出を行うようにする。この場合には、推定部16は、前述の次画像についての撮影を撮影部11が行った時点における生体部位と撮影部11の撮影位置との間の距離の算出を行う。この距離は、前述の時点の前及び後においての第二環境の下で撮影部11が生体部位を撮影して取得した画像を用いて検出部15が検出した距離に基づいた補間演算を行うことによって算出される。推定部16は、この算出結果を、姿勢情報の推定の結果とする。 At this time, the detection unit 15 detects, for example, the distance between the body part and the imaging position of the imaging unit 11 when the body part is imaged as the posture information. In this case, the estimation unit 16 calculates the distance between the living body part and the imaging position of the imaging unit 11 at the time when the imaging unit 11 performs imaging for the above-described next image. This distance is subjected to an interpolation calculation based on the distance detected by the detection unit 15 using the image acquired by the imaging unit 11 imaging the living body part in the second environment before and after the above-described time point. Is calculated by The estimation unit 16 uses this calculation result as a result of posture information estimation.
第二算出部17は、認証生体情報として前述の次画像を使用して生体認証を実施したときに推定される認証精度の高さを表す指標を算出する。第二算出部17は、この指標の算出を、前述の第一環境の下で撮影部11が生体部位を撮影して取得した次画像について第一算出部12が算出していた前述の指標と、推定部16が当該次画像について推定した姿勢情報とに基づいて行う。 The 2nd calculation part 17 calculates the parameter | index showing the height of the authentication precision estimated when biometric authentication is implemented using the above-mentioned next image as authentication biometric information. The second calculation unit 17 calculates the index using the above-described index calculated by the first calculation unit 12 for the next image acquired by the imaging unit 11 by imaging the living body part under the first environment described above. The estimation unit 16 performs the estimation based on the posture information estimated for the next image.
この第二算出部17を生体画像撮影システム10が備える場合には、出力部14は、前述の次画像のうち、第二算出部17により算出された指標が所定値以上の認証精度の高さを表しているもののみを出力するようにする。このようにすることで、生体認証における認証生体情報として適した生体画像のみを生体画像撮影システム10から出力させることができる。 When the biological image capturing system 10 includes the second calculation unit 17, the output unit 14 has a high authentication accuracy in which the index calculated by the second calculation unit 17 among the above-described next images is equal to or greater than a predetermined value. Output only those that represent. By doing in this way, only the biometric image suitable as authentication biometric information in biometric authentication can be output from the biometric image capturing system 10.
以上のように構成されている生体画像撮影システム10の動作について、更に詳しく説明する。
この生体画像撮影システム10は、生体部位の姿勢情報の検出のための撮影を、前述の技術のように一定の周期で定期的には行わない。その代わりに、その撮影のタイミングを、その前の撮影部11による、認証生体情報として用いる画像の取得用の撮影環境での生体部位の撮影により得られた画像に基づいて決定する。
The operation of the biological image capturing system 10 configured as described above will be described in more detail.
The living body image photographing system 10 does not regularly perform photographing for detecting posture information of a living body part at a constant cycle as in the above-described technique. Instead, the timing of the imaging is determined based on an image obtained by imaging the living body part in the imaging environment for acquiring an image used as authentication biometric information by the previous imaging unit 11.
撮影部11は、生体部位についての撮影を行って画像を取得する。撮影部11は、この撮影を所定の時間間隔(例えば、動画撮影と同等の30フレーム/秒)で繰り返し行う。
第一算出部12は、撮影部11が取得した画像に映っている生体部位の像の面積を算出する。第一算出部12は、この面積を算出するために、まず、当該画像に含まれている生体部位の像の識別を行う。
The imaging unit 11 acquires an image by imaging the living body part. The photographing unit 11 repeatedly performs this photographing at a predetermined time interval (for example, 30 frames / second equivalent to moving image photographing).
The first calculation unit 12 calculates the area of the image of the living body part shown in the image acquired by the imaging unit 11. In order to calculate this area, the first calculation unit 12 first identifies an image of a living body part included in the image.
本実施例では、生体部位の像の当該画像からの識別を、この画像を構成している各画素の明るさを調べることによって行う。
一般に、生体部位の撮影画像において、生体部位ではない背景の画像領域は暗いために画素値が比較的小さいが、生体部位の画像領域は背景に比べ明るいので画素値が比較的大きい。そこで、本実施例では、第一算出部12には、適切な閾値を予め設定しておく(例えば、とり得る値の範囲が0から255までの場合において、画素値128を閾値とする)。そして、第一算出部12は、撮影部11が取得した画像において画素値がその閾値よりも小さい画素は背景を構成しているものであると推定し、その閾値よりも画素値が大きい画素は生体の像を構成しているものであると推定するようにする。
In the present embodiment, the image of the living body part is identified from the image by examining the brightness of each pixel constituting the image.
In general, in a captured image of a living body part, a background image area that is not a living body part is dark and therefore has a relatively small pixel value. However, since an image area of a living body part is brighter than the background, the pixel value is relatively large. Therefore, in this embodiment, an appropriate threshold value is set in advance in the first calculation unit 12 (for example, when the range of possible values is 0 to 255, the pixel value 128 is set as the threshold value). And the 1st calculation part 12 estimates that the pixel whose pixel value is smaller than the threshold value in the image which the imaging | photography part 11 acquired comprises the background, and the pixel whose pixel value is larger than the threshold value is estimated. It is estimated that the image is composed of a living body image.
なお、第一算出部12による生体部位の像の識別の手法として、他の手法を採用してもよい。例えば、像の輪郭を抽出する手法や、画素の色で識別する手法(例えば肌色と他の色とで画素を分類する手法)など、様々な手法が採用可能である。但し、本実施例において、撮影部11は、生体部位を短い時間間隔で繰り返し撮影するため、上述した識別の手法としては、処理を短時間で済ませるものを採用することが好ましい。 Note that another method may be adopted as a method of identifying the image of the living body part by the first calculation unit 12. For example, various methods such as a method of extracting the contour of an image and a method of identifying by the color of a pixel (for example, a method of classifying pixels by skin color and other colors) can be employed. However, in this embodiment, since the imaging unit 11 repeatedly images a living body part at a short time interval, it is preferable to employ an identification method that can be processed in a short time.
次に、第一算出部12は、撮影部11が取得した画像からこのようにして識別された生体部位の像の面積を算出する。本実施例においては、画像を構成している画素のうちで、前述したようにして生体部位の像を構成していると判定されたものの数を計数し、この計数結果を面積値の算出結果としている。なお、第一算出部12は、この計数結果を画像全体の面積(すなわち、画像を構成している画素の総数)で除算することによって正規化した値を、面積値の算出結果として用いるようにしてもよい。 Next, the first calculation unit 12 calculates the area of the image of the living body part thus identified from the image acquired by the imaging unit 11. In this embodiment, among the pixels constituting the image, the number of pixels determined to constitute the biological part image as described above is counted, and this count result is calculated as the area value calculation result. It is said. The first calculation unit 12 uses a value normalized by dividing the count result by the area of the entire image (that is, the total number of pixels constituting the image) as the area value calculation result. May be.
以上のようにして第一算出部12が算出した面積値は、生体認証における認証生体情報としての適性を表す指標として使用される。なお、以下の説明では、この指標を「生体検出スコア」と称することとする。 The area value calculated by the first calculation unit 12 as described above is used as an index representing the suitability as authentication biometric information in biometric authentication. In the following description, this index is referred to as “biological detection score”.
この生体検出スコアは、値が大きいほど、画像に生体部位がより大きく映っているとみることができる。一般的に、生体部位が画像に大きく映っているほど、その画像から得られる生体部位に関する情報量は多くなる。従って、生体認証における認証生体情報としては、この生体検出スコアがある程度までは大きな画像を使用する方が好ましい。但し、図1及び図2における画像Gのように、生体部位の撮影時の位置が撮影部11に近過ぎて、生体認証に有効な部分が画像からはみ出しているような場合には注意が必要である。 It can be considered that the larger the value of the living body detection score, the larger the living body part appears in the image. Generally, the larger the body part appears in the image, the greater the amount of information about the body part obtained from the image. Therefore, as authentication biometric information in biometric authentication, it is preferable to use an image having a large biometric detection score. However, caution is required when the position at the time of imaging of the living body part is too close to the imaging unit 11 and a portion that is effective for biometric authentication protrudes from the image as in the image G in FIGS. 1 and 2. It is.
以上のように、第一算出部12が算出した生体検出スコアの値に基づいて、撮影部11が取得した画像が、生体認証における認証生体情報としての適性を有しているか否かを判定することができる。 As described above, based on the value of the biometric detection score calculated by the first calculation unit 12, it is determined whether or not the image acquired by the imaging unit 11 has suitability as authentication biometric information in biometric authentication. be able to.
次に、姿勢情報検出用の画像の取得のための生体部位の撮影のタイミングの決定の手法について、図4を用いて説明する。
図4において、最上段には、撮影部11が生体部位(掌)を順次撮影して得た画像の例を、撮影時間の経過に応じて左端から右方向へ並べたものである。なお、この撮影時において、生体部位は、始めは撮影部11に近づく方向に移動していたが、その後は撮影部11から離れる方向に移動している。また、二段目のグラフは、最上段に並べた各画像について第一算出部12が算出した生体検出スコアを図示化したものであり、横軸は時間の経過を表している。
Next, a method for determining the timing of imaging of a living body part for obtaining an image for detecting posture information will be described with reference to FIG.
In FIG. 4, in the uppermost row, examples of images obtained by the imaging unit 11 sequentially imaging the living body part (palm) are arranged from the left end to the right direction as the imaging time elapses. At the time of this imaging, the living body part initially moved in a direction approaching the imaging unit 11, but thereafter moved in a direction away from the imaging unit 11. The graph in the second row illustrates the biological detection score calculated by the first calculation unit 12 for each image arranged in the uppermost row, and the horizontal axis represents the passage of time.
この生体検出スコアのグラフに注目すると、撮影部11が最初に取得した画像Aの生体検出スコアは小さな値である。この画像Aの次に撮影部11が取得した画像Bの生体検出スコアは画像Aのものよりも大きな値であり、図4に示されている「検出開始基準スコア」に到達している。 When attention is paid to the graph of the living body detection score, the living body detection score of the image A first acquired by the imaging unit 11 is a small value. The living body detection score of the image B acquired by the photographing unit 11 next to the image A is larger than that of the image A, and reaches the “detection start reference score” shown in FIG.
検出開始基準スコアは、撮影部11が取得した画像が認証生体情報としての使用に適する生体部位の像の面積の下限として選択部13に予め設定されている閾値であり、前述した第一閾値に相当するものである。 The detection start reference score is a threshold that is set in advance in the selection unit 13 as a lower limit of the area of the image of the living body part that is suitable for use as authentication biometric information. It is equivalent.
選択部13は、撮影部11が取得した画像についての生体検出スコアが、この検出開始基準スコアを超えたときには、この画像のための撮影の次に撮影部11が生体部位を撮影するときの撮影環境として、前述した第二環境を選択する。そして、この選択結果に応じて、撮影環境を、それまでの第一環境(すなわち、認証生体情報として用いる画像の取得に使用する環境)から、第二環境(すなわち、生体部位の姿勢情報の検出に用いる画像の取得に使用する環境)に切り替える。より具体的には、選択部13は、生体部位を照らす照明を、この選択の結果に応じて、第一照明(すなわち、認証生体情報として用いる画像の撮影に使用する照明)から、第二照明(すなわち、姿勢情報の検出に用いる画像の撮影に使用する照明)へと切り替える。なお、本実施例において、第一照明としては、生体部位の全体を一様に照らす照明を使用し、第二照明としては、前述したスポット光の照明を使用する。 When the living body detection score for the image acquired by the imaging unit 11 exceeds the detection start reference score, the selection unit 13 performs imaging when the imaging unit 11 captures the biological part after imaging for this image. As the environment, the second environment described above is selected. Then, according to the selection result, the imaging environment is changed from the previous first environment (that is, the environment used for acquiring the image used as the authentication biometric information) to the second environment (that is, the detection of the posture information of the biological part). To the environment used to acquire the image used for More specifically, the selection unit 13 changes the illumination that illuminates the living body part from the first illumination (that is, the illumination used to capture an image used as authentication biometric information) to the second illumination according to the selection result. (That is, illumination used for capturing an image used for detecting posture information). In the present embodiment, as the first illumination, illumination that uniformly illuminates the entire body part is used, and as the second illumination, the above-described spot light illumination is used.
図4の例では、画像Bの生体検出スコアが検出開始基準スコアに到達したことで選択部13が生体部位への照明を第一照明から第二照明に切り替える。画像Cは、その切り替え後の照明の下で、撮影部11が生体部位を撮影して取得したものである。従って、画像Cには、前述した十字形状の印が画像上に描かれている。このようにして撮影部11が画像Cを取得することで、認証生体情報としての適性を有している画像Bの取得時に極めて近い生体部位の姿勢情報を、当該画像Bの直後に取得される画像Cから得ることができる。 In the example of FIG. 4, when the living body detection score of the image B reaches the detection start reference score, the selection unit 13 switches the illumination of the living body part from the first illumination to the second illumination. The image C is obtained by imaging the living body part by the imaging unit 11 under the illumination after the switching. Therefore, in the image C, the cross-shaped mark described above is drawn on the image. In this way, when the imaging unit 11 acquires the image C, posture information of the living body part that is extremely close to the time of acquiring the image B having the suitability as the authentication biometric information is acquired immediately after the image B. It can be obtained from image C.
その後、選択部13は、撮影部11による画像Cについての撮影が完了すると、生体部位の照明を第二照明から第一照明へと切り替えて撮影環境を第二環境から第一環境に戻す。撮影部11は、その後の生体部位の撮影を第一環境の下で繰り返し、画像D、E、及びFを得る。これらの画像についての生体検出スコアは増加傾向が続き、画像Fにおいて、図4に示されている「最適検出スコア」に到達する。 Thereafter, when the imaging unit 11 completes imaging for the image C, the selection unit 13 switches the illumination of the living body part from the second illumination to the first illumination, and returns the imaging environment from the second environment to the first environment. The imaging unit 11 repeats subsequent imaging of the body part under the first environment, and obtains images D, E, and F. The biometric detection scores for these images continue to increase, reaching the “optimum detection score” shown in FIG.
最適検出スコアは、撮影部11が取得した画像が認証生体情報としての使用に最適である生体部位の像の面積として選択部13に予め設定されている閾値であり、前述した第二閾値に相当するものである。 The optimum detection score is a threshold value preset in the selection unit 13 as the area of the image of the living body part where the image acquired by the imaging unit 11 is optimal for use as authentication biometric information, and corresponds to the second threshold value described above. To do.
選択部13は、撮影部11が取得した画像についての生体検出スコアが、この最適基準スコアを超えたときには、この次に撮影部11が生体部位を撮影するときの撮影環境として、前述した第二環境を再び選択する。そして、この選択結果に応じて、撮影環境を、それまでの第一環境から第二環境へと切り替える。すなわち、選択部13は、生体部位を照らす照明を、この選択の結果に応じて、第一照明から第二照明へと切り替える。 When the living body detection score for the image acquired by the imaging unit 11 exceeds the optimum reference score, the selection unit 13 uses the second imaging unit 11 described above as an imaging environment when the imaging unit 11 captures a biological part. Select the environment again. Then, according to the selection result, the shooting environment is switched from the first environment to the second environment. That is, the selection unit 13 switches the illumination that illuminates the living body part from the first illumination to the second illumination according to the result of the selection.
図4の例では、画像Fの生体検出スコアが最適基準スコアに到達したことで選択部13が生体部位への照明を第一照明から第二照明に切り替える。画像Gは、その切り替え後の照明の下で、撮影部11が生体部位を撮影して取得したものである。従って、画像Gには、前述した十字形状の印が画像上に描かれている。このようにして撮影部11が画像Gを取得することで、認証生体情報として最適である画像Fの取得時に極めて近い生体部位の姿勢情報を、当該画像Fの直後に取得される画像Gから得ることができる。 In the example of FIG. 4, when the living body detection score of the image F reaches the optimum reference score, the selection unit 13 switches the illumination of the living body part from the first illumination to the second illumination. The image G is acquired by the imaging unit 11 imaging a living body part under the illumination after the switching. Therefore, in the image G, the cross-shaped mark described above is drawn on the image. As the imaging unit 11 acquires the image G in this way, posture information of the living body part that is extremely close to the acquisition of the image F that is optimal as the authentication biometric information is obtained from the image G acquired immediately after the image F. be able to.
その後、選択部13は、撮影部11による画像Gについての撮影が完了すると、生体部位の照明を第二照明から第一照明へと切り替えて撮影環境を第二環境から第一環境に戻す。撮影部11は、その後の生体部位の撮影を第一環境の下で繰り返し、画像H、I、J、及びKを得る。これらの画像についての生体検出スコアは減少傾向に転じており、画像Kにおいて、図4に示されている「検出終了基準スコア」に到達している。 Thereafter, when the imaging unit 11 completes imaging of the image G, the selection unit 13 switches the illumination of the living body part from the second illumination to the first illumination, and returns the imaging environment from the second environment to the first environment. The imaging unit 11 repeats subsequent imaging of the body part under the first environment, and obtains images H, I, J, and K. The biometric detection scores for these images have turned to a decreasing trend, and in the image K, the “detection end reference score” shown in FIG.
検出終了基準スコアは、撮影部11が取得した画像が認証生体情報としての使用に適する生体部位の像の面積の下限として選択部13に予め設定されている閾値であり、前述した第三閾値に相当するものである。なお、検出終了基準スコアを、前述した検出開始基準スコアと同一の値としてもよい。 The detection end reference score is a threshold value preset in the selection unit 13 as the lower limit of the area of the image of the biological part suitable for use as the authentication biometric information by the image acquired by the imaging unit 11, It is equivalent. Note that the detection end reference score may be the same value as the above-described detection start reference score.
選択部13は、撮影部11が取得した画像についての生体検出スコアが、この検出終了基準スコアを下回ったときには、この次に撮影部11が生体部位を撮影するときの撮影環境として、前述した第二環境を再び選択する。そして、この選択結果に応じて、撮影環境を、それまでの第一環境から第二環境へと切り替える。すなわち、選択部13は、生体部位を照らす照明を、この選択の結果に応じて、第一照明から第二照明へと切り替える。 When the living body detection score for the image acquired by the imaging unit 11 falls below the detection end reference score, the selection unit 13 sets the above-described imaging environment as the imaging environment when the imaging unit 11 captures the living body part next time. Select the second environment again. Then, according to the selection result, the shooting environment is switched from the first environment to the second environment. That is, the selection unit 13 switches the illumination that illuminates the living body part from the first illumination to the second illumination according to the result of the selection.
図4の例では、画像Kの生体検出スコアが検出終了基準スコアに到達したことで選択部13が生体部位への照明を第一照明から第二照明に切り替える。画像Lは、その切り替え後の照明の下で、撮影部11が生体部位を撮影して取得したものである。従って、画像Lには前述した十字形状の印が画像上に描かれている。このようにして撮影部11が画像Lを取得することで、認証生体情報としての適性を有している画像Kの取得時に極めて近い生体部位の姿勢情報を、当該画像Kの直後に取得される画像Lから得ることができる。 In the example of FIG. 4, when the living body detection score of the image K reaches the detection end reference score, the selection unit 13 switches the illumination of the living body part from the first illumination to the second illumination. The image L is acquired by the imaging unit 11 imaging a living body part under the illumination after the switching. Therefore, the above-described cross-shaped mark is drawn on the image L. In this way, when the imaging unit 11 acquires the image L, posture information of the living body part that is extremely close to the time of acquiring the image K having the suitability as the authentication biometric information is acquired immediately after the image K. It can be obtained from the image L.
その後、選択部13は、撮影部11による画像Lについての撮影が完了すると、生体部位の照明を第二照明から第一照明へと切り替えて撮影環境を第二環境から第一環境に戻す。撮影部11は、その後の画像Mについて以降の撮影を、第一環境の下で行う。 Thereafter, when the imaging unit 11 completes imaging of the image L, the selection unit 13 switches the illumination of the living body part from the second illumination to the first illumination, and returns the imaging environment from the second environment to the first environment. The imaging unit 11 performs subsequent imaging of the subsequent image M under the first environment.
出力部14は、撮影部11が取得した画像に、選択部13による撮影環境の選択の結果を表している撮影環境選択情報、すなわち、各画像についての撮影時における撮影環境を対応付けて出力する。 The output unit 14 outputs the image acquired by the imaging unit 11 in association with the imaging environment selection information indicating the result of selection of the imaging environment by the selection unit 13, that is, the imaging environment at the time of imaging for each image. .
以上のように、図3の生体画像撮影システム10は、取得した画像における生体部位の像の面積値に基づく認証生体情報としての適性の評価結果に応じて、当該画像の撮影の次に行う撮影を生体部位の姿勢情報の検出用のものとして実施するかどうかを決定する。このようにすることで、生体認証の実施において要の認証生体情報である生体画像に映っている生体部位について、特に良好な姿勢情報を得ることができる。また、このようにすることで、姿勢情報の検出用の画像の取得のための撮影の頻度を減らすことができ、その分だけ多くの画像を、認証生体情報として取得することができる。 As described above, the living body image capturing system 10 in FIG. 3 performs the image capturing performed after the image capturing according to the evaluation result of the suitability as the authentication biometric information based on the area value of the image of the living body part in the acquired image. Is to be implemented for detecting body part posture information. By doing in this way, especially favorable attitude | position information can be obtained about the biological body part reflected in the biometric image which is authentication biometric information required in implementation of biometric authentication. Moreover, by doing in this way, the frequency of imaging | photography for acquisition of the image for the detection of attitude | position information can be reduced, and many images can be acquired as authentication biometric information by that much.
図4に例示した画像を前述した図1に例示した画像と比較すると、図1の撮影例では、認証生体情報としての適性を有している画像は4枚しか得られなかったのに対し、図4の撮影例では、認証生体情報としての適性を有している画像を8枚得ることができている。 When comparing the image illustrated in FIG. 4 with the image illustrated in FIG. 1 described above, in the photographing example of FIG. 1, only four images having the suitability as authentication biometric information were obtained. In the photographing example of FIG. 4, eight images having suitability as authentication biometric information can be obtained.
また、検出部15は、前述したようにして撮影された画像C、G、及びLを用いて、各画像についての撮影時における生体部位についての姿勢情報の検出を行う。本実施例では、検出部15は、前述の公知の技術を使用してこの検出を行い、スポット光を生体部位に照射したときの当該スポット光の生体部位上での映り方に基づいて、生体部位の撮影部11に対する距離の情報を得て、生体部位の姿勢情報の検出結果とする。 The detection unit 15 detects posture information about a living body part at the time of photographing for each image, using the images C, G, and L photographed as described above. In the present embodiment, the detection unit 15 performs the detection using the above-described known technique, and based on how the spot light is reflected on the living body part when the spot light is irradiated on the living body part, Information on the distance of the part to the imaging unit 11 is obtained and used as the detection result of the posture information of the living body part.
推定部16は、前述したようにして撮影された画像D及びEの撮影時における生体部位の姿勢情報を、その撮影時の直前及び直後において姿勢情報の検出用に取得された画像C及びGを用いて検出部15が検出した姿勢情報に基づいて推定する。また、推定部16は、前述したようにして撮影された画像H、I、及びJの撮影時における生体部位の姿勢情報を、その撮影時の直前及び直後において姿勢情報の検出用に取得された画像G及びLを用いて検出部15が検出した姿勢情報に基づいて推定する。 The estimation unit 16 obtains the posture information of the living body part at the time of photographing the images D and E photographed as described above, and the images C and G acquired for detecting the posture information immediately before and immediately after the photographing. It estimates based on the attitude | position information which the detection part 15 detected using. In addition, the estimation unit 16 acquires the posture information of the living body part at the time of photographing the images H, I, and J photographed as described above for the detection of the posture information immediately before and after the photographing. Estimation is performed based on the posture information detected by the detection unit 15 using the images G and L.
本実施例では、推定部16は、画像D及びEの撮影時における生体部位の撮影部11からの距離を、検出部15が検出した、画像C及びGの撮影時における生体部位の撮影部11からの距離に基づいた補間演算を行うことによって推定する。また、推定部16は、画像H、I、及びJの撮影時における生体部位の撮影部11からの距離を、検出部15が検出した、画像G及びLの撮影時における生体部位の撮影部11からの距離に基づいた補間演算を行うことによって推定する。 In the present embodiment, the estimation unit 16 detects the distance from the imaging unit 11 of the biological part at the time of imaging the images D and E, and the imaging unit 11 of the biological part at the time of imaging the images C and G detected by the detection unit 15. This is estimated by performing an interpolation calculation based on the distance from. In addition, the estimation unit 16 detects the distance from the imaging unit 11 of the biological part at the time of imaging the images H, I, and J, and the imaging unit 11 of the biological part at the time of imaging the images G and L detected by the detection unit 15. This is estimated by performing an interpolation calculation based on the distance from.
図4における三段目のグラフは、撮影部11による生体部位の撮影時刻の経過と生体部位の姿勢情報の関係を表している。このグラフの横軸は、撮影部11による生体部位の撮影時刻の経過を表しており、縦軸は姿勢情報(生体部位の撮影部11からの距離)を表している。検出部15が画像C、G、及びLから検出した生体部位の姿勢情報(生体部位の撮影部11からの距離)に対応する点は、このグラフ上にプロットされる。また、推定部16が補間演算により推定した画像D、E、H、I、及びJについての撮影時の生体部位の姿勢情報に対応する点も、このグラフ上若しくはその近傍にプロットされる。 The third graph in FIG. 4 represents the relationship between the lapse of the imaging time of the biological part by the imaging unit 11 and the posture information of the biological part. The horizontal axis of this graph represents the passage of the imaging time of the biological part by the imaging unit 11, and the vertical axis represents the posture information (distance from the imaging part 11 of the biological part). Points corresponding to the posture information of the living body part (distance from the imaging unit 11 of the living body part) detected by the detection unit 15 from the images C, G, and L are plotted on this graph. In addition, points corresponding to the posture information of the living body part at the time of imaging for the images D, E, H, I, and J estimated by the estimation unit 16 by the interpolation calculation are also plotted on or near this graph.
以上のように、検出部15によって姿勢情報が検出されていない、画像D、E、H、I、及びJについての撮影時の生体部位の姿勢情報については、推定部16が上述した推定を行うことで獲得する。出力部14は、検出部15及び推定部16によって各画像の撮影時の生体部位の姿勢情報が求めた場合には、これらの姿勢情報についても、各画像に対応付けて出力するようにしてもよい。このようにして得られた姿勢情報を生体情報に利用すると、生体認証の精度の向上が期待できる。 As described above, the estimation unit 16 performs the above-described estimation on the posture information of the living body part at the time of imaging for the images D, E, H, I, and J for which the posture information is not detected by the detection unit 15. Earn by When the detection unit 15 and the estimation unit 16 obtain the posture information of the living body part at the time of capturing each image, the output unit 14 outputs the posture information in association with each image. Good. If the posture information obtained in this way is used for biometric information, it can be expected to improve the accuracy of biometric authentication.
以上のように、図1の生体画像撮影システム10は、生体認証の実施において要の認証生体情報である生体画像に映っている生体部位についての精度の良い姿勢情報から、他の生体画像についての生体部位の姿勢情報の推定を行う。従って、これらの生体画像についての真の姿勢情報に比較的近い推定結果を得ることができる。 As described above, the biometric image capturing system 10 in FIG. 1 uses the accurate posture information about the biological part shown in the biometric image, which is the vital authentication biometric information in performing biometric authentication, for other biometric images. The posture information of the living body part is estimated. Therefore, it is possible to obtain an estimation result that is relatively close to true posture information about these biological images.
例えば、前述したように、図2に例示した画像の撮影は、生体部位の姿勢情報の検出用の画像のための撮影を、一定の周期である少ない頻度で行うようにしたものである。この図2の場合には、姿勢情報の検出用の画像は、画像D及びGである。これらの画像から得られる姿勢情報に基づき他の生体画像の姿勢情報の推定を行うと、例えば、画像B、F、K、及びLなどでは、その姿勢情報については高い推定精度が期待できないことは明らかである。一方、図4に例示した画像の撮影では、いずれの生体画像についても、良好な姿勢情報の推定精度が期待できる。 For example, as described above, the imaging of the image illustrated in FIG. 2 is performed by performing imaging for an image for detecting posture information of a living body part at a low frequency that is a constant cycle. In the case of FIG. 2, the images for detecting the posture information are images D and G. When the posture information of other biological images is estimated based on the posture information obtained from these images, for example, in the images B, F, K, L, etc., high estimation accuracy cannot be expected for the posture information. it is obvious. On the other hand, in the imaging of the image illustrated in FIG. 4, good posture information estimation accuracy can be expected for any biological image.
なお、図4における画像B、F、及びKについての姿勢情報を、それぞれ画像C、G、及びLから検出する代わりに、画像C、G、及びLからの姿勢情報に基づいて推定部16が推定して獲得するようにしてもよい。 In addition, instead of detecting the posture information for the images B, F, and K in FIG. 4 from the images C, G, and L, respectively, the estimation unit 16 is based on the posture information from the images C, G, and L. You may make it estimate and acquire.
ところで、生体認証における認証生体情報としては、生体検出スコアがある程度までは大きい生体画像を使用する方が好ましいが、過度に大きい場合には、認証生体情報としての適性が低下する。これは、生体画像に映っている生体部位の姿勢も、その適性に影響を及ぼすからである。そこで、生体画像についての生体検出スコアと姿勢情報とに基づき、認証生体情報として生体画像を使用して生体認証を実施したときに推定される認証精度の高さを表す指標である、生体認証適合スコアを算出するようにしてもよい。第二算出部17は、この生体認証適合スコアを算出するものである。 By the way, as the authentication biometric information in biometric authentication, it is preferable to use a biometric image having a large biometric detection score to a certain extent, but if it is excessively large, the suitability as authentication biometric information decreases. This is because the posture of the living body part shown in the living body image also affects its suitability. Therefore, biometric authentication conformity, which is an index representing the level of authentication accuracy estimated when biometric authentication is performed using the biometric image as authentication biometric information based on the biometric detection score and posture information about the biometric image. A score may be calculated. The second calculation unit 17 calculates the biometric authentication conformity score.
本実施例において、第二算出部17は、まず、各画像の姿勢情報(生体部位の撮影部11からの距離)について、図4における三段目のグラフに示されている「生体認証に最適な姿勢値(距離)」からのずれ量を算出する。なお、この生体認証に最適な姿勢値(距離)は、予め第二算出部17に設定されている値である。次に、第二算出部17は、各生体画像についての生体検出スコアとこのずれ量とに対し、必要に応じて所定の重み付けを与えた上で、その両者を合成する演算を行う。このようにして得られた値を生体認証適合スコアとする。 In the present embodiment, the second calculation unit 17 firstly sets “posture information optimal for biometric authentication” as shown in the third graph in FIG. The amount of deviation from the “right posture value (distance)” is calculated. Note that the optimum posture value (distance) for biometric authentication is a value set in advance in the second calculation unit 17. Next, the second calculation unit 17 performs a calculation for combining the biometric detection score and the deviation amount for each biometric image after giving a predetermined weighting as necessary. The value obtained in this way is used as a biometric matching score.
図4における四段目のグラフは、各画像について得られる生体認証適合スコアを図示したものである。このグラフ例では、画像Eと画像Iとの生体認証適合スコアが高い値を示しており、これらを認証生体情報として使用して生体認証を実施すれば、極めて良好な認証精度が期待できる。 The graph in the fourth row in FIG. 4 illustrates the biometric authentication conformity score obtained for each image. In this example of the graph, the biometric authentication conformity scores of the image E and the image I indicate high values. If biometric authentication is performed using these as authentication biometric information, extremely good authentication accuracy can be expected.
出力部14は、第二算出部17によって各画像についての生体認証適合スコアを求めた場合には、各画像と撮影環境選択情報とを対応付けて出力する代わりに、生体認証適合スコアが所定値以上の認証精度の高さを表している画像のみを出力するようにする。このようにして出力された生体画像を認証生体情報として使用して生体認証を実施することで、生体認証に要する時間が短縮され、また、極めて良好な認証精度が得られることが期待できる。 When the biometric authentication conformity score for each image is obtained by the second calculation unit 17, the output unit 14 outputs the biometric authentication conformance score with a predetermined value instead of outputting each image and the shooting environment selection information in association with each other. Only an image representing the high authentication accuracy is output. By performing biometric authentication using the biometric image output in this way as authentication biometric information, it can be expected that the time required for biometric authentication will be shortened and that very good authentication accuracy will be obtained.
次に図5について説明する。図5は、図3の生体画像撮影システム10についての詳細な機能ブロック図である。この生体画像撮影システム10は、被認証者の生体部位の撮影を行って、生体認証における認証生体情報として使用する生体画像を取得し、得られた生体画像を生体認証装置20に送付する。 Next, FIG. 5 will be described. FIG. 5 is a detailed functional block diagram of the biological image photographing system 10 of FIG. The biometric image capturing system 10 captures a biometric part of the person to be authenticated, acquires a biometric image to be used as authentication biometric information in biometric authentication, and sends the obtained biometric image to the biometric authentication device 20.
図5に図解されている各機能ブロックと図3に図解されている機能ブロックとの対応を説明すると、画像撮影部31及び画像記憶部32が撮影部11に対応し、生体検出スコア算出部33が第一算出部12に対応する。また、姿勢撮影条件記憶部34、姿勢撮影タイミング判定部35、照明部36、及び照明制御部37が選択部13に対応し、生体認証適合画像選択部38及び画像送信部39が出力部14に対応する。そして、姿勢情報算出部41及び姿勢情報記憶部42が検出部15に対応し、姿勢情報補間部43が推定部16に対応し、生体認証適合スコア算出部44が第二算出部17に対応する。 The correspondence between the functional blocks illustrated in FIG. 5 and the functional blocks illustrated in FIG. 3 will be described. The image capturing unit 31 and the image storage unit 32 correspond to the capturing unit 11, and the living body detection score calculating unit 33. Corresponds to the first calculation unit 12. Further, the posture photographing condition storage unit 34, the posture photographing timing determination unit 35, the illumination unit 36, and the illumination control unit 37 correspond to the selection unit 13, and the biometric authentication compatible image selection unit 38 and the image transmission unit 39 correspond to the output unit 14. Correspond. The posture information calculation unit 41 and the posture information storage unit 42 correspond to the detection unit 15, the posture information interpolation unit 43 corresponds to the estimation unit 16, and the biometric authentication suitability score calculation unit 44 corresponds to the second calculation unit 17. .
画像撮影部31は、生体部位を所定の時間間隔で順次撮影して当該生体部位の画像を取得する撮影装置である。画像撮影部31は、例えばCMOS(Complementary Metal Oxide Semiconductor:相補性金属酸化膜半導体)やCCD(Charge Coupled device:電荷結合素子)を用いた画像センサユニットを用いて構成されているカメラである。 The image capturing unit 31 is an image capturing device that sequentially captures a living body part at predetermined time intervals and acquires an image of the living body part. The image capturing unit 31 is a camera configured using an image sensor unit using, for example, a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device).
画像記憶部32は、画像撮影部31が取得した画像を順次記憶する記憶部である。画像記憶部32の記憶容量は任意であるが、生体認証の種類や利用形態に応じて適切な枚数の画像の記憶ができる程度の容量を用意する。 The image storage unit 32 is a storage unit that sequentially stores images acquired by the image capturing unit 31. The storage capacity of the image storage unit 32 is arbitrary, but a capacity sufficient to store an appropriate number of images according to the type of biometric authentication and the usage pattern is prepared.
生体検出スコア算出部33は、画像撮影部31が取得した画像を画像記憶部32が記憶する度に、その記憶した画像を読み出して、当該画像に映っている生体部位の像の面積を算出して、得られた面積値を生体検出スコアとして出力する。本実施例による生体検出スコア算出部33による生体検出スコアの算出手法について、図6を用いて説明する。 Each time the image storage unit 32 stores the image acquired by the image capturing unit 31, the biological detection score calculation unit 33 reads the stored image and calculates the area of the image of the biological part shown in the image. Then, the obtained area value is output as a living body detection score. The calculation method of the biological detection score by the biological detection score calculation unit 33 according to the present embodiment will be described with reference to FIG.
生体検出スコア算出部33は、まず、画像記憶部32に新たに記憶された取得画像Pを読み出し、その構成画素を画素値と所定の閾値との大小比較の結果に基づき白色と黒色とに2値化して2値化画像Qを得る。生体検出スコア算出部33は、この2値化画像Qにおける白色の画素(すなわち、取得画像Pにおいては生体部位の像を構成していた方の画素)の個数を計数する。生体検出スコア算出部33は、この計数結果を、生体検出スコアとして出力する。 The biometric detection score calculation unit 33 first reads the acquired image P newly stored in the image storage unit 32, and converts the constituent pixels into white and black based on the result of the size comparison between the pixel value and a predetermined threshold value. The binarized image Q is obtained by binarization. The biological detection score calculation unit 33 counts the number of white pixels in the binarized image Q (that is, the pixel constituting the image of the biological part in the acquired image P). The living body detection score calculation unit 33 outputs the counting result as a living body detection score.
なお、演算性能に余裕があれば、生体検出スコア算出部33による取得画像Pにおける生体部位の像の面積の算出を、より精度の高い手法で行うようにしてもよい。
姿勢撮影条件記憶部34は、画像撮影部31が次に行う生体部位の撮影を、姿勢情報検出用の画像の取得のためのものとするかどうかを決定する条件を予め設定して記憶させておく記憶部である。この姿勢撮影条件記憶部34に記憶させておく条件は、具体的には、前述した検出開始基準スコア、最適検出スコア、及び検出終了基準スコアである。
If there is a margin in the calculation performance, the calculation of the area of the image of the living body part in the acquired image P by the living body detection score calculation unit 33 may be performed by a more accurate method.
The posture imaging condition storage unit 34 sets and stores in advance a condition for determining whether or not the imaging of the living body part to be performed next by the image capturing unit 31 is for acquiring an image for detecting posture information. It is a storage unit. Specifically, the conditions stored in the posture photographing condition storage unit 34 are the above-described detection start reference score, optimum detection score, and detection end reference score.
姿勢撮影タイミング判定部35は、生体検出スコア算出部33が算出した生体検出スコアが、姿勢撮影条件記憶部34に記憶されている条件に合致するようになったか否かを判定し、その判定結果を照明制御部37に出力する。 The posture imaging timing determination unit 35 determines whether or not the biological detection score calculated by the biological detection score calculation unit 33 matches the condition stored in the posture imaging condition storage unit 34, and the determination result. Is output to the illumination control unit 37.
照明部36は、画像撮影部31が撮影を行う生体部位を照らす照明である。照明部36は、前述した第一照明として、生体部位の全体を一様に照らす照明と、前述した第二照明として、前述したスポット光の照明との2種類の照明を有しており、この2種類の照明を切り替えることができる。なお、これらの照明には、可視光を用いる場合もあれば、近赤外線等の可視光以外の光を用いる場合もある。 The illumination unit 36 is illumination that illuminates a living body part that is imaged by the image capturing unit 31. The illumination unit 36 has two types of illumination, ie, illumination that uniformly illuminates the entire body part as the first illumination described above, and illumination of the spot light described above as the second illumination described above. Two types of illumination can be switched. In addition, visible light may be used for these illuminations, and light other than visible light, such as near infrared rays, may be used.
照明制御部37は、照明部36が有している2種類の照明のどちらによって生体部位を照明するかを、姿勢撮影タイミング判定部35による判定結果に基づいて制御する。より具体的には、照明制御部37は、通常は、前述した第一照明を使用した生体部位の照明を照明部36に行わせる。そして、生体検出スコアが姿勢撮影条件記憶部34に記憶されている条件に合致するようになったと姿勢撮影タイミング判定部35が判定したときには、照明部36を制御して、生体部位の照明を、前述した第二照明を使用したものに切り替えさせる。その後、第二照明の下での生体部位の撮影を画像撮影部31が終えたときには、照明制御部37は、照明部36を制御して、生体部位の照明を、第一照明を使用したものに戻させる。 The illumination control unit 37 controls which of the two types of illumination the illumination unit 36 has to illuminate the living body part based on the determination result by the posture imaging timing determination unit 35. More specifically, the illumination control unit 37 normally causes the illumination unit 36 to perform illumination of the living body part using the first illumination described above. When the posture imaging timing determination unit 35 determines that the living body detection score matches the condition stored in the posture imaging condition storage unit 34, the lighting unit 36 is controlled to illuminate the biological part. Switch to the one using the second illumination described above. After that, when the image capturing unit 31 finishes capturing the living body part under the second illumination, the illumination control unit 37 controls the illumination unit 36 to use the first illumination for the illumination of the living body part. To return.
生体認証適合画像選択部38は、画像記憶部32に記憶されている画像を順次読み出して、画像送信部39に出力する。なお、生体認証適合スコア算出部44が生体認証適合スコアの算出を行っている場合には、当該生体認証適合スコアに基づいて選択された画像を画像記憶部32から読み出して画像送信部39に出力する。 The biometric matching image selection unit 38 sequentially reads out the images stored in the image storage unit 32 and outputs them to the image transmission unit 39. When the biometric authentication conformity score calculation unit 44 calculates the biometric authentication conformity score, the image selected based on the biometric authentication conformance score is read from the image storage unit 32 and output to the image transmission unit 39. To do.
画像送信部39は、生体認証適合画像選択部38から送られてきた画像を送信して生体認証装置20に送付する。
生体認証装置20は、生体画像撮影システム10から受け取った画像に対し、当該画像についての姿勢情報に基づいた画像の補正処理を施す。そして、当該補正後の画像を認証生体情報として使用して照合を実施し、予め登録されている利用者の登録生体情報と合致するかどうかを確かめる。
The image transmission unit 39 transmits the image sent from the biometric authentication compatible image selection unit 38 and sends it to the biometric authentication device 20.
The biometric authentication device 20 performs an image correction process on the image received from the biometric image capturing system 10 based on posture information about the image. Then, verification is performed using the corrected image as authentication biometric information, and it is confirmed whether or not it matches the preregistered user's registered biometric information.
姿勢情報算出部41は、第二照明の下で画像撮影部31が生体部位を撮影して取得した画像を画像記憶部32から読み出し、当該画像を用いて、当該生体部位についての姿勢情報を検出する。より具体的には、姿勢情報算出部41は、前述した公知の技術を使用し、当該画像におけるスポット光の生体部位上での映り方に基づいて、生体部位の画像撮影部31に対する距離を算出して、生体部位の姿勢情報の検出結果とする。また、姿勢情報算出部41は、この他の姿勢情報として、例えば生体部位の傾きを表している角度値の情報を更に得るようにしてもよい。 The posture information calculation unit 41 reads an image acquired by the image photographing unit 31 by photographing a biological part under the second illumination from the image storage unit 32, and detects posture information about the biological part using the image. To do. More specifically, the posture information calculation unit 41 calculates the distance of the living body part from the image capturing unit 31 based on how the spot light is reflected on the living body part using the known technique described above. Thus, the detection result of the posture information of the living body part is used. Further, the posture information calculation unit 41 may further obtain, for example, angle value information indicating the inclination of the living body part as the other posture information.
姿勢情報記憶部42は、姿勢情報算出部41で算出した姿勢情報を、この姿勢情報がどの画像から検出したものであるかを識別する情報と共に記憶する。
姿勢情報補間部43は、姿勢情報記憶部42に記憶した姿勢情報に基づく補間演算を行って、第一照明の下で画像撮影部31が取得した画像の撮影時における生体部位の姿勢情報を推定する。
The posture information storage unit 42 stores the posture information calculated by the posture information calculation unit 41 together with information for identifying from which image the posture information is detected.
The posture information interpolation unit 43 performs an interpolation calculation based on the posture information stored in the posture information storage unit 42, and estimates posture information of a living body part at the time of photographing an image acquired by the image photographing unit 31 under the first illumination. To do.
生体認証適合スコア算出部44は、各画像について生体検出スコア算出部33が算出した生体検出スコアと姿勢情報算出部41及び姿勢情報補間部43が求めた姿勢情報とに基づき、前述した生体認証適合スコアを算出して生体認証適合画像選択部38に出力する。この生体認証適合スコアの算出式は、生体部位が様々な姿勢で映っているサンプル画像を用いて生体認証を実際に実施し、認証精度の高い画像ほどスコアが大きくなるような算出式を求める。この算出式としては、例えば下記の式を採用することができる。
生体認証適合スコア=生体検出スコア/abs(姿勢情報−最適姿勢値)
The biometric authentication conformity score calculation unit 44 is based on the biometric authentication score calculated by the biometric detection score calculation unit 33 and the posture information calculated by the posture information calculation unit 41 and the posture information interpolation unit 43 for each image. The score is calculated and output to the biometric matching image selection unit 38. As a calculation formula for this biometric authentication conformity score, a biometric authentication is actually performed using sample images in which the biometric part is shown in various postures, and a calculation formula is obtained such that the score increases as the authentication accuracy increases. As this calculation formula, for example, the following formula can be adopted.
Biometric authentication conformity score = biometric detection score / abs (attitude information-optimum attitude value)
なお、上記の式において、「姿勢情報」は生体部位の撮影部11からの距離であり、「最適姿勢値」は、図4における三段目のグラフに示されている「生体認証に最適な姿勢値(距離)」である。また、「abs()」は括弧内の値の絶対値を出力する関数を表している。 In the above equation, “posture information” is the distance from the imaging unit 11 of the biological part, and “optimal posture value” is “optimal for biometric authentication” shown in the third graph in FIG. “Attitude value (distance)”. “Abs ()” represents a function that outputs the absolute value of the value in parentheses.
上掲の式は、極めて簡易的に、生体検出スコア(生体部位の像の面積)は大きいほど生体認証に適しており、且つ、姿勢情報は最適姿勢値に近いほど生体認証に適しているとみなし、非常に簡易的かつ高速に処理できる式である。この式では、生体検出スコアと姿勢値との相関は特に考慮していない。 The above formula is very simple. The larger the biometric detection score (the area of the image of the body part), the more suitable for biometric authentication, and the posture information closer to the optimum posture value is suitable for biometric authentication. This is a formula that can be processed very simply and at high speed. In this equation, the correlation between the living body detection score and the posture value is not particularly considered.
なお、生体認証適合スコア算出部44が生体認証適合スコアを求めるために、数式を使用する代わりに、実験を元に作成したテーブルを参照してスコアを求めるようにしてもよい。 Note that the biometric authentication suitability score calculation unit 44 may obtain a score by referring to a table created based on an experiment instead of using a mathematical formula in order to obtain the biometric authentication suitability score.
生体認証適合画像選択部38は、生体認証適合スコアを生体認証適合スコア算出部44から受け取った場合には、画像記憶部32から読み出した画像のうち、生体認証適合スコアが所定値以上の認証精度の高さを表している画像のみを画像送信部39に出力する。そして、画像送信部39は、生体認証適合画像選択部38から送られてきた画像を送信して生体認証装置20に送付する。 When the biometric authentication conformity score is received from the biometric authentication conformity score calculation unit 44, the biometric authentication conformity image selection unit 38 has an authentication accuracy with a biometric authentication conformity score of a predetermined value or more among images read from the image storage unit 32. Only the image representing the height of the image is output to the image transmission unit 39. Then, the image transmission unit 39 transmits the image sent from the biometric matching image selection unit 38 and sends it to the biometric authentication device 20.
なお、画像送信部39は、必要に応じて、送信する画像についての生体検出スコア及び生体認証適合スコアを送信するようにしてもよい。また、第二照明の下で画像撮影部31が生体部位を撮影して取得した、当該生体部位についての姿勢情報の検出用の画像についても、必要に応じて送信するようにしてもよい。 Note that the image transmission unit 39 may transmit a biometric detection score and a biometric authentication matching score for an image to be transmitted, as necessary. Moreover, you may make it transmit as needed also about the image for the detection of the posture information about the said biological body part which the image imaging part 31 image | photographed and acquired under the 2nd illumination.
また、画像記憶部32に、姿勢撮影タイミング判定部35による判定結果を表している情報を更に記憶させておくようにしてもよい。更に、画像記憶部32に、生体検出スコア算出部33が取得した生体検出スコア、姿勢情報算出部41及び姿勢情報補間部43が取得した姿勢情報、並びに、生体認証適合スコア算出部44が取得した生体認証スコアを記憶するようにしてもよい。 In addition, information representing the determination result by the posture shooting timing determination unit 35 may be further stored in the image storage unit 32. Further, the biometric detection score acquired by the biometric detection score calculation unit 33, the posture information acquired by the posture information calculation unit 41 and the posture information interpolation unit 43, and the biometric authentication conformity score calculation unit 44 are acquired in the image storage unit 32. A biometric score may be stored.
ここで図7について説明する。図7は、画像記憶部32に記憶される画像データ情報テーブルの構造の一例を図解したものである。
図7のテーブルには、「撮影通し番号」、「種別」、「生体検出スコア」、「検出姿勢情報」、「補間姿勢情報」、及び「生体認証適合スコア」の各項目が設けられている。
Here, FIG. 7 will be described. FIG. 7 illustrates an example of the structure of the image data information table stored in the image storage unit 32.
The table of FIG. 7 includes items of “imaging serial number”, “type”, “biometric detection score”, “detected posture information”, “interpolated posture information”, and “biometric authentication conformity score”.
「撮影通し番号」は、各画像の撮影順序を示す番号であり、この番号によって、この画像データ情報テーブルに示される各種の情報と、画像記憶部32に記憶されている、画像撮影部31が取得した画像のデータとが対応付けられる。 The “shooting serial number” is a number indicating the shooting order of each image. By this number, the various types of information shown in the image data information table and the image shooting unit 31 stored in the image storage unit 32 are acquired. Are associated with the image data.
「種別」は、「撮影通し番号」で特定される画像についての姿勢撮影タイミング判定部35の判定結果を表している情報、すなわち、この画像についての撮影時の撮影環境を表している情報である。ここで、『生体画像』は、この画像が、認証生体情報用の画像撮影に使用される第一照明を使用して生体部位の照明を行って撮影されたものであることを表している。また、『姿勢画像』は、この画像が、生体部位の姿勢情報検出用の画像撮影に使用される第二照明を使用して生体部位の照明を行って撮影されたものであることを表している。 “Type” is information indicating the determination result of the posture shooting timing determination unit 35 for the image specified by “shooting serial number”, that is, information indicating the shooting environment at the time of shooting for this image. Here, the “biological image” indicates that this image was taken by illuminating the living body part using the first illumination used for taking an image for authentication biometric information. In addition, the “posture image” represents that this image was taken by illuminating the living body part using the second illumination used for imaging for detecting posture information of the living body part. Yes.
「生体検出スコア」は、「種別」が『生体画像』である画像について生体検出スコア算出部33が取得した生体検出スコアの値である。
「検出姿勢情報」は、「種別」が『姿勢画像』である画像から姿勢情報算出部41が取得した姿勢情報である、当該画像の撮影時における生体部位の画像撮影部31からの距離である。
“Biometric detection score” is the value of the biological detection score acquired by the biological detection score calculation unit 33 for an image whose “type” is “biological image”.
“Detected posture information” is posture information acquired by the posture information calculation unit 41 from an image whose “type” is “posture image”, and is a distance from the image photographing unit 31 of the living body part at the time of photographing the image. .
「補間姿勢情報」は、「種別」が『生体画像』である画像について姿勢情報補間部43が補間演算により取得した姿勢情報の推定結果である、当該画像の撮影時における生体部位の画像撮影部31からの距離である。なお、図7のテーブル例では、「種別」が『姿勢画像』である画像については、「検出姿勢情報」と同一の値が「補間姿勢情報」として格納されている。 The “interpolation posture information” is an estimation result of posture information acquired by the posture information interpolation unit 43 by interpolation calculation for an image whose “type” is “biological image”, and an image photographing unit of the biological part at the time of photographing the image It is the distance from 31. In the table example of FIG. 7, for an image whose “type” is “posture image”, the same value as “detected posture information” is stored as “interpolation posture information”.
「生体認証適合スコア」は、「種別」が『生体画像』である画像について生体認証適合スコア算出部44が取得した生体認証適合スコアの値である。
画像送信部39は、このような画像データ情報テーブルが画像記憶部32に記憶されている場合には、画像を送信する際に、この画像についての情報を当該テーブルから読み出して当該画像と共に送信するようにしてもよい。
“Biometric authentication suitability score” is the value of the biometric authentication suitability score acquired by the biometric authentication suitability score calculation unit 44 for an image whose “type” is “biometric image”.
When such an image data information table is stored in the image storage unit 32, the image transmission unit 39 reads information about the image from the table and transmits it together with the image when transmitting the image. You may do it.
図5の生体画像撮影システム10は以上のように動作する。
なお、図3及び図5に図解した生体画像撮影システム10の一部の構成要素を、標準的な構成のコンピュータを用いて構成することができる。
The biological image photographing system 10 in FIG. 5 operates as described above.
Note that some components of the biological image capturing system 10 illustrated in FIGS. 3 and 5 can be configured using a computer having a standard configuration.
ここで図8について説明する。図8には、コンピュータのハードウェア構成例が図解されている。
このコンピュータ50は、MPU51、ROM52、RAM53、ハードディスク装置54、入力装置55、表示装置56、インタフェース装置57、及び記録媒体駆動装置58を備えている。なお、これらの構成要素はバスライン59を介して接続されており、MPU51の管理の下で各種のデータを相互に授受することができる。
Here, FIG. 8 will be described. FIG. 8 illustrates a hardware configuration example of a computer.
The computer 50 includes an MPU 51, a ROM 52, a RAM 53, a hard disk device 54, an input device 55, a display device 56, an interface device 57, and a recording medium drive device 58. These components are connected via a bus line 59, and various data can be exchanged under the management of the MPU 51.
MPU(Micro Processing Unit)51は、このコンピュータ50全体の動作を制御する演算処理装置である。
ROM(Read Only Memory)52は、所定の基本制御プログラムが予め記録されている読み出し専用半導体メモリである。MPU51は、この基本制御プログラムをコンピュータ50の起動時に読み出して実行することにより、このコンピュータ50の各構成要素の動作制御が可能になる。
An MPU (Micro Processing Unit) 51 is an arithmetic processing unit that controls the operation of the entire computer 50.
A ROM (Read Only Memory) 52 is a read-only semiconductor memory in which a predetermined basic control program is recorded in advance. The MPU 51 reads out and executes this basic control program when the computer 50 is activated, thereby enabling operation control of each component of the computer 50.
RAM(Random Access Memory)53は、MPU51が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。 A RAM (Random Access Memory) 53 is a semiconductor memory that can be written and read at any time and used as a working storage area as needed when the MPU 51 executes various control programs.
ハードディスク装置54は、MPU51によって実行される各種の制御プログラムや各種のデータを記憶しておく記憶装置である。MPU51は、ハードディスク装置54に記憶されている所定の制御プログラムを読み出して実行することにより、各種の制御処理を行えるようになる。 The hard disk device 54 is a storage device that stores various control programs executed by the MPU 51 and various data. The MPU 51 can perform various control processes by reading and executing a predetermined control program stored in the hard disk device 54.
入力装置55は、例えばキーボード装置やマウス装置であり、例えば生体画像撮影システム10の管理者により操作されると、その操作内容に対応付けられている管理者からの各種情報の入力を取得し、取得した入力情報をMPU51に送付する。 The input device 55 is, for example, a keyboard device or a mouse device. For example, when operated by the administrator of the biological image capturing system 10, the input device 55 acquires input of various information from the administrator associated with the operation content, The acquired input information is sent to the MPU 51.
表示装置56は例えば液晶ディスプレイであり、MPU51から送付される表示データに応じて各種のテキストや画像を表示する。
インタフェース装置57は、このコンピュータ50に接続される各種機器との間での各種情報の授受の管理を行う。
The display device 56 is, for example, a liquid crystal display, and displays various texts and images according to display data sent from the MPU 51.
The interface device 57 manages the exchange of various information with various devices connected to the computer 50.
記録媒体駆動装置58は、可搬型記録媒体60に記録されている各種の制御プログラムやデータの読み出しを行う装置である。MPU51は、可搬型記録媒体60に記録されている所定の制御プログラムを、記録媒体駆動装置58を介して読み出して実行することによって、後述する各種の制御処理を行うようにすることもできる。なお、可搬型記録媒体60としては、例えばCD−ROM(Compact Disc Read Only Memory)やDVD−ROM(Digital Versatile Disc Read Only Memory)、USB(Universal Serial Bus)規格のコネクタが備えられているフラッシュメモリなどがある。 The recording medium driving device 58 is a device that reads various control programs and data recorded on the portable recording medium 60. The MPU 51 can read out and execute a predetermined control program recorded on the portable recording medium 60 via the recording medium driving device 58 to perform various control processes described later. As the portable recording medium 60, for example, a flash memory equipped with a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), or a USB (Universal Serial Bus) standard connector. and so on.
このようなコンピュータ50を用いて生体画像撮影システム10の一部の構成要素を構成するには、例えば、次に説明する生体画像撮影制御処理をMPU51に行わせるための制御プログラムを作成する。作成された制御プログラムはハードディスク装置54若しくは可搬型記録媒体60に予め格納しておく。このプログラムでは、例えば、ハードディスク装置54を、画像記憶部32、姿勢撮影条件記憶部34、及び姿勢情報記憶部42として機能させるようにしておく。また、コンピュータ50のインタフェース装置57には、画像撮影部31と照明部36とを接続して、コンピュータ50が画像撮影部31及び照明部36を制御して生体部位の撮影を行わせ、得られた画像をコンピュータ50に取り込めるようにしておく。また、生体認証装置20もインタフェース装置57に接続して、各種の画像及び情報を生体認証装置20に送付することができるようにしておく。そして、MPU51に所定の指示を与えてこの制御プログラムを読み出させて実行させる。こうすることで、生体画像撮影システム10の構成要素が各々有している機能のコンピュータ50での提供が可能となる。 In order to configure some components of the biological image capturing system 10 using such a computer 50, for example, a control program for causing the MPU 51 to perform a biological image capturing control process described below is created. The created control program is stored in advance in the hard disk device 54 or the portable recording medium 60. In this program, for example, the hard disk device 54 is caused to function as the image storage unit 32, the posture shooting condition storage unit 34, and the posture information storage unit 42. The interface device 57 of the computer 50 is connected to the image capturing unit 31 and the illumination unit 36, and the computer 50 controls the image capturing unit 31 and the illumination unit 36 to perform imaging of a living body part. The captured image is stored in the computer 50. The biometric authentication device 20 is also connected to the interface device 57 so that various images and information can be sent to the biometric authentication device 20. Then, a predetermined instruction is given to the MPU 51 to read and execute this control program. By doing so, it is possible to provide the computer 50 with the functions that the components of the biological image capturing system 10 have.
次に図9及び図10について説明する。図9及び図10は、生体画像撮影制御処理の処理内容の第一の例を図解したフローチャートである。この制御処理の第一の例は、図5の生体画像撮影システム10で行われるものである。 Next, FIGS. 9 and 10 will be described. 9 and 10 are flowcharts illustrating a first example of the processing content of the biological image capturing control processing. A first example of this control processing is performed by the biological image photographing system 10 in FIG.
なお、この図9及び図10の処理おいて、生体画像撮影制御処理はS101からS112までの処理であり、S113の処理は、生体認証装置20が行う生体認証処理である。
この制御処理が開始されると、まず、図9のS101において、生体部位の全体を一様に照らす、前述した第一照明を使用した生体部位の照明を照明部36に行わせる処理を照明制御部37が行う。
9 and 10, the biometric image capturing control process is a process from S101 to S112, and the process of S113 is a biometric authentication process performed by the biometric authentication device 20.
When this control process is started, first, in S101 of FIG. 9, the illumination control is performed so that the illumination unit 36 performs illumination of the living body part using the first illumination described above, which uniformly illuminates the entire living body part. Performed by the unit 37.
次に、S102では、この第一照明の下で生体部位の撮影を画像撮影部31が行い、得られた画像を画像記憶部32に記憶させる処理を行う。
次に、S103では、S102の処理により画像記憶部32に記憶させた画像を読み出し、当該画像に映っている生体部位の像の面積を算出することで当該画像についての生体検出スコアを獲得する処理を生体検出スコア算出部33が行う。
Next, in S <b> 102, the image capturing unit 31 captures a living body part under the first illumination, and performs processing for storing the obtained image in the image storage unit 32.
Next, in S103, a process of reading the image stored in the image storage unit 32 by the process of S102, and obtaining a living body detection score for the image by calculating the area of the image of the living body part shown in the image. The living body detection score calculation unit 33 performs.
次に、S104では、S103の処理により得られた生体検出スコアが、姿勢撮影条件記憶部34に予め記憶させておいたいずれかの条件に合致するようになったか否かを判定する処理を姿勢撮影タイミング判定部35が行う。前述したように、この姿勢撮影条件記憶部34に記憶させておく条件は、姿勢情報の検出用の画像の取得のための撮影を行うか否かの判定基準とする条件であり、具体的には、前述の検出開始基準スコア、最適検出スコア、及び検出終了基準スコアである。 Next, in S104, the posture detection processing is performed to determine whether the living body detection score obtained by the processing in S103 matches any of the conditions stored in advance in the posture shooting condition storage unit 34. The imaging timing determination unit 35 performs this. As described above, the condition stored in the posture shooting condition storage unit 34 is a condition used as a criterion for determining whether or not to perform shooting for acquiring an image for detecting posture information. Are the above-described detection start reference score, optimum detection score, and detection end reference score.
このS104の判定処理において、生体検出スコアがいずれかの条件に合致するようになったと判定したとき(判定結果がYesのとき)にはS105に処理が進む。一方、生体検出スコアがいずれの条件にも合致しないと判定したとき(判定結果がNoのとき)には、S101に処理が戻って上述した処理が再び実行される。 In the determination process of S104, when it is determined that the living body detection score matches any of the conditions (when the determination result is Yes), the process proceeds to S105. On the other hand, when it is determined that the living body detection score does not match any of the conditions (when the determination result is No), the process returns to S101 and the above-described process is executed again.
次に、S105では、前述したスポット光の照明を照らす、前述した第二照明を使用した生体部位の照明を照明部36に行わせる処理を照明制御部37が行う。
次に、S106では、この第二照明の下での生体部位の撮影を画像撮影部31が行い、得られた画像を画像記憶部32に記憶させる処理を行う。
Next, in S <b> 105, the illumination control unit 37 performs a process of causing the illumination unit 36 to perform illumination of the living body part using the second illumination described above, which illuminates the illumination of the spot light described above.
Next, in S106, the imaging unit 31 performs imaging of the living body part under the second illumination, and performs processing for storing the obtained image in the image storage unit 32.
次に、S107では、S106の処理により画像記憶部32に記憶させた画像を読み出し、当該画像を用いて、当該生体部位についての姿勢情報の検出を姿勢情報算出部41が行い、得られた姿勢情報を姿勢情報記憶部42に記憶させる処理を行う。 Next, in S107, the image stored in the image storage unit 32 by the process of S106 is read, and the posture information calculation unit 41 detects posture information about the living body part using the image, and the obtained posture is obtained. Processing for storing the information in the posture information storage unit 42 is performed.
次に、S108では、画像記憶部32に蓄積されている、S106の処理により取得された姿勢情報検出用の画像の枚数が、予め定めておいた所定枚数(少なくとも2枚以上)に達したか否かを判定する処理を姿勢情報算出部41が行う。ここで、当該画像の枚数が当該所定枚数に達したと判定されたとき(判定結果がYesのとき)には、S109(図10)に処理が進む。一方、当該画像の枚数が未だ当該所定枚数に満たないと判定されたとき(判定結果がNoのとき)には、S101に処理が戻り、上述した処理が再度行われる。 Next, in S108, whether the number of posture information detection images stored in the image storage unit 32 and acquired in S106 has reached a predetermined number (at least two). The posture information calculation unit 41 performs processing for determining whether or not. Here, when it is determined that the number of the images has reached the predetermined number (when the determination result is Yes), the process proceeds to S109 (FIG. 10). On the other hand, when it is determined that the number of images is still less than the predetermined number (when the determination result is No), the process returns to S101 and the above-described process is performed again.
処理が図10に進み、S109では、S107の処理により姿勢情報記憶部42に記憶させた姿勢情報を読み出し、当該姿勢情報に基づく補間演算を行って、第一照明の下での取得画像についての姿勢情報を推定する処理を姿勢情報補間部43が行う。 The process proceeds to FIG. 10, and in S109, the attitude information stored in the attitude information storage unit 42 by the process of S107 is read out, and an interpolation operation based on the attitude information is performed to obtain the acquired image under the first illumination. The posture information interpolation unit 43 performs processing for estimating posture information.
次に、S110では、各画像についてS103の処理により求めた生体検出スコアとS107及びS109の処理により求めた姿勢情報とに基づき、前述したようにして生体認証適合スコアを算出する処理を生体認証適合スコア算出部44が行う。 Next, in S110, the process of calculating the biometric authentication suitability score as described above is performed based on the biometric detection score obtained by the process of S103 and the posture information obtained by the processes of S107 and S109 for each image. The score calculation unit 44 performs this.
次に、S111では、画像記憶部32から画像を読み出し、そのうちで、生体認証適合スコアが所定値以上の認証精度の高さを表している画像のみを選択する処理を生体認証適合画像選択部38が行う
次に、S112では、S111の処理により選択された画像と当該画像についての姿勢情報とを画像送信部39が生体認証装置20に送信する処理を行う。以上までの処理が生体画像撮影制御処理である。
Next, in S111, an image is read from the image storage unit 32, and a process of selecting only an image representing a high authentication accuracy with a biometric authentication conformity score equal to or higher than a predetermined value is performed. Next, in S112, the image transmission unit 39 performs a process of transmitting the image selected in the process of S111 and the posture information about the image to the biometric authentication device 20. The process up to this point is the biological image capturing control process.
次に、S113では、生体認証処理を生体認証装置20が行う。この処理では、生体認証装置20は、まず、S112の処理によって生体画像撮影システム10から送られてくる各種の情報を受信する処理を行う。そして、このうちの画像に対し、当該画像についての姿勢情報に基づいた画像の補正処理を施す。そして、当該補正後の画像を認証生体情報として使用して照合を実施し、予め登録されている利用者の登録生体情報と合致するかどうかを確かめる。 Next, in S113, the biometric authentication device 20 performs biometric authentication processing. In this process, the biometric authentication device 20 first performs a process of receiving various types of information sent from the biometric image capturing system 10 in the process of S112. Then, an image correction process is performed on the image among them based on the posture information about the image. Then, verification is performed using the corrected image as authentication biometric information, and it is confirmed whether or not it matches the preregistered user's registered biometric information.
以上のS113の処理が完了すると、図9及び図10の処理が終了する。
なお、S113の生体認証処理において、認証生体情報と登録生体情報とが合致しなかったと判定された場合には、上述した生体画像撮影制御処理を生体画像撮影システム10が所定回数繰り返し実行するようにしてもよい。この場合には、生体認証装置20は、この生体画像撮影制御処理の繰り返しによって認証生体情報としての画像が新たに得られる度に生体認証処理を行う。このとき、生体認証装置20は、認証生体情報と登録生体情報との両者がその繰り返しで一度でも一致すれば、本人確認ができたとの認証結果とし、その両者がその繰り返しの全てにおいて一致しなければ、本人確認がされなかったとの認証結果とする。
When the process of S113 is completed, the processes of FIGS. 9 and 10 are finished.
In the biometric authentication process of S113, if it is determined that the authentication biometric information and the registered biometric information do not match, the biometric image capturing system 10 repeatedly executes the biometric image capturing control process described above a predetermined number of times. May be. In this case, the biometric authentication device 20 performs the biometric authentication process every time an image as authentication biometric information is newly obtained by repeating this biometric image capturing control process. At this time, the biometric authentication device 20 makes an authentication result that the identity has been confirmed if both the authentication biometric information and the registered biometric information match at least once in the repetition, and both must match in all the repetitions. In this case, the authentication result indicates that the identity has not been verified.
本実施例の生体画像撮影システム10は、以上のように動作することで、被認証者の生体部位の撮影を行って、生体認証における認証生体情報として使用する生体画像を取得する。 By operating as described above, the biometric image capturing system 10 of the present embodiment captures a biometric part of the person to be authenticated, and acquires a biometric image used as authentication biometric information in biometric authentication.
ところで、図5の生体画像撮影システム10において行われている、認証生体情報として使用する画像についての生体認証適合スコアに基づいた選択を、生体認証装置20が代わって行うようにしてもよい。このようにすることで、生体画像撮影システム10の構成を簡素化することができる。 By the way, the biometric authentication apparatus 20 may perform the selection based on the biometric matching score for the image used as the authentication biometric information performed in the biometric image capturing system 10 of FIG. By doing in this way, the structure of the biological image imaging system 10 can be simplified.
ここで図11について説明する。図11は、生体画像撮影システムの別の一実施例の機能ブロック図である。
なお、図11の生体画像撮影システム70において、図5の生体画像撮影システム10が備えているものと同様の機能を有する機能ブロックには同一の符号を付している。これらの機能ブロックについての説明のうち、生体画像撮影システム10が有していたものと同一の機能についての説明は、ここでは省略する。
Here, FIG. 11 will be described. FIG. 11 is a functional block diagram of another embodiment of the biological image photographing system.
In the biometric image capturing system 70 of FIG. 11, functional blocks having the same functions as those provided in the biometric image capturing system 10 of FIG. Of the descriptions of these functional blocks, descriptions of the same functions as those of the biological image photographing system 10 are omitted here.
この図11の生体画像撮影システム70は、図5の生体画像撮影システム10から、姿勢情報算出部41、姿勢情報記憶部42、姿勢情報補間部43、生体認証適合スコア算出部44、及び生体認証適合画像選択部38の各機能ブロックが削除されている。従って、各機能ブロックは、図11の生体認証装置80が、図5の生体認証装置20が備えていた生体認証処理機能と共に備えるようにする。 The biometric image capturing system 70 in FIG. 11 is different from the biometric image capturing system 10 in FIG. 5 in that it includes a posture information calculation unit 41, a posture information storage unit 42, a posture information interpolation unit 43, a biometric authentication matching score calculation unit 44, and a biometric authentication. Each functional block of the suitable image selection unit 38 is deleted. Therefore, each functional block is provided in the biometric authentication device 80 in FIG. 11 together with the biometric authentication processing function provided in the biometric authentication device 20 in FIG.
なお、図11の生体画像撮影システム70においては、画像記憶部32は、姿勢撮影タイミング判定部35による判定結果に基づいて切り替えられた照明の下で画像撮影部31により撮影された画像に対応付けて、当該判定結果を表している情報を更に記憶する。また、画像送信部39は、画像記憶部32に記憶されている画像を、当該画像に対応付けられている姿勢撮影タイミング判定部35の判定結果の情報と共に順次読み出して送信する。生体認証装置80は、これらの画像と判定結果の情報とに基づき、姿勢情報の算出、姿勢情報の推定、生体認証適合スコアの算出、及び生体認証に適合する画像の選択を行い、選択された画像を認証生体情報として用いた生体認証を行う。 In the living body image capturing system 70 of FIG. 11, the image storage unit 32 is associated with an image captured by the image capturing unit 31 under illumination switched based on the determination result by the posture capturing timing determination unit 35. Thus, information representing the determination result is further stored. In addition, the image transmission unit 39 sequentially reads and transmits the images stored in the image storage unit 32 together with the determination result information of the posture shooting timing determination unit 35 associated with the image. Based on these images and the information of the determination result, the biometric authentication device 80 calculates posture information, estimates posture information, calculates a biometric authentication suitability score, and selects an image suitable for biometric authentication. Biometric authentication is performed using an image as authentication biometric information.
次に図12について説明する。図9及び図10は、生体画像撮影制御処理の処理内容の第二の例を図解したフローチャートである。この制御処理の第二の例は、図11の生体画像撮影システム70で行われるものである。 Next, FIG. 12 will be described. 9 and 10 are flowcharts illustrating a second example of the processing content of the biological image capturing control processing. A second example of this control process is performed by the biological image photographing system 70 of FIG.
なお、この図12の処理おいて、生体画像撮影制御処理はS201からS208までの処理であり、S209の処理は生体認証装置80が行う生体認証処理である。
この制御処理が開始されると、まず、S201において、生体部位の全体を一様に照らす、前述した第一照明を使用した生体部位の照明を照明部36に行わせる処理を照明制御部37が行う。
In the process of FIG. 12, the biometric image capturing control process is a process from S201 to S208, and the process of S209 is a biometric authentication process performed by the biometric authentication device 80.
When this control process is started, first, in S201, the illumination control unit 37 performs a process for causing the illumination unit 36 to illuminate the entire body part uniformly using the first illumination described above. Do.
次に、S202では、この第一照明の下で生体部位の撮影を画像撮影部31が行い、得られた画像と、この画像の得たときの撮影の環境の情報である、当該撮影時における照明(すなわち、第一照明)の選択情報とを画像記憶部32に記憶させる処理を行う。 Next, in S202, the image capturing unit 31 performs imaging of the living body part under the first illumination, and the obtained image and information on the imaging environment when the image is obtained are information at the time of the imaging. Processing for storing the selection information of the illumination (that is, the first illumination) in the image storage unit 32 is performed.
次に、S203では、S202の処理により画像記憶部32に記憶させた画像を読み出し、当該画像に映っている生体部位の像の面積を算出することで当該画像についての生体検出スコアを獲得する処理を生体検出スコア算出部33が行う。 Next, in S203, a process of reading the image stored in the image storage unit 32 by the process of S202, and obtaining a living body detection score for the image by calculating the area of the image of the living body part reflected in the image. The living body detection score calculation unit 33 performs.
次に、S204では、S203の処理により得られた生体検出スコアが、姿勢撮影条件記憶部34に予め記憶させておいたいずれかの条件に合致するようになったか否かを判定する処理を姿勢撮影タイミング判定部35が行う。前述したように、この姿勢撮影条件記憶部34に記憶させておく条件は、姿勢情報の検出用の画像の取得のための撮影を行うか否かの判定基準とする条件であり、具体的には、前述の検出開始基準スコア、最適検出スコア、及び検出終了基準スコアである。 Next, in S204, the posture detection processing is performed to determine whether or not the living body detection score obtained by the processing in S203 matches any of the conditions stored in the posture shooting condition storage unit 34 in advance. The imaging timing determination unit 35 performs this. As described above, the condition stored in the posture shooting condition storage unit 34 is a condition used as a criterion for determining whether or not to perform shooting for acquiring an image for detecting posture information. Are the above-described detection start reference score, optimum detection score, and detection end reference score.
このS204の判定処理において、生体検出スコアがいずれかの条件に合致するようになったと判定されたとき(判定結果がYesのとき)にはS205に処理が進む。一方、生体検出スコアがいずれの条件にも合致しないと判定されたとき(判定結果がNoのとき)には、S207に処理が進む。 In the determination process of S204, when it is determined that the living body detection score matches any of the conditions (when the determination result is Yes), the process proceeds to S205. On the other hand, when it is determined that the biometric detection score does not match any of the conditions (when the determination result is No), the process proceeds to S207.
次に、S205では、前述したスポット光の照明を照らす、前述した第二照明を使用した生体部位の照明を照明部36に行わせる処理を照明制御部37が行う。
次に、S206では、この第二照明の下で生体部位の撮影を画像撮影部31が行い、得られた画像と、この画像の得たときの撮影の環境の情報である、当該撮影時における照明(すなわち、第二照明)の選択情報とを画像記憶部32に記憶させる処理を行う。
Next, in S205, the illumination control unit 37 performs processing for causing the illumination unit 36 to illuminate the living body part using the second illumination described above, which illuminates the spot light illumination described above.
Next, in S206, the image capturing unit 31 performs imaging of the living body part under the second illumination, and the obtained image and information of the imaging environment when the image is obtained are information at the time of the imaging. Processing for storing the selection information of the illumination (that is, the second illumination) in the image storage unit 32 is performed.
次に、S207では、S203の処理により各画像について求められる生体検出スコアが認証生体情報としての使用に適する値の下限以上であるものが、所定個数以上得られたか否かを判定する処理を画像送信部39が行う。ここで、この条件に合致する生体検出スコアが所定個数得られたと判定されたとき(判定結果がYesのとき)にはS208に処理が進む。一方、この条件に合致する生体検出スコアの個数が所定個数に満たないと判定されたとき(判定結果がYesのとき)にはS201に処理が戻り、上述した処理が再度行われる。 Next, in S207, a process for determining whether a predetermined number or more of biometric detection scores obtained for each image by the process of S203 is equal to or more than the lower limit of values suitable for use as authentication biometric information is performed. The transmission unit 39 performs this. Here, when it is determined that a predetermined number of biometric detection scores satisfying this condition have been obtained (when the determination result is Yes), the process proceeds to S208. On the other hand, when it is determined that the number of biometric detection scores that match this condition is less than the predetermined number (when the determination result is Yes), the process returns to S201, and the above-described process is performed again.
S208では、画像記憶部32に記憶されている画像を、当該画像に対応付けられている照明の選択情報(すなわち、姿勢撮影タイミング判定部35の判定結果の情報)と共に順次読み出して送信する処理を画像送信部39が行う。以上までの処理が生体画像撮影制御処理である。 In S208, a process of sequentially reading and transmitting the images stored in the image storage unit 32 together with the illumination selection information associated with the image (that is, information on the determination result of the posture shooting timing determination unit 35). Performed by the image transmission unit 39. The process up to this point is the biological image capturing control process.
次に、S209では、生体認証処理を生体認証装置80が行う。この処理では、生体認証装置80は、まず、S208の処理によって生体画像撮影システム70から送られてくる各種の情報を受信する処理を行う。次に、受信した画像と判定結果の情報とに基づき、姿勢情報の算出、姿勢情報の推定、生体認証適合スコアの算出、及び生体認証に適合する画像の選択を行う。そして、選択された画像に対し、当該画像についての姿勢情報に基づいた画像の補正処理を施す。そして、当該補正後の画像を認証生体情報として使用して照合を実施し、予め登録されている利用者の登録生体情報と合致するかどうかを確かめる。 Next, in S209, the biometric authentication device 80 performs biometric authentication processing. In this process, the biometric authentication device 80 first performs a process of receiving various types of information sent from the biometric image capturing system 70 in the process of S208. Next, based on the received image and information on the determination result, calculation of posture information, estimation of posture information, calculation of a biometric authentication suitability score, and selection of an image suitable for biometric authentication are performed. Then, an image correction process is performed on the selected image based on the posture information about the image. Then, verification is performed using the corrected image as authentication biometric information, and it is confirmed whether or not it matches the preregistered user's registered biometric information.
以上のS209の処理が完了すると、図12の処理が終了する。
なお、S209の生体認証処理において、認証生体情報と登録生体情報とが合致しなかったと判定された場合には、上述した生体画像撮影制御処理を生体画像撮影システム70が所定回数繰り返し実行するようにしてもよい。この場合には、生体認証装置80は、の生体画像撮影制御処理の繰り返しによって認証生体情報としての画像が新たに得られる度に生体認証処理を行う。このとき、生体認証装置80は、認証生体情報と登録生体情報との両者がその繰り返しで一度でも一致すれば、本人確認ができたとの認証結果とし、その両者がその繰り返しの全てにおいて一致しなければ、本人確認がされなかったとの認証結果とする。
When the process of S209 described above is completed, the process of FIG.
In the biometric authentication process in S209, if it is determined that the authentication biometric information and the registered biometric information do not match, the biometric image capturing system 70 repeatedly executes the above-described biometric image capturing control process a predetermined number of times. May be. In this case, the biometric authentication device 80 performs the biometric authentication process every time an image as authentication biometric information is newly obtained by repeating the biometric image capturing control process. At this time, the biometric authentication device 80, if both the authentication biometric information and the registered biometric information match at least once, the authentication result indicates that the identity has been confirmed, and both must match in all the repetitions. In this case, the authentication result indicates that the identity has not been verified.
本実施例の生体画像撮影システム70は、以上のように動作して、被認証者の生体部位の撮影を行って、生体認証における認証生体情報として使用する生体画像を取得する。 The biometric image capturing system 70 of the present embodiment operates as described above, captures a biometric part of the person to be authenticated, and acquires a biometric image used as authentication biometric information in biometric authentication.
10、70 生体画像撮影システム
11 撮影部
12 第一算出部
13 選択部
14 出力部
15 検出部
16 推定部
17 第二算出部
20、80 生体認証装置
31 画像撮影部
32 画像記憶部
33 生体検出スコア算出部
34 姿勢撮影条件記憶部
35 姿勢撮影タイミング判定部
36 照明部
37 照明制御部
38 生体認証適合画像選択部
39 画像送信部
41 姿勢情報算出部
42 姿勢情報記憶部
43 姿勢情報補間部
44 生体認証適合スコア算出部
50 コンピュータ
51 MPU
52 ROM
53 RAM
54 ハードディスク装置
55 入力装置
56 表示装置
57 インタフェース装置
58 記録媒体駆動装置
59 バスライン
60 可搬型記録媒体
DESCRIPTION OF SYMBOLS 10, 70 Living body imaging | photography system 11 Imaging | photography part 12 1st calculation part 13 Selection part 14 Output part 15 Detection part 16 Estimation part 17 2nd calculation part 20, 80 Biometric authentication apparatus 31 Image imaging part 32 Image memory | storage part 33 Biometric detection score Calculation unit 34 Attitude imaging condition storage unit 35 Attitude imaging timing determination unit 36 Illumination unit 37 Illumination control unit 38 Biometric authentication compatible image selection unit 39 Image transmission unit 41 Attitude information calculation unit 42 Attitude information storage unit 43 Attitude information interpolation unit 44 Biometric authentication Compliance score calculation unit 50 computer 51 MPU
52 ROM
53 RAM
54 hard disk device 55 input device 56 display device 57 interface device 58 recording medium drive device 59 bus line 60 portable recording medium
Claims (11)
前記撮影部が取得した前記画像に基づき、該画像についての、生体認証における認証生体情報としての適性を表す指標を算出する第一算出部と、
前記撮影部が次に取得する前記画像である次画像の撮影時における撮影の環境を、該次画像よりも前に該撮影部が前記生体部位を撮影して取得していた前記画像について前記第一算出部が算出した前記指標に基づき、生体認証における認証生体情報として用いる画像の取得に使用する第一環境と、前記生体部位の姿勢の情報である姿勢情報の検出に用いる画像の取得に使用する第二環境との間で選択し、該撮影の環境を該選択された環境に切り替える選択部と、
前記選択部による前記選択の結果を表している撮影環境選択情報と、該選択結果に係る撮影環境の下で前記撮影部が取得した前記次画像とを対応付けて出力する出力部と、
を備えることを特徴とする生体画像撮影システム。 An imaging unit that sequentially images a living body part at predetermined time intervals to acquire an image of the living body part;
Based on the image acquired by the imaging unit, a first calculation unit that calculates an index representing the suitability of the image as authentication biometric information in biometric authentication;
The shooting environment at the time of shooting the next image, which is the image to be acquired next by the imaging unit, is described with respect to the image acquired by the imaging unit by imaging the living body part before the next image. Based on the index calculated by one calculation unit, the first environment used for acquiring an image used as authentication biometric information in biometric authentication, and used for acquiring an image used for detecting posture information that is posture information of the living body part A selection unit that selects between the second environment and the shooting environment to the selected environment;
An output unit that outputs the shooting environment selection information representing the result of the selection by the selection unit and the next image acquired by the shooting unit under the shooting environment according to the selection result;
A living body image photographing system comprising:
前記選択部は、前記次画像についての撮影よりも前に前記撮影部が前記生体部位を撮影して取得していた前記画像についての前記面積値が所定の複数の条件のうちの少なくとも1つに合致したときには、前記第二環境を、前記撮影の環境として選択し、該所定の複数の条件のいずれにも合致しないときには、前記第一環境を、該撮影の環境として選択する、
ことを特徴とする請求項1に記載の生体画像撮影システム。 The first calculation unit calculates, as the index, an area value of a region of the image of the living body part reflected in the image acquired by the imaging unit;
In the selection unit, the area value of the image acquired by the imaging unit imaging the living body part before imaging the next image is set to at least one of a plurality of predetermined conditions. When the two conditions match, the second environment is selected as the shooting environment, and when none of the predetermined plurality of conditions is met, the first environment is selected as the shooting environment.
The living body image photographing system according to claim 1.
前記第一環境の下で前記撮影部が前記次画像についての撮影を行った時点における前記姿勢情報の推定を、該時点の前及び後においての前記第二環境の下で該撮影部が前記生体部位を撮影して取得した前記画像を用いて前記検出部が検出した姿勢情報に基づいて行う推定部と、
を更に備えることを特徴とする請求項1から6のうちのいずれか一項に記載の生体画像撮影システム。 A detection unit for detecting posture information about the living body part using the image acquired by the imaging unit shooting the living body part under the second environment;
The posture information is estimated at the time when the image capturing unit has captured the next image under the first environment, and the image capturing unit performs the living body under the second environment before and after the time point. An estimation unit that performs based on posture information detected by the detection unit using the image acquired by imaging a site;
The living body image photographing system according to any one of claims 1 to 6, further comprising:
前記推定部は、前記時点の前及び後においての前記第二環境の下で前記撮影部が前記生体部位を撮影して取得した前記画像を用いて前記検出部が検出した前記距離に基づいた補間演算を行うことによって、前記次画像についての撮影を該撮影部が行った時点における該生体部位と該撮影部の撮影位置との間の距離を算出し、該算出結果を前記姿勢情報の推定の結果とする、
ことを特徴とする請求項7に記載の生体画像撮影システム。 The detection unit detects, as the posture information, a distance between the living body part and an imaging position of the imaging unit when the living body part is imaged,
The estimation unit performs interpolation based on the distance detected by the detection unit using the image acquired by the imaging unit imaging the living body part under the second environment before and after the time point. By calculating, the distance between the living body part and the imaging position of the imaging unit at the time when the imaging unit performed imaging for the next image is calculated, and the calculation result is used to estimate the posture information. As a result,
The living body image photographing system according to claim 7.
前記出力部は、前記撮影環境選択情報と前記次画像とを対応付けて出力する代わりに、前記次画像のうちで前記第二算出部により算出された指標が所定値以上の認証精度の高さを表しているもののみを出力する、
ことを特徴とする請求項7又は8に記載の生体画像撮影システム。 The index calculated by the first calculation unit for the next image acquired by the imaging unit imaging the biological part under the first environment, and the posture estimated by the estimation unit for the next image And a second calculation unit that calculates an index representing a level of authentication accuracy estimated when the biometric authentication is performed using the next image as the authentication biometric information based on the information,
Instead of outputting the shooting environment selection information and the next image in association with each other, the output unit has a high authentication accuracy in which the index calculated by the second calculation unit in the next image is a predetermined value or more. Output only what represents
The living body image photographing system according to claim 7 or 8, characterized in that.
前記撮影装置が次に取得する前記画像である次画像の撮影時における撮影の環境を、該次画像よりも前に該撮影装置が前記生体部位を撮影して取得していた前記画像についての前記指標に基づき、生体認証における認証生体情報として用いる画像の取得に使用する第一環境と、前記生体部位の姿勢の情報である姿勢情報の検出に用いる画像の取得に使用する第二環境との間で選択し、
前記撮影の環境を、前記選択された環境に切り替え、
前記選択の結果を表している撮影環境選択情報と、該選択結果に係る撮影環境の下で前記撮影装置が取得した前記次画像とを対応付けて出力する、
ことを特徴とする生体画像取得方法。 Based on the image acquired by the imaging device that sequentially captures the biological part at predetermined time intervals and acquires the image of the biological part, an index representing the suitability of the image as authentication biometric information in biometric authentication is calculated. ,
The shooting environment at the time of shooting the next image, which is the next image acquired by the imaging device, the image about the image acquired by imaging the living body part before the next image. Based on the index, between a first environment used for acquiring an image used as authentication biometric information in biometric authentication and a second environment used for acquiring an image used for detecting posture information that is posture information of the living body part Select with
Switch the shooting environment to the selected environment,
Shooting environment selection information representing the selection result and the next image acquired by the shooting device under the shooting environment related to the selection result are output in association with each other.
The biological image acquisition method characterized by the above-mentioned.
前記撮影装置が次に取得する前記画像である次画像の撮影時における撮影の環境を、該次画像よりも前に該撮影装置が前記生体部位を撮影して取得していた前記画像についての前記指標に基づき、生体認証における認証生体情報として用いる画像の取得に使用する第一環境と、前記生体部位の姿勢の情報である姿勢情報の検出に用いる画像の取得に使用する第二環境との間で選択し、
前記撮影の環境を、前記選択された環境に切り替え、
前記選択の結果を表している撮影環境選択情報と、該選択結果に係る撮影環境の下で前記撮影装置が取得した前記次画像とを対応付けて出力する、
処理をコンピュータに実行させるプログラム。 Based on the image acquired by the imaging device that sequentially captures the biological part at predetermined time intervals and acquires the image of the biological part, an index representing the suitability of the image as authentication biometric information in biometric authentication is calculated. ,
The shooting environment at the time of shooting the next image, which is the next image acquired by the imaging device, the image about the image acquired by imaging the living body part before the next image. Based on the index, between a first environment used for acquiring an image used as authentication biometric information in biometric authentication and a second environment used for acquiring an image used for detecting posture information that is posture information of the living body part Select with
Switch the shooting environment to the selected environment,
Shooting environment selection information representing the selection result and the next image acquired by the shooting device under the shooting environment related to the selection result are output in association with each other.
A program that causes a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011012084A JP2012155405A (en) | 2011-01-24 | 2011-01-24 | Biological image photography system, biological image acquisition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011012084A JP2012155405A (en) | 2011-01-24 | 2011-01-24 | Biological image photography system, biological image acquisition method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012155405A true JP2012155405A (en) | 2012-08-16 |
Family
ID=46837103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011012084A Pending JP2012155405A (en) | 2011-01-24 | 2011-01-24 | Biological image photography system, biological image acquisition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012155405A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2781185A1 (en) | 2013-03-19 | 2014-09-24 | Fujitsu Limited | Biometric information input apparatus, biometric information input program and biometric information input method |
JP2017162394A (en) * | 2016-03-11 | 2017-09-14 | 富士通株式会社 | Living body photographing device, living body photographing method, and living body photographing program |
JP2017162301A (en) * | 2016-03-10 | 2017-09-14 | 富士通株式会社 | Biometric authentication device, biometric authentication method, and biometric authentication program |
JP2022075288A (en) * | 2020-11-06 | 2022-05-18 | 株式会社日立製作所 | Photographing device, authentication device, and living body photographing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005227957A (en) * | 2004-02-12 | 2005-08-25 | Mitsubishi Electric Corp | Optimal face image recording device and optimal face image recording method |
JP2009301333A (en) * | 2008-06-13 | 2009-12-24 | Olympus Corp | Imaging device and personal authentication device |
JP2010231536A (en) * | 2009-03-27 | 2010-10-14 | Hitachi Software Eng Co Ltd | Method of detecting optimum position for imaging subject |
-
2011
- 2011-01-24 JP JP2011012084A patent/JP2012155405A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005227957A (en) * | 2004-02-12 | 2005-08-25 | Mitsubishi Electric Corp | Optimal face image recording device and optimal face image recording method |
JP2009301333A (en) * | 2008-06-13 | 2009-12-24 | Olympus Corp | Imaging device and personal authentication device |
JP2010231536A (en) * | 2009-03-27 | 2010-10-14 | Hitachi Software Eng Co Ltd | Method of detecting optimum position for imaging subject |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2781185A1 (en) | 2013-03-19 | 2014-09-24 | Fujitsu Limited | Biometric information input apparatus, biometric information input program and biometric information input method |
US9355297B2 (en) | 2013-03-19 | 2016-05-31 | Fujitsu Limited | Biometric information input apparatus and biometric information input method |
JP2017162301A (en) * | 2016-03-10 | 2017-09-14 | 富士通株式会社 | Biometric authentication device, biometric authentication method, and biometric authentication program |
JP2017162394A (en) * | 2016-03-11 | 2017-09-14 | 富士通株式会社 | Living body photographing device, living body photographing method, and living body photographing program |
JP2022075288A (en) * | 2020-11-06 | 2022-05-18 | 株式会社日立製作所 | Photographing device, authentication device, and living body photographing method |
JP7507659B2 (en) | 2020-11-06 | 2024-06-28 | 株式会社日立製作所 | Photographing device, authentication device, and biometric photographing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Stein et al. | Fingerphoto recognition with smartphone cameras | |
JP6165540B2 (en) | Blood vessel imaging device and terminal | |
US9330325B2 (en) | Apparatus and method for reducing noise in fingerprint images | |
JP6523925B2 (en) | Authentication apparatus using biometric information and authentication method | |
JP6544244B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
US8754934B2 (en) | Dual-camera face recognition device and method | |
EP3241151B1 (en) | An image face processing method and apparatus | |
US11006864B2 (en) | Face detection device, face detection system, and face detection method | |
WO2019080580A1 (en) | 3d face identity authentication method and apparatus | |
WO2019080578A1 (en) | 3d face identity authentication method and apparatus | |
WO2019080579A1 (en) | 3d face identity authentication method and apparatus | |
JP5780053B2 (en) | Biometric authentication device, biometric authentication method, and program | |
KR101640014B1 (en) | Iris recognition apparatus for detecting false face image | |
US9268408B2 (en) | Operating area determination method and system | |
CN107491744A (en) | Human body personal identification method, device, mobile terminal and storage medium | |
CN112784786A (en) | Human body posture recognition method and device | |
JP2012155405A (en) | Biological image photography system, biological image acquisition method, and program | |
JP2009282706A (en) | Vein authentication device and vein authentication method | |
WO2009110323A1 (en) | Living body judgment system, method for judging living body and program for judging living body | |
JP2010240215A (en) | Vein depth determination apparatus, vein depth determination method and program | |
JP2011022927A (en) | Hand image recognition device | |
KR101919138B1 (en) | Method and apparatus for remote multi biometric | |
JP2007052609A (en) | Hand area detection device, hand area detection method and program | |
JP2010039912A (en) | Device and method for acquiring vein pattern, and vein template | |
JP2007159610A (en) | Registration device, authentication device, registration authentication device, registration method, authentication method, registration program, and authentication program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140520 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150106 |