JP2016071591A - Verification device and verification method - Google Patents
Verification device and verification method Download PDFInfo
- Publication number
- JP2016071591A JP2016071591A JP2014199877A JP2014199877A JP2016071591A JP 2016071591 A JP2016071591 A JP 2016071591A JP 2014199877 A JP2014199877 A JP 2014199877A JP 2014199877 A JP2014199877 A JP 2014199877A JP 2016071591 A JP2016071591 A JP 2016071591A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- collation
- image
- data
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 51
- 238000012795 verification Methods 0.000 title claims description 40
- 238000012545 processing Methods 0.000 claims abstract description 81
- 238000001514 detection method Methods 0.000 claims abstract description 71
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 6
- 210000001747 pupil Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、照合装置および照合方法に関し、例えば、顔認証や指紋認証等のために、撮影した画像に基づいて照合を行う照合装置に関する。 The present invention relates to a collation apparatus and a collation method, for example, a collation apparatus that performs collation based on a captured image for face authentication, fingerprint authentication, and the like.
近年、コンピュータ室や重要機械室への入退室管理、コンピュータ端末や金融端末へのアクセス管理などの個人認証を必要とする分野において、これまでの暗証番号やIDカードに替わって、指紋認証や顔認証などのバイオメトリクス認証が採用されつつある。例えば特許文献1には、予め登録された顔や指紋の画像データと、カメラやセンサなどによって撮影された顔や指紋の画像データとを照合することにより、本人確認を行う照合装置が開示されている。 In recent years, in areas where personal authentication is required, such as entry / exit management for computer rooms and critical machine rooms, and access control for computer terminals and financial terminals, fingerprint authentication and face cards have been used instead of personal identification numbers and ID cards. Biometric authentication such as authentication is being adopted. For example, Patent Document 1 discloses a collation device that performs identity verification by collating pre-registered face or fingerprint image data with face or fingerprint image data captured by a camera or sensor. Yes.
このような照合装置では、撮影された画像がぼけていた場合、その後の照合や画像登録に係る処理に悪影響を及ぼす虞がある。例えば、撮影した顔や指紋等の画像データと登録済みの画像データを照合する照合時において、照合に用いる画像がぼけていると、本人照合が失敗したり、他人と誤認したりする可能性が高くなり、照合精度が低下する。また、顔や指紋等の画像データを登録時において、ぼけた画像をそのまま登録すると、その後の照合の際にエラーが生じ照合精度が低下する虞があるため、登録画像を撮り直す必要がある。 In such a collation device, when a photographed image is blurred, there is a possibility that it will adversely affect the processes relating to the subsequent collation and image registration. For example, when collating image data such as a captured face or fingerprint with registered image data, if the image used for collation is blurred, the person collation may fail or it may be misidentified as another person. Increases and collation accuracy decreases. Further, if a blurred image is registered as it is when registering image data such as a face and a fingerprint, an error may occur during subsequent verification, and the verification accuracy may be lowered. Therefore, it is necessary to re-take a registered image.
撮影時の画像のぼけを回避するための従来技術として、例えば特許文献2に、被写体の状態変化に基づいて撮影タイミングを決定する撮像装置が開示されている。特許文献2に開示された撮像装置では、タイマー撮影時に、本撮影の前にプレ撮影を行うことによって取得した2以上の画像の顔検出結果に基づいて、被写体が静止しているか否かを判定し、静止していると判定した後に本撮影を実行している。 As a conventional technique for avoiding blurring of an image at the time of shooting, for example, Patent Document 2 discloses an imaging device that determines shooting timing based on a change in the state of a subject. In the imaging apparatus disclosed in Patent Literature 2, it is determined whether or not the subject is stationary based on the face detection results of two or more images acquired by performing pre-photographing before the main photographing at the time of timer photographing. However, the main shooting is performed after determining that the camera is stationary.
しかしながら、特許文献2に記載の技術は、プレ撮影によって取得した画像に基づいて被写体が静止していると判定するものであって、本撮影によって取得した画像がぼけているか否かを判定するものではなく、本撮影による画像がぼけていないという保証はない。そのため、特許文献2に記載の技術を照合装置に適用したとしても、上述した照合や画像登録に係る処理への悪影響を適切に防ぐことができるとは言えない。
また、従来の照合装置では、撮影した画像がぼけているか否かに関わらず照合処理を行うため、画像がぼけていた場合には無駄な照合処理を行う可能性が高くなり、結果的に、照合に掛かる全体的な処理時間が長くなるという問題があった。
However, the technique described in Patent Document 2 determines that the subject is stationary based on an image acquired by pre-shooting, and determines whether the image acquired by main shooting is blurred. Rather, there is no guarantee that the image from the actual shooting is not blurred. For this reason, even if the technique described in Patent Document 2 is applied to a collation device, it cannot be said that the above-described adverse effects on the processes related to collation and image registration can be prevented appropriately.
In addition, in the conventional collation device, since the collation process is performed regardless of whether or not the captured image is blurred, there is a high possibility that a wasteful collation process is performed when the image is blurred. There has been a problem that the overall processing time required for verification becomes long.
本発明は、上記問題点を解消するためになされたものであり、照合装置において、照合精度の向上と照合に掛かる全体的な処理時間の短縮とを図ることを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to improve collation accuracy and shorten the overall processing time required for collation in a collation apparatus.
本発明に係る照合装置(1)は、撮像装置(2)によって撮影された画像の画像データ(21)を取得する画像データ取得部(10)と、前記画像データ取得部によって取得した画像データに基づいて、当該画像データに含まれる被写体の動きの有無を検出する動き検出処理部(12)と、前記動き検出処理部によって前記被写体の動きが検出されなかった場合に、前記画像データ取得部によって取得した画像データに基づいて、照合に用いる照合データを生成し、前記動き検出処理部によって前記被写体の動きが検出された場合に、前記照合画像データの生成を行わない照合画像データ生成部(13)と、照合対象の前記被写体を写した登録画像データ(151_1〜151_n)を記憶する記憶部(15)と、前記照合データ生成部によって生成された前記照合画像データと、前記記憶部に記憶された前記登録画像データとを照合する照合処理部(16)と、を有することを特徴とする。 The collation device (1) according to the present invention includes an image data acquisition unit (10) that acquires image data (21) of an image captured by the imaging device (2), and image data acquired by the image data acquisition unit. Based on the motion detection processing unit (12) that detects the presence or absence of motion of the subject included in the image data, and when the motion detection processing unit does not detect the motion of the subject, the image data acquisition unit Based on the acquired image data, collation data used for collation is generated, and the collation image data generation unit (13) that does not generate the collation image data when the motion detection processing unit detects the movement of the subject. ), Registered image data (151_1 to 151_n) showing the subject to be verified, and the verification data generation unit Wherein the collation image data generated Te, the verification processing unit for matching with the registered image data stored in the storage unit (16), characterized by having a.
上記照合装置において、前記照合データ生成部によって生成された前記照合画像データを前記登録画像データとして前記記憶部に記憶する画像登録部(14)を更に有してもよい。 The collation apparatus may further include an image registration unit (14) that stores the collation image data generated by the collation data generation unit in the storage unit as the registered image data.
上記照合装置において、前記動き検出処理部は、位相限定相関法により、前記画像データ取得部によって取得した撮影時間差のある2つの画像データに基づいて前記2つの画像データの移動量および相関強度を算出し、算出した前記移動量および前記相関強度に基づいて、前記被写体の動きの有無を検出してもよい。 In the verification device, the motion detection processing unit calculates a movement amount and correlation strength of the two image data based on two image data having a photographing time difference acquired by the image data acquisition unit by a phase only correlation method. Then, the presence or absence of the movement of the subject may be detected based on the calculated movement amount and the correlation strength.
上記照合装置において、前記画像データ取得部によって取得した前記画像データに含まれる前記被写体の特徴部分を含むエリアを検出するエリア検出部(11)を更に有し、前記動き検出処理部は、前記2つの画像データから前記エリア検出部によって検出された前記エリア内のデータを夫々抽出し、抽出したデータに基づいて前記2つの画像データ間の前記移動量および前記相関強度を算出してもよい。 The collation apparatus further includes an area detection unit (11) that detects an area including a characteristic portion of the subject included in the image data acquired by the image data acquisition unit, and the motion detection processing unit includes the 2 Data in the area detected by the area detection unit may be extracted from one image data, and the amount of movement and the correlation strength between the two image data may be calculated based on the extracted data.
上記照合装置において、前記2つの画像データは、インターレース画像の奇数フレームのデータおよび偶数フレームのデータであってもよい。 In the verification apparatus, the two image data may be odd frame data and even frame data of an interlaced image.
上記照合装置において、前記動き検出処理部によって前記被写体の動きが検出された場合に、エラーを報知するとともに前記撮像装置に対して再撮影を指示する報知部(17)を、更に有してもよい。 The collation apparatus may further include a notification unit (17) for notifying an error and instructing the imaging device to perform re-shooting when the movement of the subject is detected by the motion detection processing unit. Good.
本発明に係る照合方法は、撮像装置によって撮影された画像の画像データを取得する第1ステップ(S1)と、前記画像データ取得部によって取得した画像データに基づいて、当該画像データに含まれる被写体の動きの有無を検出する第2ステップ(S2)と、前記第2ステップにおいて前記被写体の動きが検出されなかった場合に、前記画像データ取得部によって取得した画像データに基づいて、照合に用いる照合データを生成する第3ステップ(S5、S6)と、前記第3ステップにおいて生成された前記照合画像データと、記憶部に記憶されている照合対象の前記被写体を写した登録画像データとを照合する第4ステップ(S7)とを含むことを特徴とする。 The collation method according to the present invention includes a first step (S1) for acquiring image data of an image captured by an imaging device, and a subject included in the image data based on the image data acquired by the image data acquisition unit. A second step (S2) for detecting the presence or absence of movement of the subject, and a collation used for the collation based on the image data acquired by the image data acquisition unit when the movement of the subject is not detected in the second step The third step (S5, S6) for generating data, the collation image data generated in the third step, and the registered image data showing the subject to be collated stored in the storage unit are collated. And a fourth step (S7).
なお、上記説明において括弧を付した参照符号は、図面において当該参照符号が付された構成要素の概念に含まれるものを例示するに過ぎない。 In the above description, the reference numerals with parentheses merely exemplify what are included in the concept of the constituent elements with the reference numerals in the drawings.
以上説明したことにより、本発明によれば、照合装置において、照合精度の向上と照合に掛かる全体的な処理時間の短縮を図ることができる。 As described above, according to the present invention, the collation apparatus can improve collation accuracy and shorten the overall processing time required for collation.
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[照合装置の構成]
図1は、本発明の一実施の形態に係る照合装置を備えた認証システムの構成を例示する図である。同図に示される認証システム100は、例えば、指紋認証、顔認証、静脈認証などの生体認証を用いて本人照合を行うものである。
[Configuration of verification device]
FIG. 1 is a diagram illustrating a configuration of an authentication system provided with a collation device according to an embodiment of the present invention. An authentication system 100 shown in the figure performs personal verification using biometric authentication such as fingerprint authentication, face authentication, vein authentication, and the like.
認証システム100は、照合装置1と撮像装置2とを含む。撮像装置2は、本人認証を行う人物の生体認証用の画像データ21を生成する。撮像装置2は、例えば近赤外光および可視光で撮影するステレオカメラであり、生成される画像データ21には、当該ステレオカメラで撮影された二次元画像データおよび三次元画像データが含まれる。照合装置1は、撮像装置2から取得した画像データに基づいて各種の認証のための処理を行う。 The authentication system 100 includes a verification device 1 and an imaging device 2. The imaging device 2 generates image data 21 for biometric authentication of a person who performs personal authentication. The imaging device 2 is a stereo camera that captures, for example, near-infrared light and visible light, and the generated image data 21 includes 2D image data and 3D image data captured by the stereo camera. The verification device 1 performs various authentication processes based on the image data acquired from the imaging device 2.
なお、本実施の形態では、一例として、認証システム100が顔認証を行うものとし、撮像装置2によって被写体の顔を撮影した画像の画像データ21に基づいて、照合装置1が顔認証のための各種処理を行うものとして説明する。 In the present embodiment, as an example, it is assumed that the authentication system 100 performs face authentication, and the matching device 1 performs face authentication based on the image data 21 of an image obtained by photographing the face of the subject by the imaging device 2. A description will be given assuming that various processes are performed.
具体的に、照合装置1は、撮像装置2によって撮影された被写体の顔の画像を照合対象の画像として登録する画像登録の機能と、撮像装置2によって撮影された顔の画像と、登録されている照合対象の画像とを照合する機能とを有している。更に、照合装置1は、撮像装置2によって撮影された画像に写っている被写体の動きの有無(画像のぶれの有無)を検出する動き検出機能を有しており、被写体の動きが検出されなかった場合に、画像登録と照合を行う。以下、照合装置1の具体的な構成について説明する。 Specifically, the collation device 1 is registered with an image registration function for registering a face image of a subject photographed by the imaging device 2 as a collation target image, and a face image photographed by the imaging device 2. And a function of collating with an image to be collated. Furthermore, the collation device 1 has a motion detection function that detects the presence or absence of motion of the subject (presence or absence of blurring of the image) in the image captured by the imaging device 2, and the motion of the subject is not detected. In the case of registration, image registration and verification are performed. Hereinafter, a specific configuration of the verification device 1 will be described.
照合装置1は、画像データ取得部10、エリア検出部11、動き検出処理部12、照合データ生成部13、画像登録部14、記憶部15、照合処理部16、および報知部17を有している。 The collation apparatus 1 includes an image data acquisition unit 10, an area detection unit 11, a motion detection processing unit 12, a collation data generation unit 13, an image registration unit 14, a storage unit 15, a collation processing unit 16, and a notification unit 17. Yes.
画像データ取得部10は、外部から本人認証を行う被写体(人物)の生体認証用の画像データを取得する機能部である。例えば、画像データ取得部10は、撮像装置2によって生成された画像データ21を入力し、一次的に保存する。 The image data acquisition unit 10 is a functional unit that acquires image data for biometric authentication of a subject (person) who performs personal authentication from the outside. For example, the image data acquisition unit 10 receives the image data 21 generated by the imaging device 2 and temporarily stores it.
エリア検出部11は、画像データ取得部10によって取得した画像データ21に含まれる特徴部分を含むエリアを検出する。具体的に、エリア検出部11は、画像データ21内の被写体の“顔”が写ったエリア(以下、「顔エリア」と称する。)を検出する。また、エリア検出部11は、画像データ21内の顔画像から、顔の特徴部分(例えば瞳、鼻、および口等)によって特定される特徴エリアの検出を行う。また、エリア検出部11は、検出したエリアを示すエリア情報を生成する。上記エリア情報には、例えば、検出したエリアの画像データ内の座標を示す座標情報が含まれる。 The area detection unit 11 detects an area including a feature portion included in the image data 21 acquired by the image data acquisition unit 10. Specifically, the area detection unit 11 detects an area in which the “face” of the subject in the image data 21 is captured (hereinafter referred to as “face area”). In addition, the area detection unit 11 detects a feature area specified by a facial feature (for example, a pupil, a nose, and a mouth) from a face image in the image data 21. Moreover, the area detection part 11 produces | generates the area information which shows the detected area. The area information includes, for example, coordinate information indicating coordinates in the image data of the detected area.
動き検出処理部12は、画像データ取得部10によって取得した画像データ21に基づいて、画像データ21に含まれる被写体の動きの有無を検出するための動き検出処理を行う。具体的に、動き検出処理部12は、位相限定相関法により、画像データ取得部10によって取得した撮影時間差のある2つの画像データ21_1、21_2に基づいて、2つの画像データ21_1、21_2の移動量dx、dyおよび相関強度aを算出し、算出した移動量dx,dyおよび相関強度aに基づいて、被写体の動きの有無を検出する。例えば、動き検出処理部12は、画像データ取得部10によって取得した2つの画像データから、エリア検出部11によって生成されたエリア情報(座標情報)によって特定されるエリアの画像データを夫々抽出し、抽出した2つの画像データに基づいて、画像データ21_1、21_2間の移動量および相関強度を算出する。 Based on the image data 21 acquired by the image data acquisition unit 10, the motion detection processing unit 12 performs a motion detection process for detecting the presence or absence of movement of the subject included in the image data 21. Specifically, the motion detection processing unit 12 uses the phase-only correlation method to move the two image data 21_1 and 21_2 based on the two image data 21_1 and 21_2 acquired by the image data acquisition unit 10 and having a photographing time difference. dx, dy and correlation strength a are calculated, and based on the calculated movement amounts dx, dy and correlation strength a, the presence or absence of movement of the subject is detected. For example, the motion detection processing unit 12 extracts the image data of the areas specified by the area information (coordinate information) generated by the area detection unit 11 from the two image data acquired by the image data acquisition unit 10, respectively. Based on the two extracted image data, the movement amount and correlation strength between the image data 21_1 and 21_2 are calculated.
照合データ生成部13は、画像データ取得部10によって取得した画像データ21に基づいて照合データを生成する。ここで、照合データとは、後述する照合処理部16による照合処理で用いるデータであり、例えば人物の顔部分の形状を3次元で表す点群データを含む。 The verification data generation unit 13 generates verification data based on the image data 21 acquired by the image data acquisition unit 10. Here, the collation data is data used in collation processing by the collation processing unit 16 to be described later, and includes, for example, point cloud data representing the shape of the face portion of a person in three dimensions.
具体的に、照合データ生成部13は、動き検出処理部12によって被写体の動きが検出されなかった場合に、画像データ21に含まれる2次元画像データおよび3次元画像データに基づいて3次元計測を行うとともに、その3次元計測結果に基づいて照合データを生成する。一方、動き検出処理部12によって被写体の動きが検出された場合には、照合データ生成部13は、照合画像データの生成を行わない。 Specifically, the collation data generation unit 13 performs three-dimensional measurement based on the two-dimensional image data and the three-dimensional image data included in the image data 21 when the movement of the subject is not detected by the movement detection processing unit 12. In addition, verification data is generated based on the three-dimensional measurement result. On the other hand, when the movement of the subject is detected by the motion detection processing unit 12, the verification data generation unit 13 does not generate verification image data.
報知部17は、動き検出処理部12によって被写体の動きが検出された場合に、エラーを報知するとともに、撮像装置2に対して再撮影を指示する。具体的なエラーの報知方法としては、例えば撮像装置2の近傍に設置されたコンソールの画面(例えばタッチパネルや液晶モニタの画面)にエラーを表示することによって、利用者(顔認証の対象者)にエラーおよび再撮影を行う旨を通知してもよいし、上記コンソールのスピーカから音声を出力することによってユーザにエラー等を通知してもよい。 When the motion detection processing unit 12 detects the movement of the subject, the notification unit 17 notifies an error and instructs the imaging device 2 to perform re-shooting. As a specific error notification method, for example, an error is displayed on a screen of a console (for example, a screen of a touch panel or a liquid crystal monitor) installed in the vicinity of the imaging device 2, so that the user (face authentication target person) is notified. An error and re-shooting may be notified, or an error or the like may be notified to the user by outputting sound from a speaker of the console.
記憶部15は、照合対象となるn人(nは1以上の整数)の人物の生体認証用の画像データ(以下、「登録画像データ」という。)151_1〜151_nを記憶する。登録画像データ151_1〜151_nは、例えば整理番号と対応付けて記憶部15に記憶されている。なお、登録画像データ151_1〜151_nを総称する場合には、登録画像データ151と表記する。 The storage unit 15 stores biometric authentication image data (hereinafter referred to as “registered image data”) 151_1 to 151_n of n persons (n is an integer of 1 or more) to be collated. The registered image data 151_1 to 151_n are stored in the storage unit 15 in association with the reference number, for example. Note that the registered image data 151_1 to 151_n are collectively referred to as registered image data 151.
画像登録部14は、画像登録時において、照合データ生成部13によって生成された照合データを登録画像データ151として記憶部15に記憶する。 The image registration unit 14 stores the collation data generated by the collation data generation unit 13 in the storage unit 15 as registered image data 151 at the time of image registration.
照合処理部16は、照合時において、照合データ生成部13によって生成された照合データと、記憶部15に記憶された登録画像データ151とを照合する照合処理を行い、照合データが何れかの登録画像データ151と一致したか否かの判定結果を出力する。 The collation processing unit 16 performs collation processing for collating the collation data generated by the collation data generating unit 13 with the registered image data 151 stored in the storage unit 15 at the time of collation. A determination result as to whether or not the image data 151 matches is output.
上述した照合装置1は、CPU等の演算装置と、RAM(Random Access Memory)やROM等のメモリ、HDD(Hard Disc Drive)等の記憶装置と、キーボード、マウス、ポインティングデバイス、操作ボタン、タッチパネル等の外部から情報の入力を検出する入力装置と、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等の通信回線を介して各種情報の送受信を行うI/F装置と、LCD(Liquid Crystal Display)等の表示装置を備えたコンピュータと、このコンピュータにインストールされたプログラムとから実現される。すなわち上記のハードウェア資源がプログラムによって制御されることにより、上述した画像データ取得部10、エリア検出部11、動き検出処理部12、照合データ生成部13、画像登録部14、記憶部15、照合処理部16、および報知部17が実現される。なお、上記プログラムは、CD−ROM、DVD−ROM、メモリカードなどの記録媒体に記録された状態で提供されるようにしてもよい。 The collation device 1 described above includes an arithmetic device such as a CPU, a memory such as a RAM (Random Access Memory) and a ROM, a storage device such as an HDD (Hard Disc Drive), a keyboard, a mouse, a pointing device, an operation button, a touch panel, and the like. An input device that detects the input of information from outside, an I / F device that transmits and receives various information via a communication line such as the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), and an LCD (Liquid) This is realized by a computer having a display device such as Crystal Display) and a program installed in the computer. That is, when the above hardware resources are controlled by a program, the above-described image data acquisition unit 10, area detection unit 11, motion detection processing unit 12, verification data generation unit 13, image registration unit 14, storage unit 15, verification The processing unit 16 and the notification unit 17 are realized. Note that the program may be provided in a state of being recorded on a recording medium such as a CD-ROM, a DVD-ROM, or a memory card.
[照合装置による照合動作]
次に、本実施の形態に係る照合装置1による照合動作について説明する。
図2は、本実施の形態に係る照合装置1による照合動作の全体的な処理の流れを示す図である。
[Verification operation by verification device]
Next, the collation operation by the collation apparatus 1 according to the present embodiment will be described.
FIG. 2 is a diagram showing an overall processing flow of the collating operation by the collating device 1 according to the present embodiment.
先ず、画像データ取得部10が、外部(撮像装置2)から入力された画像データ21を取得する(S1)。例えば、入退室管理の場合、入り口に設けられているステレオカメラ等によって入室しようとしている人物の画像が撮影され、その画像の画像データが画像データ取得部10に入力される。このとき、撮像装置2は、撮影時間差のある少なくとも2つの画像を撮影する。例えば撮影タイミングをずらして2回の撮影を行い、夫々の撮影によって得られた画像データを画像データ取得部10に入力してもよいし、撮像装置2がインターレース画像の撮影が可能なステレオカメラである場合には、1回の撮影で得られたインターレース画像の奇数フレームの画像データと偶数フレームの画像データとを画像データ取得部10に入力してもよい。画像データ取得部10が取得した画像データ21は、例えば、記憶部15に一時的に記憶される。 First, the image data acquisition unit 10 acquires image data 21 input from the outside (imaging device 2) (S1). For example, in the case of entrance / exit management, an image of a person who is going to enter a room is captured by a stereo camera or the like provided at the entrance, and the image data of the image is input to the image data acquisition unit 10. At this time, the imaging device 2 captures at least two images having a difference in photographing time. For example, the photographing timing may be shifted twice, and the image data obtained by each photographing may be input to the image data acquisition unit 10, or the imaging device 2 may be a stereo camera capable of photographing an interlaced image. In some cases, odd-numbered frame image data and even-numbered frame image data of an interlaced image obtained by one shooting may be input to the image data acquisition unit 10. The image data 21 acquired by the image data acquisition unit 10 is temporarily stored in the storage unit 15, for example.
次に、エリア検出部11が、ステップS1で取得した画像データ21を例えば記憶部15から読み出し、画像データ21に含まれる特徴部分を含むエリアを検出する(S2)。例えば、エリア検出部11は、画像データ取得部10によって取得された2つの画像データに基づいて、夫々の画像データに含まれる被写体(人物)の顔エリアと、2つの瞳および鼻によって特定される特徴エリアとを夫々検出し、検出したエリアのエリア情報を夫々生成する。 Next, the area detection unit 11 reads the image data 21 acquired in step S1 from, for example, the storage unit 15, and detects an area including a characteristic portion included in the image data 21 (S2). For example, the area detection unit 11 is specified based on two image data acquired by the image data acquisition unit 10 by a face area of a subject (person) included in each image data, two pupils, and a nose. Each characteristic area is detected, and area information of the detected area is generated.
その後、動き検出処理部12が、ステップS1で取得した画像データ21とステップS2で検出されたエリアのエリア情報とに基づいて、動き検出処理を実行する(S3)。動き検出処理の具体的な処理内容については後述する。
ステップS3の動き検出処理の結果、ステップS1で取得した画像データ21の被写体に動きがあると判定された場合には、報知部17は、利用者に対してエラーを報知するとともに、撮像装置2に対して再撮影を指示する(S4)。その後、再びステップS1に戻る。
Thereafter, the motion detection processing unit 12 performs a motion detection process based on the image data 21 acquired in step S1 and the area information of the area detected in step S2 (S3). Specific processing contents of the motion detection processing will be described later.
As a result of the motion detection process in step S3, when it is determined that the subject of the image data 21 acquired in step S1 has a motion, the notification unit 17 notifies the user of an error and also the imaging device 2. Is instructed to re-shoot (S4). Then, it returns to step S1 again.
一方、ステップS3の動き検出処理の結果、ステップS1で取得した画像データ21の被写体に動きがないと判定された場合には、照合データ生成部13は、ステップS1で取得した画像データ21に基づいて3次元計測を行う(S5)。例えば、照合データ生成部13は、ステップS1で取得した2つの画像データ21の何れか一方の画像データに含まれる2次元画像データおよび3次元画像データに基づいて3次元計測を行う。次に、照合データ生成部13は、ステップS5で実行した3次元計測の計測結果に基づいて、照合データを生成する(S6)。 On the other hand, if it is determined as a result of the motion detection process in step S3 that the subject of the image data 21 acquired in step S1 has no motion, the collation data generation unit 13 is based on the image data 21 acquired in step S1. Then, three-dimensional measurement is performed (S5). For example, the collation data generation unit 13 performs three-dimensional measurement based on the two-dimensional image data and the three-dimensional image data included in any one of the two image data 21 acquired in step S1. Next, the collation data generation part 13 produces | generates collation data based on the measurement result of the three-dimensional measurement performed at step S5 (S6).
照合データが生成されると、照合処理部16が、ステップS6で生成された照合データと、記憶部15に記憶されている登録画像データ151とを照合する照合処理を行い、照合データが何れかの登録画像データ151と一致したか否かの判定結果を出力する(S7)。例えば、入退室管理において、照合データが登録画像データ151の何れかと一致すると判定された場合には、照合装置1は、入退出用のドアを開ける制御を行う。一方、照合データが何れの登録画像データ151にも一致しないと判定された場合には、照合装置1は、入退出用のドアを開けることなく、例えばコンソールの画面にエラー情報を表示したり、スピーカからエラーを示す音を鳴らしたりすることにより、利用者に本人照合ができなかったことを通知する。
以上により、照合時における一連の処理が終了する。
When the collation data is generated, the collation processing unit 16 performs a collation process for collating the collation data generated in step S6 with the registered image data 151 stored in the storage unit 15, and the collation data is any one. A determination result as to whether or not it matches the registered image data 151 is output (S7). For example, in entry / exit management, when it is determined that the collation data matches any of the registered image data 151, the collation apparatus 1 performs control to open the entrance / exit door. On the other hand, if it is determined that the collation data does not match any registered image data 151, the collation device 1 displays error information on the screen of the console, for example, without opening the entrance / exit door, By making a sound indicating an error from the speaker, the user is notified that the identity verification has failed.
Thus, a series of processes at the time of collation is completed.
[動き検出処理]
次に、上記ステップS3における動き検出処理について詳細に説明する。
図3は、動き検出処理の処理フローを示す図である。ここでは、上記ステップS1においてインターレース画像の画像データが入力された場合を一例として説明する。
[Motion detection processing]
Next, the motion detection process in step S3 will be described in detail.
FIG. 3 is a diagram illustrating a process flow of the motion detection process. Here, a case where image data of an interlaced image is input in step S1 will be described as an example.
先ず、動き検出処理部12に、動き検出処理の対象となる2つの画像データが入力される(S31)。具体的には、上述のステップS1で取得された撮影時間差のある2つの画像データ(インターレース画像の奇数フレームおよび偶数フレームの画像データ)を入力する。 First, two pieces of image data to be subjected to motion detection processing are input to the motion detection processing unit 12 (S31). Specifically, two pieces of image data (image data of an odd frame and an even frame of an interlaced image) having a photographing time difference acquired in step S1 are input.
次に、動き検出処理部12は、入力した2つの画像データから、エリア検出部11によって検出されたエリアの画像データを抽出する(S32)。
図4に、動き検出処理部12による特徴エリアの画像データの抽出例を示す。同図において、参照符号200は、ステップS1で取得されたインターレース画像を示し、参照符号201は、ステップS2でエリア検出部11によって検出されたインターレース画像200内の顔エリアを示し、参照符号202は、ステップS2でエリア検出部11によって検出されたインターレース画像200の顔エリア201内の特徴エリアを示す。なお、同図では、人物の2つの瞳と鼻とで特定されるエリアを特徴エリア202とした場合が、一例として示されている。
図4に示されるように、動き検出処理部12は、例えばインターレース画像200の奇数フレームの画像データおよび偶数フレームの画像データから、エリア検出部11によって生成されたエリア情報(座標情報)によって特定されるエリア202の画像データ203、204を夫々抽出する。
Next, the motion detection processing unit 12 extracts the image data of the area detected by the area detection unit 11 from the two input image data (S32).
FIG. 4 shows an example of extraction of feature area image data by the motion detection processing unit 12. In the figure, reference numeral 200 indicates the interlaced image acquired in step S1, reference numeral 201 indicates the face area in the interlaced image 200 detected by the area detection unit 11 in step S2, and reference numeral 202 indicates The characteristic area in the face area 201 of the interlaced image 200 detected by the area detection unit 11 in step S2 is shown. In the figure, the case where the area specified by the two pupils and nose of the person is the feature area 202 is shown as an example.
As shown in FIG. 4, the motion detection processing unit 12 is specified by area information (coordinate information) generated by the area detection unit 11 from, for example, odd frame image data and even frame image data of the interlaced image 200. The image data 203 and 204 of the area 202 to be extracted are extracted.
次に、動き検出処理部12は、ステップS32で抽出した2つの画像データ間の相関を算出する(S33)。具体的に、動き検出処理部12は、位相限定相関法により、ステップS32で抽出した2つの画像データ203、204に基づいて、当該2つの画像データ203、204間の移動量dx、dyおよび相関強度aを算出する。より具体的には、動き検出処理部12は、先ず、ステップS32で抽出した2つの画像データ203、204から画素を間引いた画像データを夫々生成する。例えば、2つの画像データ203、204において横方向(行方向)に交互に一画素ずつ間引くことにより、64×64画素の画像データを夫々生成する。次に、画素を間引くことによって生成された2つの画像データ間の移動量dx、dyおよび相関強度aを位相限定相関法により算出する。
図5A、5Bに、位相限定相関法による2つの画像データ間の相関特性の一例を示す。図5Aには、2つの画像データに差がある(画像がぼけている)場合の相関特性を示し、図5Bには、2つの画像データに差がない(画像がぼけていない)場合の相関特性を示す。
Next, the motion detection processing unit 12 calculates a correlation between the two image data extracted in step S32 (S33). Specifically, the motion detection processing unit 12 uses the phase only correlation method based on the two image data 203 and 204 extracted in step S32, and the movement amounts dx and dy and the correlation between the two image data 203 and 204. The intensity a is calculated. More specifically, the motion detection processing unit 12 first generates image data obtained by thinning out pixels from the two image data 203 and 204 extracted in step S32. For example, 64 × 64 pixel image data is generated by thinning out two pixels alternately in the horizontal direction (row direction) in the two image data 203 and 204. Next, movement amounts dx, dy and correlation strength a between two pieces of image data generated by thinning out pixels are calculated by the phase-only correlation method.
5A and 5B show an example of correlation characteristics between two pieces of image data by the phase only correlation method. FIG. 5A shows the correlation characteristics when there is a difference between two image data (the image is blurred), and FIG. 5B shows the correlation when there is no difference between the two image data (the image is not blurred). Show properties.
2つの画像データに差がある場合には、図5Aに示されるように、x方向およびy方向の移動量dx、dyが大きくなり、且つ相関強度a(ピーク値peak)が小さくなる。一方、2つの画像データに差がない場合には、図5Bに示されるように、x方向およびy方向の移動量dx、dyが小さくなり、相関強度aが高くなる。 When there is a difference between the two image data, as shown in FIG. 5A, the movement amounts dx and dy in the x direction and the y direction increase, and the correlation strength a (peak value peak) decreases. On the other hand, when there is no difference between the two image data, as shown in FIG. 5B, the movement amounts dx and dy in the x direction and the y direction are reduced, and the correlation strength a is increased.
次に、動き検出処理部12は、ステップS34において算出した移動量dx,dyおよび相関強度aと、所定の閾値とを夫々比較する(S34)。例えば、予め、移動量dxの閾値xth、移動量dyの閾値yth、相関強度aの閾値athを夫々設定しておく。動き検出処理部12は、算出した移動量dxと閾値xthとを比較し、算出した移動量dyと閾値ythとを比較し、算出した相関強度aと閾値athとを比較する。
動き検出処理部12は、移動量dxが閾値xthより小さく、移動量dxが閾値xthより小さく、且つ相関強度aが閾値athよりも大きい(dx<xth、dy<yth、a>ath)場合に、画像データに含まれる被写体の動きがないと判定する(S35)。 一方、動き検出処理部12は、移動量dxが閾値xthより大きい、移動量dxが閾値xthより大きい、および相関強度aが閾値athよりも小さい、の何れかの条件を一つでも満たす場合(dx<xth、dy<yth、且つa>ath以外の条件である場合)には、画像データに含まれる被写体の動きがあると判定する(S36)。例えば、各閾値を夫々、|xth|=1、|yth|=1、ath=0.4と設定したとすると、図5Aの場合には、移動量dx=−5、移動量dy=4、相関強度a=0.28であることから、画像データに含まれる被写体の動きがあると判定される。一方、図5Bの場合、移動量dx=0、移動量dy=0、相関強度a=0.89であることから、画像データに含まれる被写体の動きがないと判定される。
以上により、動き検出処理の一連の処理が終了する。
Next, the motion detection processing unit 12 compares the movement amounts dx, dy and the correlation strength a calculated in step S34 with predetermined threshold values (S34). For example, the threshold value xth of the movement amount dx, the threshold value yth of the movement amount dy, and the threshold value ath of the correlation strength a are set in advance. The motion detection processing unit 12 compares the calculated movement amount dx with the threshold value xth, compares the calculated movement amount dy with the threshold value yth, and compares the calculated correlation strength a with the threshold value ath.
The motion detection processing unit 12 performs the case where the movement amount dx is smaller than the threshold value xth, the movement amount dx is smaller than the threshold value xth, and the correlation strength a is larger than the threshold value ath (dx <xth, dy <yth, a> ath). Then, it is determined that there is no movement of the subject included in the image data (S35). On the other hand, the motion detection processing unit 12 satisfies at least one of the following conditions: the movement amount dx is larger than the threshold value xth, the movement amount dx is larger than the threshold value xth, and the correlation strength a is smaller than the threshold value ath ( If the condition is other than dx <xth, dy <yth, and a> ath), it is determined that there is a movement of the subject included in the image data (S36). For example, if the threshold values are set as | xth | = 1, | yth | = 1, and ath = 0.4, in the case of FIG. 5A, the movement amount dx = −5, the movement amount dy = 4, Since the correlation strength a = 0.28, it is determined that there is a movement of the subject included in the image data. On the other hand, in the case of FIG. 5B, since the movement amount dx = 0, the movement amount dy = 0, and the correlation strength a = 0.89, it is determined that there is no movement of the subject included in the image data.
As described above, a series of the motion detection processing ends.
[照合処理]
次に、上記ステップS7における照合処理について詳細に説明する。
図6は、照合処理の処理フローを示す図である。ここでは、上記ステップS1においてインターレース画像の画像データが入力された場合を一例として説明する。
[Verification processing]
Next, the collation process in step S7 will be described in detail.
FIG. 6 is a diagram illustrating a processing flow of the collation processing. Here, a case where image data of an interlaced image is input in step S1 will be described as an example.
先ず、照合処理部16は、照合処理に用いる各パラメータの値を初期設定する(S71)。上記パラメータとしては、照合済みの登録画像(データ)の枚数を示す照合済み画像枚数tと、照合すべき登録画像(データ)の枚数を規定する登録画像枚数Nとを例示することができる。具体的に、照合処理部16は、記憶部50に記憶されている登録画像データ151の個数を登録画像枚数Nとして設定し、照合済み画像枚数tを“0(零)”に設定する。 First, the collation processing unit 16 initializes values of parameters used for the collation processing (S71). Examples of the parameters include a verified image number t indicating the number of registered images (data) that have been verified, and a registered image number N that defines the number of registered images (data) to be verified. Specifically, the collation processing unit 16 sets the number of registered image data 151 stored in the storage unit 50 as the registered image number N, and sets the collated image number t to “0 (zero)”.
次に、照合処理部16は、照合済み画像枚数tが登録画像枚数Nよりも小さいか否かを判定する(S72)。照合済み画像枚数tが登録画像枚数Nよりも小さい場合には、照合処理部16は、t番目の整理番号が付与された登録画像データ151を記憶部15から読み出す。例えば、照合済み画像枚数t=1の場合には、整理番号“1”が付与された登録画像データ151_1を記憶部15から読み出す。 Next, the collation processing unit 16 determines whether or not the collated image number t is smaller than the registered image number N (S72). When the collated image number t is smaller than the registered image number N, the collation processing unit 16 reads the registered image data 151 to which the t-th serial number is assigned from the storage unit 15. For example, when the number of collated images t = 1, registered image data 151_1 to which the reference number “1” is assigned is read from the storage unit 15.
照合処理部16は、ステップS73において読み出した登録画像データ151と上記ステップS6において生成された照合データとを比較して照合スコアを算出する(S74)。ここで、照合スコアとは、照合データと登録画像データとが類似している度合いを示す値である。例えば、照合処理部16は、位相限定相関法により照合データの特徴エリアを探索し、この特徴エリアと、当該特徴エリアに対応する登録画像データ内のエリアとを比較し、両者が類似している度合いを照合スコアとして算出する。本実施の形態において、照合スコアは、その数値が高いほど両者が類似しているものとする。 The matching processing unit 16 compares the registered image data 151 read in step S73 with the matching data generated in step S6, and calculates a matching score (S74). Here, the collation score is a value indicating the degree of similarity between the collation data and the registered image data. For example, the matching processing unit 16 searches for a feature area of the matching data by the phase-only correlation method, compares this feature area with an area in the registered image data corresponding to the feature area, and both are similar. The degree is calculated as a matching score. In the present embodiment, it is assumed that the collation score is more similar as the numerical value is higher.
照合スコアが算出されると、照合処理部16は、照合済み画像枚数tの数値をインクリメントする(S75)。その後、再びステップS72に戻り、照合済み画像枚数tが登録画像枚数Nよりも大きくなるまで、ステップS72〜S75の処理を繰り返し実行する。これにより、記憶部15に登録されている登録画像データ毎の照合スコアが算出される。 When the collation score is calculated, the collation processing unit 16 increments the numerical value of the collated image number t (S75). Thereafter, the process returns to step S72 again, and the processes of steps S72 to S75 are repeatedly executed until the collated image number t becomes larger than the registered image number N. Thereby, the collation score for each registered image data registered in the storage unit 15 is calculated.
ステップS72において、照合済み画像枚数tが登録画像枚数Nよりも大きい場合には、照合処理部16は、ステップS74で算出した登録画像データ毎の照合スコアに基づいて判定処理を実行する(S76)。例えば、照合処理部16は、ステップS74で照合スコアを算出した登録画像データの中から最も照合スコアの大きいものを選択し、選択した照合スコアが閾値を超えている場合には、照合データと一致する登録画像データのあると判定し、選択した照合スコアが上記閾値を超えていない場合には、登録画像データがないと判定する。以上により、一連の照合処理が終了する。 If the collated image number t is larger than the registered image number N in step S72, the collation processing unit 16 executes determination processing based on the collation score for each registered image data calculated in step S74 (S76). . For example, the matching processing unit 16 selects the registered image data having the highest matching score from the registered image data for which the matching score has been calculated in step S74, and matches the matching data when the selected matching score exceeds the threshold value. It is determined that there is registered image data to be registered, and if the selected collation score does not exceed the threshold value, it is determined that there is no registered image data. Thus, a series of collation processes is completed.
[照合装置による画像登録動作]
次に、本実施の形態に係る照合装置による画像登録動作について説明する。
図7は、本実施の形態に係る照合装置による画像登録動作の全体的な処理の流れを示す図である。
例えば、入退室管理の場合、先ず、入り口に設けられているステレオカメラ等の近傍に設置されたコンソールを管理者等が操作することにより、本人照合に用いる画像の登録が指示されると、照合装置1は画像登録動作を開始する。画像登録動作を開始してからの処理は、ステップS1〜S6まで、前述した照合動作(図2)と同様である。ステップS6において、ステップS1で取得した画像データに係る照合データが生成されると、画像登録部14は、生成された照合データを登録画像データ151として記憶部15に記憶する。このとき、画像登録部14は、既に記憶部15に記憶されている登録画像データ151に付与されている整理番号と異なる整理番号を付与し、当該整理番号とともに登録画像データを記憶部15に記憶する。以上により、画像登録のための一連の動作が終了する。
[Image registration by collator]
Next, an image registration operation by the collation device according to the present embodiment will be described.
FIG. 7 is a diagram showing an overall processing flow of the image registration operation by the collation apparatus according to the present embodiment.
For example, in the case of entrance / exit management, first, when an administrator or the like operates a console installed in the vicinity of a stereo camera or the like provided at the entrance, the registration of an image used for personal verification is instructed. The apparatus 1 starts an image registration operation. The processing after the start of the image registration operation is the same as the above-described collation operation (FIG. 2) from step S1 to S6. In step S <b> 6, when collation data related to the image data acquired in step S <b> 1 is generated, the image registration unit 14 stores the generated collation data in the storage unit 15 as registered image data 151. At this time, the image registration unit 14 assigns a reference number different from the reference number assigned to the registered image data 151 already stored in the storage unit 15, and stores the registered image data in the storage unit 15 together with the reference number. To do. Thus, a series of operations for image registration is completed.
以上説明したように、本実施の形態に係る照合装置によれば、照合時において、撮像装置によって撮影された画像に含まれる被写体の動きの有無(画像のぶれの有無)を動き検出処理によって検出し、被写体の動きがないと判定した場合に画像の照合を行うので、ぼけのない画像のみを取得することができ、ぼけた画像に基づく照合処理が行われることを防ぐことができる。これにより、本人照合の失敗や他人との誤認等が起こり難くなり、照合精度を高めることができる。また、動き検出処理により被写体の動きがあると判定した場合には画像の照合を行わないので、従来の照合失敗時に行われていた無駄な処理を省くことができ、照合に掛かる全体的な処理時間の短縮を図ることができる。 As described above, according to the collation device according to the present embodiment, at the time of collation, the presence / absence of motion of the subject included in the image captured by the imaging device (presence / absence of image blur) is detected by the motion detection process. In addition, since it is possible to collate images when it is determined that there is no movement of the subject, it is possible to acquire only images without blurring, and to prevent collation processing based on blurred images. As a result, it becomes difficult for the verification of the identity verification or misidentification with others to occur, and the accuracy of verification can be improved. In addition, when it is determined that there is movement of the subject by the motion detection process, image verification is not performed, so it is possible to omit useless processing that has been performed in the case of conventional verification failure, and overall processing related to verification Time can be shortened.
また、画像登録時においても、被写体の動きがないと判定した場合にのみ画像の登録を行うので、ぼけのない画像を登録画像として登録することができ、照合精度の向上に資する。 In addition, when an image is registered, the image is registered only when it is determined that there is no movement of the subject. Therefore, an image without blur can be registered as a registered image, which contributes to improvement of collation accuracy.
また、本実施の形態に係る照合装置によれば、動き検出処理において位相限定相関法によって算出した移動量dx、dyと相関強度aとに基づいて被写体の動きの有無を判定するので、高い検出精度が期待できる。また、位相限定相関法で用いる2つの画像データとして、インターレース画像の奇数フレームの画像データおよび偶数フレームの画像データを用いるので、2つの画像データを得るために撮像装置によって撮影を1回行えばよく、撮影の手間を省くことができる。 Further, according to the collation device according to the present embodiment, since the presence / absence of the movement of the subject is determined based on the movement amounts dx, dy calculated by the phase-only correlation method and the correlation strength a in the motion detection process, high detection is performed. Accuracy can be expected. In addition, since the odd frame image data and the even frame image data of the interlaced image are used as the two image data used in the phase only correlation method, it is only necessary to perform shooting once by the imaging device in order to obtain the two image data. This saves you the trouble of shooting.
更に、本実施の形態に係る照合装置によれば、動き検出処理により被写体の動きがあると判定した場合に、利用者にエラーを報知するとともに撮像装置に対して再撮影を指示するので、認証のやり直しのための再撮影を行うまでの時間を短縮することができ、照合に掛かる全体的な処理時間の更なる短縮を図ることができる。 Furthermore, according to the collation device according to the present embodiment, when it is determined that there is a movement of the subject by the motion detection process, an error is notified to the user and a re-shooting is instructed to the imaging device. It is possible to reduce the time until re-photographing for redoing, and further reduce the overall processing time required for collation.
以上、本発明者らによってなされた発明を実施の形態に基づいて具体的に説明したが、本発明はそれに限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。 Although the invention made by the present inventors has been specifically described based on the embodiments, it is needless to say that the present invention is not limited thereto and can be variously modified without departing from the gist thereof. Yes.
例えば、上記実施の形態において、顔画像の特徴エリアとして、2つの瞳と鼻とから特定されるエリアを抽出する場合を例示したが、顔の特徴部分(眼、鼻、口、眉毛等)を含むエリアであれば、その他のエリアであってもよい。 For example, in the above embodiment, a case where an area specified from two pupils and a nose is extracted as a feature area of a face image is exemplified. However, a feature part of a face (eye, nose, mouth, eyebrows, etc.) is extracted. Other areas may be used as long as they are included.
また、上記実施の形態において、画像取得部10によって取得した画像データ200から抽出した特徴エリア202のデータを抽出して移動量等を算出する場合を例示したが(図4参照)、顔エリア201のデータを抽出して移動量等を算出してもよいし、特徴エリアを抽出せずに画像データ200の全体から移動量等を算出してもよい。 In the above embodiment, the case where the data of the feature area 202 extracted from the image data 200 acquired by the image acquisition unit 10 is extracted to calculate the movement amount and the like is illustrated (see FIG. 4). The movement amount or the like may be calculated by extracting the data, or the movement amount or the like may be calculated from the entire image data 200 without extracting the feature area.
また、上記実施の形態において、照合装置が顔画像の画像データを登録・照合する場合を例示したが、顔画像の代わりに指紋等の画像データを登録・照合する照合装置においても同様に適用することができる。 In the above embodiment, the case where the collation device registers and collates the image data of the face image is exemplified. However, the same applies to the collation device that registers and collates image data such as a fingerprint instead of the face image. be able to.
また、上記実施の形態において、取得した顔画像の動きの有無を検出し、動きがないと判定した場合に取得した顔画像に基づく各種の処理を行う技術を顔認証装置に適用する場合を例示したが、これに限られず、上記技術を、例えば監視カメラに適用することも可能である。例えば、監視カメラで撮影した画像データから被写体の動きの有無を検出し、被写体の動きがない顔画像のみを検索できるようにすることも可能である。 Also, in the above embodiment, the case where the presence or absence of motion of the acquired face image is detected and a technique for performing various processes based on the acquired face image when it is determined that there is no motion is exemplified in the face authentication device However, the present invention is not limited to this, and the above technique can be applied to, for example, a surveillance camera. For example, it is possible to detect the presence or absence of the movement of the subject from the image data captured by the monitoring camera, and to search only the face image without the movement of the subject.
100…認証システム、1…照合装置、2…撮像装置、10…画像データ取得部、11…エリア検出部、12…動き検出処理部、13…照合データ生成部、14…画像登録部、15…記憶部、16…照合処理部、17…報知部、21、21_1、21_2…画像データ、21、21_1、21_2…画像データ、151_1〜151_n…登録画像データ、200…画像データ(インターレース画像)、201…顔エリア、202…特徴エリア、203…奇数フレームの画像データ、204…偶数フレームの画像データ。 DESCRIPTION OF SYMBOLS 100 ... Authentication system, 1 ... Collation apparatus, 2 ... Imaging device, 10 ... Image data acquisition part, 11 ... Area detection part, 12 ... Motion detection process part, 13 ... Collation data generation part, 14 ... Image registration part, 15 ... Storage unit, 16 ... collation processing unit, 17 ... notification unit, 21, 21_1, 21_2 ... image data, 21, 21_1, 21_2 ... image data, 151_1 to 151_n ... registered image data, 200 ... image data (interlaced image), 201 ... Face area, 202 ... Feature area, 203 ... Image data of odd frames, 204 ... Image data of even frames.
Claims (11)
前記画像データ取得部によって取得した画像データに基づいて、当該画像データに含まれる被写体の動きの有無を検出する動き検出処理部と、
前記動き検出処理部によって前記被写体の動きが検出されなかった場合に、前記画像データ取得部によって取得した画像データに基づいて、照合に用いる照合データを生成し、前記動き検出処理部によって前記被写体の動きが検出された場合に、前記照合データの生成を行わない照合データ生成部と、
照合対象の前記被写体を写した登録画像データを記憶する記憶部と、
前記照合データ生成部によって生成された前記照合データと、前記記憶部に記憶された前記登録画像データとを照合する照合処理部と、を有する
ことを特徴とする照合装置。 An image data acquisition unit for acquiring image data of an image captured by the imaging device;
Based on the image data acquired by the image data acquisition unit, a motion detection processing unit for detecting the presence or absence of movement of the subject included in the image data;
When the movement of the subject is not detected by the motion detection processing unit, verification data used for verification is generated based on the image data acquired by the image data acquisition unit, and the motion detection processing unit A collation data generation unit that does not generate the collation data when a motion is detected;
A storage unit for storing registered image data in which the subject to be verified is copied;
A collation apparatus comprising: a collation processing unit that collates the collation data generated by the collation data generation unit and the registered image data stored in the storage unit.
前記照合データ生成部によって生成された前記照合データを前記登録画像データとして前記記憶部に記憶する画像登録部を更に有する
ことを特徴とする照合装置。 The verification apparatus according to claim 1,
The collation apparatus further comprising an image registration unit that stores the collation data generated by the collation data generation unit in the storage unit as the registered image data.
前記動き検出処理部は、位相限定相関法により、前記画像データ取得部によって取得した撮影時間差のある2つの画像データに基づいて前記2つの画像データの移動量および相関強度を算出し、算出した前記移動量および前記相関強度に基づいて、前記被写体の動きの有無を検出する
ことを特徴とする照合装置。 The verification apparatus according to claim 1,
The motion detection processing unit calculates a movement amount and correlation strength of the two image data based on two image data having a photographing time difference acquired by the image data acquisition unit by a phase only correlation method, and calculates the calculated A collation apparatus that detects presence or absence of movement of the subject based on a movement amount and the correlation strength.
前記画像データ取得部によって取得した前記画像データに含まれる前記被写体の特徴部分を含むエリアを抽出するエリア検出部を更に有し、
前記動き検出処理部は、前記2つの画像データから、前記エリア検出部によって検出された前記エリア内のデータを夫々抽出し、抽出したデータに基づいて前記2つの画像データ間の前記移動量および前記相関強度を算出する
ことを特徴とする照合装置。 In the collation device according to claim 3,
An area detection unit for extracting an area including a characteristic part of the subject included in the image data acquired by the image data acquisition unit;
The motion detection processing unit extracts the data in the area detected by the area detection unit from the two image data, respectively, and based on the extracted data, the movement amount between the two image data and the A collation device that calculates correlation strength.
前記2つの画像データは、インターレース画像の奇数フレームのデータおよび偶数フレームのデータである
ことを特徴とする照合装置。 In the collation device according to claim 3 or 4,
The two image data are odd frame data and even frame data of an interlaced image.
前記動き検出処理部によって前記被写体の動きが検出された場合に、エラーを報知するとともに前記撮像装置に対して再撮影を指示する報知部を、更に有する
ことを特徴とする照合装置。 In the collation device according to any one of claims 1 to 5,
The collating apparatus further comprising: a notifying unit that notifies an error and instructs the imaging device to perform re-shooting when the motion of the subject is detected by the motion detection processing unit.
前記画像データ取得部によって取得した画像データに基づいて、当該画像データに含まれる被写体の動きの有無を検出する第2ステップと、
前記第2ステップにおいて前記被写体の動きが検出されなかった場合に、前記画像データ取得部によって取得した画像データに基づいて、照合に用いる照合データを生成する第3ステップと、
前記第3ステップにおいて生成された前記照合データと、記憶部に記憶されている照合対象の前記被写体を写した登録画像データとを照合する第4ステップと、を含む
ことを特徴とする照合方法。 A first step of acquiring image data of an image photographed by the imaging device;
A second step of detecting presence or absence of movement of a subject included in the image data based on the image data acquired by the image data acquisition unit;
A third step of generating collation data used for collation based on the image data acquired by the image data acquisition unit when the movement of the subject is not detected in the second step;
And a fourth step of collating the collation data generated in the third step with registered image data in which the subject to be collated stored in the storage unit is copied.
前記第2ステップは、
位相限定相関法により、前記第1ステップで取得した撮影時間差のある2つの画像データに基づいて前記2つの画像データの移動量および相関強度を算出する第5ステップと、 算出した前記移動量および前記相関強度に基づいて、前記被写体の動きの有無を検出する第6ステップと、を含む
ことを特徴とする照合方法。 The collation method according to claim 7,
The second step includes
A fifth step of calculating a movement amount and correlation strength of the two image data based on two image data having a photographing time difference obtained in the first step by a phase only correlation method, and the calculated movement amount and the And a sixth step of detecting the presence / absence of the movement of the subject based on the correlation strength.
前記第1ステップによって取得した前記画像データに含まれる前記被写体の特徴部分を含むエリアを検出する第7ステップを更に有し、
前記第5ステップは、前記2つの画像データから、前記第7ステップにおいて検出された前記エリアのデータを抽出し、抽出したデータに基づいて、前記移動量および前記相関強度を算出するステップである
ことを特徴とする照合方法。 The verification method according to claim 8,
A seventh step of detecting an area including a characteristic portion of the subject included in the image data acquired by the first step;
The fifth step is a step of extracting the area data detected in the seventh step from the two image data, and calculating the movement amount and the correlation strength based on the extracted data. A matching method characterized by
前記2つの画像データは、インターレース画像の奇数フレームのデータおよび偶数フレームのデータである
ことを特徴とする照合方法。 In the collation method according to claim 8 or 9,
The two image data are odd frame data and even frame data of an interlaced image.
前記第2ステップにおいて前記被写体の動きが検出された場合に、エラーを報知するとともに前記撮像装置に対して再撮影を指示する第8ステップとを、更に有する
ことを特徴とする照合方法。 In the collation method as described in any one of Claims 7 thru | or 10,
A verification method further comprising an eighth step of notifying an error and instructing the imaging apparatus to perform re-imaging when a movement of the subject is detected in the second step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014199877A JP2016071591A (en) | 2014-09-30 | 2014-09-30 | Verification device and verification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014199877A JP2016071591A (en) | 2014-09-30 | 2014-09-30 | Verification device and verification method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016071591A true JP2016071591A (en) | 2016-05-09 |
Family
ID=55864709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014199877A Pending JP2016071591A (en) | 2014-09-30 | 2014-09-30 | Verification device and verification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016071591A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019121080A (en) * | 2017-12-28 | 2019-07-22 | シヤチハタ株式会社 | Authentication image acquisition device, authentication image acquisition system, and authentication image acquisition method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004320286A (en) * | 2003-04-15 | 2004-11-11 | Nikon Gijutsu Kobo:Kk | Digital camera |
JP2005229568A (en) * | 2004-01-15 | 2005-08-25 | Shibasoku:Kk | Motion vector detecting apparatus |
JP2008199549A (en) * | 2007-02-15 | 2008-08-28 | Hitachi Ltd | Surveillance image processing method, surveillance system, and surveillance image processing program |
JP2011035456A (en) * | 2009-07-29 | 2011-02-17 | Kyocera Corp | Motion amount detection device and method thereof, and imaging device |
JP2012118817A (en) * | 2010-12-01 | 2012-06-21 | Canon Inc | Image processing device and image processing method, program, and storage medium |
-
2014
- 2014-09-30 JP JP2014199877A patent/JP2016071591A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004320286A (en) * | 2003-04-15 | 2004-11-11 | Nikon Gijutsu Kobo:Kk | Digital camera |
JP2005229568A (en) * | 2004-01-15 | 2005-08-25 | Shibasoku:Kk | Motion vector detecting apparatus |
JP2008199549A (en) * | 2007-02-15 | 2008-08-28 | Hitachi Ltd | Surveillance image processing method, surveillance system, and surveillance image processing program |
JP2011035456A (en) * | 2009-07-29 | 2011-02-17 | Kyocera Corp | Motion amount detection device and method thereof, and imaging device |
JP2012118817A (en) * | 2010-12-01 | 2012-06-21 | Canon Inc | Image processing device and image processing method, program, and storage medium |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019121080A (en) * | 2017-12-28 | 2019-07-22 | シヤチハタ株式会社 | Authentication image acquisition device, authentication image acquisition system, and authentication image acquisition method |
JP7098131B2 (en) | 2017-12-28 | 2022-07-11 | シヤチハタ株式会社 | Authentication image acquisition device, authentication image acquisition system, and authentication image acquisition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6809226B2 (en) | Biometric device, biometric detection method, and biometric detection program | |
Stein et al. | Fingerphoto recognition with smartphone cameras | |
CN106156578B (en) | Identity verification method and device | |
CN106203297B (en) | A kind of personal identification method and device | |
WO2020134527A1 (en) | Method and apparatus for face recognition | |
JP5159950B2 (en) | Image processing apparatus, method, and program | |
WO2017101267A1 (en) | Method for identifying living face, terminal, server, and storage medium | |
CN109766785B (en) | Method and device for liveness detection of human face | |
JP6443842B2 (en) | Face detection device, face detection system, and face detection method | |
JP2018036965A (en) | Living body detection device | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
WO2020065954A1 (en) | Authentication device, authentication method, and storage medium | |
JP2016134803A (en) | Image processor and image processing method | |
JP7268725B2 (en) | Image processing device, image processing method, and image processing program | |
JP2014115821A (en) | Face feature extraction device and face authentication system | |
CN105993022B (en) | Method and system for recognition and authentication using facial expressions | |
JP2008009689A (en) | Face registration device, face authentication device, and face registration method | |
JP6289308B2 (en) | Information processing apparatus and program | |
JP6819689B2 (en) | Image processing equipment, stagnant object tracking system, image processing method and recording medium | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
JP2016071591A (en) | Verification device and verification method | |
JP2017162010A (en) | Person collation system and person collation method | |
Chin et al. | Automated attendance capture and tracking system | |
JP6471924B2 (en) | Face authentication apparatus and face authentication method | |
WO2022172430A1 (en) | Determination method, determination program, and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180410 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181120 |