[go: up one dir, main page]

JP2011159030A - Subject authentication apparatus, subject authentication method and program - Google Patents

Subject authentication apparatus, subject authentication method and program Download PDF

Info

Publication number
JP2011159030A
JP2011159030A JP2010018948A JP2010018948A JP2011159030A JP 2011159030 A JP2011159030 A JP 2011159030A JP 2010018948 A JP2010018948 A JP 2010018948A JP 2010018948 A JP2010018948 A JP 2010018948A JP 2011159030 A JP2011159030 A JP 2011159030A
Authority
JP
Japan
Prior art keywords
subject
feature information
image data
face
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010018948A
Other languages
Japanese (ja)
Inventor
Yuichi Nomoto
悠一 野元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010018948A priority Critical patent/JP2011159030A/en
Publication of JP2011159030A publication Critical patent/JP2011159030A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a state in which a subject can not be correctly authenticated due to temporary variation in similarity. <P>SOLUTION: A face detection part 113 detects a first subject area from image data. A face tracking processing part 114 tracks changes with the lapse of time from past image data about a second subject area in which the subject has been authenticated on the basis of the image data. A feature information extraction processing part 115 extracts first feature information of the subject from the first subject area. A similarity calculation processing part 117 compares the first feature information with the second feature information stored in a feature information storage part 116 and calculates similarity between the subject corresponding to the first feature information and the subject corresponding to the second feature information. A threshold determination part 119 sets a different threshold according to whether or not the second subject area corresponding to the first subject area is tracked. An authentication determination part 120 authenticates coincidence between the subject corresponding to the first feature information and the subject corresponding to the second feature information according to a compared result of the calculated similarity with the threshold. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像データ内の被写体領域に含まれる被写体を認証する技術に関するものである。   The present invention relates to a technique for authenticating a subject included in a subject region in image data.

認証の処理機能を備えた撮像装置では、撮像装置で撮影して得られた画像データから、特定の被写体領域が含まれる被写体画像領域を検出する。次に撮像装置は、当該被写体画像領域の画像データから、その被写体領域を被認証対象として識別するための特徴情報を抽出し、抽出した特徴情報と予めデータベースに登録されている登録対象の画像の特徴情報とを比較する。次に撮像装置は、比較結果から被認証対象と登録対象との類似度を判定し、類似度に基づいて、被認証対象がどの登録対象であるか、又は該当する登録対象がいないかの認証を行う。このような技術の例として、撮影して得られた画像データから特定の被写体領域として人物の顔を検出し、この顔の特徴情報を抽出して、この顔が誰であるか個人認証を行うシステムが存在する。   In an imaging device having an authentication processing function, a subject image region including a specific subject region is detected from image data obtained by photographing with the imaging device. Next, the imaging apparatus extracts feature information for identifying the subject area as the authentication target from the image data of the subject image area, and extracts the extracted feature information and the registration target image registered in the database in advance. Compare with feature information. Next, the imaging apparatus determines the similarity between the authentication target and the registration target from the comparison result, and based on the similarity, authenticates which registration target is the authentication target or there is no corresponding registration target I do. As an example of such a technique, a face of a person is detected as a specific subject area from image data obtained by photographing, and feature information of the face is extracted, and personal authentication is performed as to who this face is. System exists.

特開2008−271310号公報JP 2008-271310 A

しかしながら、上述したような個人認証処理を行うに際し、画像データ中の顔の大きさ、顔の向き及び顔の明るさ等の要因で類似度が変動し、あるフレームでは正しく認証できるが次のフレームでは誤認証することがある。また、認証を行わないフレームで顔検出や被写体追尾を用いて認証した顔を追跡する際、誤って追跡することも考えられるため、一度認証された顔も定期的に認証を繰り返すことが望ましい。   However, when performing the personal authentication process as described above, the degree of similarity varies depending on factors such as the size of the face in the image data, the orientation of the face, the brightness of the face, and the like. Then, there is a case of false authentication. In addition, when tracking a face that has been authenticated using face detection or subject tracking in a frame where authentication is not performed, it may be possible to track the face incorrectly, so it is desirable to periodically authenticate a once authenticated face.

そこで本発明の目的は、一時的な類似度の変動で被写体が正しく認証されなくなることを低減することにある。   Accordingly, an object of the present invention is to reduce a situation in which a subject is not correctly authenticated due to a temporary change in similarity.

本発明の被写体認証装置は、画像データから第1の被写体領域を検出する検出手段と、被写体が認証済みの第2の被写体領域の、前記画像データより過去の画像データからの経時的な変化を追跡する追跡手段と、前記第1の被写体領域から被写体の第1の特徴情報を抽出する抽出手段と、前記抽出手段により抽出された前記第1の特徴情報と記憶手段において予め記憶される第2の特徴情報とを比較し、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との類似度を算出する第1の算出手段と、前記第1の被写体領域に対応する前記第2の被写体領域が前記追跡手段により追跡されているか否かに応じて異なる閾値を設定する設定手段と、前記第1の算出手段により算出された類似度と前記設定手段により設定された閾値との比較結果に応じて、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との一致性を認証する認証手段とを有することを特徴とする。   The subject authentication device according to the present invention is configured to detect a temporal change from image data that is earlier than the image data of a detection unit that detects a first subject region from image data, and a second subject region for which the subject has been authenticated. Tracking means for tracking, extraction means for extracting first feature information of the subject from the first subject area, and second feature information stored in advance in the first feature information and storage means extracted by the extraction means First calculation means for comparing the feature information of the subject and the degree of similarity between the subject corresponding to the first feature information and the subject corresponding to the second feature information; and Setting means for setting different thresholds depending on whether or not the corresponding second subject area is being tracked by the tracking means, and the similarity calculated by the first calculation means and the setting means are set by the setting means. Depending on the result of comparison between the threshold value, and having an authentication means for authenticating the consistency of the object corresponding to the object and the second characteristic information corresponding to the first characteristic information.

本発明によれば、既に認証済みの被写体の被写体領域が追跡されており、その被写体領域の被写体が認証中の被写体と同一らしいときに、一時的な類似度の変動で被写体が正しく認証されなくなることを低減することができる。   According to the present invention, when the subject area of a subject that has already been authenticated is tracked and the subject in the subject area seems to be the same as the subject being authenticated, the subject is not correctly authenticated due to a temporary change in similarity. This can be reduced.

本発明の実施形態に係る個人認証機能を備えた撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device provided with the personal authentication function which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置による個人認証処理を示すフローチャートである。It is a flowchart which shows the personal authentication process by the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置による相関値算出方法を説明するための図である。It is a figure for demonstrating the correlation value calculation method by the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置による閾値設定方法を説明するための図である。It is a figure for demonstrating the threshold value setting method by the imaging device which concerns on embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。図1は、本発明の実施形態に係る個人認証機能を備えた撮像装置の構成を示すブロック図である。図1に示す撮像装置は、撮影して得られた画像データから特定の被写体領域として人物の顔を検出し、この顔の特徴情報を抽出して、その顔が誰であるかを識別する個人認証を行う機能を有する。なお、本実施形態に係る撮像装置は、本発明の被写体認証装置の適用例となる構成である。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus having a personal authentication function according to an embodiment of the present invention. The image pickup apparatus shown in FIG. 1 detects a person's face as a specific subject area from image data obtained by photographing, extracts the feature information of the face, and identifies who the face is Has a function to perform authentication. Note that the imaging apparatus according to the present embodiment has a configuration that is an application example of the subject authentication apparatus of the present invention.

図1において、101は撮像レンズである。102はフォーカスレンズである。本実施形態に係る撮像装置は、フォーカスレンズ102を制御することにより、撮像される被写体の合焦状態を制御することが可能に構成されている。103は撮像レンズ101を通過した被写体の光束を光電変換し、電気信号に変換するCCDやCMOS等の撮像素子である。104は撮像素子103から出力されたアナログの画像信号にクランプ処理、ゲイン処理等を行い、ディジタル信号である画像データに変換するA/D変換部である。105はディジタル信号処理部であり、A/D変換部104からの画像データに対して予め定められた画素補間処理や色変換処理を実行する。ディジタル信号処理部105で信号処理された画像データは記録再生部106に供給され、光ディスク記録媒体、半導体記録媒体等、各種のユーザの要求で取り外し可能な記録媒体107に記録される。また、画像データは表示制御部108に送られ、表示装置109での画像データの表示が制御される。   In FIG. 1, reference numeral 101 denotes an imaging lens. Reference numeral 102 denotes a focus lens. The imaging apparatus according to the present embodiment is configured to be able to control the focus state of the subject to be imaged by controlling the focus lens 102. Reference numeral 103 denotes an image sensor such as a CCD or CMOS that photoelectrically converts the light flux of the subject that has passed through the imaging lens 101 and converts it into an electrical signal. Reference numeral 104 denotes an A / D conversion unit that performs clamp processing, gain processing, and the like on the analog image signal output from the image sensor 103 and converts the analog image signal into image data that is a digital signal. Reference numeral 105 denotes a digital signal processing unit that executes predetermined pixel interpolation processing and color conversion processing on the image data from the A / D conversion unit 104. The image data signal-processed by the digital signal processing unit 105 is supplied to the recording / reproducing unit 106, and is recorded on a recording medium 107 that can be removed according to various user requirements, such as an optical disk recording medium and a semiconductor recording medium. Further, the image data is sent to the display control unit 108, and the display of the image data on the display device 109 is controlled.

110はシステム制御部である。システム制御部110は、基本的に撮像装置全体の動作を制御するものであって、通常内部にCPUを備える。例えば、システム制御部110は、撮像して得られる画像データを用いて予め定められた演算処理を実行し、その演算結果に基づいて、焦点制御部111及び露出制御部112を制御する。この制御により、焦点制御部111はフォーカスレンズ102に対して自動焦点制御(AF)を実行し、露出制御部112は撮像レンズ101内の絞り及びシャッタ、さらには撮像素子103の電子シャッタに対して自動露出制御(AE)を実行する。   Reference numeral 110 denotes a system control unit. The system control unit 110 basically controls the operation of the entire imaging apparatus, and usually includes a CPU inside. For example, the system control unit 110 executes predetermined calculation processing using image data obtained by imaging, and controls the focus control unit 111 and the exposure control unit 112 based on the calculation result. With this control, the focus control unit 111 performs automatic focus control (AF) on the focus lens 102, and the exposure control unit 112 controls the aperture and shutter in the imaging lens 101 and further the electronic shutter of the image sensor 103. Perform automatic exposure control (AE).

113は顔検出部である。顔検出部113は、撮像する画像データに含まれる被写体から、目、口等のエッジを検出して人物の顔の特徴部分を検出する。即ち、顔検出部113は、顔が占める画像データの領域(顔位置と顔の大きさ)、顔の確からしさ(顔信頼度)から、その画像領域のデータを顔画像データとして検出する顔検出処理や識別処理を実行する。さらに顔検出部113は、検出した顔画像データの数も同時に検出する。顔検出処理は、個人認証のように個人別に参照用データを蓄積しておく必要がないため、個人認証と比較して十分に早く処理を完了させることが可能である。   Reference numeral 113 denotes a face detection unit. The face detection unit 113 detects edges of eyes, mouths, and the like from subjects included in the image data to be captured to detect a feature portion of a person's face. That is, the face detection unit 113 detects face image data as face image data from the image data area (face position and face size) occupied by the face and the likelihood of the face (face reliability). Perform processing and identification processing. Further, the face detection unit 113 detects the number of detected face image data at the same time. Since the face detection process does not need to store reference data for each individual as in the case of personal authentication, the process can be completed sufficiently earlier than the personal authentication.

114は顔追跡処理部であり、顔検出部113で検出された顔画像データから抽出可能な情報を用いて、タイミングの異なる画像フレーム間で同じ人物の顔の経時的な変化を追跡する。顔追跡処理部114の機能の詳細については後述する。   Reference numeral 114 denotes a face tracking processing unit, which uses information that can be extracted from the face image data detected by the face detecting unit 113 to track changes in the face of the same person over time between image frames having different timings. Details of the function of the face tracking processing unit 114 will be described later.

115は特徴情報抽出処理部であり、顔検出部113で検出された顔画像データと、個人認証用に登録された人物の顔画像データとから、個人認証の際に用いられる特徴情報を抽出する。116は特徴情報記憶部であり、個人認証用に登録された人物の顔画像データから特徴情報抽出処理部115で抽出された特徴情報を記憶する。なお、特徴情報抽出処理部115によって抽出される特徴情報は、本発明の第1の特徴情報の例であり、特徴情報記憶部116において記憶される特徴情報は、本発明の第2の特徴情報の例である。   A feature information extraction processing unit 115 extracts feature information used in personal authentication from the face image data detected by the face detection unit 113 and the face image data of a person registered for personal authentication. . A feature information storage unit 116 stores the feature information extracted by the feature information extraction processing unit 115 from the face image data of a person registered for personal authentication. The feature information extracted by the feature information extraction processing unit 115 is an example of the first feature information of the present invention, and the feature information stored in the feature information storage unit 116 is the second feature information of the present invention. It is an example.

117は類似度算出処理部であり、特徴情報記憶部116において記憶されている少なくとも一人の顔画像データの特徴情報と、特徴情報抽出処理部115で抽出された顔画像データの特徴情報とを比較し、その比較結果である類似度を算出する。   A similarity calculation processing unit 117 compares the feature information of at least one face image data stored in the feature information storage unit 116 with the feature information of the face image data extracted by the feature information extraction processing unit 115. Then, the similarity that is the comparison result is calculated.

なお、特徴情報抽出処理部115で抽出される特徴情報には、例えば目、鼻、口及び顔の輪郭といった物理的な形状の特徴や各々の相対位置を示す情報を用いることができる。類似度算出処理部117は、これらの特徴情報でパターンマッチングを行い、特徴情報記憶部116において特徴情報が記憶されている顔画像データと、特徴情報抽出処理部115で特徴情報が抽出された顔画像データとがどれくらい似ているかを表す値(類似度)を算出する。   Note that, as the feature information extracted by the feature information extraction processing unit 115, for example, physical shape features such as eyes, nose, mouth, and facial contours, and information indicating their relative positions can be used. The similarity calculation processing unit 117 performs pattern matching using these feature information, and the face image data in which the feature information is stored in the feature information storage unit 116 and the face from which the feature information is extracted by the feature information extraction processing unit 115 A value (similarity) representing how much the image data is similar is calculated.

118は相関値算出処理部であり、顔検出部113で検出された顔画像データから抽出可能な情報を用いて顔画像データの相関を示す相関値を算出する。119は閾値決定部であり、相関値算出処理部118により算出された相関値に応じて閾値を決定する。120は認証判定部であり、類似度算出処理部117によって算出された類似度と、相関値算出処理部118により算出された相関値に応じて閾値決定部119で決定された閾値とを比較する。類似度が閾値以上である場合、認証判定部120は、類似度算出に用いられた2つの顔画像データの顔の一致性を判定することにより、当該2つの顔データが同一の人物のものであるかの認証を実行する。相関値算出処理部118及び閾値決定部119の詳細については後述する。   A correlation value calculation processing unit 118 calculates a correlation value indicating the correlation of the face image data using information that can be extracted from the face image data detected by the face detection unit 113. Reference numeral 119 denotes a threshold value determination unit that determines a threshold value according to the correlation value calculated by the correlation value calculation processing unit 118. An authentication determination unit 120 compares the similarity calculated by the similarity calculation processing unit 117 with the threshold determined by the threshold determination unit 119 according to the correlation value calculated by the correlation value calculation processing unit 118. . When the similarity is equal to or greater than the threshold, the authentication determination unit 120 determines whether the two face data are of the same person by determining the matching of the faces of the two face image data used in the similarity calculation. Perform some authentication. Details of the correlation value calculation processing unit 118 and the threshold value determination unit 119 will be described later.

なお、図1に示す撮像装置の構成は飽くまでも一例であり、以下に説明する動作を実行できるのであれば、本発明を適用可能な撮像装置の構成は図1に示す構成に限定されるものではない。また、図1において、顔検出部113は本発明の検出手段の適用例となる構成である。顔追跡処理部114は本発明の追跡手段の適用例となる構成である。特徴情報抽出処理部115は本発明の抽出手段の適用例となる構成である。類似度算出処理部117は本発明の第1の算出手段の適用例となる構成である。閾値決定部119は本発明の設定手段の適用例となる構成である。認証判定部120は本発明の認証手段の適用例となる構成である。相関値算出処理部118は本発明の第2の算出手段の適用例となる構成である。   The configuration of the imaging apparatus illustrated in FIG. 1 is merely an example, and the configuration of the imaging apparatus to which the present invention can be applied is not limited to the configuration illustrated in FIG. 1 as long as the operations described below can be performed. Absent. Moreover, in FIG. 1, the face detection part 113 is a structure used as the application example of the detection means of this invention. The face tracking processing unit 114 is configured as an application example of the tracking unit of the present invention. The feature information extraction processing unit 115 is configured as an application example of the extraction means of the present invention. The similarity calculation processing unit 117 is a configuration serving as an application example of the first calculation unit of the present invention. The threshold value determination unit 119 has a configuration as an application example of the setting unit of the present invention. The authentication determination unit 120 is configured as an application example of the authentication unit of the present invention. The correlation value calculation processing unit 118 is configured as an application example of the second calculation unit of the present invention.

次に、本発明の実施形態に係る撮像装置による個人認証処理を、図2に示すフローチャートを参照しながら詳細に説明する。図2においては、処理開始後のステップS201において、顔検出部113は、現在の画像フレームt+kの画像データに対して顔検出処理を実行する。続くステップS202において、顔追跡処理部114は、過去の画像フレームで認証に成功した顔の追跡処理を実行する。即ちステップS202において、顔追跡処理部114は、画像フレームt+k−1まで追跡中の顔がある場合、又は、画像フレームt+k−1で認証に成功した顔がある場合、ステップS201で検出された顔の中から追跡中の顔、又は、画像フレームt+k−1で認証に成功した顔と同一の人物であると判断できる顔を検出し、その顔を追跡結果とする。なお、顔追跡処理部114の追跡処理の例としては、タイミングの異なる画像フレームにおいて顔検出部113によって検出された顔の位置座標の距離が最も近いものを同一の人物とみなして追跡する方法がある。また、他の追跡処理の例として、タイミングの異なる画像フレームにおいて顔検出部113によって検出された顔を含む領域の輝度や色情報の類似度が最も高いものを同一の人物であるとみなして追跡を行う方法も考えられる。   Next, the personal authentication processing by the imaging apparatus according to the embodiment of the present invention will be described in detail with reference to the flowchart shown in FIG. In FIG. 2, in step S <b> 201 after the start of processing, the face detection unit 113 executes face detection processing on the image data of the current image frame t + k. In the subsequent step S202, the face tracking processing unit 114 executes a tracking process for a face that has been successfully authenticated in a past image frame. That is, in step S202, the face tracking processing unit 114 detects the face detected in step S201 when there is a face that is being tracked up to the image frame t + k−1 or when there is a face that has been successfully authenticated in the image frame t + k−1. A face that can be determined to be the same person as the face that is being tracked or the face that has been successfully authenticated in the image frame t + k−1 is detected as a tracking result. As an example of the tracking process of the face tracking processing unit 114, a method of tracking the image with the closest distance between the face position coordinates detected by the face detecting unit 113 in the image frames with different timings is regarded as the same person. is there. Further, as another example of the tracking process, a region including the face detected by the face detection unit 113 in an image frame having different timing is considered to be the same person with the highest similarity in luminance and color information. It is also possible to perform this.

続くステップS203において、特徴情報抽出処理部115は、ステップS201で検出された顔のうち、今認証を行う顔F[t+k]の顔画像データから認証に用いられる特徴情報を抽出する。続くステップS204において、類似度算出処理部117は、ステップS203で抽出された顔F[t+k]の特徴情報と特徴情報記憶部116に記憶されている登録者の特徴情報とを比較し、その比較結果である類似度を算出する。すなわち、ステップS203で抽出された顔F[t+k]と、特徴情報記憶部116に特徴情報が記憶されている登録者に対応する顔の、類似度を算出している。続くステップS205において、顔追跡処理部114は、過去の画像フレーム(例えば、画像フレームt)において認証に成功し、その認証に成功した顔が現在の画像フレームt+kまで追跡できているかどうかを判断する。過去の画像フレームで認証に成功した顔が現在の画像フレームt+kまで追跡できている場合、ステップS206に進む。ステップS206において、認証を行う顔である顔F[t+k]と過去の画像フレームtで認証に成功した顔F[t]を現在の画像フレームt+kで追跡している顔とでマッチングを実行する。即ちステップS206において、類似度算出処理部117は、顔F[t+k]と顔F[t]を顔追跡処理部114で追跡している顔とが同一の顔であるかを判定する。この場合、顔F[t+k]の位置座標と顔F[t]を追跡した結果の顔の位置座標とが等しい場合に同一の顔であると判定される。顔F[t+k]と顔F[t]を顔追跡処理部114で追跡している顔とが同一の顔であると判定された場合、ステップS207に進み、顔F[t+k]と顔F[t]の相関が調べられる。なお、顔F[t+k]の顔画像データは本発明における第1の被写体領域の例であり、顔F[t]の顔画像データは本発明における第2の被写体領域の例である。   In subsequent step S203, the feature information extraction processing unit 115 extracts feature information used for authentication from the face image data of the face F [t + k] to be authenticated among the faces detected in step S201. In subsequent step S204, the similarity calculation processing unit 117 compares the feature information of the face F [t + k] extracted in step S203 with the registrant's feature information stored in the feature information storage unit 116, and compares the comparison information. The similarity that is the result is calculated. That is, the similarity between the face F [t + k] extracted in step S203 and the face corresponding to the registrant whose feature information is stored in the feature information storage unit 116 is calculated. In the subsequent step S205, the face tracking processing unit 114 determines whether or not the authentication has succeeded in the past image frame (for example, the image frame t) and the successfully authenticated face can be tracked up to the current image frame t + k. . If the face that has been successfully authenticated in the past image frame has been traced to the current image frame t + k, the process proceeds to step S206. In step S206, matching is executed between the face F [t + k] that is the face to be authenticated and the face that has been successfully authenticated in the past image frame t in the current image frame t + k. That is, in step S206, the similarity calculation processing unit 117 determines whether the face tracking the face F [t + k] and the face F [t] by the face tracking processing unit 114 is the same face. In this case, when the position coordinates of the face F [t + k] and the position coordinates of the face obtained as a result of tracking the face F [t] are equal, it is determined that they are the same face. When it is determined that the face F [t + k] and the face F [t] tracked by the face tracking processing unit 114 are the same face, the process proceeds to step S207, where the face F [t + k] and the face F [ The correlation of t] is examined. The face image data of the face F [t + k] is an example of the first subject area in the present invention, and the face image data of the face F [t] is an example of the second subject area in the present invention.

ステップS207において、相関値算出処理部118は、顔F[t+k]と顔F[t]との相関値を算出する。ここで、2つの顔の相関値について図3を用いて詳細に説明する。図3は、本実施形態に係る撮像装置による相関値算出方法を説明するための図である。図3の例では、相関値として顔の移動した距離を用いる場合について説明する。図3に示すように、画像フレームt+kの顔画像データから顔F[t+k]の中心位置座標(x[t+k],y[t+k])、画像フレームtの顔画像データから顔F[t]の中心位置座標(x[t],y[t])が取得できる。相関値Cは相関値算出処理部118によって算出されるが、例えば、顔F[t]から顔F[t+k]までの移動した距離(移動量)から式1のようにして算出される。   In step S207, the correlation value calculation processing unit 118 calculates a correlation value between the face F [t + k] and the face F [t]. Here, the correlation value between the two faces will be described in detail with reference to FIG. FIG. 3 is a diagram for explaining a correlation value calculation method by the imaging apparatus according to the present embodiment. In the example of FIG. 3, the case where the distance that the face has moved is used as the correlation value will be described. As shown in FIG. 3, the center position coordinates (x [t + k], y [t + k]) of the face F [t + k] from the face image data of the image frame t + k, and the face F [t] of the face image data of the image frame t. The center position coordinates (x [t], y [t]) can be acquired. The correlation value C is calculated by the correlation value calculation processing unit 118. For example, the correlation value C is calculated from the distance (movement amount) from the face F [t] to the face F [t + k] as shown in Equation 1.

Figure 2011159030
Figure 2011159030

なお、上記の計算式は飽くまでも一例であり、ここで重要なことは、2つの顔画像データの相関値Cを得ることである。従って、2つの顔画像データの相関値Cが得られるのであれば、上述したパラメータや計算式以外でも使用可能である。当然のことながら、相関値の定義の仕方によってもパラメータや計算式は異なる場合があり得る。即ち、図3に示すように顔F[t+k]の顔画像からは、顔の大きさFS[t+k]、顔領域の平均画素値I[t+k]、顔領域の平均輝度値Y[t+k]等の情報が取得できる。また、同様に顔F[t]の顔画像から、顔の大きさFS[t]、顔領域の平均画素値I[t]、顔領域の平均輝度値Y[t]等の情報が取得できる。これらを用いて、例えば顔の大きさの差から式2のように相関値Cを算出することができる。   Note that the above calculation formula is only an example, and what is important here is to obtain a correlation value C between two face image data. Therefore, as long as the correlation value C between the two face image data can be obtained, the parameters and calculation formulas other than those described above can be used. Naturally, parameters and calculation formulas may differ depending on how the correlation value is defined. That is, as shown in FIG. 3, from the face image of the face F [t + k], the face size FS [t + k], the face area average pixel value I [t + k], the face area average luminance value Y [t + k], etc. Information can be acquired. Similarly, information such as the face size FS [t], the average pixel value I [t] of the face area, and the average luminance value Y [t] of the face area can be acquired from the face image of the face F [t]. . Using these, for example, the correlation value C can be calculated from the difference in the size of the face as shown in Equation 2.

Figure 2011159030
Figure 2011159030

また、例えば経過フレーム数(経過時間)kから式3のように相関値Cを算出することができる。   Further, for example, the correlation value C can be calculated from the number of elapsed frames (elapsed time) k as in Expression 3.

Figure 2011159030
Figure 2011159030

また、例えば顔領域の平均画素値の差から式4のように相関値Cを算出することができる。   Further, for example, the correlation value C can be calculated from the difference between the average pixel values of the face area as in Expression 4.

Figure 2011159030
Figure 2011159030

また、例えば顔領域の平均輝度値の差から式5のように相関値Cを算出することができる。また、これら式1乃至式5で求めた中のいくつかの相関値C、あるいは、全ての相関値Cを加重加算して、最終的な相関値Cを算出することもできる。   Further, for example, the correlation value C can be calculated from the difference in the average luminance value of the face area as shown in Equation 5. It is also possible to calculate a final correlation value C by weighting and adding some correlation values C obtained by the equations 1 to 5 or all the correlation values C.

Figure 2011159030
Figure 2011159030

ステップS208において、認証判定部120は、ステップS207で算出された相関値Cを用いて閾値を設定する。ここで、図4を用いて閾値について詳細に説明する。図4は、本実施形態に係る撮像装置による閾値設定方法を説明するための図である。閾値THは認証の判定に用いられる値であり、認証では類似度算出処理部117で算出された類似度が閾値以上である場合に認証成功と判定される。閾値は予め認証判定部120によって所定の値TH=th1に設定されているが、図4に示すようにステップS207で算出された相関値Cの値に応じて、C>c2の場合、TH=th2のように閾値を低く設定することができる。即ち、顔F[t]と顔F[t+k]との相関が高く、認証を行う顔が認証している顔と同一の顔らしいと判断した場合、閾値を通常の値より低く設定することで認証が成功し易くなるよう補正を行う。これにより、一時的な類似度の変動で被写体が正しく認証されなくなることを低減することができる。   In step S208, the authentication determination unit 120 sets a threshold using the correlation value C calculated in step S207. Here, the threshold value will be described in detail with reference to FIG. FIG. 4 is a diagram for explaining a threshold setting method by the imaging apparatus according to the present embodiment. The threshold value TH is a value used for authentication determination. In the authentication, when the similarity calculated by the similarity calculation processing unit 117 is equal to or greater than the threshold, it is determined that the authentication is successful. The threshold value is set in advance by the authentication determination unit 120 to a predetermined value TH = th1, but as shown in FIG. 4, according to the value of the correlation value C calculated in step S207, if C> c2, TH = The threshold can be set low as in th2. That is, when the correlation between the face F [t] and the face F [t + k] is high and it is determined that the face to be authenticated is the same face as the face to be authenticated, the threshold value is set lower than the normal value. A correction is made so that the authentication is easy to succeed. As a result, it is possible to reduce a situation where the subject is not correctly authenticated due to a temporary change in similarity.

ステップS205において、過去の画像フレームtにおいて認証に成功し、現在の画像フレームt+kまで顔追跡処理部114によって追跡されている顔が当該画像フレームt+k中に存在しないと判断された場合、処理はステップS209に進む。また、ステップS205において、過去の画像フレームtにおいて認証に成功し、現在の画像フレームt+kまで顔追跡処理部114によって追跡している顔が当該画像フレームt+k中に存在すると判断され、且つ、ステップS206において、顔F[t]と顔F[t+k]を顔追跡処理部114で追跡している顔とが同一の顔ではないと判断された場合、処理はステップS209に進む。ステップS209において、認証判定部120は、閾値を予め設定されている所定の値th1に設定してリセットし、ステップS210に進む。   If it is determined in step S205 that the authentication has succeeded in the past image frame t and the face tracked by the face tracking processing unit 114 up to the current image frame t + k does not exist in the image frame t + k, the process proceeds to step S205. The process proceeds to S209. In step S205, it is determined that the authentication has succeeded in the past image frame t and the face tracked by the face tracking processing unit 114 up to the current image frame t + k exists in the image frame t + k, and step S206. If it is determined that the face F [t] and the face F [t + k] tracked by the face tracking processing unit 114 are not the same face, the process proceeds to step S209. In step S209, the authentication determination unit 120 resets the threshold by setting the threshold to a predetermined value th1, and the process proceeds to step S210.

ステップS210において、認証判定部120は、ステップS204にて類似度算出処理部117で算出された類似度とステップS208で決定された閾値THとを比較する。類似度が閾値TH以上である場合、処理はステップS211に進む。ステップS211において、システム制御部110は、認証に成功した結果として、例えば表示装置109において個人認証に成功していることを示す顔枠を表示する。この場合、以後のフレームで顔F[t+k]が顔追跡処理部114により追跡されることとなる。一方、類似度が閾値TH未満の場合、処理はステップS212に進む。ステップS212において、システム制御部110は、認証に失敗した結果として、例えば表示装置109において個人認証成功時とは異なる顔枠を表示する。   In step S210, the authentication determination unit 120 compares the similarity calculated by the similarity calculation processing unit 117 in step S204 with the threshold value TH determined in step S208. If the similarity is greater than or equal to the threshold value TH, the process proceeds to step S211. In step S211, the system control unit 110 displays, for example, a face frame indicating that personal authentication is successful on the display device 109 as a result of successful authentication. In this case, the face F [t + k] is tracked by the face tracking processing unit 114 in subsequent frames. On the other hand, if the similarity is less than the threshold value TH, the process proceeds to step S212. In step S212, the system control unit 110 displays, for example, a face frame different from that at the time of successful personal authentication on the display device 109 as a result of the authentication failure.

以上説明した処理により、本実施形態においては、既に認証済みの顔が追跡されており、その顔が認証中の顔と同一の人物らしいときに、一時的な類似度の変動で被写体が正しく認証されなくなることを低減することができる。   Through the processing described above, in this embodiment, when an already authenticated face is tracked and the face seems to be the same person as the face being authenticated, the subject is correctly authenticated with a temporary change in similarity. It is possible to reduce the loss of being performed.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

110:システム制御部、113:顔検出部、114:顔追跡処理部、115:特徴情報抽出処理部、116:特徴情報記憶部、117:類似度算出処理部、118:相関値算出処理部、119:閾値決定部、120:認証判定部   110: system control unit, 113: face detection unit, 114: face tracking processing unit, 115: feature information extraction processing unit, 116: feature information storage unit, 117: similarity calculation processing unit, 118: correlation value calculation processing unit, 119: Threshold determination unit, 120: Authentication determination unit

Claims (10)

画像データから第1の被写体領域を検出する検出手段と、
被写体が認証済みの第2の被写体領域の、前記画像データより過去の画像データからの経時的な変化を追跡する追跡手段と、
前記第1の被写体領域から被写体の第1の特徴情報を抽出する抽出手段と、
前記抽出手段により抽出された前記第1の特徴情報と記憶手段において予め記憶される第2の特徴情報とを比較し、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との類似度を算出する第1の算出手段と、
前記第1の被写体領域に対応する前記第2の被写体領域が前記追跡手段により追跡されているか否かに応じて異なる閾値を設定する設定手段と、
前記第1の算出手段により算出された類似度と前記設定手段により設定された閾値との比較結果に応じて、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との一致性を認証する認証手段とを有することを特徴とする被写体認証装置。
Detecting means for detecting a first subject region from the image data;
Tracking means for tracking a change over time in the second subject area where the subject has been authenticated from past image data than the image data;
Extraction means for extracting first feature information of a subject from the first subject region;
The first feature information extracted by the extraction unit and the second feature information stored in advance in the storage unit are compared, and the subject corresponding to the first feature information and the second feature information are supported. First calculating means for calculating the similarity to the subject to be
Setting means for setting different thresholds depending on whether or not the second subject area corresponding to the first subject area is being tracked by the tracking means;
A subject corresponding to the first feature information and a subject corresponding to the second feature information according to a comparison result between the similarity calculated by the first calculation unit and the threshold set by the setting unit And an authentication unit for authenticating the coincidence with the subject authentication apparatus.
前記第1の被写体領域と前記第2の被写体領域との相関値を算出する第2の算出手段を更に有し、
前記設定手段は、前記相関値に応じて、前記第2の被写体領域が前記追跡手段によって追跡されている場合における閾値を設定することを特徴とする請求項1に記載の被写体認証装置。
A second calculating means for calculating a correlation value between the first subject region and the second subject region;
The subject authentication apparatus according to claim 1, wherein the setting unit sets a threshold value when the second subject region is tracked by the tracking unit according to the correlation value.
前記第2の算出手段は、前記画像データにおける前記第1の被写体領域の位置と前記過去の画像データにおける前記第2の被写体領域の位置との移動量に基づいて、前記相関値を算出することを特徴とする請求項2に記載の被写体認証装置。   The second calculating means calculates the correlation value based on a movement amount between the position of the first subject area in the image data and the position of the second subject area in the past image data. The subject authentication device according to claim 2. 前記第2の算出手段は、前記第1の被写体領域の大きさと前記第2の被写体領域の大きさとの差に基づいて、前記相関値を算出することを特徴とする請求項2に記載の被写体認証装置。   3. The subject according to claim 2, wherein the second calculation unit calculates the correlation value based on a difference between a size of the first subject region and a size of the second subject region. Authentication device. 前記第2の算出手段は、前記過去の画像データから前記画像データまでの経過時間に基づいて、前記相関値を算出することを特徴とする請求項2に記載の被写体認証装置。   The subject authentication apparatus according to claim 2, wherein the second calculation unit calculates the correlation value based on an elapsed time from the past image data to the image data. 前記第2の算出手段は、前記第1の被写体領域の色と前記第2の被写体領域の色との差に基づいて、前記相関値を算出することを特徴とする請求項2に記載の被写体認証装置。   3. The subject according to claim 2, wherein the second calculation unit calculates the correlation value based on a difference between a color of the first subject region and a color of the second subject region. Authentication device. 前記第2の算出手段は、前記第1の被写体領域の輝度と前記第2の被写体領域の輝度との差に基づいて、前記相関値を算出することを特徴とする請求項2に記載の被写体認証装置。   3. The subject according to claim 2, wherein the second calculation unit calculates the correlation value based on a difference between a luminance of the first subject region and a luminance of the second subject region. Authentication device. 前記被写体領域は、顔を含む領域であることを特徴とする請求項1乃至7の何れか1項に記載の被写体認証装置。   The subject authentication apparatus according to claim 1, wherein the subject region is a region including a face. 被写体認証装置による被写体認証方法であって、
画像データから第1の被写体領域を検出する検出ステップと、
被写体が認証済みの第2の被写体領域の、前記画像データより過去の画像データからの経時的な変化を追跡する追跡ステップと、
前記第1の被写体領域から被写体の第1の特徴情報を抽出する抽出ステップと、
前記抽出ステップにより抽出された前記第1の特徴情報と記憶手段において予め記憶される第2の特徴情報とを比較し、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との類似度を算出する算出ステップと、
前記第1の被写体領域に対応する前記第2の被写体領域が前記追跡ステップにより追跡されているか否かに応じて異なる閾値を設定する設定ステップと、
前記算出ステップにより算出された類似度と前記設定ステップにより設定された閾値との比較結果に応じて、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との一致性を認証する認証ステップとを含むことを特徴とする被写体認証方法。
A subject authentication method by a subject authentication device,
A detection step of detecting a first subject region from the image data;
A tracking step of tracking a change over time in the second subject area where the subject has been authenticated from image data past the image data;
An extraction step of extracting first feature information of the subject from the first subject region;
The first feature information extracted in the extraction step is compared with the second feature information stored in advance in the storage means, and the subject corresponding to the first feature information and the second feature information are supported. A calculating step for calculating the similarity to the subject to be
A setting step for setting a different threshold depending on whether or not the second subject region corresponding to the first subject region is being tracked by the tracking step;
The subject corresponding to the first feature information matches the subject corresponding to the second feature information according to the comparison result between the similarity calculated in the calculation step and the threshold set in the setting step. An authentication step for authenticating the subject.
画像データから第1の被写体領域を検出する検出ステップと、
被写体が認証済みの第2の被写体領域の、前記画像データより過去の画像データからの経時的な変化を追跡する追跡ステップと、
前記第1の被写体領域から被写体の第1の特徴情報を抽出する抽出ステップと、
前記抽出ステップにより抽出された前記第1の特徴情報と記憶手段において予め記憶される第2の特徴情報とを比較し、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との類似度を算出する算出ステップと、
前記第1の被写体領域に対応する前記第2の被写体領域が前記追跡ステップにより追跡されているか否かに応じて異なる閾値を設定する設定ステップと、
前記算出ステップにより算出された類似度と前記設定ステップにより設定された閾値との比較結果に応じて、前記第1の特徴情報に対応する被写体と前記第2の特徴情報に対応する被写体との一致性を認証する認証ステップとをコンピュータに実行させるためのプログラム。
A detection step of detecting a first subject region from the image data;
A tracking step of tracking a change over time in the second subject area where the subject has been authenticated from image data past the image data;
An extraction step of extracting first feature information of the subject from the first subject region;
The first feature information extracted in the extraction step is compared with the second feature information stored in advance in the storage means, and the subject corresponding to the first feature information and the second feature information are supported. A calculating step for calculating the similarity to the subject to be
A setting step for setting a different threshold depending on whether or not the second subject region corresponding to the first subject region is being tracked by the tracking step;
The subject corresponding to the first feature information matches the subject corresponding to the second feature information according to the comparison result between the similarity calculated in the calculation step and the threshold set in the setting step. A program for causing a computer to execute an authentication step for authenticating sex.
JP2010018948A 2010-01-29 2010-01-29 Subject authentication apparatus, subject authentication method and program Pending JP2011159030A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010018948A JP2011159030A (en) 2010-01-29 2010-01-29 Subject authentication apparatus, subject authentication method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010018948A JP2011159030A (en) 2010-01-29 2010-01-29 Subject authentication apparatus, subject authentication method and program

Publications (1)

Publication Number Publication Date
JP2011159030A true JP2011159030A (en) 2011-08-18

Family

ID=44590947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010018948A Pending JP2011159030A (en) 2010-01-29 2010-01-29 Subject authentication apparatus, subject authentication method and program

Country Status (1)

Country Link
JP (1) JP2011159030A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101551A (en) * 2011-11-09 2013-05-23 Secom Co Ltd Face image authentication device
JP2014128003A (en) * 2012-12-27 2014-07-07 Canon Inc Image recognition device, and control method and program thereof
JP2018117280A (en) * 2017-01-19 2018-07-26 キヤノン株式会社 Image processing apparatus, image processing method, program
JP2021081965A (en) * 2019-11-19 2021-05-27 株式会社ARISE analytics Image processing system, image processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101551A (en) * 2011-11-09 2013-05-23 Secom Co Ltd Face image authentication device
JP2014128003A (en) * 2012-12-27 2014-07-07 Canon Inc Image recognition device, and control method and program thereof
JP2018117280A (en) * 2017-01-19 2018-07-26 キヤノン株式会社 Image processing apparatus, image processing method, program
JP2021081965A (en) * 2019-11-19 2021-05-27 株式会社ARISE analytics Image processing system, image processing method, and program

Similar Documents

Publication Publication Date Title
JP5567853B2 (en) Image recognition apparatus and method
JP5959923B2 (en) Detection device, control method thereof, control program, imaging device and display device
JP5704905B2 (en) Image processing apparatus, image processing method, program, and storage medium
US11006864B2 (en) Face detection device, face detection system, and face detection method
CN108280418A (en) The deception recognition methods of face image and device
JP6025557B2 (en) Image recognition apparatus, control method thereof, and program
JP2014128002A (en) Subject area tracking device and method therefor and program
JP5170094B2 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
JP5087037B2 (en) Image processing apparatus, method, and program
JP7268725B2 (en) Image processing device, image processing method, and image processing program
JP2010262392A (en) Image processor, image processing method and program for making computer execute the method
JP2014186505A (en) Visual line detection device and imaging device
CN105744179A (en) Image Capture Apparatus Capable of Processing Photographed Images
JP2013232060A (en) Image recognition device, control method and control program of the same, and imaging device and display device
JP2011159030A (en) Subject authentication apparatus, subject authentication method and program
JP2018081402A (en) Image processing system, image processing method, and program
CN103873755B (en) Jump portrait system and method
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2011071925A (en) Mobile tracking apparatus and method
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP5374612B2 (en) Image data identification method, imaging apparatus, program, and storage medium
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium
JP5002311B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5247419B2 (en) Imaging apparatus and subject tracking method