JP2022003526A - Information processor, detection system, method for processing information, and program - Google Patents
Information processor, detection system, method for processing information, and program Download PDFInfo
- Publication number
- JP2022003526A JP2022003526A JP2021135720A JP2021135720A JP2022003526A JP 2022003526 A JP2022003526 A JP 2022003526A JP 2021135720 A JP2021135720 A JP 2021135720A JP 2021135720 A JP2021135720 A JP 2021135720A JP 2022003526 A JP2022003526 A JP 2022003526A
- Authority
- JP
- Japan
- Prior art keywords
- person
- feature
- image
- information
- determination unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 title abstract description 9
- 238000000034 method Methods 0.000 title abstract description 3
- 230000010365 information processing Effects 0.000 claims description 42
- 238000003672 processing method Methods 0.000 claims description 7
- 230000037237 body shape Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 12
- 230000001815 facial effect Effects 0.000 description 11
- 230000006399 behavior Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000012806 monitoring device Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Alarm Systems (AREA)
Abstract
Description
本発明は、不審人物等に関する顔画像以外の特徴情報に基づいて不審人物等を自動的に特定するための、情報処理装置、及び情報処理方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to an information processing device and an information processing method for automatically identifying a suspicious person or the like based on feature information other than a facial image of the suspicious person or the like, and further relates to a program for realizing these. ..
従来、監視カメラを用いた監視システムにおいては、監視員は、監視カメラで撮影された映像から、目視によって、不審人物等を特定する必要がある。しかし、目視による特定には、労力が大きいという問題、映像に複数の人物が写っている場合に対応が難しいという問題がある。 Conventionally, in a surveillance system using a surveillance camera, an observer needs to visually identify a suspicious person or the like from an image taken by the surveillance camera. However, visual identification has the problem that it requires a lot of labor and it is difficult to deal with the case where a plurality of people are shown in the image.
これに対して、特許文献1は、人物特定を自動で行なう機能を備えた監視装置を開示している。具体的には、特許文献1に開示された監視装置は、監視カメラから送られてきた映像から、人物の顔画像を抽出し、抽出した顔画像とデータベースに登録されている人物の顔画像とを照合することによって、自動的に不審人物等を特定する。 On the other hand, Patent Document 1 discloses a monitoring device having a function of automatically identifying a person. Specifically, the surveillance device disclosed in Patent Document 1 extracts a face image of a person from an image sent from a surveillance camera, and includes the extracted face image and the face image of the person registered in the database. By collating, the suspicious person etc. is automatically identified.
また、データベースに登録されている人物の顔画像は、通常、正面からの顔画像であるため、監視カメラから送られてきた映像から抽出された人物の顔画像が、正面からの顔画像でない場合は、照合精度が低下してしまう。この場合においては、特許文献1に開示された監視装置は、データベースに登録されている人物の顔画像と、抽出された人物の顔画像との両方を画面に表示して、監視員による判断を支援している。 In addition, since the face image of the person registered in the database is usually a face image from the front, the face image of the person extracted from the video sent from the surveillance camera is not the face image from the front. Will reduce the collation accuracy. In this case, the monitoring device disclosed in Patent Document 1 displays both the face image of the person registered in the database and the face image of the extracted person on the screen, and makes a judgment by the observer. I'm supporting you.
しかしながら、上記特許文献1に開示された監視装置では、自動的に人物を特定する場合であっても、監視員による判断を支援する場合であっても、予め、データベースに登録された顔画像に基づいて不審人物等を特定している。このため、不審人物等に関する顔画像以外の特徴情報、例えば、30代、男性、中肉中背といった情報を用いて不審人物等を特定する場合には、結局のところ監視員が目視で行なう必要がある。 However, in the monitoring device disclosed in Patent Document 1, regardless of whether the person is automatically identified or the judgment by the observer is assisted, the face image registered in the database in advance is used. A suspicious person, etc. is identified based on this. For this reason, when identifying a suspicious person or the like using feature information other than a facial image of the suspicious person or the like, for example, information such as a person in his thirties, a man, or a medium-sized back, it is necessary for an observer to visually identify the suspicious person. There is.
本発明の目的の一例は、上記問題を解消し、不審人物等に関する顔画像以外の特徴情報に基づいて不審人物等を自動的に特定することができる、情報処理装置、情報処理方法、及びプログラムを提供することにある。 An example of an object of the present invention is an information processing device, an information processing method, and a program capable of solving the above-mentioned problems and automatically identifying a suspicious person or the like based on feature information other than a facial image of the suspicious person or the like. Is to provide.
上記目的を達成するため、本発明の一側面における監視装置は、
特定対象となる人物の特徴を示す顔画像以外の特徴情報の入力を受け付ける、入力受付部と、
前記特徴情報に含まれる前記人物の特徴毎に、当該特徴と、画像に写っている人物の特徴との一致度合を判定する、第1判定部と、
前記人物の特徴毎の判定結果に基づいて、前記特徴情報と前記画像に写っている人物とが一致しているかどうかを判定する、第2判定部と、
を備えている、ことを特徴とする。
In order to achieve the above object, the monitoring device in one aspect of the present invention is
An input reception unit that accepts input of characteristic information other than facial images showing the characteristics of a specific target person,
For each feature of the person included in the feature information, a first determination unit for determining the degree of matching between the feature and the feature of the person shown in the image.
A second determination unit that determines whether or not the feature information matches the person in the image based on the determination result for each feature of the person.
It is characterized by having.
また、上記目的を達成するため、本発明の一側面における監視方法は、
(a)特定対象となる人物の特徴を示す顔画像以外の特徴情報の入力を受け付ける、ステップと、
(b)前記特徴情報に含まれる前記人物の特徴毎に、当該特徴と、画像に写っている人物の特徴との一致度合を判定する、ステップと、
(c)前記人物の特徴毎の判定結果に基づいて、前記特徴情報と前記画像に写っている人物とが一致しているかどうかを判定する、ステップと、
を有する、ことを特徴とする。
Further, in order to achieve the above object, the monitoring method in one aspect of the present invention is:
(A) A step that accepts input of characteristic information other than a facial image showing the characteristics of a person to be specified, and
(B) For each feature of the person included in the feature information, a step of determining the degree of matching between the feature and the feature of the person shown in the image, and
(C) A step of determining whether or not the characteristic information and the person shown in the image match, based on the determination result for each characteristic of the person.
It is characterized by having.
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)特定対象となる人物の特徴を示す顔画像以外の特徴情報の入力を受け付ける、ステップと、
(b)前記特徴情報に含まれる前記人物の特徴毎に、当該特徴と、画像に写っている人物の特徴との一致度合を判定する、ステップと、
(c)前記人物の特徴毎の判定結果に基づいて、前記特徴情報と前記画像に写っている人物とが一致しているかどうかを判定する、ステップと、
を実行させることを特徴とする。
Further, in order to achieve the above object, the program in one aspect of the present invention is:
On the computer
(A) A step that accepts input of characteristic information other than a facial image showing the characteristics of a person to be specified, and
(B) For each feature of the person included in the feature information, a step of determining the degree of matching between the feature and the feature of the person shown in the image, and
(C) A step of determining whether or not the characteristic information and the person shown in the image match, based on the determination result for each characteristic of the person.
Is characterized by executing.
以上のように、本発明によれば、不審人物等に関する顔画像以外の特徴情報に基づいて不審人物等を自動的に特定することができる。 As described above, according to the present invention, the suspicious person or the like can be automatically identified based on the feature information other than the facial image regarding the suspicious person or the like.
(実施の形態)
以下、本発明の実施の形態における情報処理装置、情報処理方法、及びプログラムについて、図1〜図7を参照しながら説明する。
(Embodiment)
Hereinafter, the information processing apparatus, the information processing method, and the program according to the embodiment of the present invention will be described with reference to FIGS. 1 to 7.
[装置構成]
最初に、本実施の形態における情報処理装置の概略構成について説明する。図1は、本発明の実施の形態における情報処理装置の概略構成を示すブロック図である。
[Device configuration]
First, a schematic configuration of the information processing apparatus according to the present embodiment will be described. FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to an embodiment of the present invention.
図1に示す、本実施の形態における情報処理装置10は、特定の人物を検出する際の情報処理を行なうための装置である。図1に示すように、情報処理装置10は、入力受付部11と、第1判定部12と、第2判定部13とを備えている。
The
入力受付部11は、特定対象となる人物の特徴を示す顔画像以外の特徴情報の入力を受付ける。第1判定部12は、特徴情報に含まれる人物の特徴毎に、各特徴と、画像に写っている人物の特徴との一致度合を判定する。第2判定部13は、人物の特徴毎の判定結果に基づいて、特徴情報と画像に写っている人物とが一致しているかどうかを判定する。
The
このように、本実施の形態では、例えば、特定対象となる人物の年齢、体系、性別等といった顔以外の特徴と、画像に写っている特徴との一致度合が判定され、その判定結果に基づいて、画像の人物が特定対象となる人物であるかどうかが最終的に判定される。このため、本実施の形態によれば、不審人物等に関する顔画像以外の特徴情報に基づいて、不審人物等を自動的に特定することが可能となる。 As described above, in the present embodiment, for example, the degree of matching between the features other than the face such as the age, system, gender, etc. of the specific target person and the features shown in the image is determined, and based on the determination result. Finally, it is determined whether or not the person in the image is the person to be specified. Therefore, according to the present embodiment, it is possible to automatically identify the suspicious person or the like based on the feature information other than the facial image regarding the suspicious person or the like.
続いて、図2及び図3を用いて、本実施の形態における情報処理装置の構成について具体的に説明する。図2は、本発明の実施の形態における情報処理装置の具体的構成を示すブロック図である。図3は、本発明の実施の形態で用いられる特徴情報の一例と第1判定部及び第2判定部の処理とを説明する図である。 Subsequently, the configuration of the information processing apparatus according to the present embodiment will be specifically described with reference to FIGS. 2 and 3. FIG. 2 is a block diagram showing a specific configuration of the information processing apparatus according to the embodiment of the present invention. FIG. 3 is a diagram illustrating an example of feature information used in the embodiment of the present invention and processing of the first determination unit and the second determination unit.
図2に示すように、本実施の形態では、情報処理装置10は、撮像装置20と共に、特定対象となる人物を検出する検出装置100を構成している。撮像装置20は、撮影によって得られた画像の画像データを、設定された間隔で出力する。撮像装置20の具体例としては、監視カメラが挙げられる。
As shown in FIG. 2, in the present embodiment, the
また、図2に示すように、情報処理装置10は、入力受付部11、第1判定部12、及び第2判定部13に加えて、解釈部14と、出力部15とを備えている。
Further, as shown in FIG. 2, the
本実施の形態では、特徴情報としては、例えば、図3に示すように、特定対象となる人物における、年齢、性別、体格、行動、物体等の特徴をテキストで表したテキスト情報が挙げられる。なお、ここでいう物体には、人物が身に付けている物、及び人物が携えている物が含まれる。図3の例では、特徴情報は、「20代又は30代、男性、中肉中背、走っている、帽子を身につけず、ナイフを携えている」を含んだテキスト情報である。 In the present embodiment, as the characteristic information, for example, as shown in FIG. 3, text information expressing the characteristics such as age, gender, physique, behavior, and object of the specific target person can be mentioned. The object referred to here includes an object worn by a person and an object carried by the person. In the example of FIG. 3, the feature information is text information including "a man in his twenties or thirties, a man with a medium back, running, not wearing a hat, and carrying a knife".
入力受付部11は、キーボード等の入力機器、又は検出装置100に接続された端末装置等を介して、検出装置100の管理者が、特徴を入力すると、入力された特徴を含む特徴情報を受け付ける。
When the administrator of the
また、入力受付部11は、予め設定されている人物の特徴の中から、管理者が幾つかの特徴のみを指定した場合は、指定された特徴を含む特徴情報の入力のみを受け付けることができる。例えば、入力受付部11は、表示装置の画面、又は検出装置100に接続された端末装置等の画面に、特徴を表す種々のアイコンを表示させることができる。この場合、管理者が幾つかのアイコンを指定すると、入力受付部11は、指定されたアイコンに関連付けられた識別子またはテキストを特徴情報として受け付ける。
Further, when the administrator specifies only some features from the preset characteristics of the person, the
解釈部14は、入力受付部11によって特徴情報が受け付けられると、特徴情報に含まれる特徴を取り出し、取り出した特徴を、第1判定部12に渡す。
When the feature information is received by the
具体的には、図3の例では、解釈部14は、特徴情報から、特徴として、「20代又は30代」、「男性」、「中肉中背」、「走っている」、「帽子を身につけず、ナイフを携えている」を取り出し、取り出したこれらの特徴を第1判定部12に通知する。
Specifically, in the example of FIG. 3, the
第1判定部12は、本実施の形態では、特徴毎に、複数の特徴判別器16を備えている。具体的には、図3に示すように、各特徴判別器16は、年齢、性別、体格、行動、物体のいずれかに対応している。図3の例では、各特徴判別器16は、「年齢判別器」、「性別判別器」、「体格判別器」、「行動判別器」、「物体判別器」と表記されている。
In the present embodiment, the
また、本実施の形態において、特徴判別器の種類は図3に限定されるものではない。更に、第1判定部12は、解釈部14から特徴が通知されると、通知された特徴に合わせて、予め保持している特徴判別器16の中から、必要となる特徴判別器16を選出することもできる。
Further, in the present embodiment, the type of the feature discriminator is not limited to FIG. Further, when the feature is notified from the
各特徴判別器16は、それが対応する特徴と、撮像装置20からの画像データで特定される画像中の人物の特徴とが、一致及び非一致のいずれであるかを判定する。また、各特徴判別器16は、対応する特徴と画像中の人物の特徴とが一致している確率を算出し、算出された確率が閾値以上となる場合に、一致していると判定しても良い。具体的には、各特徴判別器16は、下記のようにして判定を行なう。
Each
年齢判別器は、例として、機械学習の1つであるディープラーニングを用いて、画像中の人物の年齢を判別する。具体的には、年齢判別器は、予め畳み込み層と全結合層とを有する畳み込みニューラルネットワーク(Convolutional Neural Network)を学習する。そして、年齢判別器は、予め学習した畳み込みニューラルネットワークの各畳み込み層によって、画像から特徴量を抽出する。そして、年齢判別器は、全結合層によって、抽出された特徴量に対して年齢についての重み計算を行ない、得られた計算値に基づいて年齢を判別する。 As an example, the age discriminator discriminates the age of a person in an image by using deep learning, which is one of machine learning. Specifically, the age discriminator learns a convolutional neural network having a convolutional layer and a fully connected layer in advance. Then, the age discriminator extracts the feature amount from the image by each convolutional layer of the convolutional neural network learned in advance. Then, the age discriminator performs weight calculation on the extracted feature amount by the fully connected layer, and discriminates the age based on the obtained calculated value.
また、性別判別器も、例としてディープラーニングを用いて、画像中の人物の性別を判別する。具体的には、性別判別器も、予め学習した畳み込みニューラルネットワークの各畳み込み層によって、画像から特徴量を抽出する。但し、性別判別器は、全結合層によって、抽出された特徴量に対して性別についての重み計算を行ない、得られた計算値に基づいて性別を判別する。 The gender discriminator also uses deep learning as an example to discriminate the gender of a person in an image. Specifically, the gender discriminator also extracts the feature amount from the image by each convolutional layer of the convolutional neural network learned in advance. However, the gender discriminator performs weight calculation on the extracted feature amount by the fully connected layer, and discriminates the gender based on the obtained calculated value.
物体判別器も、例としてディープラーニングを用いて、人物が身に付けている物及び携えている物を判定する。具体的には、物体判別器も、予め畳み込み層と全結合層とを有する畳み込みネットワークを学習する。そして、物体判別器は、学習した畳み込みニューラルネットワークの各畳み込み層によって、画像から特徴量を抽出する。そして、物体判別器は、全結合層によって、抽出した特徴量に対して物体についての重み計算を行ない、得られた計算値に基づいて、画像に写っている物体の種類を判別する。 The object discriminator also uses deep learning as an example to determine what a person is wearing and what he or she is carrying. Specifically, the object discriminator also learns a convolutional network having a convolutional layer and a fully connected layer in advance. Then, the object discriminator extracts the feature amount from the image by each convolutional layer of the learned convolutional neural network. Then, the object discriminator calculates the weight of the object with respect to the extracted feature amount by the fully connected layer, and discriminates the type of the object shown in the image based on the obtained calculated value.
行動判別器も、例としてディープラーニングを用いて、画像中の人物の行動を判定する。但し、行動判別器は、上述の判別器と異なり、予め学習したRegion Convolution Neural Networkによって、画像に写っている人物とその周辺とを検出する。次に、行動判別器は、予め学習した再帰型ニューラルネットワーク(Recurrent Neural Network)によって、検出された人物及び周辺が、特徴情報の行動を示す文字表現に該当するかどうか判定する。 The behavior discriminator also uses deep learning as an example to determine the behavior of a person in an image. However, unlike the above-mentioned discriminator, the behavior discriminator detects the person in the image and its surroundings by the Region Convolution Neural Network learned in advance. Next, the behavior discriminator determines whether or not the detected person and the surroundings correspond to the character expression indicating the behavior of the characteristic information by the recurrent neural network learned in advance.
体格判別器は、例として、人物の頭、首、肩、腹、足等の幅を画像から抽出し、それぞれの長さと、予め設定された体型のパターン(やせ型、中肉中背型、肥満型等)とを比較し、比較結果に基づいて、人物の体型を判別する。 As an example, the physique discriminator extracts the width of a person's head, neck, shoulders, abdomen, legs, etc. from an image, and each length and a preset body shape pattern (thin type, medium-sized medium-back type, etc.) Compare with obese type etc.) and determine the body shape of the person based on the comparison result.
第2判定部13は、本実施の形態では、人物の特徴毎の判定において、一致していると判定された判定結果が所定数以上である場合、又は一致していると判定された判定結果の割合が所定割合以上である場合に、特徴情報と画像に写っている人物とが一致していると判定する。
In the present embodiment, the
具体的には、図3の例では、第2判定部13は、論理加算を行ない、年齢判別器、性別判別器、体格判別器、行動判別器、及び物体判別器の全てにおいて一致していると判定された場合に、特徴情報と画像に写っている人物とが一致していると判定する。また、第2判定部13による判定が終了すると、出力部15が、判定結果を出力する。出力先としては、検出装置100の表示装置、検出装置100の管理者の端末装置等が挙げられる。
Specifically, in the example of FIG. 3, the
[装置動作]
次に、本実施の形態における情報処理装置10の動作について図4を用いて説明する。図4は、本発明の実施の形態における情報処理装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図3を参酌する。また、本実施の形態では、情報処理装置10を動作させることによって、情報処理方法が実施される。よって、本実施の形態における情報処理方法の説明は、以下の情報処理装置10の動作説明に代える。
[Device operation]
Next, the operation of the
図4に示すように、最初に、検出装置100の管理者によって、検出装置100において、特定対象となる人物の特徴が入力されると、入力受付部11は、入力された特徴を含む特徴情報の入力を受け付ける(ステップA1)。また、入力受付部11は、受け付けた特徴情報を解釈部14に渡す。
As shown in FIG. 4, when the administrator of the
次に、解釈部14は、渡された特徴情報から、それに含まれる各特徴を取り出し、取り出した特徴を第1判定部12に渡す(ステップA2)。
Next, the
次に、第1判定部12は、撮像装置20から画像データを取得し、ステップA2で渡された特徴毎に、その特徴と、画像データの画像に写っている人物の特徴との一致度合を判定する(ステップA3)。具体的には、第1判定部12は、各特徴に対応する特徴判別器16を選出し、選出した各特徴判別器16に、対応する特徴と画像の人物の特徴との一致判定を行なわせる。
Next, the
次に、第2判定部13は、特徴毎の判定結果に基づいて、特徴情報と画像に写っている人物とが一致しているかどうかを判定する(ステップA4)。具体的には、第2判定部13は、論理加算を行ない、年齢判別器、性別判別器、体格判別器、行動判別器、及び物体判別器の全てにおいて一致している判定された場合に、特徴情報と画像に写っている人物とが一致していると判定する(図3参照)。
Next, the
その後、出力部15は、ステップA4での判定結果を、検出装置100の表示装置、検出装置100の管理者の端末装置等に出力する(ステップA5)。また、例えば、特定対象となる人物が指名手配犯であり、ステップA4において一致していると判定された場合は、出力部15は、警告を出力しても良い。また、ステップA3〜A5は、撮像装置20から画像データが出力される度に繰り返し実行される。
After that, the
このように、本実施の形態によれば、テキスト等によって特徴情報を入力しておけば、撮像装置20が撮影した映像から、各特徴が一致した人物が自動的に特定される。このため、目撃情報に基づいて、不審者、指名手配犯等の特徴を特徴情報として入力しておけば、これらの者の顔画像がなくても、これらの者を自動的に特定できる。なお、上述した例では、特徴情報のみを用いて人物を特定しているが、本実施の形態は、特徴情報と顔画像との両方を用いて人物の特定が行なわれる態様であっても良い。
As described above, according to the present embodiment, if the feature information is input by text or the like, a person whose features match is automatically identified from the image captured by the
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1〜A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における情報処理装置10と情報処理方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、入力受付部11、第1判定部12、第2判定部13、解釈部14、及び出力部15として機能し、処理を行なう。
[program]
The program in the present embodiment may be any program as long as it causes a computer to execute steps A1 to A5 shown in FIG. By installing and executing this program on a computer, the
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、入力受付部11、第1判定部12、第2判定部13、解釈部14、及び出力部15のいずれかとして機能しても良い。
Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any of an
[変形例]
続いて、本実施の形態における変形例について図5を用いて説明する。図5は、本発明の実施の形態における変形例での第1判定部及び第2判定部の処理を説明する図である。
[Modification example]
Subsequently, a modification of the present embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating the processing of the first determination unit and the second determination unit in the modified example of the embodiment of the present invention.
図5に示すように、本変形例では、各特徴判別器16は、対応する特徴と画像中の人物の特徴とが一致している確率を算出する。第1判定部12は、各特徴判別器16が算出した確率を、第2判定部13に出力する。
As shown in FIG. 5, in this modification, each
そして、第2判定部13は、人物の特徴毎に算出された確率の平均値を求め、求めた平均値が閾値を超えているかどうかを判定する。判定の結果、平均値が閾値を超えている場合に、第2判定部13は、特徴情報と画像に写っている人物とが一致していると判定する。
Then, the
本変形例による場合は、ある程度似ている人物が出現すると、警告が出力されるので、不審者及び指名手配犯等が見過ごされる可能性をより低くすることができる。 In the case of this modification, when a person who is similar to some extent appears, a warning is output, so that the possibility that a suspicious person, a wanted criminal, or the like is overlooked can be further reduced.
また、本変形例では、第2判定部13は、平均値を計算する際に、各特徴の確率に重み係数を乗算して、平均値を算出することができる。具体的には、重み係数の値は、検出装置100の管理者によって適宜設定される。
Further, in this modification, the
例えば、特徴情報が目撃情報に基づいて入力されている場合において、管理者は、目撃者の確信度が高い特徴に対しては、重み係数の値を高く設定する。つまり、目撃者が、特定対象となる人物の年齢に自信がある場合は、管理者は、図5の例において、年齢の重み係数を1.2に設定する。この場合、平均値は、(70×1.2+80+60+75+90)/5=77.8となり、重み係数を設定しなかった場合(75)よりも高くなる。 For example, when the feature information is input based on the witness information, the administrator sets a high weight coefficient value for the feature having a high degree of certainty of the witness. That is, if the witness is confident in the age of the person to be identified, the administrator sets the age weighting factor to 1.2 in the example of FIG. In this case, the average value is (70 × 1.2 + 80 + 60 + 75 + 90) / 5 = 77.8, which is higher than that when the weighting coefficient is not set (75).
[応用例]
続いて、図6を用いて、本実施の形態における検出装置100を用いた人物検出システムについて説明する。図6は、本実施の形態における検出装置によって構成された人物検出システムの一例を示す図である。
[Application example]
Subsequently, with reference to FIG. 6, a person detection system using the
図6に示すように、人物検出システム400は、複数の検出装置100と、管理サーバ200とを備えており、これらはインターネット300を介して接続されている。また、管理サーバ200には、管理者の端末装置210が接続されている。また、検出装置100は、それぞれ異なるエリアに設置されている。
As shown in FIG. 6, the
管理者は、目撃者から「20代か30代のナイフを持って走っている中肉中背の帽子を被っていない男性」のような証言が与えられると、この証言を元に、端末装置210上で特徴情報を入力する。これにより、端末装置210は、特徴情報を管理サーバ200に送信する。
When the witness gives a testimony such as "a man in his twenties or thirties running with a knife and not wearing a medium-sized medium-back hat", the administrator is based on this testimony. Enter the feature information on the 210. As a result, the
管理サーバ200は、特徴情報を受信すると、受信した特徴情報の形式を、図3に示した論理的に解釈可能な形式に変換する。そして、管理サーバ200は、変換後の特徴情報を、各検出装置100に送信する。また、管理サーバ200は、目撃情報が取得されたエリアを取得できる場合は、特定したエリア及びそれに隣接するエリアに対応する検出装置100のみに特徴情報を送信することもできる。
When the
各検出装置100は、管理サーバ200から送信されてきた特徴情報を受信すると、入力受付部11において、特徴情報の入力が受け付けられ(ステップA1)、その後、ステップA2〜A5が実行される。また、ステップA3〜A5は、撮像装置20から画像データが出力される度に繰り返し実行される。なお、人物検出システム400は、不審者、指名手配犯だけでなく、迷子の検出にも適用可能である。
When each
[物理構成]
ここで、本実施の形態におけるプログラムを実行することによって、情報処理装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における情報処理装置を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that realizes the
図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
As shown in FIG. 7, the
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader /
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施の形態における情報処理装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、情報処理装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
The
以上のように、本発明によれば、不審人物等に関する顔画像以外の特徴情報に基づいて不審人物等を自動的に特定することができる。本発明は、不審人物、指名手配犯等を検出するためのシステム、迷子を捜すためのシステムに有用である。 As described above, according to the present invention, the suspicious person or the like can be automatically identified based on the feature information other than the facial image regarding the suspicious person or the like. The present invention is useful for a system for detecting a suspicious person, a wanted criminal, etc., and a system for searching for a lost child.
10 情報処理装置
11 入力受付部
12 第1判定部
13 第2判定部
14 解釈部
15 出力部
16 特徴判別器
20 撮像装置
100 検出装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
200 管理サーバ
210 端末装置
300 インターネット
400 人物検出システム
10
112
Claims (9)
前記特徴情報に含まれる前記人物の特徴と、画像に写っている人物の特徴と、の一致度合を判定する、第1判定部と、
前記人物の特徴の判定結果に基づいて、前記特徴情報と前記画像に写っている人物とが一致しているかどうかを判定する、第2判定部と、
を備えている、ことを特徴とする情報処理装置。 An input reception unit that accepts input of characteristic information indicating at least external characteristics of a specific target person,
A first determination unit that determines the degree of matching between the characteristics of the person included in the feature information and the characteristics of the person shown in the image.
A second determination unit that determines whether or not the feature information matches the person in the image based on the determination result of the characteristics of the person.
An information processing device characterized by being equipped with.
前記外形的な特徴は、前記特定対象となる人物の体型に関する情報であり、
前記第1判定部は、
前記画像に写っている人物の外形的な特徴と予め設定された体型のパターンとの比較結果に基づいて体型を判別する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 1.
The external feature is information about the body shape of the person to be specified.
The first determination unit is
The body shape is determined based on the comparison result between the external characteristics of the person shown in the image and the preset body shape pattern.
An information processing device characterized by this.
前記第1判定部が、前記人物の特徴毎に特徴判別器を有し、更に、設定された間隔で画像データを出力する撮像装置から前記画像データを取得すると、前記特徴毎に、対応する前記特徴判別器によって、当該特徴と、前記画像データの画像に写っている人物の特徴とが、一致している確率を算出し、
前記第2判定部が、前記特徴毎に算出された前記確率の平均値を算出し、算出した前記平均値が閾値を超えているかどうかを判定し、判定の結果、前記平均値が閾値を超えている場合に、前記特徴情報と前記画像に写っている人物とが一致していると判定する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 1 or 2.
When the first determination unit has a feature discriminator for each feature of the person and further acquires the image data from an image pickup device that outputs image data at set intervals, the corresponding first determination unit corresponds to each feature. The feature discriminator calculates the probability that the feature matches the feature of the person in the image of the image data.
The second determination unit calculates the average value of the probabilities calculated for each of the features, determines whether or not the calculated average value exceeds the threshold value, and as a result of the determination, the average value exceeds the threshold value. If so, it is determined that the feature information and the person in the image match.
An information processing device characterized by this.
前記第2判定部が、前記特徴毎の前記確率それぞれに、設定された重みを乗算して、前記平均値を算出する、
ことを特徴とする情報処理装置。 The information processing apparatus according to claim 3.
The second determination unit multiplies each of the probabilities for each feature by a set weight to calculate the average value.
An information processing device characterized by this.
前記第1判定部が、前記特徴毎に、当該特徴と、画像に写っている人物の特徴とが、一致及び非一致のいずれであるかを判定し、
前記第2判定部が、前記人物の特徴毎の判定において、一致していると判定された判定結果が所定数以上である場合、又は一致していると判定された判定結果の割合が所定割合以上である場合に、前記特徴情報と前記画像に写っている人物とが一致していると判定する、
ことを特徴とする情報処理装置。 The information processing apparatus according to any one of claims 1 to 4.
The first determination unit determines, for each of the features, whether the feature and the feature of the person in the image match or disagree.
In the determination for each characteristic of the person by the second determination unit, when the number of determination results determined to match is equal to or greater than a predetermined number, or the ratio of the determination results determined to match is a predetermined ratio. In the above case, it is determined that the feature information and the person in the image match.
An information processing device characterized by this.
前記管理サーバは、前記端末装置から、特定対象となる人物の少なくとも外形的な特徴を示す特徴情報を受信すると、受信した前記特徴情報を前記複数の検出装置それぞれに送信し、
前記複数の検出装置それぞれは、
前記特徴情報の入力を受け付ける、入力受付部と、
前記特徴情報に含まれる前記人物の外形的な特徴と、画像に写っている人物の特徴と、の一致度合を判定する、第1判定部と、
前記人物の特徴の判定結果に基づいて、前記特徴情報と前記画像に写っている人物とが一致しているかどうかを判定する、第2判定部と、
を備えている、ことを特徴とする検出システム。 It is equipped with a management server to which a terminal device is connected and a plurality of detection devices installed in each area.
When the management server receives feature information indicating at least external features of the person to be specified from the terminal device, the management server transmits the received feature information to each of the plurality of detection devices.
Each of the plurality of detection devices
An input reception unit that accepts input of the feature information,
A first determination unit that determines the degree of matching between the external characteristics of the person included in the feature information and the characteristics of the person shown in the image.
A second determination unit that determines whether or not the feature information matches the person in the image based on the determination result of the characteristics of the person.
The detection system is characterized by being equipped with.
前記管理サーバは、前記特定対象となる人物が目撃されたエリアを特定できる場合に、特定できた前記エリア及びそれに隣接するエリアに対応する前記検出装置に、前記特徴情報を送信する、
ことを特徴とする検出システム。 The detection system according to claim 6.
When the management server can identify the area where the person to be specified is witnessed, the management server transmits the feature information to the detection device corresponding to the identified area and the area adjacent thereto.
A detection system characterized by that.
前記特徴情報に含まれる前記人物の特徴と、画像に写っている人物の特徴と、の一致度合を判定する、第1判定ステップと、
前記人物の特徴の判定結果に基づいて、前記特徴情報と前記画像に写っている人物とが一致しているかどうかを判定する、第2判定ステップと、
を有する、ことを特徴とする情報処理方法。 An input acceptance step that accepts input of characteristic information indicating at least external characteristics of a specific target person,
The first determination step for determining the degree of matching between the characteristics of the person included in the characteristic information and the characteristics of the person shown in the image.
A second determination step of determining whether or not the characteristic information and the person shown in the image match based on the determination result of the characteristic of the person.
An information processing method characterized by having.
特定対象となる人物の少なくとも外形的な特徴を示す特徴情報の入力を受け付ける、入力受付ステップと、
前記特徴情報に含まれる前記人物の特徴と、画像に写っている人物の特徴と、の一致度合を判定する、第1判定ステップと、
前記人物の特徴の判定結果に基づいて、前記特徴情報と前記画像に写っている人物とが一致しているかどうかを判定する、第2判定ステップと、
を実行させるプログラム。
On the computer
An input acceptance step that accepts input of characteristic information indicating at least external characteristics of a specific target person,
The first determination step for determining the degree of matching between the characteristics of the person included in the characteristic information and the characteristics of the person shown in the image.
A second determination step of determining whether or not the characteristic information and the person shown in the image match based on the determination result of the characteristic of the person.
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021135720A JP2022003526A (en) | 2017-02-27 | 2021-08-23 | Information processor, detection system, method for processing information, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017035338A JP7120590B2 (en) | 2017-02-27 | 2017-02-27 | Information processing device, information processing method, and program |
JP2021135720A JP2022003526A (en) | 2017-02-27 | 2021-08-23 | Information processor, detection system, method for processing information, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017035338A Division JP7120590B2 (en) | 2017-02-27 | 2017-02-27 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022003526A true JP2022003526A (en) | 2022-01-11 |
Family
ID=63253901
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017035338A Active JP7120590B2 (en) | 2017-02-27 | 2017-02-27 | Information processing device, information processing method, and program |
JP2021135720A Pending JP2022003526A (en) | 2017-02-27 | 2021-08-23 | Information processor, detection system, method for processing information, and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017035338A Active JP7120590B2 (en) | 2017-02-27 | 2017-02-27 | Information processing device, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7120590B2 (en) |
WO (1) | WO2018155594A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024202514A1 (en) * | 2023-03-29 | 2024-10-03 | 日本電気株式会社 | Processing device, processing method, and recording medium |
WO2024202503A1 (en) * | 2023-03-29 | 2024-10-03 | 日本電気株式会社 | Processing device, processing method, and recording medium |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6874754B2 (en) * | 2018-12-11 | 2021-05-19 | 東京電力ホールディングス株式会社 | Information processing method, program, information processing device, trained model generation method and trained model |
JP2020144738A (en) * | 2019-03-08 | 2020-09-10 | 三菱電機株式会社 | Security device and security method |
JP6989572B2 (en) * | 2019-09-03 | 2022-01-05 | パナソニックi−PROセンシングソリューションズ株式会社 | Investigation support system, investigation support method and computer program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268825A (en) * | 2005-02-28 | 2006-10-05 | Toshiba Corp | Object detector, learning device, and object detection system, method, and program |
JP2007241377A (en) * | 2006-03-06 | 2007-09-20 | Sony Corp | Retrieval system, imaging apparatus, data storage device, information processor, picked-up image processing method, information processing method, and program |
JP2015143951A (en) * | 2014-01-31 | 2015-08-06 | オムロン株式会社 | Object discrimination device, image sensor and object discrimination method |
JP2016119626A (en) * | 2014-12-22 | 2016-06-30 | セコム株式会社 | Monitoring system |
JP2016131288A (en) * | 2015-01-13 | 2016-07-21 | 東芝テック株式会社 | Information processing apparatus and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5121258B2 (en) * | 2007-03-06 | 2013-01-16 | 株式会社東芝 | Suspicious behavior detection system and method |
JP5590945B2 (en) * | 2009-03-31 | 2014-09-17 | 綜合警備保障株式会社 | Person search device, person search method, and person search program |
JP5423219B2 (en) * | 2009-08-05 | 2014-02-19 | 日本電気株式会社 | Portable terminal device, image management method and program |
CN101980242B (en) * | 2010-09-30 | 2014-04-09 | 徐勇 | Human face discrimination method and system and public safety system |
JP5649425B2 (en) * | 2010-12-06 | 2015-01-07 | 株式会社東芝 | Video search device |
JP6225460B2 (en) * | 2013-04-08 | 2017-11-08 | オムロン株式会社 | Image processing apparatus, image processing method, control program, and recording medium |
US10110858B2 (en) * | 2015-02-06 | 2018-10-23 | Conduent Business Services, Llc | Computer-vision based process recognition of activity workflow of human performer |
JP5785667B1 (en) * | 2015-02-23 | 2015-09-30 | 三菱電機マイコン機器ソフトウエア株式会社 | Person identification system |
-
2017
- 2017-02-27 JP JP2017035338A patent/JP7120590B2/en active Active
-
2018
- 2018-02-22 WO PCT/JP2018/006585 patent/WO2018155594A1/en active Application Filing
-
2021
- 2021-08-23 JP JP2021135720A patent/JP2022003526A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268825A (en) * | 2005-02-28 | 2006-10-05 | Toshiba Corp | Object detector, learning device, and object detection system, method, and program |
JP2007241377A (en) * | 2006-03-06 | 2007-09-20 | Sony Corp | Retrieval system, imaging apparatus, data storage device, information processor, picked-up image processing method, information processing method, and program |
JP2015143951A (en) * | 2014-01-31 | 2015-08-06 | オムロン株式会社 | Object discrimination device, image sensor and object discrimination method |
JP2016119626A (en) * | 2014-12-22 | 2016-06-30 | セコム株式会社 | Monitoring system |
JP2016131288A (en) * | 2015-01-13 | 2016-07-21 | 東芝テック株式会社 | Information processing apparatus and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024202514A1 (en) * | 2023-03-29 | 2024-10-03 | 日本電気株式会社 | Processing device, processing method, and recording medium |
WO2024202503A1 (en) * | 2023-03-29 | 2024-10-03 | 日本電気株式会社 | Processing device, processing method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP7120590B2 (en) | 2022-08-17 |
WO2018155594A1 (en) | 2018-08-30 |
JP2018142137A (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022003526A (en) | Information processor, detection system, method for processing information, and program | |
US10846537B2 (en) | Information processing device, determination device, notification system, information transmission method, and program | |
JP6013241B2 (en) | Person recognition apparatus and method | |
US11694476B2 (en) | Apparatus, system, and method of providing a facial and biometric recognition system | |
JP5500303B1 (en) | MONITORING SYSTEM, MONITORING METHOD, MONITORING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM | |
JP5355446B2 (en) | Moving object tracking system and moving object tracking method | |
JP5085621B2 (en) | Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing | |
JP7151875B2 (en) | Image processing device, image processing method, and program | |
CN114743026B (en) | Method, device, equipment and computer-readable medium for detecting the position of a target object | |
WO2010016175A1 (en) | Target detection device and target detection method | |
JP2018011263A (en) | Monitor system, monitor camera, and management device | |
US11620728B2 (en) | Information processing device, information processing system, information processing method, and program | |
US11023714B2 (en) | Suspiciousness degree estimation model generation device | |
KR20230069892A (en) | Method and apparatus for identifying object representing abnormal temperatures | |
JP2018151833A (en) | Classifier learning device and classifier learning method | |
JP7145622B2 (en) | Information processing device, information processing device control method, subject detection system, and program | |
JP6542819B2 (en) | Image surveillance system | |
US10783365B2 (en) | Image processing device and image processing system | |
CN111783677B (en) | Face recognition method, device, server and computer readable medium | |
JP2020187531A (en) | Information processing device, information processing method and program | |
JP2013069187A (en) | Image processing system, image processing method, server and program | |
JP2018074317A (en) | Person specification support device | |
JP6762754B2 (en) | Information processing equipment, information processing methods and programs | |
JP7546035B2 (en) | Person tracking system, person tracking server device, and person tracking method | |
JP2024138974A (en) | Surveillance equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221213 |