[go: up one dir, main page]

JP2018088157A - Detection recognizing system - Google Patents

Detection recognizing system Download PDF

Info

Publication number
JP2018088157A
JP2018088157A JP2016231534A JP2016231534A JP2018088157A JP 2018088157 A JP2018088157 A JP 2018088157A JP 2016231534 A JP2016231534 A JP 2016231534A JP 2016231534 A JP2016231534 A JP 2016231534A JP 2018088157 A JP2018088157 A JP 2018088157A
Authority
JP
Japan
Prior art keywords
recognition
detection
camera
firmware
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016231534A
Other languages
Japanese (ja)
Other versions
JP7162412B2 (en
Inventor
大坪 宏安
Hiroyasu Otsubo
宏安 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Holdings Ltd filed Critical Maxell Holdings Ltd
Priority to JP2016231534A priority Critical patent/JP7162412B2/en
Priority to PCT/JP2017/042578 priority patent/WO2018101247A1/en
Publication of JP2018088157A publication Critical patent/JP2018088157A/en
Application granted granted Critical
Publication of JP7162412B2 publication Critical patent/JP7162412B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する検知/認識の性能を、検知/認識のためのファームウェアを更新して向上させることができる検知認識システムを提供する。【解決手段】検知認識システムは、撮像手段20と、検知/認識手段21と、サーバ3と、を備える。検知/認識手段21は、撮像手段20で取得した画像から検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、検知/認識ファームウェアを新たな検知/認識ファームウェアに更新可能となっている。サーバ3は、撮像手段20で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する機械学習手段30と、検知/認識アルゴリズムから新たな検知/認識ファームウェアを生成する前記検知/認識ファームウェア生成手段31と、を備える。【選択図】図1A detection / recognition system capable of detecting features included in an image and recognizing a recognition target set from the features by updating firmware for detection / recognition. provide. A detection and recognition system includes an imaging unit, a detection / recognition unit, and a server. The detection / recognition unit 21 detects features included in the image from the image acquired by the imaging unit 20 under the control of the detection / recognition firmware, recognizes the set recognition target, and sets a new detection / recognition firmware. The detection / recognition firmware can be updated. The server 3 includes machine learning means 30 that generates a detection / recognition algorithm by machine learning using the image acquired by the imaging means 20 as teacher data, and the detection / recognition firmware that generates new detection / recognition firmware from the detection / recognition algorithm. Generating means 31. [Selection] Figure 1

Description

本発明は、検知認識システムに関する。   The present invention relates to a detection recognition system.

従来、人や物等の物体を検知/認識するカメラが知られている(例えば、特許文献1,2参照)。このようなカメラは、例えば、監視カメラとして防犯の目的に使用され、検知/認識により異常が発見された場合に警報を発したりする。   Conventionally, a camera that detects / recognizes an object such as a person or an object is known (for example, see Patent Documents 1 and 2). Such a camera is used as a surveillance camera for the purpose of crime prevention, for example, and issues an alarm when an abnormality is detected by detection / recognition.

また、近年、画像認識等の分野において、機械学習がよく用いられるようになってきている。機械学習の手法としては、例えばディープラーニング等が知られている。ディープラーニングは、多層構造のニューラルネットワークを用いて、データの特徴を学習するものであり、これを用いることで、高精度の画像認識が可能になることが知られている。   In recent years, machine learning has been frequently used in fields such as image recognition. As a machine learning technique, for example, deep learning is known. Deep learning is a technique for learning data characteristics using a neural network having a multilayer structure, and it is known that high-accuracy image recognition is possible by using this.

特開2012−208851号公報JP 2012-208551 A 特開2010−160743号公報JP 2010-160743 A

ところで、監視カメラ等は、設置してから長期間使用する場合も多いが、画像から物体等を検知/認識する技術は日々進歩しているので、長期間使用をしていると、そのカメラに用いられている検知/認識技術が時代遅れのものとなってしまうおそれがある。
また、検知/認識のアルゴリズムは、使用される場所等の環境や、撮影対象等によって、最適なアルゴリズムが変わってくるので、カメラの設置前からカメラにもともと備えられていた検知/認識のファームウェアに用いられている検知/認識アルゴリズムでは、十分な検知/認識が行なえない可能性がある。
By the way, surveillance cameras, etc. are often used for a long time after installation. However, technologies for detecting / recognizing objects etc. from images are advancing day by day. The detection / recognition technology used can be outdated.
Also, the detection / recognition algorithm varies depending on the environment such as the place where it is used, the subject of photography, etc., so that the detection / recognition firmware originally provided in the camera before the installation of the camera is used. There is a possibility that sufficient detection / recognition cannot be performed with the detection / recognition algorithm used.

本発明は、前記事情に鑑みてなされたもので、画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する検知/認識の性能を、検知/認識のためのファームウェアを更新して向上させることができる検知認識システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and detects the feature included in the image and updates the detection / recognition performance of the detection / recognition performance for recognizing the recognition target set from this feature. It is an object of the present invention to provide a detection recognition system that can be improved.

前記目的を達成するために、本発明の検知認識システムは、
撮像をする撮像手段と、検知/認識手段と、サーバと、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、前記画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記サーバは、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する機械学習手段と、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する前記検知/認識ファームウェア生成手段と、を備えることを特徴とする。
In order to achieve the above object, the detection recognition system of the present invention includes:
An imaging unit for imaging, a detection / recognition unit, and a server;
The detection / recognition unit includes detection / recognition firmware, detects a feature included in the image from the image acquired by the imaging unit, and recognizes a set recognition target. In addition, the detection / recognition firmware can be updated to a new detection / recognition firmware generated by the detection / recognition firmware generation unit.
The server generates machine detection means for generating a detection / recognition algorithm by machine learning using the image acquired by the image pickup means as teacher data, and generates new detection / recognition firmware of the detection / recognition means from the detection / recognition algorithm. And detecting / recognizing firmware generation means.

本発明においては、撮像手段は、撮像をする。そして、検知/認識手段は、撮像手段での撮像により得られた画像から、検知/認識ファームウェアによる制御により、画像に含まれる特徴を検知して、設定された認識対象を認識する。また、サーバの機械学習手段は、撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する。そして、生成された検知/認識アルゴリズムは、サーバの検知/認識ファームウェア生成手段により、検知/認識手段に適合したファームウェア(検知/認識ファームウェア)に変換される。そして、検知/認識手段の検知/認識ファームウェアは、検知/認識ファームウェア生成手段によって生成された新たな検知/認識ファームウェアに更新される。
したがって、撮像手段で得られた画像から、機械学習により、より高精度な検知および認識が行なえる検知/認識アルゴリズムを生成し、この検知/認識アルゴリズムを、検知/認識手段に適合したファームウェアに変換し、検知/認識手段の検知/認識ファームウェアを更新することができるので、検知/認識の性能を向上させることができる。
In the present invention, the imaging means performs imaging. Then, the detection / recognition unit detects a feature included in the image from the image obtained by the image pickup by the image pickup unit, and recognizes the set recognition target. The machine learning means of the server generates a detection / recognition algorithm by machine learning using the image acquired by the imaging means as teacher data. Then, the generated detection / recognition algorithm is converted into firmware (detection / recognition firmware) suitable for the detection / recognition means by the detection / recognition firmware generation means of the server. Then, the detection / recognition firmware of the detection / recognition unit is updated to a new detection / recognition firmware generated by the detection / recognition firmware generation unit.
Therefore, a detection / recognition algorithm that can be detected and recognized with higher accuracy is generated from the image obtained by the imaging means by machine learning, and the detection / recognition algorithm is converted into firmware suitable for the detection / recognition means. Since the detection / recognition firmware of the detection / recognition means can be updated, the detection / recognition performance can be improved.

また、本発明の前記構成において、前記機械学習手段は、前記検知/認識手段が、前記設定された認識対象の認識を誤った際の画像を教師データとして機械学習をすることが好ましい。   In the configuration of the present invention, it is preferable that the machine learning unit performs machine learning using, as teacher data, an image when the detection / recognition unit erroneously recognizes the set recognition target.

このような構成によれば、機械学習手段は、検知/認識手段が設定された認識対象の認識を誤った際の画像について、認識対象の認識を誤ることがないように、学習し、新たな検知/認識アルゴリズムを生成し、新たな検知/認識ファームウェアを生成することが可能となるので、確実に検知/認識の性能を向上させることができる。   According to such a configuration, the machine learning means learns a new recognition target so that the recognition target is not erroneously recognized with respect to an image when the recognition target set with the detection / recognition means is erroneously recognized. Since the detection / recognition algorithm can be generated and new detection / recognition firmware can be generated, the detection / recognition performance can be reliably improved.

また、本発明の前記構成において、
少なくとも1台のカメラを備え、
前記カメラは、前記撮像手段と前記検知/認識手段とを備えることが好ましい。
Further, in the above configuration of the present invention,
With at least one camera,
The camera preferably includes the imaging unit and the detection / recognition unit.

このような構成によれば、カメラとは別に検知/認識手段を備える端末等を備える必要がないので、システム全体の小型化が行なえる。また、カメラは、検知/認識手段の検知/認識ファームウェアを、サーバでの機械学習の結果作成された新たな検知/認識ファームウェアに、更新することができるので、カメラの検知/認識性能を向上させることができる。したがって、設置後のカメラ等であっても容易にカメラの検知/認識性能を向上させることができる。   According to such a configuration, it is not necessary to provide a terminal or the like that includes detection / recognition means separately from the camera, and thus the entire system can be reduced in size. In addition, since the camera can update the detection / recognition firmware of the detection / recognition means to a new detection / recognition firmware created as a result of machine learning in the server, the detection / recognition performance of the camera is improved. be able to. Therefore, the detection / recognition performance of the camera can be easily improved even with a camera or the like after installation.

また、本発明の前記構成において、
前記撮像手段による撮像範囲および前記設定された認識対象のうちの少なくとも一部が重複する複数の前記カメラを備えることが好ましい。
Further, in the above configuration of the present invention,
It is preferable to include a plurality of the cameras in which at least a part of an imaging range by the imaging unit and the set recognition target overlap.

このような構成によれば、所定の範囲について複数のカメラで撮像し、検知/認識を行うことができる。したがって、同一の物体や、同一の現象について、複数のカメラで検知/認識をすることができるので、検知/認識の精度を高めることができる。   According to such a configuration, a predetermined range can be imaged with a plurality of cameras, and detection / recognition can be performed. Therefore, since the same object and the same phenomenon can be detected / recognized by a plurality of cameras, the accuracy of detection / recognition can be improved.

また、本発明の前記構成において、
前記機械学習手段は、前記複数のカメラのうちの、一部のカメラが重複する認識対象を認識した場合に、前記複数のカメラのうちの、他のカメラが前記重複する認識対象を認識しなかった画像を教師データとして、機械学習をすることが好ましい。
Further, in the above configuration of the present invention,
When the machine learning means recognizes a recognition target that is overlapped by some of the plurality of cameras, the other camera of the plurality of cameras does not recognize the recognition target that is overlapped. It is preferable to perform machine learning using the acquired images as teacher data.

このような構成によれば、少なくとも1台のカメラが重複する認識対象を認識した場合に、他のカメラが重複する認識対象を認識することができなかった画像を教師データとして、機械学習をすることができる。したがって、認識対象を認識して欲しかったのに認識することができなかった可能性の高い画像を教師データとして機械学習をすることができ、機械学習の効率を高めることができる。   According to such a configuration, when at least one camera recognizes an overlapping recognition target, machine learning is performed using, as teacher data, an image in which another camera could not recognize the overlapping recognition target. be able to. Therefore, it is possible to perform machine learning using, as teacher data, an image that is likely to be recognized but wanted to be recognized, and the efficiency of machine learning can be increased.

また、本発明の前記構成において、前記複数のカメラのうちの少なくとも1台は、前記撮像手段が異なるカメラであることが好ましい。   In the configuration of the present invention, it is preferable that at least one of the plurality of cameras is a camera having a different imaging unit.

このような構成によれば、ある撮像手段により撮像した画像からでは、検知/認識をすることが困難であり、その撮像手段を備えるカメラでは認識対象を認識することができない場合でも、他の撮像手段を備えるカメラで認識対象を認識することが可能となる。これにより、認識対象を認識することができなかったことを容易に知ることができ、認識することができなかった画像を教師データとして、機械学習をすることができるので、検知/認識をすることが困難な画像からでも認識することができるように機械学習をすることができる。   According to such a configuration, it is difficult to detect / recognize from an image picked up by a certain image pickup means, and even if a recognition target cannot be recognized by a camera including the image pickup means, It becomes possible to recognize a recognition target with a camera provided with means. As a result, it is possible to easily know that the recognition target could not be recognized, and machine learning can be performed using the image that could not be recognized as teacher data. It is possible to perform machine learning so that it can be recognized even from difficult images.

本発明によれば、画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する検知/認識の性能を、検知/認識のためのファームウェアを更新して向上させることができる。   According to the present invention, it is possible to improve the detection / recognition performance of detecting a feature included in an image and recognizing a recognition target set from the feature by updating the firmware for detection / recognition.

本発明の実施の形態を示すもので、検知認識システムを示すブロック図である。1, showing an embodiment of the present invention, is a block diagram showing a detection recognition system. FIG. 同、検知認識システムのカメラを示すブロック図である。It is a block diagram which shows the camera of a detection recognition system. 同、検知認識システムのサーバを示すブロック図である。It is a block diagram which shows the server of a detection recognition system. 同、検知認識システムによる検知認識ファームウェアの更新方法を説明するためのフローチャートである。4 is a flowchart for explaining a detection recognition firmware update method by the detection recognition system.

以下、図面を参照しながら、本発明の実施の形態について説明する。
本実施の形態の検知認識システムは、例えば、カメラで撮像した画像から設定された認識対象を認識した場合に、報知をするのに用いられる。
なお、以下において、単に、画像といった場合、基本的には動画と静止画との両方を含む。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The detection and recognition system according to the present embodiment is used to notify when a recognition target set from an image captured by a camera is recognized, for example.
In the following description, an image simply includes both a moving image and a still image.

検知認識システム1は、図1に示すように、複数のカメラ2と、サーバ3と、端末4と、を備える。また、複数のカメラ2とサーバ3と端末4とは、それぞれ有線または無線のネットワーク5により繋がれている。   As shown in FIG. 1, the detection recognition system 1 includes a plurality of cameras 2, a server 3, and a terminal 4. The plurality of cameras 2, the server 3, and the terminal 4 are connected by a wired or wireless network 5.

検知認識システム1は、例えば、カメラ2が監視用のカメラとしてコンビニエンストア等の建物内あるいは屋外等に設置され、カメラ2が撮影した対象を、その外形や動きから不審者であると認識した場合に、別の場所にある端末4に報知をするといったように使用することができる。また、このように不審者を認識した場合に、検知認識システム1の管理者6が持つ端末やシステム管理用の装置等に知らせるようにしてもよい。   For example, when the camera 2 is installed in a building such as a convenience store or outdoors as a surveillance camera, and the object recognized by the camera 2 is recognized as a suspicious person due to its external shape and movement, for example, In addition, it can be used to notify the terminal 4 at another location. In addition, when a suspicious person is recognized in this way, a terminal or a system management device held by the administrator 6 of the detection recognition system 1 may be notified.

カメラ2は、図2に示すように、撮像手段20と、検知/認識手段21と、記録手段22と、通信手段23と、制御手段24と、を備える。
撮像手段20は、例えば、レンズや固体撮像素子を有し、撮像により、画像を取得する。また、検知/認識手段21は、演算処理装置とメモリとを備え、画像認識を行う。具体的には、検知/認識手段21のメモリに備えられた検知/認識ファームウェアによる制御により、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識する。なお、以下で単に検知/認識といった場合には、基本的に、このように、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識することをいう。
As shown in FIG. 2, the camera 2 includes an imaging unit 20, a detection / recognition unit 21, a recording unit 22, a communication unit 23, and a control unit 24.
The imaging means 20 has a lens and a solid-state image sensor, for example, and acquires an image by imaging. The detection / recognition means 21 includes an arithmetic processing unit and a memory, and performs image recognition. Specifically, a feature included in an image captured by the imaging unit 20 is detected by control by the detection / recognition firmware provided in the memory of the detection / recognition unit 21, and a recognition target set from this feature is recognized. To do. In the following description, in the case of simple detection / recognition, basically, the feature included in the image picked up by the image pickup means 20 is detected as described above, and the recognition target set from this feature is recognized. Say.

また、記録手段22は、検知/認識手段21での検知/認識のための参照画像その他の情報や、異常時(例えば、検知/認識手段21が設定された認識対象を認識したとき)の画像その他の情報(例えば、音声等)の記録をする。また、通信手段23は、ネットワーク5を介してサーバ3と通信し、異常時の画像その他の情報のサーバ3への送信と、サーバ3からの命令や検知認識ファームウェアの受信をする。また、通信手段23は、ネットワーク5を介して端末4や管理者6の持つ端末とも接続をし、異常時に、これらの端末やサーバ3にアラーム信号等を送信する。また、端末4や管理者6の持つ端末は、このアラーム信号を受信して、あるいは、アラーム信号を受信したサーバ3からのアラームを鳴らす旨の命令を受けてアラームを鳴らす等する。   The recording unit 22 also includes a reference image and other information for detection / recognition by the detection / recognition unit 21 and an image at the time of abnormality (for example, when the recognition target set by the detection / recognition unit 21 is recognized). Record other information (for example, voice, etc.). The communication unit 23 communicates with the server 3 via the network 5 to transmit images and other information at the time of abnormality to the server 3 and to receive commands and detection recognition firmware from the server 3. The communication means 23 is also connected to the terminals 4 and the terminals of the administrator 6 via the network 5 and transmits an alarm signal or the like to these terminals or the server 3 when there is an abnormality. The terminal 4 or the terminal of the manager 6 receives this alarm signal, or issues an instruction to sound an alarm from the server 3 that has received the alarm signal, etc.

また、制御手段24は、演算処理装置およびメモリを備え、撮像手段20、検知/認識手段21、記録手段22および通信手段23を制御する。なお、制御手段24は、検知/認識手段21と演算処理装置またはメモリを共有することとしてもよい。   The control unit 24 includes an arithmetic processing unit and a memory, and controls the imaging unit 20, the detection / recognition unit 21, the recording unit 22, and the communication unit 23. The control unit 24 may share the arithmetic processing unit or the memory with the detection / recognition unit 21.

なお、撮像手段20、検知/認識手段21、記録手段22、通信手段23および制御手段24の全てをカメラ2が備える構成としなくてもよい。例えば、検知認識システム1は、カメラ2と有線または無線により接続され、カメラ2の制御やカメラ2で撮影した画像の表示等ができる端末をカメラ2の外部に備え、撮像手段20をカメラ2に配置し、検知/認識手段21、記録手段22、通信手段23および制御手段24を当該端末に設け、カメラ2に備えられた撮像手段20で撮影した画像に対して当該端末で検知/認識をするようにしてもよい。   Note that the imaging unit 20, the detection / recognition unit 21, the recording unit 22, the communication unit 23, and the control unit 24 may not all be provided in the camera 2. For example, the detection recognition system 1 includes a terminal connected to the camera 2 by wire or wirelessly and capable of controlling the camera 2 and displaying an image taken by the camera 2. The detection / recognition means 21, the recording means 22, the communication means 23, and the control means 24 are arranged in the terminal, and the terminal detects and recognizes an image taken by the imaging means 20 provided in the camera 2. You may do it.

カメラ2は、例えば、一般的な監視カメラと同様の構成を有するもので、例えば、カメラ2の向きに応じて、撮像手段20が設定された画角に対応する撮像範囲を撮像する。検知認識システム1が備える複数のカメラ2には、それぞれ同種のカメラを用いてもよく、種類の異なるカメラを用いてもよい。また、それぞれのカメラ2の撮像範囲は重複していてもよく、全く異なるものであってもよい。
本実施の形態においては、カメラ2として、2台のステレオカメラ2aと、1台の赤外線カメラ2bと、1台の単眼カメラ2cと、の計4台の種類の異なるカメラ2を用いるようになっており、4台のカメラ2の撮像範囲は互いに重複しているものとする。
カメラ2として、視差から距離、サイズまたは3D構造等を算出可能なステレオカメラ2aを用いることで、視差から距離、サイズまたは3D構造等を算出できるので、検知/認識をするための演算処理装置等に必要な性能を低減させることができ、カメラが高性能な演算処理装置等を備えていなくても、検知/認識を容易に行うことができる。
The camera 2 has, for example, the same configuration as a general surveillance camera. For example, the imaging unit 20 captures an imaging range corresponding to the set angle of view according to the orientation of the camera 2. As the plurality of cameras 2 included in the detection recognition system 1, the same type of camera may be used, or different types of cameras may be used. Further, the imaging ranges of the respective cameras 2 may overlap or may be completely different.
In the present embodiment, a total of four different types of cameras 2 including two stereo cameras 2a, one infrared camera 2b, and one monocular camera 2c are used as the cameras 2. It is assumed that the imaging ranges of the four cameras 2 overlap each other.
By using the stereo camera 2a that can calculate the distance, size, 3D structure, etc. from the parallax as the camera 2, since the distance, size, 3D structure, etc. can be calculated from the parallax, an arithmetic processing unit for detection / recognition, etc. Therefore, even if the camera does not include a high-performance arithmetic processing unit or the like, detection / recognition can be easily performed.

また、カメラ2として、赤外線カメラ(近赤外線カメラまたは遠赤外線カメラ)2bを用いることで、近赤外または遠赤外の画像を撮影することができ、人の目では見ることができないものも検知/認識することができる。また、夜間等、暗い環境における検知/認識も容易になる。   Further, by using an infrared camera (near infrared camera or far infrared camera) 2b as the camera 2, a near infrared or far infrared image can be taken, and what cannot be seen by human eyes is also detected. / Can be recognized. Also, detection / recognition in a dark environment such as at night becomes easy.

また、カメラ2の種類は、これらに限られるものではない。例えば、カメラ2として、距離画像センサを用いてもよい。距離画像センサとしては、例えば、TOF(Time Of Flight)を用いることができる。TOFは、投射したレーザーが対象まで往復するのにかかる時間から、距離を計測する。   Moreover, the kind of camera 2 is not restricted to these. For example, a distance image sensor may be used as the camera 2. As the distance image sensor, for example, TOF (Time Of Flight) can be used. The TOF measures the distance from the time taken for the projected laser to reciprocate to the target.

つまり、カメラ2は、撮像手段20が1つの2次元画像を撮像し、この画像より、検知/認識を行うものでもよく、撮像手段20が2つの画像を撮像し、これらの画像の視差より、距離、サイズ、3D構造等を算出し、検知/認識を行うものでもよく、撮像手段20がTOFセンサ等により、3D距離画像を撮像し、この3D距離画像より、検知/認識を行うものでもよく、撮像手段20が近赤外や遠赤外の画像を撮像し、これらの画像より、検知/認識を行うものでもよい。また、1台のカメラ2が、上記の撮像手段20を複数備えていてもよい。すなわち、1台のカメラ2が、例えば、ステレオカメラおよび赤外線カメラの撮像機能を備えており、これらの機能により得られた画像から検知/認識を行ってもよい。   That is, the camera 2 may be one in which the imaging unit 20 captures one two-dimensional image and performs detection / recognition from this image, and the imaging unit 20 captures two images, and from the parallax of these images, The distance, size, 3D structure, etc. may be calculated and detected / recognized, or the imaging means 20 may capture a 3D distance image with a TOF sensor or the like, and detect / recognize from this 3D distance image. The imaging means 20 may pick up near-infrared or far-infrared images and perform detection / recognition from these images. One camera 2 may include a plurality of the imaging means 20 described above. That is, a single camera 2 may include, for example, an imaging function of a stereo camera and an infrared camera, and detection / recognition may be performed from an image obtained by these functions.

検知/認識手段21は、設定された認識対象を認識するものであり、認識対象は、具体的な物体(人および人以外の物も含む)の場合もあれば、抽象的な現象の場合も考えられる。つまり、認識対象が強盗犯、窃盗犯、放火犯のような人や拳銃のような物といった物体の場合もあれば、犯罪や火災といった現象等の場合もある。
例えば、認識対象として強盗犯が設定されている状態において、コンビニエンスストア内に設置されたカメラ2の撮像手段20により、包丁や拳銃を持った人の画像が撮影された場合に、検知/認識手段21は、この画像から、包丁や拳銃を持った人を検知したり、この人の動きを検知したりして、この人を強盗犯と認識することが考えられる。また、例えば、認識対象として火災が設定されている状態において、赤外線カメラにより得られた画像から、ある場所の温度が異常に高いことを検知し、火災が発生していると認識したりすることが考えられる。また、例えば、赤外線カメラが遠赤外線を使ったものであれば、温度を検知することができ、拳銃、ナイフ等の武器と体温との温度差により、服のポケット等に隠し持った拳銃、ナイフ等の武器を画像認識して検知することも考えられる。ただし、検知/認識手段21の検知/認識ファームウェアは、後述する機械学習手段30での機械学習により生成されるので、実際には、検知/認識手段21が、このような人に理解しやすい(理解可能な)認識の仕方をするとは限らない。
つまり、検知/認識手段21は、検知/認識ファームウェアによる制御により、撮像手段20によって撮像された画像に含まれる特徴を検知し、この特徴から設定された認識対象を認識するものである。
なお、検知/認識手段21は、画像だけでなく、音声も使用して検知/認識を行ってもよい。例えば、カメラ2がマイク等の音声入力手段を備えており、この音声入力手段で取得された音声を使用して検知/認識を行うことで、検知/認識の精度を高めることができる。また、後述するサーバ側検知/認識手段32での検知/認識においても、同様に、音声を使用してもよい。
The detection / recognition means 21 recognizes a set recognition target, and the recognition target may be a specific object (including a person and a thing other than a person) or an abstract phenomenon. Conceivable. In other words, the recognition target may be an object such as a person such as a robber, a thief, or a arson, or an object such as a handgun, or a phenomenon such as a crime or fire.
For example, when a robbery is set as a recognition target, when an image of a person holding a knife or a handgun is taken by the imaging means 20 of the camera 2 installed in a convenience store, the detection / recognition means It is conceivable that the person 21 recognizes this person as a burglar by detecting a person holding a knife or a handgun or detecting the movement of the person from this image. In addition, for example, when a fire is set as a recognition target, it is detected that the temperature of a certain place is abnormally high from an image obtained by an infrared camera and recognizes that a fire has occurred. Can be considered. For example, if the infrared camera uses far-infrared rays, the temperature can be detected, and the handgun, knife, etc. hidden in the pocket of clothes due to the temperature difference between the handgun, knife and other weapons and body temperature. It is also conceivable to detect and recognize the weapons of this. However, since the detection / recognition firmware of the detection / recognition means 21 is generated by machine learning in the machine learning means 30 to be described later, the detection / recognition means 21 is actually easy for such a person to understand ( It doesn't always make a way of recognition.
That is, the detection / recognition unit 21 detects a feature included in the image captured by the imaging unit 20 under the control of the detection / recognition firmware, and recognizes a recognition target set from the feature.
The detection / recognition means 21 may perform detection / recognition using not only images but also sound. For example, the camera 2 includes a voice input unit such as a microphone, and the detection / recognition accuracy can be improved by performing detection / recognition using the voice acquired by the voice input unit. Similarly, voice may be used in detection / recognition by the server-side detection / recognition means 32 described later.

なお、検知/認識手段21の検知/認識ファームウェアは、後述する機械学習手段30および検知/認識ファームウェア生成手段31で生成された新たな検知/認識ファームウェアによって更新されるが、更新される前の、最初に検知/認識手段21に備えられる検知/認識ファームウェアは、機械学習手段30および検知/認識ファームウェア生成手段31により生成されたものでもよく、他の機械学習ができる機器によって生成されたものを検知/認識手段21に組み込んだものであってもよい。また、機械学習以外の方法により生成された検知/認識ファームウェアを最初に検知/認識手段21に備えることとしてもよい。   The detection / recognition firmware of the detection / recognition means 21 is updated by new detection / recognition firmware generated by the machine learning means 30 and the detection / recognition firmware generation means 31 described later. First, the detection / recognition firmware provided in the detection / recognition unit 21 may be generated by the machine learning unit 30 and the detection / recognition firmware generation unit 31, and is detected by another machine-learning device. / It may be incorporated in the recognition means 21. Alternatively, the detection / recognition means 21 may be first provided with detection / recognition firmware generated by a method other than machine learning.

また、検知/認識手段21で認識する対象の設定は、検知/認識ファームウェアに含まれているものとする。例えば、検知/認識ファームウェアを機械学習手段30および検知/認識ファームウェア生成手段31により生成する場合において、認識する対象をコンビニエンスストアでの強盗犯としたい場合、機械学習の教師データとして、例えば、コンビニエンスストアで強盗をした強盗犯が写っている複数の画像と、これらの画像が強盗犯を示す画像だという情報とを教師データとして(画像に強盗犯というタグ付けをして)機械学習手段30に与える。すると、機械学習により、与えられた画像(教師データ)のどこに注目すれば強盗犯を認識することができるかが学習される。そして、機械学習の結果、画像から強盗犯を認識することができる確率の高い検知/認識アルゴリズムが生成される。そして、この検知/認識アルゴリズムが検知/認識ファームウェア生成手段31により変換され、検知/認識ファームウェアが生成される。つまり、この学習により得られた検知/認識ファームウェア(検知/認識アルゴリズム)は、画像のどこに注目すれば、画像に強盗犯が含まれているかを認識することができるものであり、認識する対象として、強盗犯が設定されているといえるということである。なお、この機械学習を行う際に画像に対するタグ付けは必ずしも必要ではない。例えば、教師データとして、強盗犯が写っている画像しか与えないのであれば、それが強盗犯を示す画像だという情報がなくても、教師データとして与えられた画像と特徴が近い画像を認識するアルゴリズムを生成することで、強盗犯を認識するアルゴリズムを生成することは可能である。
なお、検知/認識ファームウェアに設定されている認識対象(検知/認識ファームウェアが認識する対象)は、1つとは限らず、複数設定されていてもよい。
Further, it is assumed that the setting of the target recognized by the detection / recognition means 21 is included in the detection / recognition firmware. For example, in the case where the detection / recognition firmware is generated by the machine learning means 30 and the detection / recognition firmware generation means 31, if the object to be recognized is a burglar at a convenience store, the machine learning teacher data is, for example, a convenience store The machine learning means 30 is provided with a plurality of images showing robbers who have been robbed in the past and information that these images are images showing burglars as teacher data (tag the image as a burglar) . Then, by machine learning, it is learned where a given image (teacher data) can be recognized to recognize a burglar. As a result of machine learning, a detection / recognition algorithm with a high probability of being able to recognize a burglar from an image is generated. The detection / recognition algorithm is converted by the detection / recognition firmware generation means 31 to generate detection / recognition firmware. That is, the detection / recognition firmware (detection / recognition algorithm) obtained by this learning can recognize where in the image the robber is included, and can be recognized as an object to be recognized. That is, it can be said that robbery is set. Note that tagging an image is not always necessary when performing this machine learning. For example, if only the image showing the burglar is given as teacher data, it recognizes an image whose characteristics are similar to the image given as the teacher data even if there is no information that it is an image showing the burglar It is possible to generate an algorithm for recognizing a burglar by generating an algorithm.
Note that the number of recognition targets (targets recognized by the detection / recognition firmware) set in the detection / recognition firmware is not limited to one, and a plurality of recognition targets may be set.

以上のように、検知/認識ファームウェアは、特定の対象を認識するものであり、検知/認識手段21は、検知/認識ファームウェアによりこの特定の対象を認識した場合に、認識をした旨の信号等(例えば、アラーム信号)を出力する。また、この認識をした旨の信号等は、通信手段23を介してサーバ3や端末4、管理者6の持つ端末等に送られ、これらの端末等に設定対象を認識した旨の通知がなされる。なお、この認識をした旨の信号等は、サーバ3のみに送られ、サーバ3において各カメラ2からの情報を総合的に判断した上で、サーバ3から端末4等に、認識対象を認識した旨のメールやアラームを鳴らす旨の命令等のアラーム情報等を送るようにしてもよい。   As described above, the detection / recognition firmware recognizes a specific target. When the detection / recognition unit 21 recognizes the specific target by the detection / recognition firmware, a signal indicating that the detection / recognition unit 21 recognizes the specific target, and the like. (For example, an alarm signal) is output. A signal indicating that the recognition has been performed is sent to the server 3, the terminal 4, the terminal of the administrator 6, and the like via the communication unit 23, and notification that the setting target has been recognized is made to these terminals. The The signal indicating that the recognition has been performed is sent only to the server 3, and the server 3 recognizes the recognition target from the server 3 to the terminal 4 after comprehensively judging information from each camera 2. Alarm information such as an e-mail or an instruction to sound an alarm may be sent.

また、4台のカメラ2は、撮像範囲が互いに重複しており、検知/認識ファームウェアに設定されている認識対象のうち重複する部分について、4台のカメラ2で同時に認識することが可能となっている。つまり、重複する認識対象として、例えば強盗犯が設定されている場合、4台のカメラで同時に、特定の強盗を行う特定の強盗犯を認識することが可能となっている。   Also, the four cameras 2 have overlapping imaging ranges, and the four cameras 2 can simultaneously recognize overlapping portions of the recognition targets set in the detection / recognition firmware. ing. That is, for example, when a burglar is set as an overlapping recognition target, it is possible to simultaneously recognize a specific burglar who performs a specific burglary with four cameras.

サーバ3は、図3に示すように、機械学習手段30と、検知/認識ファームウェア生成手段31と、サーバ側検知/認識手段32と、サーバ側記録手段33と、サーバ側通信手段34と、サーバ側制御手段35と、を備える。また、機械学習手段30、検知/認識ファームウェア生成手段31、サーバ側検知/認識手段32およびサーバ側制御手段35は、演算処理装置とメモリとを有するが、それぞれが個別の演算処理装置またはメモリを有していてもよく、演算処理装置またはメモリを共有するものであってもよい。   As shown in FIG. 3, the server 3 includes machine learning means 30, detection / recognition firmware generation means 31, server-side detection / recognition means 32, server-side recording means 33, server-side communication means 34, server Side control means 35. The machine learning means 30, the detection / recognition firmware generation means 31, the server-side detection / recognition means 32, and the server-side control means 35 each have an arithmetic processing device and a memory, but each has an individual arithmetic processing device or memory. You may have and you may share an arithmetic processing unit or memory.

機械学習手段30は、例えば、ディープラーニング等の機械学習を行い検知/認識アルゴリズムを生成する。ここで、検知/認識アルゴリズムとは、カメラ2の撮像手段20で撮像された画像から、設定された認識対象を認識するためのアルゴリズムである。   For example, the machine learning means 30 performs machine learning such as deep learning to generate a detection / recognition algorithm. Here, the detection / recognition algorithm is an algorithm for recognizing a set recognition target from an image captured by the imaging unit 20 of the camera 2.

検知/認識ファームウェア生成手段31は、機械学習手段30が生成した検知/認識アルゴリズムを各カメラ2で実行可能なファームウェアに変換し、検知/認識ファームウェアを生成する。各カメラ2は、撮像手段20により取得できる画像の解像度や、検知/認識手段21の演算処理装置の性能、検知/認識手段21用のGPU(Graphics Processing Unit)の有無、マイク等の音声入力手段の有無、カメラの種類(ステレオカメラか、TOFセンサか等)等が異なるので、各カメラ2で実行可能なファームウェアも異なる。検知/認識ファームウェア生成手段31により、機械学習により生成した検知/認識アルゴリズムを各カメラ2で実行可能なファームウェアに変換することで、各カメラ2に新しい検知/認識用のプログラムを実装することが可能となる。   The detection / recognition firmware generation unit 31 converts the detection / recognition algorithm generated by the machine learning unit 30 into firmware that can be executed by each camera 2 to generate detection / recognition firmware. Each camera 2 has a resolution of an image that can be acquired by the imaging means 20, the performance of the arithmetic processing unit of the detection / recognition means 21, the presence / absence of a GPU (Graphics Processing Unit) for the detection / recognition means 21, and an audio input means such as a microphone. And the type of camera (stereo camera, TOF sensor, etc.) are different, and the firmware that can be executed by each camera 2 is also different. The detection / recognition firmware generation means 31 converts a detection / recognition algorithm generated by machine learning into firmware that can be executed by each camera 2, so that a new detection / recognition program can be installed in each camera 2. It becomes.

サーバ側検知/認識手段32は、各カメラ2の画像や情報から総合的に状況を判断して検知/認識をする。例えば、各カメラ2の検知/認識手段21は、そのカメラ2の撮像手段20により取得した画像を使用して検知/認識を行うが、サーバ側検知/認識手段32は、複数のカメラ2で取得した画像を使用して検知/認識を行う。また、各カメラ2で行うには重い処理である場合に、サーバ側検知/認識手段32が処理の一部を行うようにしてもよい。また、サーバ側検知/認識手段32の検知/認識ファームウェアは、サーバ側検知/認識手段32のメモリに備えられている。また、サーバ側検知/認識手段32の検知/認識ファームウェアも機械学習手段30および検知/認識ファームウェア生成手段31により生成された検知/認識ファームウェアによって、更新することが可能となっている。   The server-side detection / recognition means 32 performs detection / recognition by comprehensively judging the situation from the images and information of each camera 2. For example, the detection / recognition means 21 of each camera 2 performs detection / recognition using an image acquired by the imaging means 20 of the camera 2, but the server-side detection / recognition means 32 is acquired by a plurality of cameras 2. Detection / recognition is performed using the selected image. Further, when the processing is heavy for each camera 2, the server side detection / recognition means 32 may perform a part of the processing. Further, the detection / recognition firmware of the server side detection / recognition means 32 is provided in the memory of the server side detection / recognition means 32. Further, the detection / recognition firmware of the server-side detection / recognition means 32 can also be updated by the detection / recognition firmware generated by the machine learning means 30 and the detection / recognition firmware generation means 31.

また、サーバ側検知/認識手段32は、4台のカメラ2(カメラ2a,2b,2c)の検知/認識手段21の認識結果から、各カメラ2における認識対象の認識が正しいものか、あるいは、各カメラ2における認識対象の認識が正しい確率等を判断してもよい。そして、この判断結果から、端末4等にアラーム情報等を送るようにしてもよい。例えば、4台のカメラ全てから設定対象(例えば強盗)を認識した旨の通知があった場合に、サーバ側検知/認識手段32は、設定対象の認識が正しいと判断し、端末4等にアラームを鳴らすように命令してもよい。また、設定対象を認識したカメラの台数によって、アラーム情報の内容を変える等してもよい。例えば、4台のカメラ全てが設定対象を認識した場合には、認識が正しいと判断して、サーバ側検知/認識手段32は、端末4に大きなアラーム音を鳴らすように命令するが、3台以下のカメラしか設定対象を認識しなかった場合には、認識が正しい可能性があると判断して、サーバ側検知/認識手段32は、端末4に小さなアラーム音を鳴らすように命令するといったようにしてもよい。   Further, the server side detection / recognition means 32 determines whether the recognition target of each camera 2 is correct from the recognition results of the detection / recognition means 21 of the four cameras 2 (cameras 2a, 2b, 2c), or The probability or the like that the recognition target of each camera 2 is recognized may be determined. Then, from this determination result, alarm information or the like may be sent to the terminal 4 or the like. For example, when there is a notification that all four cameras have recognized the setting target (for example, robbery), the server-side detection / recognition means 32 determines that the setting target is recognized correctly and notifies the terminal 4 or the like of an alarm. May be ordered to sound. Further, the content of the alarm information may be changed depending on the number of cameras that have recognized the setting target. For example, if all four cameras recognize the setting target, the server side detection / recognition means 32 determines that the recognition is correct and instructs the terminal 4 to sound a loud alarm sound. When only the following cameras are recognized, the server side detection / recognition means 32 determines that the recognition may be correct, and instructs the terminal 4 to sound a small alarm sound. It may be.

また、サーバ側検知/認識手段32は、複数のカメラ2の検知/認識手段21の認識結果から、カメラ2の誤認識(認識ミス)の判断を行う。例えば、4台のカメラ2のうち、3台のカメラ2から検知/認識手段21により設定対象を認識した旨の通知があり、1台のカメラ2からは通知がなかった場合に、この1台のカメラ2は誤認識(認識ミス)をしたと判断をしたりする。また、逆に4台のカメラ2のうち、3台のカメラ2からは検知/認識手段21により設定対象を認識した旨の通知がなかったが、1台のカメラ2からは通知があった場合に、この1台のカメラ2は誤認識(認識ミス)をしたと判断をすることとしてもよい。
なお、サーバ側検知/認識手段32での検知/認識の結果と、各カメラ2での検知/認識の結果とを比較して、各カメラ2の誤認識(認識ミス)の判断をしてもよい。
Further, the server side detection / recognition means 32 determines misrecognition (recognition error) of the camera 2 from the recognition results of the detection / recognition means 21 of the plurality of cameras 2. For example, when there is a notification that the setting target is recognized by the detection / recognition means 21 from the three cameras 2 out of the four cameras 2 and there is no notification from the one camera 2, this one The camera 2 determines that a recognition error (recognition error) has occurred. Conversely, out of the four cameras 2, three cameras 2 did not receive a notification that the setting target was recognized by the detection / recognition means 21, but one camera 2 received a notification. In addition, it may be determined that the one camera 2 has misrecognized (recognition error).
Even if the result of detection / recognition by the server-side detection / recognition means 32 is compared with the result of detection / recognition by each camera 2, the erroneous recognition (recognition error) of each camera 2 is determined. Good.

サーバ側記録手段33は、機械学習手段30で行う機械学習の教師データ等を記録する。また、サーバ側通信手段34は、ネットワーク5を介して各カメラ2と通信をし、各カメラ2からの画像その他の情報の受信、各カメラ2への命令や検知/認識ファームウェアの送信、異常時(設定対象を認識したとき)のアラーム情報の端末4や管理者6への送信をする。   The server-side recording unit 33 records teacher data for machine learning performed by the machine learning unit 30. The server side communication means 34 communicates with each camera 2 via the network 5 to receive images and other information from each camera 2, send commands and detection / recognition firmware to each camera 2, The alarm information (when the setting target is recognized) is transmitted to the terminal 4 or the administrator 6.

次に、このような検知認識システム1の検知認識ファームウェアの更新方法について、図4のフローチャートを参照して説明する。
カメラ2は、撮像手段20により画像を取得し、検知/認識手段21の検知/認識ファームウェアによる制御により設定された認識対象の認識(検知/認識)を行う。そして、認識を誤った場合に、認識を誤った時の画像を、サーバ3に送信する(ステップS1)。なお、認識を誤った時の画像と同時に、認識を誤った時の音声データ等も送信してもよい。
なお、認識を誤ったかどうかの判断は、上述のように、複数のカメラ2の認識結果からサーバ側検知/認識手段32が判断する。例えば、カメラ2が設定された認識対象(例えば、強盗犯)を認識したときは、サーバ3に認識した旨(例えば、強盗犯を認識した旨)を通知するシステムにおいて、カメラ2aおよびカメラ2bからは認識した旨の通知がサーバ3にあったが、カメラ2cからは認識した旨の通知がなかった場合、サーバ側検知/認識手段32はこれらの通知結果から、カメラ2cは認識を誤った(認識をすることができなかった)と判断する。この際、サーバ3の制御手段は、カメラ2cに対して、カメラ2aおよびカメラ2bが認識対象を認識した画像を取得した時刻と同じ時刻またはこの前後の時刻(例えば、前後数秒から数分)にカメラ2cが取得した画像を、認識を誤った時の画像として、サーバ3に送信するように、カメラ2cに対して命令する。この命令を受けてカメラ2cは、認識を誤った時の画像をサーバ3に送信する。
なお、認識を誤ったかどうかは、人が判断してもよい。例えば、検知認識システム1は、カメラ2で撮影した画像を表示する表示手段とポインティングデバイスやキーボード等の入力手段を備えた端末とを備えており、カメラ2が、強盗犯を認識することができなかった場合に、人が、この端末の表示手段からカメラ2で撮影した画像を確認して、強盗犯を認識して欲しかった画像をこの端末の入力手段を用いて人が選択し、認識を誤った時の画像としてサーバ3に送信することとしてもよい。
Next, a method for updating the detection recognition firmware of the detection recognition system 1 will be described with reference to the flowchart of FIG.
The camera 2 acquires an image by the imaging unit 20 and performs recognition (detection / recognition) of a recognition target set by control by the detection / recognition firmware of the detection / recognition unit 21. When the recognition is wrong, an image when the recognition is wrong is transmitted to the server 3 (step S1). Note that audio data or the like when the recognition is wrong may be transmitted simultaneously with the image when the recognition is wrong.
The server side detection / recognition means 32 determines whether or not the recognition is wrong from the recognition results of the plurality of cameras 2 as described above. For example, when the camera 2 recognizes a set recognition target (for example, a burglar), in the system that notifies the server 3 of the recognition (for example, the burglar is recognized), the camera 2a and the camera 2b Is notified to the server 3, but if there is no notification from the camera 2c, the server-side detection / recognition means 32 recognizes that the camera 2c has erroneously recognized from these notification results ( Judgment was not possible. At this time, the control means of the server 3 gives the camera 2c the same time as or the time before and after the time when the camera 2a and the camera 2b recognized the recognition target (for example, several seconds to several minutes before and after). The camera 2c is instructed to transmit the image acquired by the camera 2c to the server 3 as an image when the recognition is wrong. Upon receiving this command, the camera 2c transmits an image when the recognition is wrong to the server 3.
A person may determine whether or not the recognition is wrong. For example, the detection and recognition system 1 includes a display unit that displays an image captured by the camera 2 and a terminal that includes an input unit such as a pointing device or a keyboard. The camera 2 can recognize a burglar. If there is not, the person confirms the image taken by the camera 2 from the display means of this terminal, the person selects the image that he wanted to recognize the burglar using the input means of this terminal, and recognizes It is good also as transmitting to the server 3 as an image at the time of a mistake.

サーバ側制御手段35は、カメラ2から送られた認識を誤った時の画像を、教師データ(教育データ)としてサーバ側記録手段33に記録する。また、認識を誤った時の画像の記録と共に、検知/認識手段21に出して欲しかった認識結果(例えば、画像から強盗犯を認識して欲しかった旨)を教師データとしてサーバ側記録手段33に記録する。
なお、この教師データとして記録する検知/認識手段21に出して欲しかった認識結果は、サーバ3で作り出すものであってもよく、カメラ2から送られてくるものであってもよい。例えば、認識を誤ったかどうかの判断を、複数のカメラ2の認識結果からサーバ側検知/認識手段32がする場合、サーバ側検知/認識手段32は、正しいであろう認識結果(検知/認識手段21に出して欲しかった認識結果)を教師データとして作成し、この教師データをサーバ側記録手段33に記録することとしてもよい。また、例えば、人がカメラ2で撮影した画像を確認して、認識を誤ったかどうかの判断をする場合、人が上述の端末から、強盗犯を認識して欲しかった画像を選択する際に、強盗犯を認識して欲しかった旨(画像が強盗犯を示すものである旨)もこの端末の入力手段を用いて入力し、認識を誤った時の画像と共にサーバ3に送信し、この送信されたデータを教師データとして、サーバ側制御手段35がサーバ側記録手段33に記録するものとしてもよい。
The server-side control unit 35 records an image sent from the camera 2 when the recognition is wrong in the server-side recording unit 33 as teacher data (education data). Further, along with the recording of the image when the recognition is wrong, the recognition result desired to be output to the detection / recognition means 21 (for example, the fact that the robber was desired to be recognized from the image) is stored in the server side recording means 33 as teacher data. Record.
The recognition result desired to be output to the detection / recognition means 21 recorded as the teacher data may be created by the server 3 or sent from the camera 2. For example, when the server-side detection / recognition means 32 determines whether or not the recognition is wrong from the recognition results of the plurality of cameras 2, the server-side detection / recognition means 32 recognizes the recognition result (detection / recognition means) that would be correct. 21) may be created as teacher data, and this teacher data may be recorded in the server-side recording means 33. In addition, for example, when checking an image taken by a person with the camera 2 and determining whether or not the recognition is wrong, when selecting an image that the person wanted to recognize a burglar from the above-mentioned terminal, The fact that he / she wanted to recognize the burglar (the fact that the image indicates a burglar) is also input using the input means of this terminal, and is sent to the server 3 together with the image when the recognition is wrong. The server-side control means 35 may record the data in the server-side recording means 33 as teacher data.

機械学習手段30は、サーバ側記録手段33に記録された教師データを読み出す(ステップS2)。そして、機械学習手段30は、この読み出した教師データに含まれる認識を誤った際の画像から、畳み込み演算により、特徴点を抽出する(ステップS3)。機械学習手段30は、抽出された特徴点と、検知/認識手段21に出して欲しかった認識結果との情報から、機械学習を行う(ステップS4)。そして、機械学習の結果、検知認識処理を行うニューラルネットワークである検知/認識アルゴリズムが生成される(ステップS5)。   The machine learning means 30 reads the teacher data recorded in the server side recording means 33 (step S2). Then, the machine learning means 30 extracts feature points by convolution calculation from the image when the recognition included in the read teacher data is erroneous (step S3). The machine learning means 30 performs machine learning from the information of the extracted feature points and the recognition result that the detection / recognition means 21 wants to output (step S4). As a result of machine learning, a detection / recognition algorithm that is a neural network that performs detection and recognition processing is generated (step S5).

機械学習手段30での機械学習は、カメラ2毎に検知/認識アルゴリズム(検知/認識ファームウェア)が最適化されるように行われる。各カメラ2は、カメラの種類等が違う場合もあれば、まったく同じ特性を持つカメラであっても、設置場所や使用される環境が違う場合もあるので、これらの違いによって最適なアルゴリズムが異なってくる場合もあるからである。機械学習手段30は、元の検知/認識アルゴリズムと教師データとを基に、教師データに含まれる認識を誤った際の画像から、教師データに含まれる検知/認識手段21に出して欲しかった認識結果を出すことができる新たな検知/認識アルゴリズムを生成する。なお、機械学習に使う元の検知/認識アルゴリズムはサーバ側記録手段33に記録しておくものとしてもよく、カメラ2から検知/認識ファームウェアを送信してもらい、この検知/認識ファームウェアを検知/認識アルゴリズムに変換して使用してもよい。つまり、機械学習手段30は、検知/認識を誤ったカメラ2の検知/認識ファームウェアに用いられている検知/認識アルゴリズムと教師データとから、新たな検知/認識アルゴリズムを生成する。   The machine learning in the machine learning means 30 is performed so that the detection / recognition algorithm (detection / recognition firmware) is optimized for each camera 2. Each camera 2 may have a different type of camera, or even a camera with exactly the same characteristics, but the installation location and environment used may differ. This is because it may come. Based on the original detection / recognition algorithm and the teacher data, the machine learning means 30 recognizes the detection / recognition means 21 included in the teacher data from the image when the recognition included in the teacher data is wrong. Generate a new detection / recognition algorithm that can produce a result. It should be noted that the original detection / recognition algorithm used for machine learning may be recorded in the server-side recording means 33. The detection / recognition firmware is transmitted from the camera 2, and the detection / recognition firmware is detected / recognized. It may be converted into an algorithm and used. In other words, the machine learning means 30 generates a new detection / recognition algorithm from the detection / recognition algorithm used in the detection / recognition firmware of the camera 2 with erroneous detection / recognition and the teacher data.

検知/認識ファームウェア生成手段31は、機械学習手段30で生成された検知/認識アルゴリズムを各カメラ用の検知/認識ソフトである検知/認識ファームウェアに変換する(ステップS6)。つまり、検知/認識アルゴリズムは、検知/認識ファームウェア生成手段31により、各カメラで実行可能な形式のソフトウェアに変換される。
サーバ側通信手段34は、検知/認識ファームウェア生成手段31で生成された検知/認識ソフトである検知/認識ファームウェアをカメラ2に送信する(ステップS7)。そして、カメラ2が検知/認識ファームウェアを受け取ると、カメラ2の制御手段24は、検知/認識手段21のファームウェアを、新しい検知/認識ファームウェアに更新する。
The detection / recognition firmware generation means 31 converts the detection / recognition algorithm generated by the machine learning means 30 into detection / recognition firmware that is detection / recognition software for each camera (step S6). That is, the detection / recognition algorithm is converted by the detection / recognition firmware generation unit 31 into software in a format that can be executed by each camera.
The server-side communication unit 34 transmits detection / recognition firmware, which is detection / recognition software generated by the detection / recognition firmware generation unit 31, to the camera 2 (step S7). When the camera 2 receives the detection / recognition firmware, the control unit 24 of the camera 2 updates the firmware of the detection / recognition unit 21 to the new detection / recognition firmware.

本実施の形態の検知認識システムによれば、カメラ2の検知/認識手段21の検知認識ファームウェアは、サーバ3の機械学習手段30および検知/認識ファームウェア生成手段31により生成された新しい検知/認識ファームウェアに更新することができる。
機械学習手段30による機械学習は、カメラ2の検知/認識手段21が、設定された認識対象の認識を誤った際の画像を教師データとして行われるので、この教師データを用いた機械学習では、その画像について設定された認識対象の認識を誤らないように検知/認識アルゴリズムが改善される。したがって、カメラ2の検知/認識の性能を向上させることができる。
According to the detection recognition system of this embodiment, the detection / recognition firmware of the detection / recognition means 21 of the camera 2 is the new detection / recognition firmware generated by the machine learning means 30 and the detection / recognition firmware generation means 31 of the server 3. Can be updated.
The machine learning by the machine learning means 30 is performed using, as teacher data, an image when the detection / recognition means 21 of the camera 2 erroneously recognizes the set recognition target. In machine learning using this teacher data, The detection / recognition algorithm is improved so that the recognition target set for the image is not erroneously recognized. Therefore, the detection / recognition performance of the camera 2 can be improved.

また、機械学習はサーバ3で行い、カメラ2は、サーバ3で生成された検知認識ファームウェアの実行をすればよいので、カメラ2の演算能力等がそれほど高くなくても、検知認識ファームウェアを更新して、精度の高い検知/認識を行えるようにすることができる。また、カメラが年数の経過とともに、他のカメラに比べて相対的に性能の低いものになることもなく、むしろ、使用とともに徐々に性能を向上させることが可能となる。また、カメラ2が使用される環境に適した検知/認識ができるように、カメラ2の性能を改善させていくことが可能となる。   In addition, since machine learning is performed by the server 3 and the camera 2 only needs to execute the detection recognition firmware generated by the server 3, the detection recognition firmware is updated even if the calculation capability of the camera 2 is not so high. Thus, highly accurate detection / recognition can be performed. In addition, the camera does not have a relatively low performance as compared with other cameras over the years, but rather the performance can be gradually improved with use. In addition, the performance of the camera 2 can be improved so that detection / recognition suitable for the environment in which the camera 2 is used can be performed.

また、機械が自ら学習することで、人であれば気づくことができないような場合でも、設定された認識対象を認識することが可能となる。例えば、教育データとして、強盗犯が実際に強盗をしているときの画像を与えるのではなく、実際に強盗が行なわれたときよりも前の、強盗犯が写っている画像等を与えることで、実際に強盗が行なわれている場合に強盗犯を認識するようなアルゴリズムではなく、コンビニエンスストア内やコンビニエンスストアの周囲をうろつく人の挙動等から、将来的に強盗におよぶ可能性の高い人の特徴を見出し、このような人を強盗犯(強盗犯となる可能性が高い人)として認識するような検知/認識アルゴリズムを生成することも可能になる。なお、実際にどのような特徴に注目して認識を行うかは、機械学習手段30が判断するので、挙動から強盗におよぶ可能性の高い人を認識するとは限らない。   In addition, since the machine learns by itself, it is possible to recognize the set recognition target even when the person cannot notice it. For example, as educational data, instead of giving an image when the burglar actually robbed, giving an image of the robber before the robber was actually taken. It is not an algorithm for recognizing a burglar when a burglar is actually being carried out. It is also possible to generate a detection / recognition algorithm that finds the characteristics and recognizes such a person as a burglar (a person who is likely to be a burglar). Note that since the machine learning means 30 determines which features are actually focused and recognized, it does not always recognize a person who is likely to be a robber from a behavior.

また、本実施の形態の検知認識システムによれば、4台のカメラ2は、撮像範囲が互いに重複しているので、検知/認識ファームウェアに設定されている認識対象のうち重複する部分について、4台のカメラ2で同時に認識することができる。したがって、4台のカメラ2のうち、数台が認識対象を認識することができなくても、4台のカメラ2のうちの他のカメラが認識対象を認識することが可能となるので、検知/認識をすることができる可能性を高め、システム全体としての検知/認識の精度を高めることができる。
また、4台のカメラ2は、ステレオカメラ2a、赤外線カメラ2b、単眼カメラ2cという、撮像手段20の種類の異なるカメラを含む。したがって、例えば、ステレオカメラ2aでは検知/認識をすることが困難な場合でも、赤外線カメラ2bで検知/認識をすることができる等して、同一種類のカメラ2を用いた場合に比べ、システム全体としての検知/認識の精度を高めることができる。
なお、複数のカメラ2は、それぞれ撮像範囲が全く異なる場所に設置されていたり、全く異なる認識対象を認識するものであったりしてもよい。
Further, according to the detection recognition system of the present embodiment, since the four cameras 2 have the same imaging range, the overlap between the recognition targets set in the detection / recognition firmware is 4 Can be recognized simultaneously by two cameras 2. Therefore, even if several of the four cameras 2 cannot recognize the recognition target, the other cameras of the four cameras 2 can recognize the recognition target. The possibility of being able to be recognized / recognized can be increased, and the accuracy of detection / recognition as a whole system can be increased.
Further, the four cameras 2 include cameras of different types of imaging means 20, such as a stereo camera 2a, an infrared camera 2b, and a monocular camera 2c. Therefore, for example, even when it is difficult to detect / recognize with the stereo camera 2a, the entire system can be compared with the case where the same type of camera 2 is used because the infrared camera 2b can detect / recognize. The accuracy of detection / recognition can be improved.
The plurality of cameras 2 may be installed in places where the imaging ranges are completely different from each other, or may recognize a completely different recognition target.

また、サーバ側検知/認識手段32は、4台のカメラ2の検知/認識手段21の認識結果から、各カメラ2における認識対象の認識が正しいものかを判断したり、各カメラ2における認識対象の認識が正しい確率等を判断したり、カメラ2の誤認識(認識ミス)の判断をしたりすることができる。したがって、個々のカメラ2における検知/認識の結果から、サーバ側検知/認識手段32で認識が正しいと判断した場合にのみ、端末4等からアラーム音を発するようにしたりすることができる。
また、カメラ2の誤認識を自動で判断し、誤認識をしたカメラ2について、検知/認識の能力を改善するよう、自動で機械学習を行うようにすることができる。そして、このときに機械学習の教師データとして用いる画像には、誤認識をした際の画像を用いることができるので、この誤認識をした際の画像について認識を誤ることがないように、学習することが可能となる。したがって、誤認識を自動で判断し、カメラ2の使用とともに検知/認識の精度を高めていくことができる。
Further, the server-side detection / recognition means 32 determines whether the recognition of the recognition target in each camera 2 is correct from the recognition results of the detection / recognition means 21 of the four cameras 2 or recognizes the recognition target in each camera 2 It is possible to determine the probability of correct recognition of the camera 2 or to determine whether the camera 2 is erroneously recognized (recognition error). Therefore, the alarm sound can be emitted from the terminal 4 or the like only when the server-side detection / recognition means 32 determines that the recognition is correct from the detection / recognition results of the individual cameras 2.
Further, it is possible to automatically determine the misrecognition of the camera 2 and automatically perform machine learning so as to improve the detection / recognition ability of the misrecognized camera 2. In addition, the image used as the machine learning teacher data at this time can be the image that was misrecognized, so learning is performed so as not to misrecognize the image that has been misrecognized. It becomes possible. Therefore, it is possible to automatically determine misrecognition and to improve the accuracy of detection / recognition as the camera 2 is used.

なお、機械学習を行うタイミングは、必要に応じて適宜調整してもよい。例えば、教師データを記録手段22やサーバ側記録手段33に溜めておき、一定数以上溜まった場合や、一定期間経過したときに機械学習を行ってもよい。
また、機械学習は、撮像手段20により撮像された画像以外の画像を用いて行ってもよい。撮像手段20で撮像される画像だけでは、教師データの数や質が十分でない場合に、機械学習手段30に、他の画像を与えることで機械学習の効果を向上させることができる。
Note that the timing at which machine learning is performed may be adjusted as necessary. For example, the teacher data may be stored in the recording unit 22 or the server-side recording unit 33, and machine learning may be performed when a certain number or more have been accumulated, or when a certain period has elapsed.
The machine learning may be performed using an image other than the image captured by the imaging unit 20. When the number and quality of the teacher data is not sufficient with only the image captured by the imaging unit 20, the machine learning effect can be improved by providing another image to the machine learning unit 30.

なお、カメラ2で認識する認識対象は、上述のものに限られず、撮像手段20により撮像した画像から、検知/認識可能なものであれば何でもよい。   Note that the recognition target recognized by the camera 2 is not limited to that described above, and any recognition target can be used as long as it can be detected / recognized from the image captured by the imaging unit 20.

1 検知認識システム
2 カメラ
2a ステレオカメラ(カメラ)
2b 赤外線カメラ(カメラ)
2c 単眼カメラ(カメラ)
3 サーバ
20 撮像手段
21 検知/認識手段
30 機械学習手段
31 認識ファームウェア生成手段
1 Detection recognition system 2 Camera 2a Stereo camera (camera)
2b Infrared camera (camera)
2c Monocular camera (camera)
3 Server 20 Imaging means 21 Detection / recognition means 30 Machine learning means 31 Recognition firmware generation means

Claims (6)

撮像をする撮像手段と、検知/認識手段と、サーバと、を備え、
前記検知/認識手段は、検知/認識ファームウェアを備え、前記撮像手段で取得した画像から前記検知/認識ファームウェアによる制御により、前記画像に含まれる特徴を検知して、設定された認識対象を認識するとともに、前記検知/認識ファームウェアを検知/認識ファームウェア生成手段で生成された新たな検知/認識ファームウェアに更新可能であり、
前記サーバは、前記撮像手段で取得した画像を教師データとして機械学習により検知/認識アルゴリズムを生成する機械学習手段と、前記検知/認識アルゴリズムから前記検知/認識手段の新たな検知/認識ファームウェアを生成する前記検知/認識ファームウェア生成手段と、を備えることを特徴とする検知認識システム。
An imaging unit for imaging, a detection / recognition unit, and a server;
The detection / recognition unit includes detection / recognition firmware, detects a feature included in the image from the image acquired by the imaging unit, and recognizes a set recognition target. In addition, the detection / recognition firmware can be updated to a new detection / recognition firmware generated by the detection / recognition firmware generation unit.
The server generates machine detection means for generating a detection / recognition algorithm by machine learning using the image acquired by the image pickup means as teacher data, and generates new detection / recognition firmware of the detection / recognition means from the detection / recognition algorithm. And a detection / recognition firmware generation means.
前記機械学習手段は、前記検知/認識手段が、前記設定された認識対象の認識を誤った際の画像を教師データとして機械学習をすることを特徴とする請求項1に記載の検知認識システム。   The detection / recognition system according to claim 1, wherein the machine learning unit performs machine learning using, as teacher data, an image when the detection / recognition unit erroneously recognizes the set recognition target. 少なくとも1台のカメラを備え、
前記カメラは、前記撮像手段と前記検知/認識手段とを備えることを特徴とする請求項1または2に記載の検知認識システム。
With at least one camera,
The detection recognition system according to claim 1, wherein the camera includes the imaging unit and the detection / recognition unit.
前記撮像手段による撮像範囲および前記設定された認識対象のうちの少なくとも一部が重複する複数の前記カメラを備えることを特徴とする請求項3に記載の検知認識システム。   The detection recognition system according to claim 3, further comprising a plurality of the cameras in which at least a part of an imaging range by the imaging unit and the set recognition target overlap. 前記機械学習手段は、前記複数のカメラのうちの、一部のカメラが重複する認識対象を認識した場合に、前記複数のカメラのうちの、他のカメラが前記重複する認識対象を認識しなかった画像を教師データとして、機械学習をすることを特徴とする請求項4に記載の検知認識システム。   When the machine learning means recognizes a recognition target that is overlapped by some of the plurality of cameras, the other camera of the plurality of cameras does not recognize the recognition target that is overlapped. The detection recognition system according to claim 4, wherein machine learning is performed using the obtained image as teacher data. 前記複数のカメラのうちの少なくとも1台は、前記撮像手段の異なるカメラであることを特徴とする請求項4または5に記載の検知認識システム。   The detection recognition system according to claim 4 or 5, wherein at least one of the plurality of cameras is a camera having a different imaging unit.
JP2016231534A 2016-11-29 2016-11-29 detection recognition system Active JP7162412B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016231534A JP7162412B2 (en) 2016-11-29 2016-11-29 detection recognition system
PCT/JP2017/042578 WO2018101247A1 (en) 2016-11-29 2017-11-28 Image recognition imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016231534A JP7162412B2 (en) 2016-11-29 2016-11-29 detection recognition system

Publications (2)

Publication Number Publication Date
JP2018088157A true JP2018088157A (en) 2018-06-07
JP7162412B2 JP7162412B2 (en) 2022-10-28

Family

ID=62493674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016231534A Active JP7162412B2 (en) 2016-11-29 2016-11-29 detection recognition system

Country Status (1)

Country Link
JP (1) JP7162412B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146947A (en) * 2018-09-04 2019-01-04 清华-伯克利深圳学院筹备办公室 Marine fishes acquiring three-dimensional images and processing method, device, equipment and medium
WO2019235161A1 (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Data analysis system and data analysis method
CN111294563A (en) * 2020-02-24 2020-06-16 浙江大华技术股份有限公司 Video monitoring method and device, storage medium and electronic device
JP2020194270A (en) * 2019-05-27 2020-12-03 株式会社Lightblue Technology Teacher data creation system, trained model generation system and teacher data creation method
JP2021039592A (en) * 2019-09-04 2021-03-11 株式会社東芝 Sensor system, image sensor, and sensing method
US11042956B2 (en) 2018-11-27 2021-06-22 Fujitsu Limited Monitoring apparatus and monitoring method
CN113196312A (en) * 2019-01-18 2021-07-30 欧姆龙株式会社 Model generation device, model generation method, model generation program, model generation system, inspection system, and monitoring system
CN113557172A (en) * 2019-03-11 2021-10-26 株式会社小糸制作所 Gated camera, automobile, vehicle lighting, object recognition system, arithmetic processing device, object recognition method, image display system, inspection method, camera device, image processing device
CN113646803A (en) * 2019-04-01 2021-11-12 欧姆龙株式会社 Human detection device and human detection method
KR20230085381A (en) * 2021-12-07 2023-06-14 주식회사 퀀텀솔루션 Sensing optimization system and method of IoT devices using artificial intelligence technology
WO2024236656A1 (en) * 2023-05-12 2024-11-21 ファナック株式会社 Image processing method, program, image processing system, image processing device, and detection device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008050134A (en) * 2006-08-25 2008-03-06 Toshiba Elevator Co Ltd Crime prevention camera of elevator
JP2012252507A (en) * 2011-06-02 2012-12-20 Panasonic Corp Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method
WO2013157265A1 (en) * 2012-04-18 2013-10-24 パナソニック株式会社 Image processing system, server device, image pickup device and image evaluation method
JP2016534607A (en) * 2013-07-22 2016-11-04 インテリヴィジョン テクノロジーズ コーポレーション System and method for scalable video cloud service
JP2016191973A (en) * 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5899472B2 (en) 2012-05-23 2016-04-06 パナソニックIpマネジメント株式会社 Person attribute estimation system and learning data generation apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008050134A (en) * 2006-08-25 2008-03-06 Toshiba Elevator Co Ltd Crime prevention camera of elevator
JP2012252507A (en) * 2011-06-02 2012-12-20 Panasonic Corp Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method
WO2013157265A1 (en) * 2012-04-18 2013-10-24 パナソニック株式会社 Image processing system, server device, image pickup device and image evaluation method
JP2016534607A (en) * 2013-07-22 2016-11-04 インテリヴィジョン テクノロジーズ コーポレーション System and method for scalable video cloud service
JP2016191973A (en) * 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235161A1 (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Data analysis system and data analysis method
JP2019211942A (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Data analysis system and data analysis method
JP7106997B2 (en) 2018-06-04 2022-07-27 日本電信電話株式会社 Data analysis system and data analysis method
CN109146947A (en) * 2018-09-04 2019-01-04 清华-伯克利深圳学院筹备办公室 Marine fishes acquiring three-dimensional images and processing method, device, equipment and medium
US11042956B2 (en) 2018-11-27 2021-06-22 Fujitsu Limited Monitoring apparatus and monitoring method
CN113196312A (en) * 2019-01-18 2021-07-30 欧姆龙株式会社 Model generation device, model generation method, model generation program, model generation system, inspection system, and monitoring system
CN113557172A (en) * 2019-03-11 2021-10-26 株式会社小糸制作所 Gated camera, automobile, vehicle lighting, object recognition system, arithmetic processing device, object recognition method, image display system, inspection method, camera device, image processing device
CN113646803A (en) * 2019-04-01 2021-11-12 欧姆龙株式会社 Human detection device and human detection method
JP2020194270A (en) * 2019-05-27 2020-12-03 株式会社Lightblue Technology Teacher data creation system, trained model generation system and teacher data creation method
JP2021039592A (en) * 2019-09-04 2021-03-11 株式会社東芝 Sensor system, image sensor, and sensing method
JP7353875B2 (en) 2019-09-04 2023-10-02 株式会社東芝 Sensor system and sensing method
CN111294563A (en) * 2020-02-24 2020-06-16 浙江大华技术股份有限公司 Video monitoring method and device, storage medium and electronic device
KR20230085381A (en) * 2021-12-07 2023-06-14 주식회사 퀀텀솔루션 Sensing optimization system and method of IoT devices using artificial intelligence technology
KR102658008B1 (en) * 2021-12-07 2024-04-17 주식회사 퀀텀솔루션 Sensing optimization system and method of IoT devices using artificial intelligence technology
WO2024236656A1 (en) * 2023-05-12 2024-11-21 ファナック株式会社 Image processing method, program, image processing system, image processing device, and detection device

Also Published As

Publication number Publication date
JP7162412B2 (en) 2022-10-28

Similar Documents

Publication Publication Date Title
JP2018088157A (en) Detection recognizing system
US11361639B2 (en) Gunshot detection system with location tracking
KR101789690B1 (en) System and method for providing security service based on deep learning
US10424175B2 (en) Motion detection system based on user feedback
WO2018101247A1 (en) Image recognition imaging apparatus
KR101485022B1 (en) Object tracking system for behavioral pattern analysis and method thereof
KR101543542B1 (en) Intelligent surveillance system and method of monitoring using the same
KR102390405B1 (en) Doorbell
US8104672B2 (en) Security system, mobile security device, and methods of operating
WO2021095351A1 (en) Monitoring device, monitoring method, and program
JP2018032950A (en) Information processing unit and information processing method, and computer program
US11450098B2 (en) Firearm detection system and method
US20150010213A1 (en) Image surveillance system and image surveillance method
US10341616B2 (en) Surveillance system and method of controlling the same
US11093757B2 (en) Firearm detection system and method
KR20150041939A (en) A door monitoring system using real-time event detection and a method thereof
JP2010218039A (en) System and method for authenticating face
CN107111363A (en) Monitoring
Thakral et al. An Advanced IoT Based Border Surveillance and Intrusion Detection System
US20240386597A1 (en) Fusion between computer vision object detection and radar object detection
JP5981015B1 (en) Shoplifting crime scene recording device
JP4990552B2 (en) Attention position identification system, attention position identification method, and attention position identification program
JP2001148843A (en) Image pickup device and criminal prevention system using the image pickup device
KR20180058331A (en) Security apparatus and method using drone
EP3855349A1 (en) Extracting information about people from sensor signals

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210107

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210107

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210119

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210126

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210212

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210216

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211019

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220713

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220816

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220920

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221018

R150 Certificate of patent or registration of utility model

Ref document number: 7162412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150