JP7321221B2 - Information processing device, program, determination method, and system - Google Patents
Information processing device, program, determination method, and system Download PDFInfo
- Publication number
- JP7321221B2 JP7321221B2 JP2021145005A JP2021145005A JP7321221B2 JP 7321221 B2 JP7321221 B2 JP 7321221B2 JP 2021145005 A JP2021145005 A JP 2021145005A JP 2021145005 A JP2021145005 A JP 2021145005A JP 7321221 B2 JP7321221 B2 JP 7321221B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection target
- detection
- reference coordinates
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 103
- 238000000034 method Methods 0.000 title claims description 32
- 238000001514 detection method Methods 0.000 claims description 235
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims 1
- 238000013507 mapping Methods 0.000 claims 1
- 239000013598 vector Substances 0.000 description 39
- 238000004891 communication Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 10
- 238000010295 mobile communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000003491 array Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 235000021419 vinegar Nutrition 0.000 description 1
- 239000000052 vinegar Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、プログラム、判定方法、及びシステムに関する。 The present invention relates to an information processing device, program, determination method, and system.
例えば、道路上を走行する車両をテレビカメラから撮影した画像の連続するフレーム中から特徴点を抽出し、それらが同一の車両のものか否かを判別してグルーピングすることで、複数の車両を分離、認識し、各車両の位置データを取得するような技術が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2002-56494号公報
For example, by extracting feature points from consecutive frames of images taken by a TV camera of vehicles traveling on the road, determining whether or not they belong to the same vehicle, and grouping them, we can identify multiple vehicles. Techniques for separating, recognizing, and acquiring location data for each vehicle have been known (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-2002-56494
本発明の一実施態様によれば、情報処理装置が提供される。情報処理装置は、時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する座標情報取得部を備えてよい。情報処理装置は、複数の画像のうちの第1の画像の座標情報及び第2の画像の座標情報に基づいて、第1の画像における検出対象と第2の画像における検出対象とを対応付ける対応付部を備えてよい。情報処理装置は、第1の画像における検出対象の基準座標と、当該検出対象に対応する第2の画像における検出対象の基準座標とを結ぶ検出対象の移動線分が、予め設定された境界線分と交差する場合に、検出対象が境界線分を通過したと判定する通過判定部を備えてよい。 According to one embodiment of the present invention, an information processing device is provided. The information processing apparatus may include a coordinate information acquisition unit that acquires coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images. The information processing device establishes correspondence between a detection target in a first image and a detection target in a second image based on coordinate information of a first image and coordinate information of a second image among a plurality of images. You may have a department. In the information processing device, a movement line segment of a detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a boundary line set in advance. A passage determination unit may be provided that determines that the detection target has passed through the boundary line segment when the detection target crosses the boundary line segment.
上記対応付部は、上記第1の画像における複数の上記検出対象と上記第2の画像における複数の上記検出対象とについて、上記移動線分の長さであるユークリッド距離が、最短になる上記検出対象の組を移動前後として対応付けてよい。上記対応付部は、対応付けた上記検出対象の組の上記ユークリッド距離を集計して中央値を算出し、上記検出対象の組の上記ユークリッド距離が、上記中央値の1.5倍を超える場合に、上記検出対象の移動前後として対応付けなくてもよい。上記対応付部によって他の上記検出対象に対応付けられなかった上記検出対象の情報が含まれるエラー情報を、記憶するエラー情報記憶部をさらに備えてもよい。上記対応付部は、上記複数の画像のうちの一の画像における複数の上記検出対象のうち、上記一の画像に連続する次の画像の複数の上記検出対象のいずれにも対応付けられなかった上記検出対象がある場合に、上記エラー情報を参照してもよい。 The matching unit performs the detection in which the Euclidean distance, which is the length of the movement line segment, is the shortest between the plurality of detection targets in the first image and the plurality of detection targets in the second image. The set of targets may be associated as before and after movement. The association unit aggregates the Euclidean distances of the associated pairs of detection targets to calculate a median value, and when the Euclidean distances of the pair of detection targets exceeds 1.5 times the median value , may not be associated as before and after movement of the detection target. The apparatus may further include an error information storage unit that stores error information including information on the detection target that has not been associated with the other detection target by the association unit. The associating unit is associated with none of the plurality of detection targets in the next image following the one image among the plurality of detection targets in one of the plurality of images. When there is the detection target, the error information may be referred to.
上記エラー情報記憶部は、対応付けられなかった上記検出対象の上記基準座標が、予め設定された領域内にある場合に上記エラー情報を記憶してもよい。上記予め設定された領域は、上記画像の中心を含み、上記画像の端部を含まない領域であってもよい。上記対応付部は、対応付けられなかった上記検出対象の上記エラー情報を、対応付けられなかった上記検出対象ごとに一定期間で削除してもよい。上記検出対象が上記境界線分を通過したと判定された場合に、上記移動線分から算出できる移動ベクトルと、予め設定された任意点及び上記境界線分から求まる判定ベクトルとの角度で、上記移動ベクトルの上記境界線分に対する通過方向を判定するベクトル判定部をさらに備えてもよい。 The error information storage unit may store the error information when the reference coordinates of the detection target that have not been associated are within a preset area. The preset area may be an area that includes the center of the image and does not include the edges of the image. The association unit may delete the error information of the detection target that has not been associated for each of the detection targets that have not been associated in a certain period of time. When it is determined that the detection target has passed through the boundary line segment, the movement vector is an angle between a movement vector that can be calculated from the movement line segment and a predetermined arbitrary point and a determination vector that can be obtained from the boundary line segment. may further include a vector determination unit that determines a passing direction with respect to the boundary line segment of .
上記ベクトル判定部は、上記判定ベクトルと上記移動ベクトルとの角度が90度より小さい又は270度より大きい場合、上記通過方向が、上記境界線分から上記任意点への方向であると判定してもよい。上記ベクトル判定部は、上記判定ベクトルと上記移動ベクトルとの角度が90度より大きく270度より小さい場合、上記通過方向が、上記境界線分から上記任意点への方向とは逆方向であると判定してもよい。 When the angle between the determination vector and the movement vector is less than 90 degrees or greater than 270 degrees, the vector determination unit determines that the passing direction is a direction from the boundary line to the arbitrary point. good. The vector determination unit determines that the passing direction is opposite to the direction from the boundary line to the arbitrary point when an angle between the determination vector and the movement vector is greater than 90 degrees and less than 270 degrees. You may
上記通過方向が、上記境界線分から上記任意点への方向であると判定された場合に、上記検出対象が上記境界線分を上記任意点への方向に通過した回数である第1カウント数を加算するカウント部をさらに備えてもよい。上記カウント部は、上記通過方向が、上記境界線分から上記任意点への方向とは逆方向であると判定された場合に、上記検出対象が上記境界線分を上記任意点への方向とは逆方向に通過した回数である第2カウント数を加算してもよい。 A first count number that is the number of times that the detection target passes through the boundary line segment in the direction to the arbitrary point when the passing direction is determined to be the direction from the boundary line segment to the arbitrary point. A counting unit for addition may be further provided. When it is determined that the passing direction is opposite to the direction from the boundary line to the arbitrary point, the counting unit causes the detection target to move along the boundary line in a direction opposite to the direction to the arbitrary point. A second count number, which is the number of times of passage in the reverse direction, may be added.
上記ベクトル判定部によって、上記通過方向が、上記境界線分から上記任意点への方向であると判定された場合に上記検出対象が上記境界線分を通過した回数であるカウント数を加算してもよく、上記通過方向が、上記境界線分から上記任意点への方向とは逆方向であると判定された場合に、上記カウント数を減算してもよい。 When the vector determination unit determines that the passing direction is the direction from the boundary line to the arbitrary point, the count number, which is the number of times the detection target passes through the boundary line, may be added. Preferably, the count number may be subtracted when it is determined that the passing direction is opposite to the direction from the boundary line segment to the arbitrary point.
本発明の一実施態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。本発明の第3の態様によれば、コンピュータによって実行される判定方法が提供される。判定方法は、時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する段階を備えてもよい。上記複数の画像のうちの第1の画像の上記座標情報及び第2の画像の上記座標情報に基づいて、上記第1の画像における上記検出対象と上記第2の画像における上記検出対象とを対応付ける段階を備えてもよい。上記第1の画像における上記検出対象の基準座標と、当該検出対象に対応する上記第2の画像における上記検出対象の基準座標とを結ぶ上記検出対象の移動線分が、予め設定された境界線分と交差する場合に、上記検出対象が上記境界線分を通過したと判定する段階を備えてもよい。 According to one embodiment of the present invention, there is provided a program for causing a computer to function as the information processing apparatus. According to a third aspect of the invention, there is provided a computer-implemented method of determination. The determination method may comprise acquiring coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images. The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. It may have steps. A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. determining that the detected object has passed through the boundary segment if it crosses the segment.
本発明の一実施態様によれば、上記情報処理装置と、画像処理装置とを備えるシステムが提供される。上記画像処理装置は、上記検出対象を含む動画像を撮像する撮像部によって撮像された上記動画像を取得する動画像取得部を備えてもよい。上記動画像の複数のフレームのそれぞれを、時系列順に画像処理対象である処理画像に変換する画像変換部を備えてもよい。上記処理画像ごとに、上記処理画像内の上記検出対象を検出し、上記検出対象の上記基準座標を示す上記座標情報を算出する座標情報算出部を備えてもよい。上記座標情報を上記情報処理装置に送信する送信部を備えてもよい。上記情報処理装置は、クラウドに配置されてよく、上記画像処理装置は、エッジに配置されて、エッジサーバとして機能してよく、上記送信部は、ネットワークを介して上記座標情報を上記情報処理装置に送信してよい。上記動画像取得部は、上記送信部が上記座標情報を上記情報処理装置に送信したことに応じて、上記動画像を削除してよい。 According to one embodiment of the present invention, there is provided a system comprising the information processing device and an image processing device. The image processing apparatus may include a moving image acquiring section that acquires the moving image captured by an imaging section that captures a moving image including the detection target. An image conversion unit may be provided that converts each of the plurality of frames of the moving image into a processed image to be subjected to image processing in chronological order. A coordinate information calculation unit may be provided for each of the processed images, which detects the detection target in the processed image and calculates the coordinate information indicating the reference coordinates of the detection target. A transmitting unit that transmits the coordinate information to the information processing device may be provided. The information processing device may be arranged in a cloud, the image processing device may be arranged at an edge and function as an edge server, and the transmission unit may transmit the coordinate information to the information processing device via a network. can be sent to The moving image acquiring unit may delete the moving image in response to the transmitting unit transmitting the coordinate information to the information processing device.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not list all the necessary features of the invention. Subcombinations of these feature groups can also be inventions.
動画像内において、任意に指定した線分を通過した移動物体(例:車両や人物等)の数をカウントする技術が求められている。そのような技術をクラウドサービスによって実現することが考えられるが、クラウドに動画像を送信することによるネットワークトラフィックの増加や、個人情報が漏洩する可能性等の課題がある。本実施形態に係るシステム10では、例えば、個人情報を含む動画像について、エッジ側で重たい映像処理(物体検出)を行った後、動画像を削除し、座標情報のみをクラウドにアップロードし、クラウド側で座標情報を用いて移動物体のカウントを行う形式を採用する。これにより、ネットワークトラフィックを軽減できるとともに、個人情報のネットワークを介した送信をしないことによって個人情報保護を達成することができる。
There is a demand for a technique for counting the number of moving objects (eg, vehicles, people, etc.) that have passed through an arbitrarily specified line segment in a moving image. It is conceivable to realize such technology by cloud services, but there are problems such as an increase in network traffic due to transmission of moving images to the cloud and the possibility of leakage of personal information. In the
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential for the solution of the invention.
図1は、システム10の一例を概略的に示す。システム10は、情報処理装置100と、少なくとも1つの画像処理装置200とを備える。
FIG. 1 schematically illustrates an
ネットワーク20は、例えば、移動体通信ネットワーク及びインターネットを含む。移動体通信ネットワークは、3G(3rd Generation)通信方式、LTE(Long Term Evolution)通信方式、5G(5th Generation)通信方式、及び6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。例えば、情報処理装置100がクラウドに配置され、画像処理装置200が移動体通信ネットワークのエッジに配置される。画像処理装置200は、いわゆるエッジサーバであってよい。
画像処理装置200は、検出対象が撮像された動画像に対する画像処理を実行する。検出対象は、任意の移動体であり、人及び車等がその例として挙げられるが、これらに限られない。
The
画像処理装置200は、画像処理対象の動画像を、画像処理装置200が備えるカメラから取得してよい。画像処理装置200が備えるカメラとは、画像処理装置200に内蔵されたカメラであってよく、画像処理装置200に接続されたカメラであってもよい。画像処理装置200は、画像処理対象の動画像を、画像処理装置200にネットワークを介して接続されたカメラから受信してもよい。画像処理装置200は、画像処理対象の動画像を、任意の通信装置からネットワークを介して受信してもよい。
The
画像処理装置200は、検出対象を撮像した動画像をフレームごとの画像に分割し、画像処理により検出対象の情報を検出し、情報処理装置100に送信してよい。情報処理装置100は、画像処理装置200から取得した情報を元に、例えば、基準となる線分を通過した検出対象の流量をカウントする。
The
図2は、システム10における処理の流れの一例を概略的に示す。ここでは、画像処理装置200が、検出対象の撮像された動画像を取得する前の状態を開始状態とする。
FIG. 2 schematically shows an example of a process flow in
S102では、画像処理装置200が、検出対象の撮像された動画像を取得する。S104では、画像処理装置200が、取得した動画像をフレームごとの画像に変換する。S106では、画像処理装置200が、S104において変換した複数の画像のそれぞれについて、画像処理し、検出対象の座標情報を算出する。
In S102, the
S108では、画像処理装置200が、S106において算出した座標情報を、情報処理装置100に送信する。S110では、情報処理装置100が、座標情報ごとに、検出対象の対応付けを行う。各フレームの画像に対応する座標情報は、複数の検出対象のそれぞれの画像上での座標を表すが、フレーム間で紐づいていないので、検出対象の移動を判定するには、時系列順に隣り合った画像同士の間で、同一の検出対象を対応付ける必要があるためである。S112では、情報処理装置100が、S110における対応付けの結果に基づいて、検出対象が、画像に対して予め設定された境界線分を通過したか否かを判定する。S114では、情報処理装置100が、検出対象の通過判定の結果を出力する。情報処理装置100は、例えば、結果を表示出力する。
In S<b>108 , the
例えば、情報処理装置100は、画像処理装置200から1つの動画像に対応する座標情報を取得した場合に、当該動画像に対応する結果をまとめて出力する。具体例として、情報処理装置100は、1つの動画像内において境界線分を通過した検出対象の数を出力する。また、例えば、情報処理装置100は、画像処理装置200から継続的に動画像に対応する座標情報を取得している場合に、リアルタイムに結果を出力してもよい。具体例として、情報処理装置100は、検出対象が境界線分を通過する毎に、その旨を出力する。
For example, when the
従来例えば、街中等における人の通行量、特定の領域に出入りする人の数、及び道路における車両の通行量等を調査するために、動画像内に設定した境界線分を通過する移動体の数をカウントしたいという要望があった。このような場合は、一例として、検出対象の存在する現場で撮像された動画像を、直接クラウド上にあるサーバに送信するような手法がとられていた。しかし、このような手法では、クラウド上での映像解析時のネットワークトラフィックが増加してしまうという点が問題となっていた。また、送信する動画像には、個人情報が含まれてしまい、個人情報が保護できないという問題も発生していた。 Conventionally, for example, in order to investigate the traffic volume of people in the city, the number of people entering and exiting a specific area, and the traffic volume of vehicles on the road, etc. There was a request to count the number. In such a case, as an example, a method has been adopted in which a moving image captured at a site where a detection target exists is directly transmitted to a server on the cloud. However, such a method has a problem of increasing network traffic during video analysis on the cloud. In addition, there has been a problem that personal information is included in the moving image to be transmitted, and the personal information cannot be protected.
システム10は、例えば、負荷の高い映像処理(対象検出)をネットワークのエッジ側にある画像処理装置200で行い、検出対象の座標情報をネットワーク経由で、クラウド側の情報処理装置100に送信する構成を備える。座標情報は、動画像ではなく、画像内特徴量や個人情報を含まない。情報処理装置100は、座標情報のみで、検出対象の移動をカウントする機能を備える。これにより、画像処理装置200から情報処理装置100に対して動画像を送信する場合と比較して、ネットワークトラフィックを低減することができ、個人情報の保護にも貢献することができる。また、情報処理装置100の負荷を画像処理装置200に分散することができ、情報処理装置100の処理負荷を低減することができる。画像処理装置200は、処理が終わり次第個人情報を含むデータを削除してよい。これにより、個人情報の保護にさらに貢献することができる。
The
図3は、情報処理装置100における検出対象の対応付けの一例を概略的に示す。図3に示す例において、複数の検出対象300は、第1の画像内の検出対象の範囲を、矩形で囲ったものであり、複数の検出対象400は、それぞれ、第1の画像の後の時系列における第2の画像内の検出対象の範囲を、矩形で囲ったものである。基準座標302は、検出対象300の基準になる座標を表す。基準座標302は、例えば、矩形で囲われた範囲の中心座標であってよい。基準座標402は、検出対象400の基準になる座標を表す。基準座標402は、例えば、矩形で囲われた範囲の中心座標であってよい。
FIG. 3 schematically shows an example of association of detection targets in the
移動線分502は、基準座標302と基準座標402とを結んだ線分であってよい。移動線分502は、実質的に第1の画像と、第2の画像との撮影タイミングの間に、検出対象が移動した軌跡を表し得る。移動線分502の長さは、一例としてユークリッド距離であってよい。ユークリッド距離は、人が定規で測るような二点間の通常の距離のことであってよい。
The
情報処理装置100は、例えば、過去のフレームで検出された検出対象300による基準座標302と、現在のフレームで検出された検出対象400による基準座標402とを対応させる形で、対応付けを行ってよい。
The
対応付けの方法は、一例として、まず同じ領域に、上記第1の画像上の検出対象300と、上記第2の画像上の検出対象400とを描画し、それぞれから基準座標302と、基準座標402とを算出する。次に、基準座標302と、基準座標402との間のユークリッド距離が、最も短い基準座標同士を、同じ検出対象の組として対応付ける。
As an example of the method of association, first, the
第1の画像と第2の画像との間でフレームアウトした検出対象が存在する場合、その検出対象は、第1の画像には含まれるが、第2の画像には含まれないことになる。これに対して、ユークリッド距離が最も短い基準座標同士を対応付ければ、当該検出対象は余ることになり、誤った検出対象の対応付けを行ってしまうことを防ぐことができる。第1の画像と第2の画像との間でフレームインした検出対象が存在する場合、その検出対象は、第1の画像には含まれないが、第2の画像には含まれることになる。この場合も、ユークリッド距離が最も短い基準座標同士を対応付ければ、当該検出対象は余ることになり、誤った検出対象の対応付けを行ってしまうことを防ぐことができる。このように、ユークリッド距離を用いた対応付けを行うことによって、検出対象の検出精度を向上させることができる。 If there is a detection target that is framed out between the first image and the second image, the detection target is included in the first image but not included in the second image. . On the other hand, if the reference coordinates with the shortest Euclidean distance are associated with each other, the corresponding detection targets will be left over, and it is possible to prevent erroneous detection targets from being associated with each other. If there is a detection target framed in between the first image and the second image, the detection target is not included in the first image, but is included in the second image. . In this case as well, if the reference coordinates with the shortest Euclidean distance are associated with each other, the corresponding detection target will remain, and it is possible to prevent erroneous detection targets from being associated. In this way, by performing correspondence using the Euclidean distance, it is possible to improve the detection accuracy of the detection target.
情報処理装置100は、一例として、ユークリッド距離が、ユークリッド距離の中央値の1.5倍を超える検出対象同士を対応付けないようにしてもよい。例えば、情報処理装置100は、既に対応付けを行った検出対象の組のユークリッド距離を集計して中央値を算出し、新たに対応付けを判定する検出対象の組のユークリッド距離が、当該中央値の1.5倍を超える場合に、当該組を、検出対象の移動前後として対応付けない。これにより、ユークリッド距離が異常値になる対応付けを防ぐことができ、検出対象の検出精度を向上させることができる。
As an example, the
図4は、情報処理装置100における通過したとする判定の一例を概略的に示す。ここでは、第1の画像において、トラッキングされた検出対象300は、移動により、上記第1の画像より後の時系列に撮像された第2の画像において、トラッキングされた検出対象400の位置にいると対応付けられた場合を例に挙げて説明する。
FIG. 4 schematically shows an example of determination that the
図4に示す例において、第1の画像における基準座標302と、当該基準座標302に対応する基準座標402とを結ぶ移動線分502が、予め設定された境界線分506を跨いで交差している。情報処理装置100は、この場合に、検出対象300が境界線分506を通過したと判定する。逆に、第1の画像における基準座標302と、当該検出対象300に対応する基準座標402とを結ぶ移動線分502が、予め設定された境界線分506を跨いで交差していない場合は、検出対象が境界線分506を通過していないと判定する。
In the example shown in FIG. 4, a moving
図5は、情報処理装置100による処理内容について説明するための説明図である。本処理は、画像処理装置200における画像処理において、オクルージョンによって検出対象の検出に失敗したり、何らかの理由により検出漏れが発生したりした場合であっても、情報処理装置100側で対応可能とするための処理である。オクルージョンとは、検出対象が、動画内で被覆などにより隠れてしまい、検出ができない状況をいう。検出漏れは、例えば、画像処理装置200の物体検出精度が低かったり、動画像の解像度が低すぎる等の理由で発生し得る。
FIG. 5 is an explanatory diagram for explaining the contents of processing by the
対象画像外縁504は、対象画像の外縁を表す。情報処理装置100は、対象画像外縁504内に、検出想定領域604を特定する。検出想定領域604は、対象画像外縁504の中央付近であり、検出対象300が検出される想定がされている領域であってよい。情報処理装置100は、例えば、対象画像外縁504全体の外周から10%より内側に検出想定領域604を設定する。
A target image
図5に例示する4つの検出対象300は、連続する6つのフレームの画像における1、2、5、6フレーム目の特定の検出対象の位置を示す。2つの失敗対象600は、オクルージョン等により、トラッキングによる検出の失敗で消失した、3フレーム目及び4フレーム目の検出対象300の実際の位置である。情報処理装置100が画像処理装置200から取得した座標情報には、2つの失敗対象600の座標は含まれない。ここでは、情報処理装置100が、検出対象300の基準座標302を、図5の向きを基準に、一番左下を1回目とし、右上の6回目まで取得しようとした場合を考える。
Four
情報処理装置100は、1回目と2回目とで基準座標302の取得に成功し、3回目と4回目とで基準座標302の取得に失敗(図では基準座標602としている)し、5回目と6回目とで基準座標302の取得に成功している。このような場合に、情報処理装置100は、2回目に取得された基準座標302と、3回目に検出されなかった基準座標602との対応付けを行おうとする。
The
しかし、失敗対象600は、検出されていないため、座標情報に基準座標602が含まれていない。すると、2回目の基準座標302は、対応付けができないため、移動線分502を算出することができなくなってしまう。しかし、このような場合であっても、対応付けに失敗した検出対象300が検出想定領域604の中にある場合は、基準座標302をエラー情報として保存し、即座に対応付けの失敗としなくてよい。
However, since the
情報処理装置100は、動画像における任意の時間、又は、対応付けの回数等の任意のパラメータにより、対応付けの失敗としない回数を設定し、検出対象300を生存させてよい。情報処理装置100は、対応付けの失敗としない回数を超えた場合は、対応する基準座標302をエラー情報から削除し、存在しなかったものとしてよい。対応付けを進めていくと、3回目の基準座標602と4回目の基準座標602との対応付けは、お互いに基準座標602が存在しないために失敗はしない。
The
しかし、4回目の基準座標602と、5回目の基準座標302との対応付けは、再び失敗してしまう。情報処理装置100は、ここで、エラー情報を参照することで、エラー情報に保存されていた2回目の基準座標302と、5回目の基準座標302とを対応付けてよい。
However, the association between the fourth reference coordinates 602 and the fifth reference coordinates 302 fails again. Here, the
この対応付けによって、一部の検出対象300の基準座標302について、取得を失敗した場合であっても、移動線分502が、予め設定された境界線分506と交差する場合に、検出対象300が境界線分506を通過したと判定する通過判定をすることができる。これにより、本実施形態においては、対応付けられなかった基準座標302を、エラー情報として記憶するため、検出対象にオクルージョンが発生したり、検出漏れによるトラッキングが失敗してしまった場合でも、検出対象300の境界線分506の通過を判定できる。
With this association, even if acquisition of the reference coordinates 302 of some of the detection targets 300 fails, if the
画像の外縁付近に位置する検出対象は、途中で消失したとしても、フレームアウトした可能性がある。それに対して、画像の中央に位置する検出対象が途中で消失した場合、フレームアウトした可能性は低く、オクルージョンや検出漏れが発生した可能性が高い。よって、検出想定領域604を、画像の中心を含み、画像の端部を含まない領域として設定することによって、フレームアウト等の正当な理由以外の理由で消失した場合にのみ、エラー情報を記憶するようにできる。また、一定期間検出できなかった基準座標302をエラー情報から削除することにより、エラー情報の精度を向上することができる。
A detection target positioned near the outer edge of the image may have gone out of the frame even if it disappeared in the middle. On the other hand, if the detection target located in the center of the image disappears in the middle, the possibility of frame-out is low and the possibility of occlusion or detection failure occurring is high. Therefore, by setting the assumed
図6は、情報処理装置100における検出対象の対応付けの他の一例を概略的に示す。情報処理装置100は、検出対象の対応付けに、ベクトルを使用してもよい。情報処理装置100は、移動線分502によって境界線分506との交差を判定し、移動ベクトル507を用いて、交差方向を判定してもよい。移動ベクトル507は、検出対象300の基準座標302と、検出対象400の基準座標402との間を結んだベクトルであり、移動線分502から算出できてよい。
FIG. 6 schematically shows another example of association of detection targets in the
図7は、情報処理装置100における通過したとする判定の他の一例を概略的に示す。図8は、情報処理装置100における通過したとする判定の他の一例を概略的に示す。
FIG. 7 schematically shows another example of determination that the
情報処理装置100による通過したとする判定は、ベクトルを使用して判定を行ってもよい。任意点508は、任意に設定された点である。任意点508は、情報処理装置100における判定処理で、共通して使用されれば任意の座標に設定されてよい。任意点508は、例えば、境界線分506によって区切られる、IN側の領域及びOUT側の領域のうち、IN側の領域に設定される。なお、任意点508は、OUT側の領域に設定されてもよい。判定ベクトル509は、境界線分506から任意点508に向けて、境界線分506と垂直になるように伸ばし、移動ベクトル507と交差する位置に移動したベクトルである。
The determination by the
例えば、情報処理装置100は、検出対象300が境界線分506を通過したと判定した場合に、まず、移動線分502から求まる移動ベクトル507を特定するとともに、予め設定された任意点508を用いて、判定ベクトル509を特定する。次に、情報処理装置100は、移動ベクトル507と判定ベクトル509との角度510を算出する。そして、情報処理装置100は、角度510に基づいて、移動ベクトル507の境界線分506に対する通過方向を判定する。情報処理装置100は、図7に例示するように、角度510が90度より小さい又は270度より大きい場合、通過方向が、境界線分506から任意点508への方向であると判定してよい。情報処理装置100は、図8に例示するように、角度510が90度より大きく270度より小さい場合、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定してよい。
For example, when the
上述したように、情報処理装置100は、移動ベクトル507と判定ベクトル509との角度510を算出することによって、境界線分506に対する検出対象の通過方向を判定することができる。情報処理装置100は、例えば、通過方向が、境界線分506から任意点508への方向であると判定した場合に、検出対象300が境界線分506を任意点508への方向に通過した回数である第1カウント数を加算し、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定した場合に、検出対象300が境界線分506を任意点への方向とは逆方向に通過した回数である第2カウント数を加算する。これにより、境界線分506をIN側に向かって通過した検出対象の数と、OUT側に向かって通過した検出対象の数とをカウントすることができる。
As described above, the
情報処理装置100は、通過方向が、境界線分506から任意点508への方向であると判定した場合に、検出対象300が任意点508を通過した回数であるカウント数を加算し、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定した場合に、カウント数を減算するようにしてもよい。これにより、境界線分506をIN側に向かって通過した検出対象の数と、OUT側に向かって通過した検出対象の数との差分をカウントすることができる。例えば、IN側が部屋の中であり、OUT側が部屋の外である場合に、部屋の中に何人の人がいるのかをカウント可能にできる。
When the
図9は、情報処理装置100及び画像処理装置200の機能構成の一例を概略的に示す。画像処理装置200は、動画像取得部202、画像変換部204、座標情報算出部206及び送信部208を備える。
FIG. 9 schematically shows an example of functional configurations of the
動画像取得部202は、検出対象を含む動画像を取得する。動画像取得部202は、画像処理装置200が備えるカメラから動画像を取得してよい。動画像取得部202は、画像処理装置200にネットワークを介して接続されたカメラから動画像を受信してもよい。動画像取得部202は、任意の通信装置からネットワークを介して動画像を受信してもよい。動画像取得部202は、取得した動画像を画像処理装置200の動画像格納部に格納してよい。
A moving
画像変換部204は、動画像の複数のフレームのそれぞれを、時系列順に画像処理対象である処理画像に変換する。座標情報算出部206は、画像変換部204が変換した処理画像ごとに、処理画像内の検出対象を検出し、検出対象の基準座標を示す座標情報103を算出する。送信部208は、座標情報算出部206が算出した座標情報103を情報処理装置100に送信する。動画像取得部202は、送信部208が座標情報103を情報処理装置100に送信したことに応じて、動画像を削除してよい。例えば、動画像取得部202は、送信部208が座標情報103を情報処理装置100に送信したことに応じて、座標情報103の元となった動画像を動画像格納部から削除する。
The
情報処理装置100は、座標情報取得部102、対応付部104、通過判定部106、出力制御部108、エラー情報記憶部110、ベクトル判定部114及びカウント部116を有する。なお、情報処理装置100がこれらの全てを有することは必須とは限らない。
The
座標情報取得部102は、時系列の連続する複数の画像のそれぞれについて、画像内における検出対象300の基準座標302を示す座標情報103を取得する。座標情報取得部102は、送信部208によって送信された座標情報103を取得してよい。
The coordinate
対応付部104は、座標情報取得部102が取得した座標情報103に基づいて、時系列の連続する複数の画像のそれぞれについて、検出対象を対応付ける。例えば、対応付部104は、複数の画像のうちの第1の画像の基準座標302と、第1の画像に時系列で連続する第2の画像の基準座標402に基づいて、第1の画像における検出対象300と、第2の画像における検出対象400とを対応付ける。
Based on the coordinate
対応付部104は、第1の画像における複数の検出対象300と、第2の画像における複数の検出対象400とについて、移動線分502の長さであるユークリッド距離が、最短になる検出対象の組を、検出対象の移動前後として対応付けてよい。対応付部104は、対応付けた検出対象の組のユークリッド距離を集計して中央値を算出し、検出対象の組のユークリッド距離が、中央値の1.5倍を超える場合に、検出対象の移動前後として対応付けないようにしてもよい。
The
通過判定部106は、検出対象が、画像に対して予め設定された境界線分506を通過したか否かを判定する。例えば、通過判定部106は、第1の画像における検出対象300の基準座標302と、当該基準座標302に対応する第2の画像における検出対象400の基準座標402とを結ぶ移動線分502が、予め設定された境界線分506と交差する場合に、検出対象300が境界線分506を通過したと判定する。
A
出力制御部108は、通過判定部106による判定結果を出力するように制御する。出力制御部108は、例えば、通過判定部106による判定結果を、情報処理装置100が備えるディスプレイに表示出力させる。出力制御部108は、通過判定部106による判定結果を他の装置に送信して、当該装置のディスプレイに表示出力させてもよい。
The
出力制御部108は、検出対象が境界線分506を通過したと通過判定部106が判定するごとに、結果を出力してよい。例えば、動画像が監視カメラによって撮像されたものである場合に、検出対象が所定の領域に入ったり、所定の領域から出たことを、即座に把握可能にすることができる。なお、結果の出力方法は、表示出力に限らず、音声、光、びデータの送信等であってもよい。
The
エラー情報記憶部110は、対応付部104によって、他の検出対象400に対応付けられなかった、検出対象300の情報が含まれるエラー情報112を記憶する。エラー情報記憶部110は、例えば、対応付けられなかった検出対象300の基準座標302が、予め設定された領域内にある場合にエラー情報112を記憶する。
The error
対応付部104は、複数の画像のうちの一の画像における複数の検出対象300のうち、一の画像に連続する次の画像の複数の検出対象300のいずれにも対応付けられなかった検出対象300がある場合に、エラー情報112を参照し、検出対象300との対応付けをしてもよい。対応付部104は、対応付けられなかった検出対象300のエラー情報112を、対応付けられなかった検出対象300ごとに一定期間で削除してもよい。
The
ベクトル判定部114は、通過判定部106によって検出対象300が境界線分506を通過したと判定された場合に、移動線分502から算出できる移動ベクトル507と、予め設定された任意点508及び境界線分506から求まる判定ベクトル509との角度510で、移動ベクトル507の境界線分506に対する通過方向を判定する。
When the
ベクトル判定部114は、例えば、判定ベクトル509と移動ベクトル507との角度510が90度より小さい又は270度より大きい場合、通過方向が、境界線分506から任意点508への方向であると判定し、判定ベクトル509と移動ベクトル507との角度510が90度より大きく270度より小さい場合、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定する。
For example, when the
カウント部116は、検出対象が境界線分506を通過した回数をカウントする。カウント部116は、例えば、通過方向が、境界線分506から任意点508への方向であると判定された場合に、検出対象300が境界線分506を通過した回数であるカウント数を加算し、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定された場合に、カウント数を減算する。
The
また、例えば、カウント部116は、通過方向が、境界線分506から任意点508への方向であると判定された場合に、検出対象300が境界線分506を任意点508への方向に通過した回数である第1カウント数を加算する。そして、カウント部116は、通過方向が、境界線分506から任意点508への方向とは逆方向であると判定された場合に、検出対象300が境界線分506を、任意点508への方向とは逆方向に通過した回数である第2カウント数を加算する。
Further, for example, when the passing direction is determined to be the direction from the
出力制御部108は、カウント部116によるカウント結果を出力するように制御してもよい。例えば、出力制御部108は、座標情報取得部102が1つの動画像に対応する座標情報をまとめて取得した場合に、当該動画像に対応する結果をまとめて出力する。具体例として、出力制御部108は、1つの動画像に対応する座標情報に対してカウント部116がカウントしたカウント数を出力したり、1つの動画像に対応する座標情報に対してカウント部116がカウントした第1カウント数及び第2カウント数を出力するよう制御する。
The
図10は、情報処理装置100又は画像処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 10 schematically shows an example of a hardware configuration of a
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
The
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD-ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
The program is provided by a computer-readable storage medium such as DVD-
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is performed between the
また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD-ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
In addition, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information, such as various types of programs, data, tables, and databases, may be stored on recording media and subjected to information processing.
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
The programs or software modules described above may be stored in a computer-readable storage medium on or near
The blocks in the flowcharts and block diagrams in this embodiment may represent steps in the process in which the operations are performed or "parts" of the apparatus responsible for performing the operations. Certain steps and "sections" may be provided with dedicated circuitry, programmable circuitry provided with computer readable instructions stored on a computer readable storage medium, and/or computer readable instructions provided with computer readable instructions stored on a computer readable storage medium. It may be implemented by a processor. Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuitry. Programmable circuits, such as Field Programmable Gate Arrays (FPGAs), Programmable Logic Arrays (PLAs), etc., perform AND, OR, EXCLUSIVE OR, NOT AND, NOT OR, and other logical operations. , flip-flops, registers, and memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may comprise any tangible device capable of storing instructions to be executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon may be illustrated in flowchart or block diagram form. It will comprise an article of manufacture containing instructions that can be executed to create means for performing specified operations. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable storage media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory) , electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray disc, memory stick , integrated circuit cards, and the like.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may be assembler instructions, Instruction Set Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state configuration data, or instructions such as Smalltalk, JAVA, C++, etc. any source or object code written in any combination of one or more programming languages, including object-oriented programming languages, and conventional procedural programming languages such as the "C" programming language or similar programming languages; may include
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions are used to produce means for a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, or programmable circuits to perform the operations specified in the flowchart or block diagrams. A general purpose computer, special purpose computer, or other programmable data processor, locally or over a wide area network (WAN) such as the Internet, etc., to execute such computer readable instructions. It may be provided in the processor of the device or in a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
上記実施形態では、情報処理装置100がクラウドに配置され、画像処理装置200が移動体通信ネットワークのエッジに配置される場合を主に例に挙げて説明したが、これに限らない。情報処理装置100は移動体通信ネットワークに配置されてもよく、この場合、ネットワーク20は移動体通信ネットワークであってよい。この場合、情報処理装置100は、移動体通信ネットワークの上位側に配置され、画像処理装置200は、移動体通信ネットワークの下位側に配置される。また、情報処理装置100及び画像処理装置200がインターネットに配置されてもよく、この場合、ネットワーク20はインターネットであってよい。また、情報処理装置100及び画像処理装置200がLAN(Local Area Network)に配置されてもよく、この場合、ネットワーク20はLANであってよい。
In the above embodiment, the case where the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. It is clear from the description of the scope of claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is etc., and it should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for convenience, it means that it is essential to carry out in this order. not a thing
10 システム、20 ネットワーク、100 情報処理装置、102 座標情報取得部、103 座標情報、104 対応付部、106 通過判定部、108 出力制御部、110 エラー情報記憶部、112 エラー情報、114 ベクトル判定部、116 カウント部、200 画像処理装置、202 動画像取得部、204 画像変換部、206 座標情報算出部、208 送信部、300 検出対象、302 基準座標、400 検出対象、402 基準座標、502 移動線分、504 対象画像外縁、506 境界線分、507 移動ベクトル、508 任意点、509 判定ベクトル、510 角度、600 失敗対象、602 基準座標、604 検出想定領域、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD-ROM、1230 ROM、1240 入出力チップ 10 system, 20 network, 100 information processing device, 102 coordinate information acquisition unit, 103 coordinate information, 104 association unit, 106 passage determination unit, 108 output control unit, 110 error information storage unit, 112 error information, 114 vector determination unit , 116 counting unit, 200 image processing device, 202 moving image acquisition unit, 204 image conversion unit, 206 coordinate information calculation unit, 208 transmission unit, 300 detection target, 302 reference coordinates, 400 detection target, 402 reference coordinates, 502 movement line Minute, 504 Target Image Outer Edge, 506 Boundary Line Segment, 507 Movement Vector, 508 Arbitrary Point, 509 Judgment Vector, 510 Angle, 600 Failure Target, 602 Reference Coordinates, 604 Assumed Detection Area, 1200 Computer, 1210 Host Controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input/output controller, 1222 communication interface, 1224 storage device, 1226 DVD drive, 1227 DVD-ROM, 1230 ROM, 1240 input/output chip
Claims (13)
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける対応付部であって、前記第1の画像における複数の前記検出対象と前記第2の画像における複数の前記検出対象とについて、前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分の長さであるユークリッド距離が、最短になる前記検出対象の組を、前記検出対象の移動前後として対応付ける対応付部と、
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する通過判定部と、
を備え、
前記対応付部は、対応付けた前記検出対象の組の前記ユークリッド距離を集計して中央値を算出し、前記検出対象の組の前記ユークリッド距離が、前記中央値の1.5倍を超える場合に、前記検出対象の移動前後として対応付けない、情報処理装置。 a coordinate information acquisition unit that acquires coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images;
The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. A correspondence unit, wherein, for the plurality of detection targets in the first image and the plurality of detection targets in the second image, reference coordinates of the detection targets in the first image and the detection targets. The set of detection targets with the shortest Euclidean distance, which is the length of the movement line segment of the detection target connecting the reference coordinates of the detection target in the second image corresponding to a mapping part that maps as
A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. a passage determination unit that determines that the detection target has passed through the boundary line segment when the detection target crosses the boundary line segment;
with
The association unit aggregates the Euclidean distances of the associated pairs of detection targets to calculate a median value, and when the Euclidean distances of the pair of detection targets exceeds 1.5 times the median value and an information processing apparatus that does not associate the detection target before and after the movement .
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける対応付部と、The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. a correspondence part;
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する通過判定部と、A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. a passage determination unit that determines that the detection target has passed through the boundary line segment when the detection target crosses the boundary line segment;
前記対応付部によって他の前記検出対象に対応付けられなかった前記検出対象の情報が含まれるエラー情報を、記憶するエラー情報記憶部とan error information storage unit that stores error information including information on the detection target that is not associated with the other detection target by the association unit;
を備える情報処理装置。Information processing device.
時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する段階と、
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける段階であって、前記第1の画像における複数の前記検出対象と前記第2の画像における複数の前記検出対象とについて、前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分の長さであるユークリッド距離が、最短になる前記検出対象の組を、前記検出対象の移動前後として対応付ける段階と、
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する段階と
を備え、
既に対応付けを行った検出対象の組のユークリッド距離を集計して中央値を算出する段階をさらに備え、
前記対応付ける段階は、前記検出対象の組の前記ユークリッド距離が、前記中央値の1.5倍を超える場合に、前記検出対象の移動前後として対応付けない、判定方法。 A computer-implemented determination method comprising:
Acquiring coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images;
The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. a step of: regarding the plurality of detection targets in the first image and the plurality of detection targets in the second image, reference coordinates of the detection targets in the first image and correspondence to the detection targets; The pair of detection targets with the shortest Euclidean distance, which is the length of the movement line segment of the detection target connecting the reference coordinates of the detection target in the second image, is associated as before and after the movement of the detection target. stages and
A moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. determining that the detection object has passed through the boundary segment if it crosses the boundary segment ;
Further comprising a step of calculating a median value by aggregating the Euclidean distances of the pairs of detection targets that have already been matched,
In the determination method, in the step of associating, when the Euclidean distance of the pair of detection targets exceeds 1.5 times the median value, the association is not performed as before and after movement of the detection target.
時系列の連続する複数の画像のそれぞれについて、画像内における検出対象の基準座標を示す座標情報を取得する段階と、Acquiring coordinate information indicating reference coordinates of a detection target in each of a plurality of time-series consecutive images;
前記複数の画像のうちの第1の画像の前記座標情報及び第2の画像の前記座標情報に基づいて、前記第1の画像における前記検出対象と前記第2の画像における前記検出対象とを対応付ける段階と、The detection target in the first image and the detection target in the second image are associated with each other based on the coordinate information of the first image and the coordinate information of the second image among the plurality of images. stages and
前記第1の画像における前記検出対象の基準座標と、当該検出対象に対応する前記第2の画像における前記検出対象の基準座標とを結ぶ前記検出対象の移動線分が、予め設定された境界線分と交差する場合に、前記検出対象が前記境界線分を通過したと判定する段階とA moving line segment of the detection target connecting the reference coordinates of the detection target in the first image and the reference coordinates of the detection target in the second image corresponding to the detection target is a predetermined boundary line. determining that the detection target has passed through the boundary line segment if the detection target crosses the boundary line segment;
を備え、with
前記対応付ける段階において他の前記検出対象に対応付けられなかった前記検出対象の情報が含まれるエラー情報を、記憶するエラー情報記憶段階An error information storage step of storing error information including information of the detection target that was not associated with the other detection target in the matching step.
をさらに備える、further comprising
判定方法。judgment method.
画像処理装置と
を備え、
前記画像処理装置は、
前記検出対象を含む動画像を撮像する撮像部によって撮像された前記動画像を取得する動画像取得部と、
前記動画像の複数のフレームのそれぞれを、時系列順に画像処理対象である処理画像に変換する画像変換部と、
前記処理画像ごとに、前記処理画像内の前記検出対象を検出し、前記検出対象の前記基準座標を示す前記座標情報を算出する座標情報算出部と、
前記座標情報を前記情報処理装置に送信する送信部と
を有する、システム。 an information processing apparatus according to any one of claims 1 to 7 ;
comprising an image processing device and
The image processing device is
a moving image acquiring unit that acquires the moving image captured by an imaging unit that captures a moving image including the detection target;
an image conversion unit that converts each of the plurality of frames of the moving image into a processed image to be subjected to image processing in chronological order;
a coordinate information calculation unit that detects the detection target in the processed image for each of the processed images and calculates the coordinate information indicating the reference coordinates of the detection target;
and a transmitting unit configured to transmit the coordinate information to the information processing device.
前記画像処理装置は、エッジに配置されて、エッジサーバとして機能し、
前記送信部は、ネットワークを介して前記座標情報を前記情報処理装置に送信する、請求項11に記載のシステム。 The information processing device is arranged in the cloud,
The image processing device is located at an edge and functions as an edge server,
12. The system according to claim 11 , wherein said transmission unit transmits said coordinate information to said information processing device via a network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021145005A JP7321221B2 (en) | 2021-09-06 | 2021-09-06 | Information processing device, program, determination method, and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021145005A JP7321221B2 (en) | 2021-09-06 | 2021-09-06 | Information processing device, program, determination method, and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023038090A JP2023038090A (en) | 2023-03-16 |
JP7321221B2 true JP7321221B2 (en) | 2023-08-04 |
Family
ID=85514236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021145005A Active JP7321221B2 (en) | 2021-09-06 | 2021-09-06 | Information processing device, program, determination method, and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7321221B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006082618A (en) | 2004-09-14 | 2006-03-30 | Fujitsu Ltd | Falling object detector |
JP2011123563A (en) | 2009-12-08 | 2011-06-23 | Sony Corp | Image processor, image processing method and program |
JP2012123470A (en) | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Object detection device and object detection method |
JP2012242947A (en) | 2011-05-17 | 2012-12-10 | Nippon Telegr & Teleph Corp <Ntt> | Method for measuring number of passing objects, number-of-passing object measuring device, and program |
JP2020077103A (en) | 2018-11-06 | 2020-05-21 | 株式会社デンソー | Own vehicle behavior estimation apparatus, own vehicle behavior estimation program, storage medium, and own vehicle behavior estimation apparatus control method |
JP6912842B1 (en) | 2020-11-11 | 2021-08-04 | 株式会社バカン | Information processing equipment, information processing methods, and information processing programs |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981758A (en) * | 1995-09-19 | 1997-03-28 | Toshiba Corp | Vehicle detecting device |
-
2021
- 2021-09-06 JP JP2021145005A patent/JP7321221B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006082618A (en) | 2004-09-14 | 2006-03-30 | Fujitsu Ltd | Falling object detector |
JP2011123563A (en) | 2009-12-08 | 2011-06-23 | Sony Corp | Image processor, image processing method and program |
JP2012123470A (en) | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Object detection device and object detection method |
JP2012242947A (en) | 2011-05-17 | 2012-12-10 | Nippon Telegr & Teleph Corp <Ntt> | Method for measuring number of passing objects, number-of-passing object measuring device, and program |
JP2020077103A (en) | 2018-11-06 | 2020-05-21 | 株式会社デンソー | Own vehicle behavior estimation apparatus, own vehicle behavior estimation program, storage medium, and own vehicle behavior estimation apparatus control method |
JP6912842B1 (en) | 2020-11-11 | 2021-08-04 | 株式会社バカン | Information processing equipment, information processing methods, and information processing programs |
Also Published As
Publication number | Publication date |
---|---|
JP2023038090A (en) | 2023-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10893207B2 (en) | Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program | |
US8588466B2 (en) | Object area detection system, device, method, and program for detecting an object | |
US8837781B2 (en) | Video object fragmentation detection and management | |
WO2017221643A1 (en) | Image processing device, image processing system, image processing method, and program | |
CN110751674A (en) | Multi-target tracking method and corresponding video analysis system | |
US11908293B2 (en) | Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram | |
JP6616521B2 (en) | Image processing device | |
WO2013012091A1 (en) | Information processing apparatus, object tracking method, and program storage medium | |
CN105308618B (en) | Face recognition by means of parallel detection and tracking and/or grouped feature motion shift tracking | |
US11379993B2 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2017221644A1 (en) | Image processing device, image processing system, image processing method, and program | |
JP2018045302A (en) | Information processing device, information processing method and program | |
CN111801706A (en) | Video object detection | |
US10872423B2 (en) | Image detection device, image detection method and storage medium storing program | |
US11295457B2 (en) | Tracking apparatus and computer readable medium | |
JP7321221B2 (en) | Information processing device, program, determination method, and system | |
CN113657219A (en) | A video object detection and tracking method, device and computing device | |
CN113313739A (en) | Target tracking method, device and storage medium | |
KR20210054725A (en) | Edge based hazard handling device | |
JP2017091530A (en) | Method for detecting traffic accident, traffic accident detector, and electronic apparatus | |
CN115565135A (en) | Target tracking method and device and electronic equipment | |
US12080023B2 (en) | Trajectory linking apparatus, trajectory linking method, and non-transitory computer readable medium storing program | |
JP7379260B2 (en) | Wrong-way vehicle detection device, wrong-way vehicle detection method, and wrong-way vehicle detection program | |
WO2024185078A1 (en) | System and method for supporting object detection | |
US20250029265A1 (en) | Person tracking system, person tracking method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7321221 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |