JP5702269B2 - Parallel video analysis device, parallel video analysis method, and parallel video analysis program - Google Patents
Parallel video analysis device, parallel video analysis method, and parallel video analysis program Download PDFInfo
- Publication number
- JP5702269B2 JP5702269B2 JP2011272167A JP2011272167A JP5702269B2 JP 5702269 B2 JP5702269 B2 JP 5702269B2 JP 2011272167 A JP2011272167 A JP 2011272167A JP 2011272167 A JP2011272167 A JP 2011272167A JP 5702269 B2 JP5702269 B2 JP 5702269B2
- Authority
- JP
- Japan
- Prior art keywords
- image frame
- video
- analysis
- video analysis
- parallel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Description
本発明は、映像データを並列に解析する技術に関する。 The present invention relates to a technique for analyzing video data in parallel.
映像中の画像フレームが持つ画像データや音響データという物理的特性を利用して、映像中のカットシーンやカメラワーク、テロップや音楽などの様々なイベントを検出する映像解析技術が存在する。 There are video analysis techniques for detecting various events such as cut scenes, camera work, telops, and music in a video by using physical characteristics of image data and sound data of an image frame in the video.
この映像解析技術は、時間的に前後関係のある2枚以上の画像フレームを用いて、その画像フレーム間の物理的特徴の違いを見つけ出し、その違いをイベントとして検出する技術である。例えば、時系列に連続する画像フレーム間の画素の濃淡値の相違やその程度に基づいてテロップ表示を検出する。 This video analysis technique is a technique for finding differences in physical characteristics between image frames using two or more image frames that are temporally related, and detecting the differences as events. For example, the telop display is detected on the basis of the difference or the degree of the gray value of the pixel between time-sequential image frames.
このような映像解析技術は、映像の最初から最後まで逐次的に画像フレームを比較等するため、映像を構成している画像フレーム数に比例した映像解析時間が必要とされる。この時間の短縮は、映像解析技術分野で大きな課題となっている。 Such a video analysis technique sequentially compares image frames from the beginning to the end of the video, and therefore requires a video analysis time proportional to the number of image frames constituting the video. This shortening of time is a major issue in the field of video analysis technology.
このような課題に対し、映像の全画像フレームを用いるのではなく、解析対象の画像フレームを間引いて数画像フレームおきに映像解析する方法がある。これにより、解析対象の画像フレーム数が少なくなるため、映像解析時間を短縮することができる。 In order to deal with such a problem, there is a method of performing video analysis every several image frames by thinning out image frames to be analyzed instead of using all image frames of the video. Thereby, since the number of image frames to be analyzed is reduced, the video analysis time can be shortened.
また、特許文献1によれば、解析対象の映像を複数の部分映像に分割し、その部分映像を並列に映像解析してその結果を1つに統合する方法が記載されている。これにより、1つの処理ワーカによって映像解析される画像フレーム数が分割された部分映像内のフレーム数に削減されるため、映像解析時間を短縮することができる。
そして、それら2つの方法を採用することにより、映像解析に要する映像解析時間を更に短縮することが可能となる。 By adopting these two methods, it is possible to further shorten the video analysis time required for video analysis.
しかしながら、それら2つの方法を同時に実行すると、1つの処理ワーカで映像の先頭から最後まで逐次的に映像解析した場合と比べて、イベントの検出結果が異なる可能性が高い。 However, if these two methods are executed at the same time, the event detection results are likely to be different from the case where the video is sequentially analyzed from the beginning to the end by one processing worker.
分割された部分映像から映像解析を開始する場合、例えば図10に示すように、その部分映像の先頭までシークし、そのシーク位置の画像フレームから同じ間引き間隔毎に画像フレームをスキップしながら解析を進めることになる。 When video analysis is started from the divided partial video, for example, as shown in FIG. 10, seek is performed to the head of the partial video, and analysis is performed while skipping image frames at the same thinning interval from the image frame at the seek position. Will proceed.
そのため、シーク位置によっては、「1つの処理ワーカで映像の先頭から最後まで逐次的に映像解析した」際の画像フレーム(図10の●)と異なる画像フレーム(図10の○)を用いて映像解析を行うことになるため、同じイベント検出結果を得ることができない。 Therefore, depending on the seek position, the image may be displayed using an image frame (◯ in FIG. 10) that is different from the image frame (● in FIG. 10) when “sequentially analyzing the image from the beginning to the end with one processing worker”. Since the analysis is performed, the same event detection result cannot be obtained.
本発明は、上記課題を鑑みてなされたものであり、その課題とするところは、映像の先頭から逐次に映像解析した場合と同じイベント検出結果を得ることにある。 The present invention has been made in view of the above-mentioned problems, and the object of the present invention is to obtain the same event detection result as that obtained when video analysis is sequentially performed from the top of the video.
請求項1記載の並列映像解析装置は、記憶手段から映像データを読み出して、前記映像データの先頭画像フレームから所定の間引き画像フレーム間隔の任意の整数倍目に位置する複数の画像フレームを求める第1の手段と、前記位置する各画像フレームから前記間引き画像フレーム間隔で時間的に並列に映像データでのイベント情報の検出処理をそれぞれ開始する第2の手段と、を有することを特徴とする。
請求項2記載の並列映像解析装置は、請求項1記載の並列映像解析装置において、前記第1の手段は、前記映像データを分割して当該分割される位置に存在する分割フレームの番号を求め、当該分割フレームの番号を床関数で補正することにより、前記整数倍目に位置する画像フレームを求めることを特徴とする。
The parallel video analysis apparatus according to
The parallel video analysis device according to claim 2, wherein the first means divides the video data and obtains a number of a divided frame existing at the divided position. The image frame located at the integer multiple is obtained by correcting the number of the divided frame with a floor function.
請求項3記載の並列映像解析方法は、並列映像解析装置で行う並列映像解析方法において、記憶手段から映像データを読み出して、前記映像データの先頭画像フレームから所定の間引き画像フレーム間隔の任意の整数倍目に位置する複数の画像フレームを求める第1のステップと、前記位置する各画像フレームから前記間引き画像フレーム間隔で時間的に並列に映像データでのイベント情報の検出処理をそれぞれ開始する第2のステップと、を有することを特徴とする。
請求項4記載の並列映像解析方法は、請求項3記載の並列映像解析方法において、前記第1のステップでは、前記映像データを分割して当該分割される位置に存在する分割フレームの番号を求め、当該分割フレームの番号を床関数で補正することにより、前記整数倍目に位置する画像フレームを求めることを特徴とする。
4. The parallel video analysis method according to
The parallel video analysis method according to claim 4 is the parallel video analysis method according to
請求項5記載の並列映像解析プログラムは、請求項3又は4記載の並列映像解析方法をコンピュータに実行させることを特徴とする。
A parallel video analysis program according to claim 5 causes a computer to execute the parallel video analysis method according to
以上より、本発明によれば、映像データの先頭画像フレームから所定の間引き画像フレーム間隔の任意の整数倍目に位置する複数の画像フレームを求め、その位置する各画像フレームから当該間引き画像フレーム間隔で時間的に並列に映像データでのイベント情報の検出処理をそれぞれ開始するため、映像データの先頭から逐次に映像解析した場合と同じイベント検出結果を得ることができる。 As described above, according to the present invention, a plurality of image frames located at an arbitrary integer multiple of a predetermined thinned-out image frame interval are obtained from the first image frame of video data, and the thinned-out image frame interval is determined from the respective image frames. Therefore, the event information detection process in the video data is started in parallel with each other in time, so that the same event detection result as that obtained when the video analysis is sequentially performed from the top of the video data can be obtained.
本発明によれば、映像の先頭から逐次映像解析した場合と同じイベント検出結果を得ることができる。 According to the present invention, it is possible to obtain the same event detection result as that obtained when video is sequentially analyzed from the top of the video.
以下、本発明を実施する一実施の形態について図面を用いて説明する。但し、本発明は多くの異なる様態で実施することが可能であり、本実施の形態の記載内容に限定して解釈すべきではない。 Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. However, the present invention can be implemented in many different modes and should not be construed as being limited to the description of the present embodiment.
図1は、本実施の形態に係る並列映像解析装置の機能ブロック構成を示す図である。この並列映像解析装置1は、当該並列映像解析装置1に映像データを入力可能なデータ入力装置2に通信可能に接続され、映像記憶部11と、解析タスク生成部12と、解析タスク管理部13と、映像解析部14と、解析結果統合部15と、解析結果記憶部16と、データ出力部17とで主に構成される。
FIG. 1 is a diagram showing a functional block configuration of the parallel video analysis apparatus according to the present embodiment. The parallel
この並列映像解析装置1は、メモリなどの記憶手段やCPUなどの制御手段を備えたパソコンなどの情報処理装置により実現可能であり、プログラムによって実行される。以下、各機能部について詳述する。
The parallel
映像記憶部11は、データ入力装置2によって入力された映像データをメモリやハードディスクなどに保持し、記憶する。映像データは、時系列な複数の画像フレームの集合体で構成され、一意のフレーム番号が昇順に連続して付与されている。
The
この映像データは、HTTP(Hypertext Transfer Protocol)やSMB(Server Message Block)などの通信プロトコルで送信され、ファイル形式でコピー・記憶される。ビデオキャプチャボード等を利用して、映像信号として入力し、ファイル形式で保持してもよい。 This video data is transmitted by a communication protocol such as HTTP (Hypertext Transfer Protocol) or SMB (Server Message Block), and is copied and stored in a file format. A video capture board or the like may be used to input as a video signal and hold it in a file format.
解析タスク生成部12は、映像記憶部11から映像データを取得して、その映像データの映像長Lと映像解析時の間引き画像フレーム間隔Sから、映像解析部14の各処理ワーカWi(i=0,1,2,…,W−1、W=処理ワーカ数)で映像解析を開始する画像フレームの番号(以下、映像解析開始画像フレーム番号)siと、映像解析を終了する画像フレームの番号(以下、映像解析終了画像フレーム番号)eiとを計算して、解析タスクTiを生成する。
The analysis
ここで、その番号siの画像フレームとしては、映像解析部14での並列映像解析時に、映像データの先頭画像フレームから逐次に映像解析した場合と同じイベント検出結果を取得できるように、映像データの先頭画像フレームから所定の間引き画像フレーム間隔Sの任意の整数倍目に位置する複数の画像フレームが検出される。以下詳述する。
Here, the image frame of the number s i is video data so that the same event detection result as that obtained when the
図2は、解析タスクの生成処理を示すフローチャートである。 FIG. 2 is a flowchart showing analysis task generation processing.
最初に、映像記憶部11から映像解析対象の映像データのファイルを読み出して(ステップS101)、そのファイルから当該映像データの映像長Lを取得する(ステップS102)。映像データの映像長Lとは、例えば、映像データを構成している画像フレームの総数である。 First, a video data file to be analyzed is read from the video storage unit 11 (step S101), and the video length L of the video data is acquired from the file (step S102). The video length L of the video data is, for example, the total number of image frames constituting the video data.
次に、1つ目の処理ワーカW0に割り当てられる解析タスクT0を生成するためiを0に設定し(ステップS103)、「処理ワーカWiの添え字i≧処理ワーカ数W」が成立するか否かを判定する(ステップS104)。 Next, in order to generate the analysis task T 0 assigned to the first processing worker W 0 , i is set to 0 (step S 103), and “subscript i of processing worker W i ≧ number of processing workers W” is established. It is determined whether or not to perform (step S104).
次に、ステップS104で判定不成立の場合、式(1)を用いて、映像データをW個の処理ワーカ数分の部分映像データに分割する際の分割点、すなわち、その分割される位置に存在する分割画像フレームの番号(以下、分割画像フレーム番号)diを計算する(ステップS105)。 Next, when the determination is not satisfied in step S104, using expression (1), the video data is divided into partial video data for the number of W processing workers, that is, at the division position. The number of divided image frames to be performed (hereinafter referred to as divided image frame number) d i is calculated (step S105).
di=i・(L/W) (1)
次に、分割画像フレーム番号diが映像データの先頭画像フレームから間引き画像フレーム間隔Sの整数倍になるように、式(2)の床関数floorを用いて、ステップS105で計算された分割画像フレーム番号diを補正する(ステップS106)。
d i = i · (L / W) (1)
Next, the divided image calculated in step S105 using the floor function floor of Expression (2) so that the divided image frame number d i is an integral multiple of the thinned image frame interval S from the first image frame of the video data. The frame number d i is corrected (step S106).
di’=floor(di/S)・S (2)
このとき、式(3)を用いて、補正後の分割画像フレーム番号di’を映像解析開始画像フレーム番号siとすると共に、式(4)を用いて、映像解析終了画像フレーム番号eiを計算する。
d i ′ = floor (d i / S) · S (2)
At this time, using the equation (3), the corrected divided image frame number d i ′ is set as the video analysis start image frame number s i, and using the equation (4), the video analysis end image frame number e i. Calculate
si=di’ (3)
ei=si+1 (4)
次に、ステップS106で計算された映像解析開始画像フレーム番号siと映像解析終了画像フレーム番号eiを解析タスクTiに関連付けて解析タスク管理部13に記憶する(ステップS107)。
s i = d i ′ (3)
e i = s i + 1 (4)
Then, it stored in the analysis
その後、iをインクリメントした後に(ステップS108)、ステップS104に戻り、ステップS104の判定が成立するまでステップS105〜ステップS108を繰り返す。そして、ステップS104で判定成立の場合、解析タスクの生成処理を終了する。 Thereafter, after i is incremented (step S108), the process returns to step S104, and steps S105 to S108 are repeated until the determination in step S104 is established. If the determination is satisfied in step S104, the analysis task generation process ends.
以上より、分割画像フレーム番号diは、例えば、図3に示すように補正され、補正後の番号diが映像解析開始画像フレーム番号siとされる。具体的には、例えば、L=7000、W=6、S=100の場合、図4に示すように補正され、図5に示すような解析タスクが生成される。 From the above, the divided image frame number d i is corrected, for example, as shown in FIG. 3, and the corrected number d i is set as the video analysis start image frame number s i . Specifically, for example, when L = 7000, W = 6, and S = 100, the correction is performed as shown in FIG. 4, and an analysis task as shown in FIG. 5 is generated.
解析タスク管理部13は、解析タスク生成部12によって生成された解析タスクTiをその解析タスクの生成対象であった映像データに関連付けて解析タスクデータとして記憶する。
The analysis
映像解析部14は、複数の処理ワーカWi(映像解析処理実行部)を備え、各処理ワーカWiは、映像記憶部11から映像解析対象の映像データを読み出すと共に、その映像データに関連する解析タスクデータを解析タスク管理部13から読み出して、その解析タスクデータでiが同一である解析タスクTiを自己に割り当てられている解析タスクとして映像解析処理を時間的に並列に実行する。
The
図6は、各処理ワーカで行う映像解析処理を示すフローチャートである。各処理ワーカWiは、割り当てられた映像解析開始画像フレーム番号siの画像フレームまでシークし、間引き画像フレーム間隔S毎に時間的に並列にイベント情報の検出処理をそれぞれ開始する。以下、詳述する。 FIG. 6 is a flowchart showing video analysis processing performed by each processing worker. Each processing worker W i seeks to the image frame of the assigned video analysis start image frame number s i , and starts event information detection processing in parallel in time for each thinned image frame interval S. Details will be described below.
最初に、処理ワーカWiは、iを同一とする映像解析開始画像フレーム番号siと映像解析終了画像フレーム番号eiを解析タスクデータから取得して(ステップS201)、間引き画像フレーム間隔Sの係数nを0に設定する(ステップS202)。 First, the processing worker W i obtains the video analysis start image frame number s i and the video analysis end image frame number e i having the same i from the analysis task data (step S201), and sets the thinned image frame interval S. The coefficient n is set to 0 (step S202).
次に、その映像解析開始画像フレーム番号siの画像フレームを現在の画像フレームとし、その現在の画像フレームのデータを映像データから取得して(ステップS203)、その現在の画像フレームの番号(以下、現在の画像フレーム番号)cを取得する(ステップS204)。 Next, the image frame of the video analysis start image frame number s i is set as the current image frame, the data of the current image frame is obtained from the video data (step S203), and the number of the current image frame (hereinafter referred to as “the current image frame number”). , Current image frame number) c is acquired (step S204).
次に、「現在の画像フレーム番号c≧映像解析開始画像フレーム番号si+n×間引き画像フレーム間隔S」が成立するか否かを判定し(ステップS205)する。 Next, it is determined whether or not “current image frame number c ≧ video analysis start image frame number s i + n × thinned image frame interval S” is satisfied (step S205).
次に、ステップS205で判定成立の場合、現在の画像フレームは、事前設定された間引き画像フレーム間隔Sに位置する画像フレームであることから、ステップS203で取得した画像フレームのデータを用いてイベント検出処理を実行し(ステップS206)、nをインクリメントする(ステップS207)。 Next, when the determination is satisfied in step S205, since the current image frame is an image frame located at the preset thinned-out image frame interval S, event detection is performed using the image frame data acquired in step S203. The process is executed (step S206), and n is incremented (step S207).
なお、イベント検出処理は、時間的に前後関係のある2枚以上の画像フレームを用いて実行されるが、現在の画像フレームからみてどの位置にある何枚の画像フレームを用いて実行するかについては予め設定されている。 The event detection process is executed using two or more image frames that are temporally related, but how many image frames are used at which position as viewed from the current image frame. Is preset.
一方、ステップS205で判定不成立の場合、現在の画像フレームは、事前設定された間引き画像フレーム間隔Sに位置する画像フレームでないことから、ステップS206とステップS207を実行することなく、ステップS208に進む。 On the other hand, if the determination is not satisfied in step S205, the current image frame is not an image frame located at the preset thinned-out image frame interval S, so the process proceeds to step S208 without executing steps S206 and S207.
最後に、ステップS201で取得した範囲内でのイベント検出処理が終了したか否かを判定する(ステップS208)。例えば、現在の画像フレーム番号cが映像解析終了画像フレーム番号eiに到達したとき(c≧ei)を終了条件として判定に利用できる。 Finally, it is determined whether or not the event detection process within the range acquired in step S201 is completed (step S208). For example, the current image frame number c is available for determining when it reaches the video analysis end image frame number e i a (c ≧ e i) as a termination condition.
ステップS208の判定で処理終了していない場合には、ステップS203に戻って次の番号の画像フレームを現在の画像フレームとしてステップS203〜ステップS208を繰り返す。一方、処理終了している場合には、映像解析処理を終了し、解析結果統合部15に送信する。 If it is determined in step S208 that the process has not been completed, the process returns to step S203, and steps S203 to S208 are repeated with the next image frame as the current image frame. On the other hand, when the processing is finished, the video analysis processing is finished and transmitted to the analysis result integration unit 15.
なお、各処理ワーカは、他の処理ワーカとの間で自身の実行状態などを通信することはなく、映像解析処理を個別に独立して実行可能であることから、図6に示す映像データの映像解析処理は時間的に並列に実行できる。 Note that each processing worker does not communicate its execution state with other processing workers and can independently execute the video analysis processing, so that the video data shown in FIG. Video analysis processing can be executed in parallel in time.
また、ステップS206で行うイベント検出処理の具体的手法については、イベント情報を検出可能であればどのような検出手法も採用でき、本実施の形態においてその手法は何ら制限されない。イベント情報の種類の検出についても同様である。 As a specific method of event detection processing performed in step S206, any detection method can be adopted as long as event information can be detected, and the method is not limited in this embodiment. The same applies to the detection of the type of event information.
図7に、図5に示した解析タスクデータに基づいて解析タスクTiを処理ワーカWiに割り当てた例を示す。この例の場合、6つの処理ワーカW0〜5が1つの映像ファイルを共有し、各処理ワーカW0〜5は、自己にそれぞれ割り当てられた解析タスクT0〜5での映像解析開始画像フレーム番号siの画像フレームから解析処理をそれぞれ開始する。 Figure 7 shows an example of assigning the analysis task T i to the processing worker W i on the basis of the analysis task data shown in FIG. In this example, six processing workers W 0 to 5 share one video file, and each processing worker W 0 to 5 has a video analysis start image frame in the analysis task T 0 to 5 respectively assigned thereto. The analysis process is started from the image frame with the number s i .
解析結果統合部15は、映像解析部14の各処理ワーカWiによって解析された各解析タスクTiでの解析結果を統合し、最終的な解析結果を解析結果記憶部16に記録する。
Analysis result integration unit 15 integrates the analysis result of each analysis task T i analyzed by the processing worker W i of the
記録する情報は、カットやカメラワーク、テロップなどのイベント検出の種類を表す「検出イベント」と、その検出イベントの「検出開始点(例えば、検出開始時刻や検出開始フレーム番号)」と「検出終了点(例えば、検出終了時刻や検出終了フレーム番号)」などである。 The information to be recorded includes “detection event” indicating the type of event detection such as cut, camera work, and telop, “detection start point (for example, detection start time or detection start frame number)” and “detection end” of the detection event. Point (for example, detection end time or detection end frame number) "or the like.
データ出力部17は、解析結果記憶部16から映像データの解析結果を読み出して外部に出力する。
The
ユーザは、この最終的な解析結果をデータ出力部17で読み出して、映像解析結果として利用できる。例えば、コンピュータのディスプレイに表示することや、テキストファイルなど他の装置で利用可能な形式で読み出して、他の装置が更なる処理を加えることも可能である。
The user can read out this final analysis result by the
最後に、以上説明した並列映像解析装置の具体的構築例について説明する。図8は、並列映像解析装置の構築例を示す図である。同図(a)に示すように、マルチコアCPUの1つのコアを1つの処理ワーカとしてもよいし、同図(b)に示すように、1つのサーバマシンを1つの処理ワーカとしてもよい。 Finally, a specific construction example of the parallel video analysis apparatus described above will be described. FIG. 8 is a diagram illustrating a construction example of a parallel video analysis apparatus. As shown in (a) of the figure, one core of the multi-core CPU may be used as one processing worker, and as shown in (b) of the same figure, one server machine may be used as one processing worker.
本実施の形態では、解析タスク管理部が各処理ワーカに解析タスクを割り当てて、処理ワーカが割り当てられた解析タスクを独立して解析処理する。このため、独立して処理ワーカを動作させることが可能な環境であれば、処理ワーカの設定方法は問わない。 In this embodiment, the analysis task management unit assigns an analysis task to each processing worker, and analyzes the analysis task to which the processing worker is assigned independently. For this reason, the setting method of a processing worker is not ask | required if it is an environment which can operate a processing worker independently.
但し、前述したように、各処理ワーカは映像データを共有して映像解析処理を進めるため、映像データの転送については考慮する必要がある。そのため、図8(b)の場合には、解析サーバ間の通信ネットワーク状態を含めて解析タスクを管理する必要がある。 However, as described above, since each processing worker shares video data and proceeds with video analysis processing, it is necessary to consider transfer of video data. Therefore, in the case of FIG. 8B, it is necessary to manage the analysis task including the communication network state between the analysis servers.
図8に示す構築例以外にも、マルチコアCPUを持つ複数のサーバマシンにより、本実施の形態による映像解析の並列処理を実行するようにしてもよい。 In addition to the construction example shown in FIG. 8, parallel processing of video analysis according to the present embodiment may be executed by a plurality of server machines having multi-core CPUs.
また、並列映像解析装置に複数の映像データが入力された場合には、入力された映像データをキューで管理することにより、対応可能である。 Further, when a plurality of pieces of video data are input to the parallel video analysis apparatus, it is possible to cope with the input video data by managing them in a queue.
すなわち、図9(a)に示すように、解析タスク管理部は、生成する解析タスクに、映像データを識別するビデオIDと、タスクの実行状態の有無を示すタスク状態とを加えて管理する。映像解析処理実行時には、同図(b)に示すように、タスク状態が未実行の解析タスクのうち、ビデオIDが同じ解析タスクを上から順(例えば、タスクIDや解析開始フレームが小さい順)に割り当てていく。 That is, as shown in FIG. 9A, the analysis task management unit manages the generated analysis task by adding a video ID for identifying video data and a task state indicating whether or not the task is executed. At the time of video analysis processing execution, as shown in FIG. 5B, among analysis tasks whose task status is not executed, analysis tasks having the same video ID are arranged in order from the top (for example, task ID and analysis start frame are in ascending order). Will be assigned to.
以上より、本実施の形態によれば、解析タスク生成部12が、映像データの先頭画像フレームから所定の間引き画像フレーム間隔の任意の整数倍目に位置する複数の画像フレームを求め、映像解析部14の各処理ワーカが、求められた各画像フレームから当該間引き画像フレーム間隔で時間的に並列に映像データでのイベント情報の検出処理をそれぞれ開始するので、映像データを複数の部分映像データに分割した際に生じるイベントの誤検出を防止でき、常に同じ画像フレームのみを解析対象とすることから、結果として、映像データの先頭から逐次に映像解析した場合と同じイベント検出結果を得ることができる。
As described above, according to the present embodiment, the analysis
また、本実施の形態によれば、時間的に並列かつ間引いて映像解析を実行しているので、映像解析に要する映像解析時間を短縮した状態で、映像データの先頭から逐次に映像解析した場合と同じイベント検出結果を得ることができる。 In addition, according to the present embodiment, since video analysis is executed in parallel and thinned out in time, when video analysis is performed sequentially from the beginning of the video data with the video analysis time required for video analysis shortened The same event detection result can be obtained.
1…並列映像解析装置
11…映像記憶部
12…解析タスク生成部
13…解析タスク管理部
14…映像解析部
15…解析結果統合部
16…解析結果記憶部
17…データ出力部
S101〜S108、S201〜S208…ステップ
DESCRIPTION OF
Claims (5)
前記位置する各画像フレームから前記間引き画像フレーム間隔で時間的に並列に映像データでのイベント情報の検出処理をそれぞれ開始する第2の手段と、
を有することを特徴とする並列映像解析装置。 From the storage means reads the video data, first means for obtaining a plurality of image frames located at any integer multiple eyes of the image given decimated image frame interval from the leading image frame of data,
A second means for initiating each detection processing of event information in the video data from each image frame to the location in parallel temporally in the thinned image frame interval,
A parallel video analysis apparatus comprising:
前記映像データを分割して当該分割される位置に存在する分割フレームの番号を求め、当該分割フレームの番号を床関数で補正することにより、前記整数倍目に位置する画像フレームを求めることを特徴とする請求項1に記載の並列映像解析装置。Dividing the video data, obtaining a number of a divided frame existing at the divided position, and correcting the number of the divided frame with a floor function to obtain an image frame located at the integer multiple The parallel video analysis apparatus according to claim 1.
記憶手段から映像データを読み出して、前記映像データの先頭画像フレームから所定の間引き画像フレーム間隔の任意の整数倍目に位置する複数の画像フレームを求める第1のステップと、A first step of reading video data from the storage means and obtaining a plurality of image frames located at an arbitrary integral multiple of a predetermined thinned-out image frame interval from the first image frame of the video data;
前記位置する各画像フレームから前記間引き画像フレーム間隔で時間的に並列に映像データでのイベント情報の検出処理をそれぞれ開始する第2のステップと、A second step of starting detection processing of event information in video data in parallel in time from each image frame located at the thinned image frame interval;
を有することを特徴とする並列映像解析方法。A parallel video analysis method comprising:
前記映像データを分割して当該分割される位置に存在する分割フレームの番号を求め、当該分割フレームの番号を床関数で補正することにより、前記整数倍目に位置する画像フレームを求めることを特徴とする請求項3に記載の並列映像解析方法。Dividing the video data, obtaining a number of a divided frame existing at the divided position, and correcting the number of the divided frame with a floor function to obtain an image frame located at the integer multiple The parallel video analysis method according to claim 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011272167A JP5702269B2 (en) | 2011-12-13 | 2011-12-13 | Parallel video analysis device, parallel video analysis method, and parallel video analysis program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011272167A JP5702269B2 (en) | 2011-12-13 | 2011-12-13 | Parallel video analysis device, parallel video analysis method, and parallel video analysis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013125304A JP2013125304A (en) | 2013-06-24 |
JP5702269B2 true JP5702269B2 (en) | 2015-04-15 |
Family
ID=48776527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011272167A Active JP5702269B2 (en) | 2011-12-13 | 2011-12-13 | Parallel video analysis device, parallel video analysis method, and parallel video analysis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5702269B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6421422B2 (en) | 2014-03-05 | 2018-11-14 | 日本電気株式会社 | Video analysis device, monitoring device, monitoring system, and video analysis method |
KR101649961B1 (en) * | 2014-12-31 | 2016-08-22 | 삼성에스디에스 주식회사 | Method and apparatus for processing video data |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3785068B2 (en) * | 2001-08-28 | 2006-06-14 | 日本電信電話株式会社 | Video analysis apparatus, video analysis method, video analysis program, and program recording medium |
JP4826315B2 (en) * | 2006-03-31 | 2011-11-30 | ソニー株式会社 | Image processing apparatus and method, and program |
-
2011
- 2011-12-13 JP JP2011272167A patent/JP5702269B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013125304A (en) | 2013-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019237657A1 (en) | Method and device for generating model | |
CN111095939B (en) | Identify previously streamed portions of a media item to avoid repeated replays | |
WO2014044158A1 (en) | Identification method and device for target object in image | |
US20130322696A1 (en) | Differing region detection system and differing region detection method | |
JP7029902B2 (en) | Video call quality measurement method and system | |
KR20150023406A (en) | Enhancing captured data | |
CN112040312A (en) | Split-screen rendering method, device, equipment and storage medium | |
JP6910208B2 (en) | Information processing equipment, information processing methods and programs | |
EP3086205A1 (en) | Method and apparatus for identifying operation event | |
JP2015154465A (en) | Display control device, display control method, and program | |
JP5702269B2 (en) | Parallel video analysis device, parallel video analysis method, and parallel video analysis program | |
CN108960130B (en) | Intelligent video file processing method and device | |
CN112073713B (en) | Video omission test method, device, equipment and storage medium | |
JP5962278B2 (en) | Image processing program, image processing apparatus, and image processing method | |
JP2013152543A (en) | Image storage program, method and device | |
JP2017118319A (en) | Video retrieval system | |
US8824872B2 (en) | Display control apparatus, reproduction system, and recording medium in which display control is performed based on a detected event | |
KR20160035104A (en) | Method for detecting object and object detecting apparatus | |
US10958955B1 (en) | System for generating modified video output | |
JP5863180B2 (en) | Video analysis processing device, video analysis processing method, and video analysis processing program | |
JP2006338620A (en) | Image data retrieval device, method and program | |
JP5833509B2 (en) | Video analysis apparatus, video analysis method, and video analysis program | |
US20150160836A1 (en) | Extracting demonstrations from in-situ video content | |
JP2021015476A5 (en) | ||
JP7487392B1 (en) | System, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5702269 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |