[go: up one dir, main page]

JP2017103621A - Stream data integration method and system - Google Patents

Stream data integration method and system Download PDF

Info

Publication number
JP2017103621A
JP2017103621A JP2015235516A JP2015235516A JP2017103621A JP 2017103621 A JP2017103621 A JP 2017103621A JP 2015235516 A JP2015235516 A JP 2015235516A JP 2015235516 A JP2015235516 A JP 2015235516A JP 2017103621 A JP2017103621 A JP 2017103621A
Authority
JP
Japan
Prior art keywords
data
stream data
fingerprint
detection
fingerprint signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015235516A
Other languages
Japanese (ja)
Inventor
卓哉 大塚
Takuya Otsuka
卓哉 大塚
孝 青木
Takashi Aoki
孝 青木
茂彦 大西
Shigehiko Onishi
茂彦 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015235516A priority Critical patent/JP2017103621A/en
Publication of JP2017103621A publication Critical patent/JP2017103621A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stream data merging method and system for easily synchronizing and merging detection data and feature amount data.SOLUTION: A fingerprint signal generator 10 emits a fingerprint signal S which may be superposed on detection data Dd, to a target with a sequence pattern and at transmission intervals indicating observation conditions in observing the target T, and registers fingerprint information P indicating a content of the fingerprint signal S in a fingerprint information DB 14. A stream data merging device 15 receives main stream data Dm and sub stream data Ds from a main stream data distribution device 12 and a sub stream data distribution device 13 and, based on the fingerprint information P acquired from the fingerprint information DB14 and corresponding to the main stream data Dm and the sub stream data Ds and the fingerprint signal S extracted from the detection data Dd within the main stream data Dm and the feature amount data within the sub stream data Ds, merges the detection data Dd and the feature amount data while synchronizing them with each other.SELECTED DRAWING: Figure 1

Description

本発明は、映像、音声、センサー出力等からなる検出データを時系列で観測して得られた主ストリームデータと、これら主ストリームデータを処理することによって生成される特徴量データなどの副ストリームデータとについて、これらストリームデータ間で同期を取るためのストリームデータ同期技術に関する。   The present invention provides main stream data obtained by observing detection data composed of video, audio, sensor output, etc. in time series, and substream data such as feature data generated by processing these main stream data. And a stream data synchronization technique for synchronizing these stream data.

ISOのMoving Picture Experts Groupで策定されたマルチメディアコンテンツのデータ圧縮やメタデータの標記方法に関する規格の1つとして、コンテンツに付加するメタデータに関する国際標準規格ISO/IEC 15938:MPEG−7がある。このMPEG−7では、例えば映像中の何時何分何秒の部分にどのようなシーンがある、というメタデータ(付加情報)を映像フレームに埋め込んでいくための規格が規定されている。メタデータとしては映像データから計算された画像特徴量データとすることも可能であり、検索等のデータ照合に利用される。   As one of the standards regarding the data compression of multimedia contents and the metadata marking method established by the ISO Moving Picture Experts Group, there is an international standard ISO / IEC 15938: MPEG-7 regarding metadata added to contents. In this MPEG-7, for example, a standard for embedding metadata (additional information) such as what scene is in the hour, minute, and second portion in the video is defined. The metadata may be image feature data calculated from video data, and is used for data collation such as search.

このような技術では、コンテンツとメタデータとの同期を確保するために、コンテンツとメタデータがデータ構造上において密に結び付けられている。そのため、コンテンツに対して多種のメタデータを追加しようとするとコンテンツの総量が肥大化してしまうという問題がある。
一般的に、メタデータとして必要とされる特徴量データは、照合処理の内容によって異なる。様々な照合処理に対応するためにメタデータ種類を増やしてしまうと、使用頻度の少ないメタデータも映像データに埋め込まれて伝送されることになり、ネットワーク伝送資源を無駄にしてしまう。
In such a technique, in order to ensure synchronization between content and metadata, the content and metadata are closely linked in the data structure. Therefore, there is a problem that the total amount of content is enlarged when various types of metadata are added to the content.
In general, feature data required as metadata varies depending on the contents of the collation process. If the number of metadata types is increased in order to cope with various collation processes, metadata that is less frequently used is also embedded in video data and transmitted, and network transmission resources are wasted.

MPEG-7、国際標準規格ISO/IEC 15938、The Moving Picture Experts Group、http://mpeg.chiariglione.org/standards/mpeg-7MPEG-7, international standard ISO / IEC 15938, The Moving Picture Experts Group, http://mpeg.chiariglione.org/standards/mpeg-7

近年、映像、音声、センサー出力等からなる検出データを時系列で観測して得られた主ストリームデータをネットワーク上に流し続け、そのデータを情報加工することで新たな価値を生み出すサービスが検討されている。例えば、空港や駅などの公共空間に設置されたカメラからの映像から、普段とは違う異常な人々の振る舞いをリアルタイムで検知することができれば、異常に対する早期の対応を計画することが可能になり、防犯や防災の観点から有用であるとされている。   In recent years, services that create new value by continuing to flow main stream data obtained by observing detection data consisting of video, audio, sensor output, etc. in time series on the network and processing the data are being studied. ing. For example, if it is possible to detect in real time abnormal behavior of unusual people from images installed in public spaces such as airports and stations, it becomes possible to plan early responses to abnormalities. It is said that it is useful from the viewpoint of crime prevention and disaster prevention.

従来、個別のセンサー機器や監視装置の内部でこのような異常検知等の情報処理が実行されていたが、今後は、異常検知のために必要な特徴ベクトルの計算や学習事例との照合による異常判定等の処理は、ネットワーク上に分散して配置されているどの情報処理機器においてでも実行することが可能となる。つまり、センサー機器や監視装置等の情報源で生成された主ストリームデータを、通信ネットワーク上にあるいずれかの情報処理機器が必要に応じて2次加工して副ストリームデータを生成し、さらにその先の別の情報処理機器がこれら主・副ストリームデータを統合して情報加工し、価値ある情報とする、分散データ処理方式が一般的になる。   Conventionally, information processing such as abnormality detection has been performed inside individual sensor devices and monitoring devices, but in the future, abnormalities will be calculated by calculating feature vectors necessary for abnormality detection and collating with learning examples. Processing such as determination can be executed in any information processing device distributed on the network. That is, the main stream data generated by an information source such as a sensor device or a monitoring device is subjected to secondary processing as needed by any information processing device on the communication network to generate sub-stream data. A distributed data processing method is generally used in which the other information processing apparatus previously integrates the main / sub stream data and processes the information to obtain valuable information.

このような分散データ処理環境において、複数のセンサー機器や監視装置の間で時刻同期やクロック幅の揺らぎに関して調整を取ることは、作業負担やコスト負担が増大するため期待できない。したがって、ネットワーク上の情報処理機器において、情報源を異にする主・副ストリームデータの間で時刻合わせや時間間隔合わせ等の同期確保が困難となるが、これら主・副ストリームデータに含まれる検出データおよび特徴量データを統合分析する際には、解析対象となる検出データおよび特徴量データ同士のタイミングを厳密に合わせる必要があり、主・副ストリームデータの再同期が課題となる。   In such a distributed data processing environment, it is not expected to adjust time synchronization and clock width fluctuation among a plurality of sensor devices and monitoring devices because work load and cost load increase. Therefore, in information processing equipment on the network, it is difficult to ensure synchronization such as time adjustment and time interval adjustment between main and sub stream data of different information sources, but detection included in these main and sub stream data When performing integrated analysis of data and feature quantity data, it is necessary to strictly match the timing of detection data and feature quantity data to be analyzed, and resynchronization of main and sub stream data becomes an issue.

本発明はこのような課題を解決するためのものであり、主・副ストリームデータに含まれる検出データおよび特徴量データを容易に同期させて統合できるストリームデータ統合技術を提供することを目的としている。   The present invention has been made to solve such problems, and it is an object of the present invention to provide a stream data integration technique capable of easily synchronizing and integrating detection data and feature amount data included in main and sub stream data. .

このような目的を達成するために、本発明にかかるストリームデータ統合方法は、対象を観測して得られた検出データを時系列で出力する観測ステップと、前記対象を観測する際の観測条件を示すシーケンスパターンおよび送信間隔で、前記検出データに重畳されうる指紋信号を前記対象に対して出射するとともに、前記指紋信号の内容を示す指紋情報を指紋情報DBに登録する指紋信号発生ステップと、前記検出データから主ストリームデータを生成して通信ネットワークへ配信する主ストリームデータ配信ステップと、前記通信ネットワークから受信した前記主ストリームデータに含まれている前記検出データに基づいて、前記指紋信号が重畳された特徴量データを時系列で算出し、これら特徴量データから副ストリームデータを生成して前記通信ネットワークへ配信する副ストリームデータ配信ステップと、入力されたストリームデータ統合指示に基づいて、前記通信ネットワークから前記主ストリームデータおよび前記副ストリームデータを受信し、前記指紋情報DBから取得した前記主ストリームデータおよび前記副ストリームデータと対応する指紋情報と、前記主ストリームデータ内の検出データおよび前記副ストリームデータ内の特徴量データから抽出した前記指紋信号とに基づいて、前記検出データおよび前記特徴量データを相互に同期させて統合するストリームデータ統合ステップとを備えている。   In order to achieve such an object, the stream data integration method according to the present invention includes an observation step for outputting detection data obtained by observing a target in time series, and an observation condition for observing the target. A fingerprint signal generation step of emitting a fingerprint signal that can be superimposed on the detection data to the target with a sequence pattern and a transmission interval that are indicated, and registering fingerprint information indicating the content of the fingerprint signal in a fingerprint information DB; A main stream data distribution step of generating main stream data from the detection data and distributing it to the communication network, and the fingerprint signal is superimposed based on the detection data included in the main stream data received from the communication network To calculate sub-stream data from these feature data. Based on the substream data distribution step for distributing to the communication network and the input stream data integration instruction, the main stream data and the substream data are received from the communication network and acquired from the fingerprint information DB. Based on the fingerprint information corresponding to the stream data and the sub-stream data, and the detection data in the main stream data and the fingerprint signal extracted from the feature data in the sub-stream data, the detection data and the feature quantity A stream data integration step of integrating data in synchronization with each other.

また、本発明にかかる上記ストリームデータ統合方法の一構成例は、前記ストリームデータ統合ステップが、前記指紋信号のシーケンスパターンに前記観測条件として含まれる出射日時に基づいて、前記主ストリームデータ内の基準位置に位置する前記検出データと前記副ストリームデータ内の基準位置に位置する前記特徴量データとを時刻同期させ、前記指紋信号の送信間隔に基づいて、後続する前記検出データと前記特徴量データとの時間軸尺度を調整するようにしたものである。   Also, in one configuration example of the stream data integration method according to the present invention, the stream data integration step is based on the emission date and time included in the sequence pattern of the fingerprint signal as the observation condition. The detection data located at a position and the feature value data located at a reference position in the substream data are time-synchronized, and the subsequent detection data and the feature value data, based on the transmission interval of the fingerprint signal, The time axis scale is adjusted.

また、本発明にかかるストリームデータ統合システムは、対象を観測して得られた検出データを時系列で出力する観測機器と、前記対象を観測する際の観測条件を示すシーケンスパターンおよび送信間隔で、前記検出データに重畳されうる指紋信号を前記対象に対して出射するとともに、前記指紋信号の内容を示す指紋情報を指紋情報DBに登録する指紋信号発生器と、前記検出データから主ストリームデータを生成して通信ネットワークへ配信する主ストリームデータ配信装置と、前記通信ネットワークから受信した前記主ストリームデータに含まれている前記検出データに基づいて、前記指紋信号が重畳された特徴量データを時系列で算出し、これら特徴量データから副ストリームデータを生成して前記通信ネットワークへ配信する副ストリームデータ配信装置と、入力されたストリームデータ統合指示に基づいて、前記通信ネットワークから前記主ストリームデータおよび前記副ストリームデータを受信し、前記指紋情報DBから取得した前記主ストリームデータおよび前記副ストリームデータと対応する指紋情報と、前記主ストリームデータ内の検出データおよび前記副ストリームデータ内の特徴量データから抽出した前記指紋信号とに基づいて、前記検出データおよび前記特徴量データを相互に同期させて統合するストリームデータ統合装置とを備えている。   Further, the stream data integration system according to the present invention includes an observation device that outputs detection data obtained by observing a target in time series, a sequence pattern indicating an observation condition when observing the target, and a transmission interval. A fingerprint signal that can be superimposed on the detection data is emitted to the target, and fingerprint information indicating the contents of the fingerprint signal is registered in a fingerprint information DB, and main stream data is generated from the detection data. Main stream data distribution apparatus for distributing to a communication network, and feature data on which the fingerprint signal is superimposed in time series based on the detection data included in the main stream data received from the communication network Substream data is calculated, substream data is generated from the feature data, and distributed to the communication network. The main stream data and the substream data acquired from the fingerprint information DB by receiving the main stream data and the substream data from the communication network based on the stream data distribution device and the input stream data integration instruction And the detection data in the main stream data and the fingerprint signal extracted from the feature data in the sub-stream data, the detection data and the feature data are synchronized with each other. And a stream data integration device for integration.

本発明によれば、主ストリームデータに含まれている検出データと、これら検出データから生成した副ストリームデータに含まれている特徴量データとが、同一時刻ごとに対応して出力される。したがって、同一対象Tを観測して得られた検出データと、この検出データから計算した特徴量データとを相互に同期させて統合して分析することができる。
このため、観測機器、主ストリームデータ配信装置、および副ストリームデータ配信装置が通信ネットワーク上に分散配置されている分散データ処理環境であっても、これら装置の間での時刻同期やクロック幅の揺らぎに関する調整を必要とすることなく、解析対象となる検出データおよび特徴量データ同士のタイミングを厳密に合わせることができる。したがって、高い精度で検出データおよび特徴量データを統合分析することが可能となる。
According to the present invention, the detection data included in the main stream data and the feature data included in the substream data generated from the detection data are output corresponding to the same time. Therefore, the detection data obtained by observing the same target T and the feature data calculated from the detection data can be integrated and analyzed in synchronization with each other.
For this reason, even in a distributed data processing environment in which observation devices, main stream data distribution devices, and substream data distribution devices are distributed on a communication network, time synchronization and clock width fluctuations among these devices Therefore, the timings of the detection data and the feature amount data to be analyzed can be precisely matched. Therefore, it is possible to perform integrated analysis of detection data and feature amount data with high accuracy.

ストリームデータ統合システムの構成を示すブロック図である。It is a block diagram which shows the structure of a stream data integration system. 指紋信号の構成例である。It is a structural example of a fingerprint signal. 検出データ例(映像)を示す説明図である。It is explanatory drawing which shows the example of detection data (video). 検出データ例(音声)を示す説明図である。It is explanatory drawing which shows the example of detection data (voice | voice). 検出データ例(振動)を示す説明図である。It is explanatory drawing which shows the example of detection data (vibration). 特徴量データ(画像HOG特徴量)を示す説明図である。It is explanatory drawing which shows feature-value data (image HOG feature-value). 特徴量データ(画像SIFT特徴量)を示す説明図である。It is explanatory drawing which shows feature-value data (image SIFT feature-value). 特徴量データ(MFCC特徴量)を示す説明図である。It is explanatory drawing which shows feature-value data (MFCC feature-value). 特徴量データ(時間分解周波数特徴量)を示す説明図である。It is explanatory drawing which shows feature-value data (time-resolved frequency feature-value). ストリームデータ統合処理を示すフローチャートである。It is a flowchart which shows a stream data integration process.

次に、本発明の一実施の形態について図面を参照して説明する。
[ストリームデータ統合システム]
まず、図1を参照して、本実施の形態にかかるストリームデータ統合システム1について説明する。図1は、ストリームデータ統合システムの構成を示すブロック図である。
Next, an embodiment of the present invention will be described with reference to the drawings.
[Stream data integration system]
First, a stream data integration system 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a stream data integration system.

図1のストリームデータ統合システム1は、映像、音声、センサー出力等からなる検出データを時系列で観測して得られた主ストリームデータと、これら主ストリームデータの検出データを処理することによって生成される特徴量データなどの副ストリームデータとを、相互に同期させて統合する機能を有している。   The stream data integration system 1 in FIG. 1 is generated by processing main stream data obtained by observing detection data composed of video, audio, sensor output, etc. in time series, and detection data of these main stream data. And substream data such as feature amount data are integrated in synchronization with each other.

近年、遠隔操縦または自律式の飛行物体であるドローン(Drone)などの観測機器に、ビデオカメラや各種観測センサーを搭載し、自然環境や災害現場の監視、都市部における交通や人流の監視等、様々なモニタニング活動に関する検討が進んでいる。このようなモニタリング活動においては、各々の観測機器で収録されて配信される主ストリームデータと、この主ストリームデータから生成した副ストリームデータとを統合的に解析することで、監視・観測対象について、より高度で正確な知見を見出すことができる。   In recent years, video cameras and various observation sensors are installed in observation devices such as drones that are remotely controlled or autonomous flying objects, monitoring the natural environment and disaster sites, monitoring traffic and human flow in urban areas, etc. Studies on various monitoring activities are in progress. In such monitoring activities, the main stream data recorded and distributed by each observation device and the substream data generated from this main stream data are analyzed in an integrated manner, More advanced and accurate knowledge can be found.

これら主・副ストリームデータを統合的に解析するためには、映像、音声、センサー出力等からなる検出データを時系列で観測して主・副得られたストリームデータを同期させて解析する必要があるが、現実の収録環境においては、観測機器の時刻合わせなどのタイミング合わせの実施は困難である。   In order to analyze these main / sub stream data in an integrated manner, it is necessary to observe the detection data consisting of video, audio, sensor output, etc. in time series and analyze the main / sub stream data in synchronization. However, in an actual recording environment, it is difficult to perform timing adjustment such as time adjustment of observation equipment.

本発明は、時間・場所・機器などの固有の観測条件を示す指紋信号(観測識別信号)を、これら対象に対して出射することにより、監視・観測の対象から指紋信号が重畳された検出データからなる主ストリームデータ、さらには副ストリームデータを生成し、これら主・副ストリームデータに重畳されている指紋信号に基づき、両者を同期させて統合するようにしたものである。   The present invention detects detection data in which a fingerprint signal is superimposed from a target to be monitored / observed by emitting a fingerprint signal (observation identification signal) indicating a specific observation condition such as time / place / device to the target. Main stream data and further substream data are generated, and based on the fingerprint signal superimposed on the main / substream data, the two are synchronized and integrated.

次に、図1を参照して、本発明にかかるストリームデータ統合システム1の構成について詳細に説明する。
このストリームデータ統合システム1には、主な機能部として、指紋信号発生器10、観測機器11、主ストリームデータ配信装置12、副ストリームデータ配信装置13、指紋情報DB14、およびストリームデータ統合装置15が設けられている。
Next, the configuration of the stream data integration system 1 according to the present invention will be described in detail with reference to FIG.
The stream data integration system 1 includes a fingerprint signal generator 10, an observation device 11, a main stream data distribution device 12, a sub stream data distribution device 13, a fingerprint information DB 14, and a stream data integration device 15 as main functional units. Is provided.

指紋信号発生器10は、全体として光源、照明機器、スピーカ、物理振動発生器などの信号発生源からなり、対象Tに対して指紋信号Sを出射する機能と、この指紋信号Sに関する指紋情報Pを通信ネットワークNWを介して指紋情報DB14へ登録する機能を有している。なお、指紋信号発生器10については、複数の観測機器11で共用してもよく、観測機器11ごとに個別に設けてもよく、さらには観測機器11内に搭載してもよい。   The fingerprint signal generator 10 includes a signal generation source such as a light source, a lighting device, a speaker, and a physical vibration generator as a whole. The fingerprint signal generator 10 emits a fingerprint signal S to a target T and fingerprint information P related to the fingerprint signal S. Is registered in the fingerprint information DB 14 via the communication network NW. The fingerprint signal generator 10 may be shared by a plurality of observation devices 11, may be provided for each observation device 11, and may be mounted in the observation device 11.

図2は、指紋信号の構成例である。ここでは、一定の送信間隔を有するシーケンスパターン(パルス系列)からなる指紋信号(観測識別信号)が示されており、これらシーケンスパターンおよび送信間隔が、出射日時、出射場所、出射機器など、観測条件を示す各種属性情報を示している。なお、シーケンスパターンについては、時刻同期精度に応じた間隔をあけて送信すればよく、シーケンスパターンの未送信期間については、一定の送信間隔で単純なスパイク信号を送信すればよい。   FIG. 2 is a configuration example of a fingerprint signal. Here, a fingerprint signal (observation identification signal) consisting of a sequence pattern (pulse sequence) having a fixed transmission interval is shown. These sequence patterns and transmission intervals are the observation conditions such as the emission date and time, the emission location, and the emission equipment. The various attribute information which shows is shown. The sequence pattern may be transmitted with an interval corresponding to the time synchronization accuracy, and a simple spike signal may be transmitted at a constant transmission interval during the non-transmission period of the sequence pattern.

したがって、主・副ストリームデータDm,Dsから抽出した指紋信号Sのシーケンスパターンを、指紋情報DB14に登録された指紋情報Pと照合することにより、指紋信号Sに関する出射日時、出射場所、出射機器などの各種属性情報、すなわち主・副ストリームデータDm,Dsに固有の観測条件を導出できるとともに、シーケンスパターンの送信間隔から、主・副ストリームデータDm,Dsの時間軸縮尺を導出できる。   Therefore, by comparing the sequence pattern of the fingerprint signal S extracted from the main / sub stream data Dm, Ds with the fingerprint information P registered in the fingerprint information DB 14, the emission date and time, the emission location, the emission device, etc. regarding the fingerprint signal S , That is, the observation conditions specific to the main / sub stream data Dm, Ds can be derived, and the time scale of the main / sub stream data Dm, Ds can be derived from the transmission interval of the sequence pattern.

観測機器11は、全体として前述したドローンや空港や駅などの公共空間に設置された監視カメラなどの各種観測機器からなり、指紋信号発生器10から出射された指紋信号Sが重畳された、対象Tに関する映像、音声、センサー出力等からなる検出データDdを、検出器11Aにより観測して主ストリームデータ配信装置12へ時系列で出力する機能を有している。検出部11Aとしては、カメラ、マイク、振動センサなど、観測する物理量に応じて各種検出機器を用いればよい。   The observation device 11 is composed of various observation devices such as a drone, a surveillance camera installed in a public space such as an airport or a station as a whole, and a target on which the fingerprint signal S emitted from the fingerprint signal generator 10 is superimposed. The detection data Dd consisting of video, audio, sensor output, etc. relating to T is observed by the detector 11A and output to the main stream data distribution device 12 in time series. As the detection unit 11A, various detection devices such as a camera, a microphone, and a vibration sensor may be used according to the physical quantity to be observed.

図3は、検出データ例(映像)を示す説明図である。ここでは、指紋信号発生器10から赤外光により出射された指紋信号Sが検出データDdに含まれている。これにより、観測時に指紋信号Sを人に知覚されにくくできるとともに、可視光からなる観測内容を劣化させずに指紋信号Sを検出データDdに重畳させることができる。   FIG. 3 is an explanatory diagram showing an example of detection data (video). Here, the fingerprint data S emitted from the fingerprint signal generator 10 by infrared light is included in the detection data Dd. Thereby, the fingerprint signal S can be made difficult to be perceived by humans at the time of observation, and the fingerprint signal S can be superimposed on the detection data Dd without degrading the observation content made of visible light.

図4は、検出データ例(音声)を示す説明図である。ここでは、指紋信号発生器10から可聴周波数より低い低周波音声により出射された指紋信号Sが検出データDdに含まれている。これにより、観測時に指紋信号Sを人に知覚されにくくできるとともに、可聴音からなる観測内容を劣化させずに指紋信号Sを重畳させることができる。   FIG. 4 is an explanatory diagram showing an example of detection data (voice). Here, the fingerprint signal S emitted from the fingerprint signal generator 10 by the low frequency sound lower than the audible frequency is included in the detection data Dd. As a result, the fingerprint signal S can be made difficult to be perceived by humans at the time of observation, and the fingerprint signal S can be superimposed without degrading the observation content made of audible sound.

図5は、検出データ例(振動)を示す説明図である。ここでは、指紋信号発生器10から低周波振動により出射された指紋信号Sが検出データDdに含まれている。これにより、観測時に指紋信号Sを人に知覚されにくくできるとともに、これにより振動量からなる観測内容を劣化させずに指紋信号Sを重畳させることができる。   FIG. 5 is an explanatory diagram showing an example of detection data (vibration). Here, the detection data Dd includes the fingerprint signal S emitted from the fingerprint signal generator 10 by low frequency vibration. As a result, the fingerprint signal S can be made difficult to be perceived by humans at the time of observation, and the fingerprint signal S can be superimposed without degrading the observation content including the vibration amount.

主ストリームデータ配信装置12は、全体として観測機器11を制御するPCなどの制御装置12Aからなり、観測機器11から出力された検出データDdを受け取って、予め設定されているデータ構成に基づいて主ストリームデータDmを生成して通信ネットワークNWへ配信する機能を有している。   The main stream data distribution device 12 includes a control device 12A such as a PC that controls the observation device 11 as a whole. The main stream data distribution device 12 receives the detection data Dd output from the observation device 11, and based on a preset data configuration. It has a function of generating stream data Dm and distributing it to the communication network NW.

副ストリームデータ配信装置13は、全体としてサーバ装置などの情報処理装置13A,13B,13Cからなり、通信ネットワークNWを介して主ストリームデータ配信装置12から受信した主ストリームデータDmから特徴量データDcを時系列で算出する機能と、これら時系列の特徴量データDcから予め設定されているデータ構成に基づいて副ストリームデータDsを生成して通信ネットワークNWへ配信する機能を有している。   The sub-stream data distribution device 13 is composed of information processing devices 13A, 13B, and 13C such as server devices as a whole, and receives the feature data Dc from the main stream data Dm received from the main stream data distribution device 12 via the communication network NW. It has a function of calculating in time series and a function of generating sub-stream data Ds from the time-series feature amount data Dc based on a preset data configuration and distributing it to the communication network NW.

副ストリームデータ配信装置13については、算出すべき特徴量データDcごとに別個に設けてもよい。図1では、画像HOG(Histograms of Oriented Gradients)特徴量を抽出する情報処理装置13A、画像SIFT(Scale-Invariant Feature Transform)特徴量を抽出する情報処理装置13B、およびMFCC(Mel-Frequency Cepstrum Coefficients)特徴量を抽出する情報処理装置13Cが例として設けられている。   The substream data distribution device 13 may be provided separately for each feature amount data Dc to be calculated. In FIG. 1, an information processing device 13A that extracts image HOG (Histograms of Oriented Gradients) feature values, an information processing device 13B that extracts image SIFT (Scale-Invariant Feature Transform) feature values, and an MFCC (Mel-Frequency Cepstrum Coefficients) An information processing apparatus 13C that extracts a feature amount is provided as an example.

図6は、特徴量データ(画像HOG特徴量)を示す説明図である。画像HOG特徴量は、画像データに含まれる対象のエッジについて、局所領域で輝度勾配方向をヒストグラム化することにより得られた、対象物体の形状を大まかに表す特徴量である。人物領域抽出に広く用いられ、幾何学的変換に強く、照明の変動に頑健であるとされている。   FIG. 6 is an explanatory diagram showing feature data (image HOG feature). The image HOG feature value is a feature value roughly representing the shape of the target object obtained by histogramming the luminance gradient direction in the local region with respect to the target edge included in the image data. It is widely used for human area extraction, is strong against geometric transformations, and is robust against lighting fluctuations.

図7は、特徴量データ(画像SIFT特徴量)を示す説明図である。画像SIFT特徴量は、異なる尺度空間での局所探索により画像から特徴点を抽出し、特徴点で輝度勾配方向をヒストグラム化することにより得られた、画像の特徴を表す特徴量である。回転・スケール変化に不変であり、照明変化に頑健であるとされている。   FIG. 7 is an explanatory diagram showing feature amount data (image SIFT feature amount). The image SIFT feature value is a feature value representing the feature of the image obtained by extracting feature points from the image by local search in different scale spaces and histogramming the luminance gradient direction at the feature points. It is invariant to rotation and scale changes, and is robust to changes in lighting.

図8は、特徴量データ(MFCC特徴量)を示す説明図である。MFCC特徴量は、音声信号の高域成分を強調した後、メル尺度に基づきメル周波数スペクトラムを求めてケプストラムに変換して低次成分を抽出して得られた、音声のスペクトル包絡を示す特徴量である。音源に由来する成分と声道に由来する成分とを分離して表すことができるとされている。   FIG. 8 is an explanatory diagram showing feature amount data (MFCC feature amount). The MFCC feature value is a feature value indicating the spectral envelope of the speech obtained by emphasizing the high frequency component of the audio signal, then obtaining the mel frequency spectrum based on the mel scale, converting it to a cepstrum, and extracting the low-order component. It is. It is said that a component derived from a sound source and a component derived from the vocal tract can be expressed separately.

図9は、特徴量データ(時間分解周波数特徴量)を示す説明図である。時間分解周波数特徴量は、検出したデータに関する周波数分析を時間の経過順に並べたものであり、機械的振動を含む各種振動の特徴を示す特徴量である。
なお、主ストリームデータDmから副ストリームデータDsを生成する処理については、副ストリームデータ配信装置13での実行に限定されるものではなく、この副ストリームデータ生成機能を主ストリームデータ配信装置12に設けて実行してもよい。
FIG. 9 is an explanatory diagram showing feature amount data (time-resolved frequency feature amount). The time-resolved frequency feature amount is obtained by arranging frequency analyzes related to detected data in the order of passage of time, and is a feature amount indicating characteristics of various vibrations including mechanical vibrations.
Note that the process of generating the substream data Ds from the main stream data Dm is not limited to the execution in the substream data distribution apparatus 13, and this substream data generation function is provided in the main stream data distribution apparatus 12. May be executed.

指紋情報DB14は、全体としてサーバ装置で構成されたデータベースからなり、指紋信号発生器10から通知された指紋情報Pを通信ネットワークNWを介して受信してデータベースへ登録する機能と、通信ネットワークNWを介したストリームデータ統合装置15からの要求に応じて、指定された指紋信号発生器10、日時、場所と対応する指紋情報Pをストリームデータ統合装置15へ返送する機能とを有している。データベースに登録される指紋情報Pの内容としては、指紋信号Sの出射日時、出射場所、出射機器、送信間隔などの各種属性情報が含まれている。   The fingerprint information DB 14 consists of a database composed of server devices as a whole. The fingerprint information DB 14 receives the fingerprint information P notified from the fingerprint signal generator 10 via the communication network NW and registers it in the database, and the communication network NW. In response to a request from the stream data integration device 15, the designated fingerprint signal generator 10 has a function of returning fingerprint information P corresponding to the date, time, and location to the stream data integration device 15. The contents of the fingerprint information P registered in the database include various attribute information such as the emission date and time of the fingerprint signal S, the emission location, the emission device, and the transmission interval.

ストリームデータ統合装置15は、全体としてサーバ装置などの情報処理装置からなり、通信ネットワークNWを介して主ストリームデータ配信装置12および副ストリームデータ配信装置13から受信した主ストリームデータDmおよび副ストリームデータDsを相互に同期させて統合する機能を有している。
このストリームデータ統合装置15には、主な処理部として、データ取得部15A、指紋信号抽出部15B、およびデータ処理部15Cが設けられている。
The stream data integration device 15 is composed of an information processing device such as a server device as a whole, and the main stream data Dm and the sub stream data Ds received from the main stream data distribution device 12 and the sub stream data distribution device 13 via the communication network NW. Have the function of synchronizing and integrating each other.
The stream data integration device 15 includes a data acquisition unit 15A, a fingerprint signal extraction unit 15B, and a data processing unit 15C as main processing units.

データ取得部15Aは、入力されたストリームデータ統合指示に基づいて、主ストリームデータ配信装置12および副ストリームデータ配信装置13から、通信ネットワークNWを介して主ストリームデータDmおよび副ストリームデータDsを受信する機能と、これら主ストリームデータDmおよび副ストリームデータDsと対応する指紋情報Pを指紋情報DB14から取得する機能とを有している。   The data acquisition unit 15A receives the main stream data Dm and the sub stream data Ds from the main stream data distribution device 12 and the sub stream data distribution device 13 via the communication network NW based on the input stream data integration instruction. And a function of acquiring the fingerprint information P corresponding to the main stream data Dm and the sub stream data Ds from the fingerprint information DB 14.

指紋信号抽出部15Bは、データ取得部15Aで受信した主ストリームデータDm内の検出データDdに重畳されている指紋信号S(シーケンスパターン)を抽出する機能と、副ストリームデータDs内の特徴量データDcに重畳されている指紋信号S(シーケンスパターン)を抽出する機能を有している。   The fingerprint signal extraction unit 15B extracts a fingerprint signal S (sequence pattern) superimposed on the detection data Dd in the main stream data Dm received by the data acquisition unit 15A, and feature amount data in the substream data Ds It has a function of extracting a fingerprint signal S (sequence pattern) superimposed on Dc.

データ処理部15Cは、指紋信号抽出部15Bで抽出した主ストリームデータDmおよび副ストリームデータDsの指紋信号Sと、データ取得部15Aで取得した指紋情報Pとに基づいて、データ取得部15Aで受信した主ストリームデータDmに含まれている検出データDdと、副ストリームデータDsに含まれている特徴量データDcとを相互に同期させ、統合して出力する機能とを有している。   The data processing unit 15C receives the data acquisition unit 15A based on the fingerprint signal S of the main stream data Dm and the substream data Ds extracted by the fingerprint signal extraction unit 15B and the fingerprint information P acquired by the data acquisition unit 15A. The detection data Dd included in the main stream data Dm and the feature data Dc included in the substream data Ds are synchronized with each other, integrated, and output.

この際、具体的には、指紋情報Pに含まれる出射日時に基づき、主ストリームデータDm内の基準位置に位置する検出データDdと副ストリームデータDs内の基準位置に位置する特徴量データDcとが時刻同期される。この場合、基準位置としては、検出データDdおよび特徴量データDcから出射日時を示す指紋信号Sが抽出された時点を基準位置とすればよい。   At this time, specifically, based on the emission date and time included in the fingerprint information P, the detection data Dd located at the reference position in the main stream data Dm and the feature amount data Dc located at the reference position in the substream data Ds Are time synchronized. In this case, the reference position may be the time when the fingerprint signal S indicating the emission date and time is extracted from the detection data Dd and the feature data Dc.

また、主ストリームデータDmと副ストリームデータDsとに含まれる指紋信号Sの送信間隔に基づいて、主ストリームデータDmに含まれる後続の検出データDdと副ストリームデータDsに含まれる後続の特徴量データDcとの時間軸尺度が調整される。この時間軸尺度は、検出データDdと特徴量データDcとのデータサイズの違いにより発生するものである。
さらに、指紋情報Pに含まれる出射場所および出射機器に基づいて、時刻同期および時間軸尺度が調整された検出データDdおよび特徴量データDcに関する対象Tおよび観測条件が特定される。
In addition, based on the transmission interval of the fingerprint signal S included in the main stream data Dm and the sub stream data Ds, the subsequent detection data Dd included in the main stream data Dm and the subsequent feature data included in the sub stream data Ds. The time axis scale with Dc is adjusted. This time axis scale is generated due to a difference in data size between the detection data Dd and the feature data Dc.
Further, based on the emission location and the emission device included in the fingerprint information P, the target T and the observation conditions regarding the detection data Dd and the feature data Dc whose time synchronization and time axis scale are adjusted are specified.

[本実施の形態の動作]
次に、図10を参照して、本実施の形態にかかるストリームデータ統合システム1のストリームデータ統合動作について説明する。図10は、ストリームデータ統合処理を示すフローチャートである。
[Operation of this embodiment]
Next, the stream data integration operation of the stream data integration system 1 according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing stream data integration processing.

まず、観測開始に当たり、指紋信号発生器10から対象Tに対して指紋信号Sが出射されるとともに(ステップ100)、この指紋信号Sに関する指紋情報Pが指紋信号発生器10から指紋情報DB14に登録される(ステップ101)。   First, at the start of observation, a fingerprint signal S is emitted from the fingerprint signal generator 10 to the target T (step 100), and fingerprint information P related to the fingerprint signal S is registered from the fingerprint signal generator 10 in the fingerprint information DB14. (Step 101).

観測機器11は、カメラ、マイク、振動センサなどの検出部11Aにより、映像、音声、センサー出力等からなる検出データDdを対象Tから検出して、主ストリームデータ配信装置12へ出力する(ステップ102)。これにより、指紋信号Sが重畳された検出データDdが主ストリームデータ配信装置12へ出力されることになる。   The observation device 11 detects detection data Dd including video, audio, sensor output, and the like from the target T by the detection unit 11A such as a camera, a microphone, and a vibration sensor, and outputs the detection data Dd to the main stream data distribution device 12 (step 102). ). As a result, the detection data Dd on which the fingerprint signal S is superimposed is output to the main stream data distribution device 12.

続いて、主ストリームデータ配信装置12は、観測機器11から出力された検出データDdを受け取って、予め設定されているデータ構成に基づいて主ストリームデータDmを生成し、通信ネットワークNWへ配信する(ステップ103)。これにより、指紋信号Sが重畳された検出データDdが主ストリームデータDmとして配信されることになる。   Subsequently, the main stream data distribution device 12 receives the detection data Dd output from the observation device 11, generates the main stream data Dm based on a preset data configuration, and distributes it to the communication network NW ( Step 103). Thereby, the detection data Dd on which the fingerprint signal S is superimposed is distributed as the main stream data Dm.

この後、副ストリームデータ配信装置13は、通信ネットワークNWを介して主ストリームデータ配信装置12から受信した主ストリームデータDmの検出データDdから、特徴量データDcを時系列で算出し(ステップ104)、これら時系列の特徴量データDcから予め設定されているデータ構成に基づいて副ストリームデータDsを生成して通信ネットワークNWへ配信する(ステップ105)。これにより、検出データDdに重畳された指紋信号Sが特徴量データDcにも重畳されて、副ストリームデータDsとして配信されることになる。   Thereafter, the sub-stream data distribution device 13 calculates the feature data Dc in time series from the detection data Dd of the main stream data Dm received from the main stream data distribution device 12 via the communication network NW (step 104). Then, the substream data Ds is generated from the time-series feature data Dc based on a preset data structure and distributed to the communication network NW (step 105). As a result, the fingerprint signal S superimposed on the detection data Dd is also superimposed on the feature amount data Dc and distributed as substream data Ds.

次に、ストリームデータ統合装置15は、データ取得部15Aにより、入力された統合指示に基づいて、主ストリームデータ配信装置12および副ストリームデータ配信装置13から、通信ネットワークNWを介して主ストリームデータDmおよび副ストリームデータDsを受信するとともに(ステップ106)、これら主ストリームデータDmおよび副ストリームデータDsと対応する指紋情報Pを指紋情報DB14から取得し(ステップ107)、指紋信号抽出部15Bにより、これら主ストリームデータDm内の検出データDdおよび副ストリームデータDs内の特徴量データDcに重畳されている指紋信号S(シーケンスパターン)を抽出する(ステップ108)。   Next, the stream data integration device 15 receives the main stream data Dm from the main stream data distribution device 12 and the sub stream data distribution device 13 via the communication network NW based on the integration instruction input by the data acquisition unit 15A. And the substream data Ds are received (step 106), and the fingerprint information P corresponding to the main stream data Dm and the substream data Ds is acquired from the fingerprint information DB 14 (step 107). A fingerprint signal S (sequence pattern) superimposed on the detection data Dd in the main stream data Dm and the feature data Dc in the sub stream data Ds is extracted (step 108).

この後、ストリームデータ統合装置15は、データ処理部15Cにより、指紋情報Pに含まれる出射日時に基づき、主ストリームデータDm内の検出データDdと副ストリームデータDs内の特徴量データDcとを時刻同期させるとともに、指紋信号Sの送信間隔に基づいて、検出データDdと特徴量データDcとの時間軸尺度を調整する(ステップ109)。また、データ処理部15Cにより、指紋情報Pに含まれる出射場所および出射機器に基づいて、検出データDdと特徴量データDcに関する観測条件を特定し、一連のストリームデータ統合動作を終了する。   Thereafter, the stream data integration device 15 causes the data processing unit 15C to send the detection data Dd in the main stream data Dm and the feature data Dc in the sub stream data Ds to the time based on the emission date and time included in the fingerprint information P. At the same time, the time scale of the detection data Dd and the feature data Dc is adjusted based on the transmission interval of the fingerprint signal S (step 109). Further, the data processing unit 15C specifies the observation conditions regarding the detection data Dd and the feature amount data Dc based on the emission location and the emission device included in the fingerprint information P, and the series of stream data integration operation is finished.

これにより、主ストリームデータDmに含まれている検出データDdと、これら検出データDdから生成した副ストリームデータDsに含まれている特徴量データDcとが、同一時刻タイミングごとに対応して出力され、観測機器11、主ストリームデータ配信装置12、および副ストリームデータ配信装置13に搭載されているクロック生成素子の個体差に由来する揺らぎがある場合においても、時間的ずれが補正されることになる。   As a result, the detection data Dd included in the main stream data Dm and the feature data Dc included in the substream data Ds generated from the detection data Dd are output corresponding to the same time timing. Even when there are fluctuations due to individual differences in the clock generation elements mounted on the observation device 11, the main stream data distribution device 12, and the sub stream data distribution device 13, the time lag is corrected. .

[本実施の形態の効果]
このように、本実施の形態は、指紋信号発生器10が、対象Tを観測する際の観測条件を示すシーケンスパターンおよび送信間隔で、検出データDdに重畳されるうる指紋信号Sを対象Tに対して出射するとともに、指紋信号Sの内容を示す指紋情報Pを指紋情報DB14に登録し、ストリームデータ統合15が、主ストリームデータ配信装置12および副ストリームデータ配信装置13から主ストリームデータDmおよび副ストリームデータDsを受信し、指紋情報DB14から取得した主ストリームデータDmおよび副ストリームデータDsと対応する指紋情報Pと、主ストリームデータDm内の検出データDdおよび副ストリームデータDs内の特徴量データDcから抽出した指紋信号Sとに基づいて、検出データDdおよび特徴量データDcを相互に同期させて統合するようにしたものである。
[Effects of the present embodiment]
As described above, according to the present embodiment, the fingerprint signal generator 10 applies the fingerprint signal S that can be superimposed on the detection data Dd to the target T with the sequence pattern and the transmission interval indicating the observation conditions when observing the target T. In addition, the fingerprint information P indicating the content of the fingerprint signal S is registered in the fingerprint information DB 14, and the stream data integration 15 receives the main stream data Dm and the substream data from the main stream data distribution device 12 and the substream data distribution device 13. Fingerprint information P received from the stream data Ds and corresponding to the main stream data Dm and the substream data Ds acquired from the fingerprint information DB 14, and the detection data Dd in the main stream data Dm and the feature data Dc in the substream data Ds Based on the fingerprint signal S extracted from the detection data Dd and the feature amount data It is obtained so as to integrate each other to synchronize the data Dc.

これにより、主ストリームデータDmに含まれている検出データDdと、これら検出データDdから生成した副ストリームデータDsに含まれている特徴量データDcとが、同一時刻ごとに対応して出力される。したがって、同一対象Tを観測して得られた検出データDdと、この検出データDdから計算した特徴量データDcとを相互に同期させて統合して分析することができる。   As a result, the detection data Dd included in the main stream data Dm and the feature data Dc included in the substream data Ds generated from the detection data Dd are output corresponding to each same time. . Therefore, the detection data Dd obtained by observing the same target T and the feature data Dc calculated from the detection data Dd can be integrated and analyzed in synchronization with each other.

このため、観測機器11、主ストリームデータ配信装置12、および副ストリームデータ配信装置13が通信ネットワークNW上に分散配置されている分散データ処理環境であっても、これら装置間で時刻同期やクロック幅の揺らぎに関する調整を必要とすることなく、解析対象となる検出データDdおよび特徴量データDc同士の時刻タイミングを厳密に合わせることができる。したがって、高い精度でDdおよび特徴量データDcを統合分析することが可能となる。   For this reason, even in a distributed data processing environment in which the observation device 11, the main stream data distribution device 12, and the sub stream data distribution device 13 are distributed on the communication network NW, time synchronization and clock width between these devices Therefore, the time timing of the detection data Dd and the feature data Dc to be analyzed can be precisely matched without requiring adjustment regarding fluctuation of the image data. Therefore, it is possible to perform integrated analysis of Dd and feature amount data Dc with high accuracy.

[実施の形態の拡張]
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をすることができる。また、各実施形態については、矛盾しない範囲で任意に組み合わせて実施することができる。
[Extended embodiment]
The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. In addition, each embodiment can be implemented in any combination within a consistent range.

なお、図1では、1つの対象Tに対して1つの指紋信号Sが出射されている場合が例として示されているが、対象Tと指紋信号Sとの対応関係は、1対1に限定されるものではなく、1対多、多対1、さらには多対多であってもよい。
また、1つの対象Tを複数の観測機器11で観測する場合が例として示されているが、対象Tと観測機器11との対応関係は1対多に限定されるものではなく、1対1、多対1、さらには多対多であってもよい。
FIG. 1 shows an example in which one fingerprint signal S is emitted for one target T, but the correspondence between the target T and the fingerprint signal S is limited to one-to-one. It may be one-to-many, many-to-one, or many-to-many.
Moreover, although the case where one target T is observed with a plurality of observation devices 11 is shown as an example, the correspondence relationship between the target T and the observation devices 11 is not limited to one-to-many, but one-to-one. , Many to one, or many to many.

1…ストリームデータ統合システム、10…指紋信号発生器、11…観測機器、11A…検出部、12…主ストリームデータ配信装置、13…副ストリームデータ配信装置、14…指紋情報DB、15…ストリームデータ統合装置、15A…データ取得部、15B…指紋信号抽出部、15C…データ処理部、NW…通信ネットワーク、T…対象、S…指紋信号、P…指紋情報、Dd…検出データ、Dm…主ストリームデータ、Dc…特徴量データ、Ds…副ストリームデータ。   DESCRIPTION OF SYMBOLS 1 ... Stream data integrated system, 10 ... Fingerprint signal generator, 11 ... Observation apparatus, 11A ... Detection part, 12 ... Main stream data delivery apparatus, 13 ... Sub stream data delivery apparatus, 14 ... Fingerprint information DB, 15 ... Stream data Integrated device, 15A ... data acquisition unit, 15B ... fingerprint signal extraction unit, 15C ... data processing unit, NW ... communication network, T ... target, S ... fingerprint signal, P ... fingerprint information, Dd ... detection data, Dm ... main stream Data, Dc ... feature data, Ds ... substream data.

Claims (3)

対象を観測して得られた検出データを時系列で出力する観測ステップと、
前記対象を観測する際の観測条件を示すシーケンスパターンおよび送信間隔で、前記検出データに重畳されうる指紋信号を前記対象に対して出射するとともに、前記指紋信号の内容を示す指紋情報を指紋情報DBに登録する指紋信号発生ステップと、
前記検出データから主ストリームデータを生成して通信ネットワークへ配信する主ストリームデータ配信ステップと、
前記通信ネットワークから受信した前記主ストリームデータに含まれている前記検出データに基づいて、前記指紋信号が重畳された特徴量データを時系列で算出し、これら特徴量データから副ストリームデータを生成して前記通信ネットワークへ配信する副ストリームデータ配信ステップと、
入力されたストリームデータ統合指示に基づいて、前記通信ネットワークから前記主ストリームデータおよび前記副ストリームデータを受信し、前記指紋情報DBから取得した前記主ストリームデータおよび前記副ストリームデータと対応する指紋情報と、前記主ストリームデータ内の検出データおよび前記副ストリームデータ内の特徴量データから抽出した前記指紋信号とに基づいて、前記検出データおよび前記特徴量データを相互に同期させて統合するストリームデータ統合ステップと
を備えることを特徴とするストリームデータ統合方法。
An observation step of outputting the detection data obtained by observing the object in time series;
A fingerprint signal that can be superimposed on the detection data is emitted to the target with a sequence pattern and a transmission interval indicating an observation condition when observing the target, and fingerprint information indicating the content of the fingerprint signal is output to the fingerprint information DB. A fingerprint signal generation step to be registered in
A main stream data distribution step of generating main stream data from the detection data and distributing the data to a communication network;
Based on the detection data included in the main stream data received from the communication network, the feature amount data on which the fingerprint signal is superimposed is calculated in time series, and substream data is generated from the feature amount data. Substream data delivery step for delivering to the communication network;
Based on the input stream data integration instruction, the main stream data and the sub stream data are received from the communication network, and the main stream data and the fingerprint information corresponding to the sub stream data acquired from the fingerprint information DB; Stream data integration step of integrating the detection data and the feature data in synchronization with each other based on the detection data in the main stream data and the fingerprint signal extracted from the feature data in the sub-stream data And a stream data integration method comprising:
請求項1に記載のストリームデータ統合方法において、
前記ストリームデータ統合ステップは、前記指紋信号のシーケンスパターンに前記観測条件として含まれる出射日時に基づいて、前記主ストリームデータ内の基準位置に位置する前記検出データと前記副ストリームデータ内の基準位置に位置する前記特徴量データとを時刻同期させ、前記指紋信号の送信間隔に基づいて、後続する前記検出データと前記特徴量データとの時間軸尺度を調整することを特徴とするストリームデータ統合方法。
The stream data integration method according to claim 1,
In the stream data integration step, the detection data located at the reference position in the main stream data and the reference position in the substream data based on the emission date and time included in the sequence pattern of the fingerprint signal as the observation condition A stream data integration method characterized in that time synchronization is performed with the feature quantity data that is located, and a time axis scale between subsequent detection data and feature quantity data is adjusted based on a transmission interval of the fingerprint signal.
対象を観測して得られた検出データを時系列で出力する観測機器と、
前記対象を観測する際の観測条件を示すシーケンスパターンおよび送信間隔で、前記検出データに重畳されうる指紋信号を前記対象に対して出射するとともに、前記指紋信号の内容を示す指紋情報を指紋情報DBに登録する指紋信号発生器と、
前記検出データから主ストリームデータを生成して通信ネットワークへ配信する主ストリームデータ配信装置と、
前記通信ネットワークから受信した前記主ストリームデータに含まれている前記検出データに基づいて、前記指紋信号が重畳された特徴量データを時系列で算出し、これら特徴量データから副ストリームデータを生成して前記通信ネットワークへ配信する副ストリームデータ配信装置と、
入力されたストリームデータ統合指示に基づいて、前記通信ネットワークから前記主ストリームデータおよび前記副ストリームデータを受信し、前記指紋情報DBから取得した前記主ストリームデータおよび前記副ストリームデータと対応する指紋情報と、前記主ストリームデータ内の検出データおよび前記副ストリームデータ内の特徴量データから抽出した前記指紋信号とに基づいて、前記検出データおよび前記特徴量データを相互に同期させて統合するストリームデータ統合装置と
を備えることを特徴とするストリームデータ統合システム。
Observation equipment that outputs the detection data obtained by observing the target in time series,
A fingerprint signal that can be superimposed on the detection data is emitted to the target with a sequence pattern and a transmission interval indicating an observation condition when observing the target, and fingerprint information indicating the content of the fingerprint signal is output to the fingerprint information DB. A fingerprint signal generator to register with
A main stream data distribution device for generating main stream data from the detection data and distributing the data to a communication network;
Based on the detection data included in the main stream data received from the communication network, the feature amount data on which the fingerprint signal is superimposed is calculated in time series, and substream data is generated from the feature amount data. A secondary stream data delivery device for delivering to the communication network;
Based on the input stream data integration instruction, the main stream data and the sub stream data are received from the communication network, and the main stream data and the fingerprint information corresponding to the sub stream data acquired from the fingerprint information DB; A stream data integration device that integrates the detection data and the feature data in synchronization with each other based on the detection data in the main stream data and the fingerprint signal extracted from the feature data in the sub-stream data And a stream data integration system comprising:
JP2015235516A 2015-12-02 2015-12-02 Stream data integration method and system Pending JP2017103621A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015235516A JP2017103621A (en) 2015-12-02 2015-12-02 Stream data integration method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235516A JP2017103621A (en) 2015-12-02 2015-12-02 Stream data integration method and system

Publications (1)

Publication Number Publication Date
JP2017103621A true JP2017103621A (en) 2017-06-08

Family

ID=59017160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235516A Pending JP2017103621A (en) 2015-12-02 2015-12-02 Stream data integration method and system

Country Status (1)

Country Link
JP (1) JP2017103621A (en)

Similar Documents

Publication Publication Date Title
US11218771B2 (en) Calibration system for audience response capture and analysis of media content
US9582738B2 (en) Automatically generating notes and classifying multimedia content specific to a video production
US10084972B2 (en) Monitoring methods and devices
US10430667B2 (en) Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras
KR100828371B1 (en) Method and apparatus for generating metadata of content
US10635936B2 (en) Method and system for training a neural network to classify objects or events
US20160004914A1 (en) Intelligent video analysis system and method
US20130329059A1 (en) Person detection system
CN104284233A (en) Data search, parser and synchronization of video and telemetry data
US9959651B2 (en) Methods, devices and computer programs for processing images in a system comprising a plurality of cameras
US20160180884A1 (en) Method and system for synchronization of multiple content streams
CN102467661A (en) Multimedia device and method for controlling the same
CN111722186A (en) Sound source positioning-based shooting method and device, electronic equipment and storage medium
US10049462B2 (en) System and method for tracking and annotating multiple objects in a 3D model
US9542976B2 (en) Synchronizing videos with frame-based metadata using video content
US12169620B2 (en) Video display method, device and system, and video camera
KR20210014988A (en) Image analysis system and method for remote monitoring
US20180165622A1 (en) Action analysis device, acton analysis method, and analysis program
EP3726430A3 (en) Learned model generating method, learned model generating device, product identifying method, product identifying device, product identifying system, and measuring device
KR101721085B1 (en) Device and method for time syncronization between photographing apparatus and sensor
KR101891439B1 (en) Method and Apparatus for Video-based Detection of Coughing Pig using Dynamic Time Warping
CN110933254B (en) Sound filtering system based on image analysis and sound filtering method thereof
MX2021002807A (en) Systems and methods for drowsiness detection.
KR20120043995A (en) System and method for extracting region of interest using plural cameras
JP2017103621A (en) Stream data integration method and system