JPH07228250A - Intrack monitoring device and platform monitoring device - Google Patents
Intrack monitoring device and platform monitoring deviceInfo
- Publication number
- JPH07228250A JPH07228250A JP2248594A JP2248594A JPH07228250A JP H07228250 A JPH07228250 A JP H07228250A JP 2248594 A JP2248594 A JP 2248594A JP 2248594 A JP2248594 A JP 2248594A JP H07228250 A JPH07228250 A JP H07228250A
- Authority
- JP
- Japan
- Prior art keywords
- detected object
- detected
- platform
- image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012806 monitoring device Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims description 26
- 238000013459 approach Methods 0.000 claims description 7
- 239000000126 substance Substances 0.000 claims description 6
- 238000002372 labelling Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Landscapes
- Geophysics And Detection Of Objects (AREA)
- Platform Screen Doors And Railroad Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、鉄道における軌道内又
はプラットホームを監視して、軌道内に存在する障害物
を早期に発見するとともに、プラットホームからの人及
び物の落下予測を行う軌道内監視装置及びプラットホー
ム監視装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention monitors an in-track or platform of a railroad to detect obstacles existing in the track at an early stage, and at the same time, monitors in-orbit to predict the fall of people and objects from the platform. Device and platform monitoring device.
【0002】[0002]
【従来の技術】軌道内に落下した障害物を検知する方法
として、圧電センサを用いたものが知られている。この
技術はプラットホームより軌道内に転落した障害物や、
進入した障害物が軌道近傍に設置された圧電センサの上
に乗って荷重がかかることで、障害物が軌道内に存在す
ると判断するものである。2. Description of the Related Art A method using a piezoelectric sensor is known as a method for detecting an obstacle that has fallen into a track. This technology uses obstacles that fall from the platform into the orbit,
The obstacle that has entered is placed on the piezoelectric sensor installed near the track and a load is applied, and it is determined that the obstacle exists in the track.
【0003】又特開昭63−235163号公報に開示
される技術は、軌道内をカメラを用いて監視し、カメラ
で撮影された画像から画像処理技術を用いて軌道内の障
害物を検知する方法である。In the technique disclosed in Japanese Patent Laid-Open No. 63-235163, a trajectory is monitored by using a camera, and an obstacle in the trajectory is detected from an image captured by the camera by using an image processing technique. Is the way.
【0004】上述した軌道内の障害物検知方法は、駅員
や列車乗務員に、障害物を検知した時に警報ブザーの鳴
動などにより連絡し、進入してくる列車に対する事故発
生を未然に防ぐことができるものである。The above-mentioned method for detecting obstacles in a track can notify a station staff or a train crew by sounding an alarm buzzer or the like when an obstacle is detected, thereby preventing an accident from occurring in a train in advance. It is a thing.
【0005】[0005]
【発明が解決しようとする課題】上述した圧電センサを
用いた障害物検知方法、画像処理を用いた障害物検知方
法では、障害物を検知した時に駅員や列車乗務員に対し
て知らせることはできたが、軌道内に存在する障害物の
内容判断がされないため、例えば小動物が軌道内を横断
した時と、プラットホーム上から人間が落下してしまっ
た時とにおいて、同様の検知しか行うことができなかっ
た。In the obstacle detection method using the piezoelectric sensor and the obstacle detection method using image processing described above, it was possible to notify the station staff or train crew when an obstacle was detected. However, since the contents of obstacles existing in the orbit cannot be determined, only similar detection can be performed, for example, when a small animal crosses the orbit and when a human falls from the platform. It was
【0006】近年の電気車の利用客の増大により、電気
車を待つプラットホーム上の乗客も多くなり、誤ってプ
ラットホームから軌道内に落下してしまう可能性は高く
なってきている。このようなプラットホームから軌道内
への落下を予測して防止する技術の要望が出てきている
が、上述した圧電センサを用いた障害物検知方法、画像
処理を用いた障害物検知方法では軌道内へ落下してしま
った障害物を検知するのみである。With the recent increase in the number of passengers of electric vehicles, the number of passengers on the platform waiting for the electric vehicles also increases, and the possibility of accidentally falling from the platform into the track is increasing. There has been a demand for a technology for predicting and preventing the fall into the orbit from such a platform, but in the obstacle detection method using the piezoelectric sensor and the obstacle detection method using image processing described above, It only detects obstacles that have fallen into.
【0007】そこで、本発明は軌道内の障害物の内容判
断を行い、更にプラットホームからの障害物落下を予測
して防止する軌道内監視装置及びプラットホーム監視装
置を提供することを目的とする。Therefore, an object of the present invention is to provide an in-orbit monitoring device and a platform monitoring device for judging the contents of obstacles in the orbit and predicting and preventing the obstacles falling from the platform.
【0008】[0008]
【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明では、軌道内を撮影したカメラか
らの画像を入力して、あらかじめ定めた初期画像との差
分画像を求め、この差分画像から検出物を抽出し、差分
画像上の検出物の位置から、カメラと検出物が実際に存
在する地点までの距離を推定し、この距離と差分画像上
の検出物の画素数から、検出物の実際の大きさを推定す
る演算手段と、この演算手段で推定された検出物の実際
の大きさと、あらかじめ定めた第1のしきい値とを比較
して、検出物の種別を特定する検出物特定手段と、演算
手段により検出物が抽出された場合、警報の出力を行う
警報出力手段と、検出物特定手段により検出物の種別が
特定された場合、検出物の種別を表示する表示手段とを
備えてなる。In order to achieve the above-mentioned object, the invention according to claim 1 inputs an image from a camera which has photographed the inside of the orbit, and obtains a difference image with a predetermined initial image, The detected object is extracted from this difference image, the distance from the position of the detected object on the difference image to the point where the camera and the detected object actually exist is estimated, and this distance and the number of pixels of the detected object on the difference image are estimated. , Comparing the actual size of the detected object, the actual size of the detected object estimated by this calculating means, and a predetermined first threshold value to determine the type of the detected object. When the detection object specifying means for specifying and the detection object is extracted by the computing means, an alarm output means for outputting an alarm, and when the type of the detection object is specified by the detection object specifying means, the type of the detection object is displayed. And a display means for displaying.
【0009】又請求項2記載の発明のように、演算手段
により抽出された検出物の画素数があらかじめ定めた第
2のしきい値以上となった時に電車の接近時と判断する
電車接近判断手段と、この電車接近判断手段が電車の接
近時と判断した場合、演算手段へのカメラが撮影した画
像の入力を停止する画像入力停止手段とを備えてもよ
い。According to the second aspect of the present invention, when the number of pixels of the detection object extracted by the calculation means becomes equal to or larger than a second threshold value set in advance, it is determined that the train is approaching. Means and image input stop means for stopping the input of the image captured by the camera to the calculation means when the train approach determination means determines that the train is approaching.
【0010】請求項3記載の発明では、プラットホーム
上を撮影するカメラと、このカメラが撮影した画像を入
力して、あらかじめ定めた初期画像との差分画像を求
め、この差分画像から検出物を抽出する演算手段と、こ
の演算手段により抽出された検出物がプラットホームの
端に存在するかを判断する判断手段と、この判断手段に
より検出物がプラットホームの端に存在すると判断され
た場合、プラットホーム下への落下を予測して警報の出
力を指示する第1の予測手段と、この第1の予測手段の
予測結果を入力して表示する表示手段とを備えてなる。According to the third aspect of the present invention, the camera for photographing the platform and the image photographed by the camera are input to obtain a difference image between a predetermined initial image and the detected object is extracted from the difference image. And a judgment means for judging whether or not the detection object extracted by this calculation means exists at the edge of the platform, and if this judgment means judges that the detection object exists at the edge of the platform, it goes under the platform. And a display means for inputting and displaying the prediction result of the first prediction means.
【0011】又請求項4記載の発明のように、演算手段
に設けられ、差分画像上の検出物の位置から、カメラと
検出物が実際に存在する地点までの距離を推定し、この
距離と差分画像上の検出物の画素数から、検出物の種別
を特定する検出物特定手段と、この検出物特定手段によ
り特定された同一の種別毎の検出物の数を測定する測定
手段と、この測定手段により測定された検出物の数が、
あらかじめ設定された所定の数を越えた場合、プラット
ホーム下への落下を予測して警報出力手段に警報の出力
を指示し、表示手段に予測結果を入力する第2の予測手
段とを備えてもよい。According to a fourth aspect of the invention, the distance between the camera and the point where the detected object actually exists is estimated from the position of the detected object on the difference image provided in the calculation means, and this distance Detected object specifying means for specifying the type of the detected object from the number of pixels of the detected object on the difference image, measuring means for measuring the number of detected objects of the same type specified by the detected object specifying means, and this measuring means The number of detected objects measured by
A second predicting means for predicting a fall under the platform when the preset number is exceeded and instructing the alarm output means to output an alarm and for inputting the prediction result to the display means may be provided. Good.
【0012】[0012]
【作用】上述した構成により請求項1記載の発明では、
カメラにより軌道内を撮影し、演算手段では初期画像と
カメラでの撮影画像との差分画像から検出物を抽出す
る。そして差分画像上の検出物の位置から、カメラと検
出物が実際に存在する地点までの距離を推定し、この距
離と検出物の画素数から検出物の実際の大きさを推定す
る。検出物特定手段では、検出物の実際の大きさとあら
かじめ定めた第1のしきい値とを比較する。With the above-mentioned structure, in the invention according to claim 1,
The orbit is photographed by the camera, and the calculation means extracts the detected object from the difference image between the initial image and the image photographed by the camera. Then, the distance from the position of the detected object on the difference image to the point where the camera and the detected object actually exist is estimated, and the actual size of the detected object is estimated from this distance and the number of pixels of the detected object. The detected object specifying means compares the actual size of the detected object with a predetermined first threshold value.
【0013】第1のしきい値とは、例えば人間などの幅
と高さである。従って、検出物の実際の大きさと第1の
しきい値とを比較することで、検出物の種別を特定でき
る。演算手段で検出物が抽出されたということは、軌道
内に電車の走行の障害となるものが存在するということ
なので、警報出力手段から警報が出力される。駅員はこ
の警報により軌道内に障害物があると判断できる。又、
表示手段には検出物特定手段で特定された検出物の種別
が表示されるため、駅員はこの表示により軌道内に存在
する障害物を知り、安全対策をとることができる。The first threshold is, for example, the width and height of a human being or the like. Therefore, the type of the detected object can be specified by comparing the actual size of the detected object with the first threshold value. The fact that the detection object has been extracted by the computing means means that there is an obstacle in the running of the train in the track, so an alarm is output from the alarm output means. Station staff can judge that there is an obstacle in the track by this warning. or,
Since the type of the detected object specified by the detected object specifying means is displayed on the display means, the station staff can know the obstacle existing in the track by this display and can take safety measures.
【0014】又請求項2記載の発明では、電車接近判断
手段が検出物の画素数と、あらかじめ定めた第2のしき
い値とを比較して、第2のしきい値以上となった時に電
車の接近時と判断する。電車が接近すると軌道内が電車
で覆われるため、カメラから演算手段への画像入力を画
像入力停止手段により停止する。Further, in the invention according to claim 2, the train approach determination means compares the number of pixels of the detected object with a predetermined second threshold value, and when it becomes equal to or larger than the second threshold value. It is judged that the train is approaching. When the train approaches, the inside of the track is covered with the train, so the image input from the camera to the calculation means is stopped by the image input stopping means.
【0015】請求項3記載の発明では、カメラによりプ
ラットホーム上を撮影し、演算手段では初期画像とカメ
ラでの撮影画像との差分画像から検出物を抽出する。検
出物の位置がプラットホームの端であるかどうかを判断
手段で判断し、プラットホームの端に検出物が存在する
と判断した場合は、第1の予測手段はプラットホームか
ら軌道内へ検出物が落下するおそれがあると予測する。
そして警報出力手段から警報が出力され、予測結果が表
示手段に表示されることで駅員は安全対策をとることが
できる。According to the third aspect of the present invention, the camera photographs the platform, and the computing means extracts the detected object from the difference image between the initial image and the image photographed by the camera. If it is judged by the judging means whether or not the position of the detected object is at the end of the platform, and if it is judged that the detected object exists at the end of the platform, the first predicting means may cause the detected object to fall into the orbit from the platform. Predict that there is.
An alarm is output from the alarm output means, and the prediction result is displayed on the display means, so that the station staff can take safety measures.
【0016】又請求項4記載の発明では、検出物特定手
段が検出物の実際の大きさを推定して検出物の種別を特
定する。例えば人間と特定された検出物の数が、測定手
段により測定される。そして検出物の数が所定の数を越
えた時には、第2の予測手段によりプラットホームから
軌道内へ検出物が落下するおそれがあると予測される。
そして警報出力手段から警報が出力され、予測結果が表
示手段に表示されることで、駅員は安全対策をとること
ができる。In the invention according to claim 4, the detected object specifying means estimates the actual size of the detected object and specifies the type of the detected object. For example, the number of detection objects identified as a human is measured by the measuring means. Then, when the number of detected objects exceeds a predetermined number, it is predicted by the second predicting means that the detected objects may fall into the track from the platform.
Then, an alarm is output from the alarm output means and the prediction result is displayed on the display means, so that the station staff can take safety measures.
【0017】[0017]
【実施例】本発明の一実施例を図面を参照して詳細に説
明する。図1乃至図5は本発明の一実施例を示す図で、
図1は軌道内監視装置及びプラットホーム監視装置の全
体構成図、図2は軌道内監視装置及びプラットホーム監
視装置の処理の流れを示すフローチャート、図3はラベ
リング処理の説明図、図4は検出物の実際の大きさの推
定方法を説明するための図、図5は画像処理装置の処理
の流れを示す図である。An embodiment of the present invention will be described in detail with reference to the drawings. 1 to 5 are views showing an embodiment of the present invention.
1 is an overall configuration diagram of an in-orbit monitoring device and a platform monitoring device, FIG. 2 is a flowchart showing a processing flow of the in-orbit monitoring device and the platform monitoring device, FIG. 3 is an explanatory diagram of labeling processing, and FIG. FIG. 5 is a diagram for explaining an actual size estimation method, and FIG. 5 is a diagram showing a processing flow of the image processing apparatus.
【0018】図1において、1はプラットホーム(以下
ホームで示す)、2は軌道で、3はホーム1及び軌道2
を撮影する複数台のカメラである。カメラ切換装置4は
複数台のカメラ3から1台のカメラを選択し、選択され
たカメラ3は撮りこんだ画像データ(以下アナログ画像
データと言う)Ia を画像処理装置5に出力する。画像
処理装置5には、画像処理結果を表示するモニタ装置
(以下モニタと言う)6、警報ブザー7が接続されてい
る。画像処理装置5は制御手段51、アナログ−ディジ
タル変換手段(以下A/D変換手段と言う)52、記憶
手段53、演算手段54、表示制御手段55から構成さ
れている。In FIG. 1, 1 is a platform (hereinafter referred to as a platform), 2 is a track, and 3 is a platform 1 and a track 2.
Multiple cameras to shoot. The camera switching device 4 selects one camera from the plurality of cameras 3, and the selected camera 3 outputs captured image data (hereinafter referred to as analog image data) I a to the image processing device 5. A monitor device (hereinafter referred to as a monitor) 6 for displaying the image processing result and an alarm buzzer 7 are connected to the image processing device 5. The image processing device 5 includes a control unit 51, an analog-digital conversion unit (hereinafter referred to as A / D conversion unit) 52, a storage unit 53, a calculation unit 54, and a display control unit 55.
【0019】制御手段51は後述する画像処理演算過程
での各指令を出力し、画像処理装置5を統括制御するも
のである。A/D変換手段52は、カメラ3から出力さ
れたアナログ画像データIa を入力し、ディジタル画像
データId (例えば白黒16階調で、黒を「0」、白を
「1」で表わした画素値)に変換するものである。The control means 51 outputs various commands in the image processing calculation process, which will be described later, and controls the image processing apparatus 5 as a whole. The analog image data I a output from the camera 3 is input to the A / D conversion means 52, and digital image data I d (for example, black and white 16 gradations, black is represented by “0”, white is represented by “1”). Pixel value).
【0020】記憶手段53は、制御手段51の指令に基
づいて各種画像データを記憶再生するもので、ホーム1
及び軌道2の初期画像データIi 、後述するマスク画像
データMをあらかじめ記憶している。又記憶手段53は
A/D変換手段52で変換されたディジタル画像データ
Id 、画像処理演算過程の処理データCも記憶する。The storage means 53 stores and reproduces various image data based on a command from the control means 51.
And initial image data I i of the trajectory 2 and mask image data M described later are stored in advance. The storage means 53 also stores the digital image data I d converted by the A / D conversion means 52 and the processing data C in the image processing calculation process.
【0021】演算手段54は制御手段51の指令に基づ
いて記憶手段53が再生した各種画像データを画像処理
演算するものである。そして演算手段54での画像処理
演算の結果を制御手段51で判定する。表示制御手段5
5は制御手段51での判定結果に基づいてモニタ装置6
へ表示する表示データを制御するものである。The calculation means 54 is for performing image processing calculation on various image data reproduced by the storage means 53 based on a command from the control means 51. Then, the control means 51 determines the result of the image processing calculation in the calculation means 54. Display control means 5
5 is a monitor device 6 based on the determination result of the control means 51.
It controls the display data to be displayed.
【0022】この様に構成された軌道内監視装置及びプ
ラットホーム監視装置の処理の流れを図2のフローチャ
ートを用いて詳述する。カメラ切換装置4により選択さ
れたカメラ3はホーム1、軌道2を撮影し、画像処理装
置5はカメラ3が撮りこんだアナログ画像データIa を
入力する(S1)。アナログ画像データIa はA/D変
換手段52でディジタル画像データId に変換される
(S2)。このディジタル画像データId は制御手段5
1からの書き込み指令により記憶手段53に記憶され
る。The flow of processing of the in-orbit monitoring device and the platform monitoring device thus configured will be described in detail with reference to the flowchart of FIG. The camera 3 selected by the camera switching device 4 photographs the home 1 and the trajectory 2, and the image processing device 5 inputs the analog image data I a captured by the camera 3 (S1). The analog image data I a is converted into digital image data I d by the A / D conversion means 52 (S2). This digital image data I d is control means 5
It is stored in the storage means 53 according to the write command from 1.
【0023】次に制御手段51からの読み込み指令によ
り、記憶手段53はあらかじめ記憶している初期画像デ
ータIi とディジタル画像データId を再生して演算手
段54に出力する。演算手段54は初期画像データIi
とディジタル画像データIdとを差分処理し差分画像デ
ータC1を得る(S3)。差分画像データC1は制御手
段51からの書き込み指令により記憶手段53に記憶さ
れる。Then, in response to a read command from the control means 51, the storage means 53 reproduces the prestored initial image data I i and digital image data I d and outputs them to the computing means 54. The calculation means 54 uses the initial image data I i.
And the digital image data I d are subjected to difference processing to obtain difference image data C1 (S3). The differential image data C1 is stored in the storage unit 53 according to a write command from the control unit 51.
【0024】次に制御手段51からの読み込み指令によ
り、記憶手段53はあらかじめ記憶している軌道内のマ
スク画像データM1(軌道2内を「1」、軌道2外部を
「0」とした画像データ)と差分画像データC1を再生
して演算手段54に出力する。演算手段54では、差分
画像データC1に軌道内のマスク画像データM1を掛け
る演算を行い、そして軌道2内部の各画素値の合計値を
算出する。制御手段51では所定値と画素値の合計値と
を比較して、画素値の合計値が所定値以上となったとき
に電車がホーム1近傍に接近したと判断する(S4)。Next, in response to a read command from the control means 51, the storage means 53 stores mask image data M1 in the orbit that has been stored in advance (image data with "1" inside the orbit 2 and "0" outside the orbit 2). ) And the differential image data C1 are reproduced and output to the calculation means 54. The calculation means 54 performs a calculation for multiplying the difference image data C1 by the mask image data M1 in the track, and calculates the total value of each pixel value in the track 2. The control means 51 compares the predetermined value with the total value of the pixel values and determines that the train has approached the vicinity of the platform 1 when the total value of the pixel values becomes equal to or larger than the predetermined value (S4).
【0025】制御手段51で電車が接近していると判断
した時は、制御手段51は画像処理装置5へのカメラ3
からの出力停止指令を出力し、カメラ3は画像処理装置
5へのアナログ画像データIa の出力を停止する(S
5)。When the control means 51 determines that the train is approaching, the control means 51 directs the camera 3 to the image processing apparatus 5.
To output the analog image data I a to the image processing device 5 (S).
5).
【0026】制御手段51で電車が接近していないと判
断した時は、制御手段51から読み込み指令を出力し、
記憶手段53は記憶している差分画像データC1を再生
して演算手段54に出力する。演算手段54では2値化
処理を行い、所定のしきい値と比較してしきい値以上な
ら「1」(白)、しきい値未満なら「0」(黒)とした
2値画像データC2を得る(S6)。2値画像データC
2は制御手段51からの書き込み指令により記憶手段5
3に記憶される。When the control means 51 determines that the train is not approaching, the control means 51 outputs a read command,
The storage unit 53 reproduces the stored difference image data C1 and outputs it to the calculation unit 54. The arithmetic means 54 performs a binarization process, compares it with a predetermined threshold value, and if it is equal to or larger than the threshold value, it is "1" (white), and if it is less than the threshold value, it is "0" (black). Is obtained (S6). Binary image data C
2 is a storage means 5 in response to a write command from the control means 51.
3 is stored.
【0027】次に制御手段51からの読み込み指令によ
り、記憶手段53は記憶した2値画像データC2を再生
して演算手段54に出力する。演算手段54は「1」
(白)が連続して並ぶかたまりを検出し、検出したかた
まり(以下検出物と言う)毎に順に番号を付けるラベリ
ング処理を行い検出物毎の分離を行う(S7)。例えば
2値画像データC2を左上から走査していき、「1」
(白)を最初に検出したら「I 」と番号を付し、次に横
に連続して「1」を検出したら同じく「I 」と番号を付
ける。「I 」と番号を付けてから次に「1」(横に非連
続)を検出したら「II」と番号を付ける。これを繰り返
し1列走査が終了したら2列目の左端に戻り同様の処理
を行う。具体的には図3(a)のような2値画像データ
C2の1列目を走査してラベリング処理を行った結果は
図3(b)の様になる。左から右へ走査していくと、は
じめに「C1」で「1」を検出するので、「C1」に
「I 」を付ける。次に「G1」で「1」を検出するが、
「C1」と連続していないので「G1」に「II」を付け
る。2列目以降は縦横に連続して存在する「1」を検出
する。この場合問題となるのは斜めに連続して存在する
「1」の取扱いだが、斜めのみに連続して存在する
「1」ははじめは新番号「III 」をつけ次に走査される
画素値によって番号を変更する。具体的には図3(c)
において「B2」で「1」と検出するが、「B2」の
「1」と「C1」の「I 」とは斜めのみの連続なので、
「B2」に「III 」を付ける。次に「C2」で「1」を
検出するが、「C2」の「1」と「C1」の「I 」とが
縦に連続するので、「C2」に「I 」を付ける。「C
2」の「I 」と「B2」の「III 」は横に連続するので
「B2」に「I」を付け直す。この処理を繰り返す。そ
して最終的には図3(a)の2値画像データC2は図3
(d)のようにラベリング処理が行われ、検出物毎の分
離が行われる。Next, in response to a read command from the control means 51, the storage means 53 reproduces the stored binary image data C2 and outputs it to the calculation means 54. The calculation means 54 is “1”
A cluster in which (white) is continuously arranged is detected, and a labeling process is performed in which each detected cluster (hereinafter referred to as a detected object) is sequentially numbered to perform separation for each detected object (S7). For example, scanning the binary image data C2 from the upper left,
When (white) is detected first, it is numbered as "I", and when "1" is detected continuously in the horizontal direction, it is also numbered as "I". Number "I" and then number "II" when "1" (discontinuous on the side) is detected. When this is repeated and the scanning of one column is completed, the process returns to the left end of the second column and the same processing is performed. Specifically, the result of performing the labeling process by scanning the first column of the binary image data C2 as shown in FIG. 3A is as shown in FIG. 3B. When scanning from left to right, "1" is first detected in "C1", so "I" is added to "C1". Next, "G1" detects "1",
Since it is not continuous with "C1", add "II" to "G1". In the second and subsequent columns, "1" that continuously exists vertically and horizontally is detected. In this case, the problem is how to handle the diagonally continuous "1", but the diagonally continuous "1" is initially assigned a new number "III" depending on the pixel value to be scanned next. Change the number. Specifically, FIG. 3 (c)
In "B2", it is detected as "1", but since "1" of "B2" and "I" of "C1" are only diagonal continuation,
Add "III" to "B2". Then, "1" is detected by "C2". Since "1" of "C2" and "I" of "C1" are vertically continuous, "I" is added to "C2". "C
"I" of "2" and "III" of "B2" are continuous horizontally, so "I" is reattached to "B2". This process is repeated. Finally, the binary image data C2 in FIG.
The labeling process is performed as in (d), and the detection objects are separated.
【0028】このラベリング処理によって番号を付した
領域があった場合は、制御手段51は検出物有と判断す
る(S8)。制御手段51が検出物無と判断した時は、
演算手段54は演算を終了する。制御手段51が検出物
有と判断した時は、検出物の特定を行う(S9)。If there is a numbered area in this labeling process, the control means 51 determines that there is a detected object (S8). When the control means 51 determines that there is no detected object,
The calculation means 54 ends the calculation. When the control means 51 determines that there is a detected object, the detected object is specified (S9).
【0029】以下検出物の特定について説明する。ラベ
リングデータC3上の検出物の位置から、カメラ3から
実際の検出物までの距離を推定し、更にカメラ3から検
出物までの距離とラベリングデータC3上の検出物の画
素数から、検出物の実際の高さと幅を推定する。そして
この検出物の実際の高さと幅をあらかじめ定めたしきい
値と比較して検出物の特定を行う。図4に示すように、
検出物Iの最下画素の位置をyとすると、カメラ3から
検出物までの距離dは、 d=1/(k1 ×y×k2 ) (1) と推定できる。但し、k1 ,k2 はカメラ3の取り付け
高さ、角度による定数である。Identification of the detected object will be described below. The distance from the camera 3 to the actual detected object is estimated from the position of the detected object on the labeling data C3, and the distance from the camera 3 to the detected object and the number of pixels of the detected object on the labeling data C3 are used to detect the detected object. Estimate the actual height and width. Then, the detected object is specified by comparing the actual height and width of the detected object with a predetermined threshold value. As shown in FIG.
If the position of the lowest pixel of the detected object I is y, the distance d from the camera 3 to the detected object can be estimated as d = 1 / (k 1 × y × k 2 ) (1). However, k 1 and k 2 are constants depending on the mounting height and angle of the camera 3.
【0030】式(1)より求めた距離dから、 lev=1/[k3 /(d+k4 )] (2) により、ラベリングデータC3上の1画素の実際の大き
さの比率levを推定する。但しk3 ,k4 はカメラ3
固有の定数である。更に式(2)より求めた比率lev
からH=lev×h W=lev×W (3) により、検出物の実際の高さH、幅Wを推定する。但
し、hはラベリングデータC3上の検出物の高さ、wは
ラベリングデータC3上の検出物の幅である。この式
(3)により求めた検出物の実際の高さH、幅Wをあら
かじめ定めたしきい値と比較することで、制御手段51
は検出物を特定できる。但し、しきい値は人間、荷物、
その他の物などにより異なるものである。From the distance d obtained from the equation (1), lev = 1 / [k 3 / (d + k 4 )] (2) is used to estimate the ratio lev of the actual size of one pixel on the labeling data C3. . However, k 3 and k 4 are camera 3
It is a unique constant. Further, the ratio lev obtained from the equation (2)
From H = lev × h W = lev × W (3), the actual height H and width W of the detected object are estimated. However, h is the height of the detected object on the labeling data C3, and w is the width of the detected object on the labeling data C3. By comparing the actual height H and width W of the detected object obtained by the equation (3) with predetermined threshold values, the control means 51 is obtained.
Can specify the detected object. However, the threshold is human, luggage,
It depends on other things.
【0031】以下しきい値を人間の場合に設定して、検
出物のうち人間を特定した時について説明していく。ラ
ベリングデータC3上の検出物のうち、人間と特定され
たもの以外を演算手段54で除去してラベリングデータ
C4を得る。このラベリングデータC4は制御手段51
からの書き込み指令により記憶手段53に記憶される。
次に制御手段51からの読み込み指令により、記憶手段
53はあらかじめ記憶しているホーム1内のマスク画像
データM2(ホーム1内部を「1」、ホーム1外部を
「0」とした画像データ)とラベリングデータC4とを
再生して演算手段54に出力する。演算手段54ではラ
ベリングデータC4にホーム1内のマスク画像データM
2を掛ける。そして制御手段51はホーム1に人間がい
るかどうかを判断する(S10)。Hereinafter, the case where the threshold value is set for a human and a human is specified among the detected objects will be described. Of the detected objects on the labeling data C3, those other than those identified as humans are removed by the computing means 54 to obtain the labeling data C4. This labeling data C4 is the control means 51.
It is stored in the storage means 53 according to a write command from.
Then, in response to a read command from the control means 51, the storage means 53 stores mask image data M2 in the home 1 (image data in which the inside of the home 1 is "1" and the outside of the home 1 is "0") stored in advance. The labeling data C4 is reproduced and output to the calculating means 54. The calculation means 54 uses the labeling data C4 as mask image data M in the home 1.
Multiply by 2. Then, the control means 51 determines whether or not there is a person in the home 1 (S10).
【0032】制御手段51がホーム1に人間がいると判
断した場合(S10)は、制御手段51は書き込み手段
指令を出力し、記憶手段53は、ラベリングデータC4
にホーム1内のマスク画像データM2を掛けたホーム上
データC5を記憶する。又制御手段51は読み込み指令
を出力し、記憶手段53はあらかじめ記憶しているホー
ム1の端部のマスク画像データM3(ホーム1の端部を
「1」、それ以外を「0」とした画像データ)とホーム
上データC5とを再生して演算手段54に出力する。演
算手段54は、ホーム上データC5にホーム1の端部の
マスク画像データM3を掛ける。そして制御手段51は
ホーム1の端部に人間がいるかどうかを判断する(S1
1)。When the control means 51 determines that there is a person in the home 1 (S10), the control means 51 outputs a writing means command, and the storage means 53 outputs the labeling data C4.
Then, the on-home data C5 obtained by multiplying the mask image data M2 in the home 1 is stored. Further, the control means 51 outputs a read command, and the storage means 53 stores mask image data M3 of the edge portion of the home 1 stored in advance (an image in which the edge portion of the home 1 is "1" and other portions are "0"). (Data) and the on-home data C5 are reproduced and output to the calculation means 54. The calculation means 54 multiplies the on-home data C5 by the mask image data M3 of the end portion of the home 1. Then, the control means 51 determines whether or not there is a person at the end of the home 1 (S1).
1).
【0033】制御手段51がホーム1の端部に人間がい
る(S11)と判断した場合は、制御手段51は警報ブ
ザー7に対して警報指令を出力し、警報ブザー7を鳴動
する(S14)。又制御手段51はホーム1の端部に人
間がいるという情報と読み込み指令を、記憶手段53は
記憶したディジタル画像データId を再生して表示制御
手段55に出力する。When the control means 51 determines that there is a person at the end of the home 1 (S11), the control means 51 outputs an alarm command to the alarm buzzer 7 and sounds the alarm buzzer 7 (S14). . Further, the control means 51 reproduces the information that a person is present at the end of the home 1 and a read command, and the storage means 53 reproduces the stored digital image data I d and outputs it to the display control means 55.
【0034】表示制御手段55は制御手段51からのホ
ーム1の端部に人間がいるという情報を受けて、例えば
「落下注意」等をモニタ6へ表示するためのグラフィッ
クデータ等の落下注意情報を作成する。そして表示制御
手段55は記憶手段53により再生されたディジタル画
像データId と、落下注意情報をモニタ6へ出力する。
モニタ6はディジタル画像データId 、つまりカメラ3
で撮影された画像と、落下注意情報を表示する(S1
5)。駅員は警報ブザー7の鳴動により検出物があった
と判断し、モニタ6で確認してホーム1上の人々に注意
を促し、軌道2上に誤ってホーム1上の人々が落下する
ことを防止できる。The display control means 55 receives information from the control means 51 that there is a person at the end of the home 1, and displays fall caution information such as graphic data for displaying "fall caution" on the monitor 6, for example. create. Then, the display control means 55 outputs the digital image data I d reproduced by the storage means 53 and the drop caution information to the monitor 6.
The monitor 6 displays the digital image data I d , that is, the camera 3
The image taken in step S3 and the drop caution information are displayed (S1).
5). The station staff can judge that there is an object detected by the alarm buzzer 7 sounding, check the monitor 6 to call attention to the people on the platform 1, and prevent people on the platform 1 from accidentally falling on the track 2. .
【0035】制御手段51がホーム1の端部に人間がい
ると判断しなかった場合(S11)は、制御手段51は
読み込み指令を出力し、記憶手段53は記憶したホーム
上データC5を再生して演算手段54に出力する。演算
手段54では、ラベリング処理により番号を付された検
出物の数、ここでは検出した人の人数を計算する。制御
手段51はあらかじめ定めた所定の数と検出人数とを比
較し(S12)、検出人数が所定の数以上であれば、制
御手段51は警報ブザー7に対して警報指令を出力し、
警報ブザー7を呼動する(S14)。又制御手段51は
ホーム1上に所定の人数以上の人間がいるという情報と
読み込み指令を、記憶手段53は記憶したディジタル画
像データId を再生して表示制御手段55に出力する。
表示制御手段55は制御手段51からのホーム1上に所
定の人数以上の人間がいるという情報を受けて、例えば
「落下注意」等をモニタ6へ表示するためのグラフィッ
クデータ等の落下注意情報を作成する。If the control means 51 does not determine that there is a person at the end of the home 1 (S11), the control means 51 outputs a read command and the storage means 53 reproduces the stored on-home data C5. And outputs it to the calculation means 54. The calculation means 54 calculates the number of detected objects numbered by the labeling process, here the number of detected people. The control means 51 compares a predetermined number with the number of detected persons (S12), and if the number of detected persons is equal to or more than the predetermined number, the control means 51 outputs an alarm command to the alarm buzzer 7,
The alarm buzzer 7 is called (S14). Further, the control means 51 reproduces the stored digital image data I d and outputs it to the display control means 55, with information and a read command that there are more than a predetermined number of people on the home 1.
The display control means 55 receives information from the control means 51 that there are more than a predetermined number of people on the home 1, and displays fall caution information such as graphic data for displaying "fall caution" on the monitor 6, for example. create.
【0036】そして表示制御手段55は記憶手段53に
より再生されたディジタル画像データId と、落下注意
情報をモニタ6へ出力する。モニタ6はディジタル画像
データId 、つまりカメラ3で撮影された画像と、落下
注意情報を表示する(S15)。駅員は警報ブザー7の
鳴動により検出物があったと判断し、モニタ6で確認し
てホーム1上の人々に注意を促し、軌道2上に誤ってホ
ーム1上の人々が落下することを防止できる。The display control means 55 outputs the digital image data I d reproduced by the storage means 53 and the drop caution information to the monitor 6. The monitor 6 displays the digital image data I d , that is, the image taken by the camera 3 and the drop caution information (S15). The station staff can judge that there is an object detected by the alarm buzzer 7 sounding, check the monitor 6 to call attention to the people on the platform 1, and prevent people on the platform 1 from accidentally falling on the track 2. .
【0037】制御手段51で検出人数が規定値以下と判
断した場合(S12)は、制御手段51は読み込み指令
を出力し、記憶手段53は記憶したディジタル画像デー
タId を再生して表示制御手段55に出力する。表示制
御手段55はこのディジタル画像データId をモニタ6
へ出力する。そしてモニタ6はディジタル画像データI
d 、つまりカメラ3で撮影された画像を表示する(S1
5)。When the control means 51 determines that the number of detected persons is less than the specified value (S12), the control means 51 outputs a read command, and the storage means 53 reproduces the stored digital image data I d to display control means. Output to 55. The display control means 55 monitors the digital image data I d for the monitor 6
Output to. The monitor 6 displays the digital image data I
d , that is, the image taken by the camera 3 is displayed (S1
5).
【0038】制御手段51でホーム1上に人間がいると
判断しなかった場合(S10)は、制御手段51は読み
込み指令を出力し、記憶手段53はあらかじめ記憶して
いる軌道2内のマスク画像データM1とラベリングデー
タC4とを再生して演算手段54に出力する。演算手段
54はラベリングデータC4に軌道2内のマスク画像デ
ータM1を掛ける。そして制御手段51は軌道2内に人
間がいるかどうかを判断する(S13)。制御手段51
が軌道2内に人間がいると判断した場合は、制御手段5
1は警報ブザー7に対して警報指令を出力し、警報ブザ
ー7を鳴動する(S14)。When the control means 51 does not determine that there is a person on the home 1 (S10), the control means 51 outputs a read command and the storage means 53 stores the mask image in the trajectory 2 stored in advance. The data M1 and the labeling data C4 are reproduced and output to the calculating means 54. The calculation means 54 multiplies the labeling data C4 by the mask image data M1 in the trajectory 2. Then, the control means 51 determines whether or not there is a person in the trajectory 2 (S13). Control means 51
When it is determined that there is a person in the trajectory 2, the control means 5
1 outputs an alarm command to the alarm buzzer 7 and sounds the alarm buzzer 7 (S14).
【0039】又制御手段51は軌道2内に人間がいると
いう情報と読み込み指令を、記憶手段53は記憶したデ
ィジタル画像データId を再生して表示制御手段55に
出力する。表示制御手段55は制御手段51からの軌道
2内に人間がいるという情報を受けて、落下物が人間で
あると判断し、例えば「人間が軌道内に落下・注意」を
モニタ6へ表示するためのグラフィックデータ等の落下
物の内容・落下物有情報を作成する。The control means 51 reproduces the digital image data I d stored in the storage means 53 and outputs it to the display control means 55, together with the information that a person is in the trajectory 2 and the read command. The display control means 55 receives the information from the control means 51 that a person is present in the trajectory 2 and determines that the falling object is a human, and displays, for example, "a person falls in the trajectory / attention" on the monitor 6. The contents of falling objects and the existence information of falling objects such as graphic data are created.
【0040】そして表示制御手段55は記憶手段53に
より再生されたディジタル画像データId と、落下物の
内容・落下物有情報をモニタ6へ出力する。モニタ6は
ディジタル画像データId 、つまりカメラ3で撮影され
た画像と、落下物の内容・落下物有情報を表示する(S
15)。駅員は警報ブザー7の鳴動により検出物があっ
たと判断し、モニタ6で確認して列車停止信号出力等の
安全措置をとることができる。Then, the display control means 55 outputs the digital image data I d reproduced by the storage means 53 and the content / falling object existence information to the monitor 6. The monitor 6 displays the digital image data I d , that is, the image photographed by the camera 3, and the content / falling object existence information of the falling object (S).
15). The station staff can judge that there is an object detected by the alarm buzzer 7 sounding, and can confirm it on the monitor 6 and take safety measures such as outputting a train stop signal.
【0041】次にカメラ3が入力した画像からホーム1
及び軌道2内に存在する検出物を抽出するまでを図5
(a)〜図5(g)を用いて説明する。記憶手段53が
あらかじめ記憶している画像データは図5(a)〜図5
(d)である。但し記憶手段53には実際はディジタル
画像データとして記憶されているが、図5についてはア
ナログ画像で示している。Next, from the image input by the camera 3, the home 1
And the process of extracting the detected substances existing in the orbit 2 is shown in FIG.
It demonstrates using (a) -FIG.5 (g). The image data stored in advance in the storage unit 53 is shown in FIGS.
It is (d). However, although actually stored in the storage means 53 as digital image data, FIG. 5 shows an analog image.
【0042】図5(a)は初期画像データIi 、図5
(b)は軌道2内のマスク画像データM1、図5(c)
はホーム1内のマスク画像データM2、図5(d)はホ
ーム1の端部のマスク画像データM3である。以下の処
理過程で得られる画像データも実際はディジタル画像デ
ータであるが、図5についてはアナログ画像で示す。カ
メラ3が図5(e)に示すアナログ画像データIa を撮
りこんだ場合、演算手段54では差分処理を行い、図5
(f)に示す差分画像データC1を得る。FIG. 5A shows the initial image data I i , FIG.
(B) is the mask image data M1 in the trajectory 2, FIG. 5 (c)
Is the mask image data M2 in the home 1, and FIG. 5D is the mask image data M3 at the end of the home 1. The image data obtained in the following process is actually digital image data, but FIG. 5 shows an analog image. When the camera 3 captures the analog image data I a shown in FIG. 5E, the calculation means 54 performs difference processing,
The difference image data C1 shown in (f) is obtained.
【0043】この差分画像データC1は、電車の接近判
定を行うために、図5(b)に示す軌道2内のマスク画
像データM1が掛けられる。従って、電車が接近してい
る場合、差分画像データC1に軌道2内のマスク画像デ
ータM1を掛けて得られる画像データには電車が存在す
ることになる。The difference image data C1 is multiplied by the mask image data M1 in the track 2 shown in FIG. 5B in order to determine the approach of the train. Therefore, when the train is approaching, the train exists in the image data obtained by multiplying the difference image data C1 by the mask image data M1 in the track 2.
【0044】そこで軌道2内部の各画素値の合計値と所
定値とを制御手段51で比較して所定値以上となったこ
とで電車が接近していると判定する。差分画像データC
1に軌道2内のマスク画像データM1を掛けて得られる
画像データに電車が存在せず、電車が接近していないと
判断した時には、演算手段54では、差分画像データC
1の2値化処理を行い、図5(g)に示す2値画像デー
タC2を得る。又演算手段54では図5(g)に示す2
値画像データC2のラベリング処理を行い、ラベリング
データC3を得、式(1)〜式(3)を用いて検出物の
実際の高さH、幅Wを推定する。Therefore, the control means 51 compares the total value of the respective pixel values in the track 2 with a predetermined value, and when it is equal to or larger than the predetermined value, it is determined that the train is approaching. Difference image data C
When it is determined that the train does not exist in the image data obtained by multiplying 1 by the mask image data M1 in the track 2 and the train does not approach, the difference image data C
The binarization processing of 1 is performed to obtain the binary image data C2 shown in FIG. Further, in the calculation means 54, 2 shown in FIG.
The labeling process is performed on the value image data C2 to obtain the labeling data C3, and the actual height H and width W of the detected object are estimated using the equations (1) to (3).
【0045】そして、実際の高さH、幅Wとしきい値と
を制御手段51で比較して検出物の特定が行われる。そ
して、例えばしきい値を人間の場合に設定した場合、検
出物のうち人間以外のものを演算手段54で除去したラ
ベリングデータC4を得る。このラベリングデータC4
に、図5(d)に示すホーム1内のマスク画像データM
2を演算手段54で掛け合わせてホーム上データC5を
得、ホーム1に存在する検出物を抽出できる。更に演算
手段54ではホーム上データC5に図5(d)に示すホ
ーム1の端部のマスク画像データM3を掛け合わせ、ホ
ーム1の端部に検出物が存在する場合は、検出物が抽出
され、制御手段51でホーム1の端部に検出物有と判定
される。Then, the actual height H, width W and the threshold value are compared by the control means 51 to specify the detected object. Then, for example, when the threshold value is set for a human, the labeling data C4 is obtained by removing the detected objects other than the human by the calculation means 54. This labeling data C4
, The mask image data M in the home 1 shown in FIG.
2 is multiplied by the calculation means 54 to obtain the on-home data C5, and the detected substance existing on the home 1 can be extracted. Further, the calculation means 54 multiplies the on-home data C5 by the mask image data M3 of the end portion of the home 1 shown in FIG. 5D, and when the detected object exists at the end portion of the home 1, the detected object is extracted. The control means 51 determines that there is a detected object at the end of the home 1.
【0046】又ホーム上データC5において、ホーム1
に存在する検出物の数を演算手段54で計算し、制御手
段51で規定値と比較して、ホーム1に存在する検出物
の軌道2上への落下予測を行うことができる。又演算手
段54でラベリングデータC4に図5(b)に示す軌道
2内のマスク画像データM1を掛け、軌道2内に存在す
る検出物を抽出できる。In the home data C5, the home 1
It is possible to predict the number of the detected objects existing in the home 1 on the track 2 by calculating the number of the detected objects existing in the calculation unit 54 and comparing the calculated number with the specified value in the control unit 51. Further, the labeling data C4 can be multiplied by the mask image data M1 in the trajectory 2 shown in FIG.
【0047】この様にホーム1上の検出物、軌道2内の
検出物を抽出し、警報ブザー7により駅員に通告し、駅
員はカメラ3が撮影した画像及び注意情報が表示された
モニタ6を確認することで、安全措置をとることができ
る。In this way, the detected objects on the home 1 and the detected objects on the track 2 are extracted, the alarm buzzer 7 is used to notify the station staff, and the station staff displays the image taken by the camera 3 and the monitor 6 displaying the caution information. By checking, you can take safety measures.
【0048】尚モニタ6と連動して自動案内装置により
注意を促すようにしてもよい。更に湾曲したホーム1も
複数台のカメラの組み合せや、カメラ3をホーム1側及
び壁側に取り付けることにより、撮影エリアにもれがな
いようにすることも可能である。Note that the automatic guide device may interlock with the monitor 6 to call attention. Further, the curved home 1 can also be combined with a plurality of cameras, and the camera 3 can be attached to the home 1 side and the wall side to prevent the shooting area from leaking.
【0049】[0049]
【発明の効果】以上説明したように請求項1乃至請求項
4記載の発明によれば、カメラよりホーム及び軌道内を
監視し、検出物の内容を識別することができるので、ホ
ーム上での特に人の位置、密集度を求めることにより軌
道内への落下を防止することができ、又軌道内に万一ホ
ームから人などが落下してしまった場合も早期発見する
ことができ、安全措置をとることができる軌道内監視装
置及びプラットホーム監視装置を提供できる。As described above, according to the first to fourth aspects of the present invention, since it is possible to monitor the home and the inside of the orbit by the camera and identify the contents of the detected object, In particular, by determining the position and density of people, it is possible to prevent them from falling into the orbit, and if a person, etc., falls into the orbit from the platform, it can be detected early and safety measures can be taken. It is possible to provide an in-orbit monitoring device and a platform monitoring device capable of taking advantage of the above.
【図面の簡単な説明】[Brief description of drawings]
【図1】本発明の一実施例を示す軌道内監視装置及びプ
ラットホーム監視装置の全体構成図。FIG. 1 is an overall configuration diagram of an in-orbit monitoring device and a platform monitoring device showing an embodiment of the present invention.
【図2】図1に示す軌道内監視装置及びプラットホーム
監視装置の処理の流れを示すフローチャート。FIG. 2 is a flowchart showing a processing flow of the in-orbit monitoring device and the platform monitoring device shown in FIG.
【図3】ラベリング処理の説明図。FIG. 3 is an explanatory diagram of labeling processing.
【図4】検出物の実際の大きさの推定方法を説明するた
めの図。FIG. 4 is a diagram for explaining a method of estimating the actual size of a detected object.
【図5】画像処理装置の処理の流れを示す図。FIG. 5 is a diagram showing a flow of processing of the image processing apparatus.
1…ホーム、2…軌道、3…カメラ、4…カメラ切換装
置、5…画像処理装置、6…モニタ、7…警報ブザー、
51…制御手段、52…A/D変換手段、53…記憶手
段、54…演算手段、55…表示制御手段。1 ... Home, 2 ... Orbit, 3 ... Camera, 4 ... Camera switching device, 5 ... Image processing device, 6 ... Monitor, 7 ... Alarm buzzer,
51 ... Control means, 52 ... A / D conversion means, 53 ... Storage means, 54 ... Calculation means, 55 ... Display control means.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小島 知 東京都港区芝浦一丁目1番1号 株式会社 東芝本社事務所内 (72)発明者 苗村 健二郎 東京都府中市東芝町1番地 株式会社東芝 府中工場内 (72)発明者 井上 洋一 東京都府中市東芝町1番地 株式会社東芝 府中工場内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Satoshi Kojima 1-1-1, Shibaura, Minato-ku, Tokyo Inside Toshiba Headquarters office (72) Kenjiro Naemura 1st Toshiba Town, Fuchu City, Tokyo Toshiba Fuchu Corporation Inside the factory (72) Inventor Yoichi Inoue, No. 1, Toshiba-cho, Fuchu-shi, Tokyo Inside the Toshiba Fuchu factory
Claims (4)
力して、あらかじめ定めた初期画像との差分画像を求
め、この差分画像から検出物を抽出し、前記差分画像上
の前記検出物の位置から、前記カメラと前記検出物が実
際に存在する地点までの距離を推定し、この距離と前記
差分画像上の前記検出物の画素数から、前記検出物の実
際の大きさを推定する演算手段と、 この演算手段で推定された前記検出物の実際の大きさと
あらかじめ定めた第1のしきい値とを比較して、前記検
出物の種別を特定する検出物特定手段と、 前記演算手段により前記検出物が抽出された場合、警報
の出力を行う警報出力手段と、 前記検出物特定手段により前記検出物の種別が特定され
た場合、前記検出物の種別を表示する表示手段とを有す
る軌道内監視装置。1. An image from a camera that has captured the inside of an orbit is input to obtain a difference image from a predetermined initial image, a detection object is extracted from the difference image, and the detection object on the difference image is extracted. Calculation for estimating the distance from the position to the point where the camera and the detection object actually exist, and estimating the actual size of the detection object from this distance and the number of pixels of the detection object on the difference image. Means for comparing the actual size of the detected object estimated by the calculating means with a predetermined first threshold value to specify the type of the detected object; and the calculating means When the detected substance is extracted by, an alarm output unit that outputs an alarm, and a display unit that displays the type of the detected substance when the type of the detected substance is specified by the detected substance specifying unit In-orbit monitoring device.
て、 前記演算手段により抽出された検出物の画素数があらか
じめ定めた第2のしきい値以上となった時に電車の接近
時と判断する電車接近判断手段と、 この電車接近判断手段が電車の接近時と判断した場合、
前記演算手段への前記カメラが撮影した画像の入力を停
止する画像入力停止手段とを有する軌道内監視装置。2. The in-orbit monitoring device according to claim 1, wherein it is determined that a train is approaching when the number of pixels of the detection object extracted by the calculation means becomes equal to or larger than a second threshold value set in advance. When the train approach determining means and this train approach determining means determine that the train is approaching,
An in-orbit monitoring device having an image input stopping means for stopping the input of the image captured by the camera to the calculating means.
の画像を入力して、あらかじめ定めた初期画像との差分
画像を求め、この差分画像から検出物を抽出する演算手
段と、 この演算手段により抽出された検出物が前記プラットホ
ームの端に存在するかを判断する判断手段と、 この判断手段により前記検出物が前記プラットホームの
端に存在すると判断された場合、前記プラットホーム下
への落下を予測して警報の出力を指示する第1の予測手
段と、 この第1の予測手段の前記警報の出力指示により、前記
警報の出力を行う警報出力手段と、 前記第1の予測手段の予測結果を入力して表示する表示
手段とを有するプラットホーム監視装置。3. An arithmetic means for inputting an image from a camera, which is photographed on the platform, obtaining a differential image from a predetermined initial image, and extracting a detected object from the differential image, and an arithmetic means for extracting the detected object. Determination means for determining whether or not the detected object is present at the edge of the platform, and when the determination means determines that the detected object is present at the edge of the platform, a warning is issued by predicting the fall under the platform. A first prediction means for instructing the output of the first warning means, an alarm output means for outputting the warning in response to the warning output instruction of the first prediction means, and a prediction result of the first prediction means. A platform monitoring device having display means for displaying.
において、 前記演算手段に設けられ、前記差分画像上の前記検出物
の位置から、前記カメラと前記検出物が実際に存在する
地点までの距離を推定し、この距離と前記差分画像上の
前記検出物の画素数から、前記検出物の実際の大きさを
推定する推定手段と、 この推定手段で推定された前記検出物の実際の大きさと
あらかじめ定めた第1のしきい値とを比較して、前記検
出物の種別を特定する検出物特定手段と、 前記検出物特定手段により特定された同一の種別毎の検
出物の数を測定する測定手段と、 前記測定手段により測定された前記検出物の数が、あら
かじめ設定された所定の数を越えた場合、前記プラット
ホーム下への落下を予測して前記警報出力手段に前記警
報の出力を指示し、前記表示手段に予測結果を入力する
第2の予測手段とを有するプラットホーム監視装置。4. The platform monitoring device according to claim 3, wherein the distance from the position of the detected object on the difference image to the point where the camera and the detected object actually exist, which is provided in the calculation means, is calculated. Estimating means for estimating the actual size of the detected object from this distance and the number of pixels of the detected object on the difference image, and the actual size of the detected object estimated by this estimating means in advance. A detection object specifying unit that specifies the type of the detection object by comparing the determined first threshold value; and a measuring unit that measures the number of detection objects of the same type specified by the detection object specifying unit. When the number of the detected objects measured by the measuring means exceeds a predetermined number set in advance, the warning output means is instructed to output the alarm by predicting the fall under the platform. Platform monitoring device and a second prediction means for inputting the prediction result on the display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2248594A JPH07228250A (en) | 1994-02-21 | 1994-02-21 | Intrack monitoring device and platform monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2248594A JPH07228250A (en) | 1994-02-21 | 1994-02-21 | Intrack monitoring device and platform monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07228250A true JPH07228250A (en) | 1995-08-29 |
Family
ID=12084034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2248594A Pending JPH07228250A (en) | 1994-02-21 | 1994-02-21 | Intrack monitoring device and platform monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07228250A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1106470A1 (en) * | 1999-12-04 | 2001-06-13 | Alcatel | Method for detecting obstacles on railway track sections |
JP2004058737A (en) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | Safety monitoring equipment in station platforms |
WO2005120924A1 (en) * | 2004-06-11 | 2005-12-22 | Stratech Systems Limited | Method and system for rail track scanning and foreign object detection |
JP2006088963A (en) * | 2004-09-27 | 2006-04-06 | Mitsubishi Electric Corp | Movable home fence system |
JP2010006295A (en) * | 2008-06-30 | 2010-01-14 | Kobe Steel Ltd | Falling object detection device, mobile body, and falling object detection method |
DE102009008077A1 (en) * | 2009-02-10 | 2010-08-19 | Siemens Aktiengesellschaft | Arrangement and method for the detection of heat radiation emitting objects on track bodies |
JP2011020656A (en) * | 2009-07-21 | 2011-02-03 | Nippon Signal Co Ltd:The | Platform door confirmation system |
JP2011166243A (en) * | 2010-02-05 | 2011-08-25 | Hitachi Kokusai Electric Inc | Monitoring system |
JP2011183823A (en) * | 2010-03-04 | 2011-09-22 | Mitsubishi Electric Corp | Platform door state monitoring system |
CN107662623A (en) * | 2017-09-25 | 2018-02-06 | 中铁二院重庆勘察设计研究院有限责任公司 | Tramcar safety traffic detection early warning system and method |
TWI858166B (en) * | 2019-10-25 | 2024-10-11 | 日商京三製作所股份有限公司 | Station platform safety support system and obstacle identification method |
-
1994
- 1994-02-21 JP JP2248594A patent/JPH07228250A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6565046B2 (en) | 1999-12-04 | 2003-05-20 | Alcatel | Method of detecting obstacles on railroad lines |
EP1106470A1 (en) * | 1999-12-04 | 2001-06-13 | Alcatel | Method for detecting obstacles on railway track sections |
US7460686B2 (en) * | 2002-07-25 | 2008-12-02 | National Institute Of Advanced Industrial Science And Technology | Security monitor device at station platform |
JP2004058737A (en) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | Safety monitoring equipment in station platforms |
WO2005120924A1 (en) * | 2004-06-11 | 2005-12-22 | Stratech Systems Limited | Method and system for rail track scanning and foreign object detection |
JP2008502538A (en) * | 2004-06-11 | 2008-01-31 | ストラテック システムズ リミテッド | Railway track scanning system and method |
JP2006088963A (en) * | 2004-09-27 | 2006-04-06 | Mitsubishi Electric Corp | Movable home fence system |
JP4574307B2 (en) * | 2004-09-27 | 2010-11-04 | 三菱電機株式会社 | Movable home fence system |
JP2010006295A (en) * | 2008-06-30 | 2010-01-14 | Kobe Steel Ltd | Falling object detection device, mobile body, and falling object detection method |
DE102009008077A1 (en) * | 2009-02-10 | 2010-08-19 | Siemens Aktiengesellschaft | Arrangement and method for the detection of heat radiation emitting objects on track bodies |
JP2011020656A (en) * | 2009-07-21 | 2011-02-03 | Nippon Signal Co Ltd:The | Platform door confirmation system |
JP2011166243A (en) * | 2010-02-05 | 2011-08-25 | Hitachi Kokusai Electric Inc | Monitoring system |
JP2011183823A (en) * | 2010-03-04 | 2011-09-22 | Mitsubishi Electric Corp | Platform door state monitoring system |
CN107662623A (en) * | 2017-09-25 | 2018-02-06 | 中铁二院重庆勘察设计研究院有限责任公司 | Tramcar safety traffic detection early warning system and method |
TWI858166B (en) * | 2019-10-25 | 2024-10-11 | 日商京三製作所股份有限公司 | Station platform safety support system and obstacle identification method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8660700B2 (en) | Video-based system and method of elevator door detection | |
CN101571914B (en) | Abnormal behavior detection device | |
US6707486B1 (en) | Directional motion estimator | |
CN103508282B (en) | Elevator monitoring arrangement and supervision method | |
JPH07228250A (en) | Intrack monitoring device and platform monitoring device | |
JP5917327B2 (en) | Escalator monitoring system | |
JPH0950585A (en) | Intruder monitoring device | |
JPH1139589A (en) | Traffic monitoring device and traffic monitoring method | |
JP2816310B2 (en) | Object detection device in elevator car | |
JP2599701B2 (en) | Elevator Standby Passenger Number Detection Method | |
JP3361399B2 (en) | Obstacle detection method and device | |
CN112561967A (en) | Control method and device for vehicle door lock | |
JP3377659B2 (en) | Object detection device and object detection method | |
JP2002197445A (en) | Train front abnormality detection device using optical flow | |
JP3007019B2 (en) | Traffic flow measurement device | |
JP2009086748A (en) | Monitoring device and program | |
JPH0674114B2 (en) | Elevator crime prevention device | |
JP2011068469A (en) | Elevator control device, monitoring system, searching revitalization program, in/out management system | |
JPH10269492A (en) | Vehicle monitoring device | |
JP2005284652A (en) | Video monitoring method and apparatus using moving vector | |
JP2000034087A (en) | Passenger monitoring method and device for man conveyor | |
JP4697761B2 (en) | Queue detection method and queue detection apparatus | |
JP4724888B2 (en) | Moving body detection apparatus, moving body imaging system, moving body imaging method, and moving body detection program | |
JP2007031018A (en) | Crime prevention operation device for elevator and crime prevention operation setting changing method | |
JP3053837B2 (en) | Image monitoring device |