JP2024126526A - State determination device and state determination method - Google Patents
State determination device and state determination method Download PDFInfo
- Publication number
- JP2024126526A JP2024126526A JP2023034935A JP2023034935A JP2024126526A JP 2024126526 A JP2024126526 A JP 2024126526A JP 2023034935 A JP2023034935 A JP 2023034935A JP 2023034935 A JP2023034935 A JP 2023034935A JP 2024126526 A JP2024126526 A JP 2024126526A
- Authority
- JP
- Japan
- Prior art keywords
- shadow
- score
- unit
- state determination
- abnormality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 230000005856 abnormality Effects 0.000 claims abstract description 113
- 238000001514 detection method Methods 0.000 claims abstract description 51
- 238000012545 processing Methods 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 238000009434 installation Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000002159 abnormal effect Effects 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 6
- 238000007689 inspection Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 20
- 238000012423 maintenance Methods 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L25/00—Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
- B61L25/06—Indicating or recording the setting of track apparatus, e.g. of points, of signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Train Traffic Observation, Control, And Security (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、状態判定装置及び状態判定方法に関する。 The present invention relates to a state determination device and a state determination method.
本技術分野の背景技術として、特開2021-124751(特許文献1)がある。該公報には、「撮像部は、鉄道車両に設けられ、鉄道車両の走行経路に沿って設けられる鉄道設備を撮像する。~中略~ 撮像部が撮像した動画と車両位置とを関連付けるとともに、動画を符号化する。~中略~ 復号化された第1動画に含まれる第1画像と、復号化された第2動画に含まれる第2画像と、の間の動きベクトルを算出し、動きベクトルに基づいて、鉄道設備の異常を診断する。」と記載されている。 JP 2021-124751 (Patent Document 1) is a background technology of this technical field. This publication states that "The imaging unit is provided on the railway vehicle and captures images of railway equipment installed along the route of the railway vehicle. ... The video captured by the imaging unit is associated with the vehicle position and the video is encoded. ... The motion vector between the first image included in the decoded first video and the second image included in the decoded second video is calculated, and an abnormality in the railway equipment is diagnosed based on the motion vector."
状態判定装置及び状態判定方法の主な用途として、例えば、鉄道の運転支援や無人運転の実現に向け、沿線設備の状態判定(正常/異常)を自動で行うことを目的とした、沿線設備点検システムがある。沿線設備点検システムは、鉄道車両にカメラを搭載し、移動体内もしくは移動体外における解析装置を用いて、撮影画像から状態判定を行う手法が有用である。 The main applications of the status determination device and status determination method include, for example, wayside equipment inspection systems that aim to automatically determine the status (normal/abnormal) of wayside equipment in order to realize railway operation support and unmanned operation. For wayside equipment inspection systems, a useful method is to mount a camera on a railway vehicle and use an analysis device inside or outside the vehicle to determine the status from the captured images.
前記特許文献1は、「撮像部は、鉄道車両に設けられ、鉄道車両の走行経路に沿って設けられる鉄道設備を撮像する。~中略~ 撮像部が撮像した動画と車両位置とを関連付けるとともに、動画を符号化する。~中略~ 復号化された第1動画に含まれる第1画像と、復号化された第2動画に含まれる第2画像と、の間の動きベクトルを算出し、動きベクトルに基づいて、鉄道設備の異常を診断する。」と記載されている。しかしながら、設備表面の汚れといった、動きベクトルに表れない異常の検知は困難であり、改善の余地がある。特に、設備表面に生じた影等と異常とをいかに識別するかは重要な点の一つである。例えば、設備表面に生じた影と汚れとを識別できず、影を異常と判定すると、不要な保守作業が発生してしまう。また、不要なアラートが頻発すると、アラートに対する信頼の低下を引き起こす。
本発明は、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別可能な状態判定装置及び状態判定方法の提供を目的とする。
The above-mentioned Patent Document 1 describes that "the imaging unit is provided on the railway vehicle and captures railway equipment installed along the railway vehicle's travel route. The video captured by the imaging unit is associated with the vehicle position and the video is encoded. A motion vector between a first image included in the decoded first video and a second image included in the decoded second video is calculated, and an abnormality in the railway equipment is diagnosed based on the motion vector." However, it is difficult to detect an abnormality that does not appear in the motion vector, such as dirt on the surface of the equipment, and there is room for improvement. In particular, how to distinguish between a shadow or the like generated on the surface of the equipment and an abnormality is one of the important points. For example, if it is not possible to distinguish between a shadow generated on the surface of the equipment and dirt, and the shadow is determined to be an abnormality, unnecessary maintenance work will occur. In addition, if unnecessary alerts are frequently generated, it will cause a decrease in reliability of the alert.
An object of the present invention is to provide a state determination device and a state determination method that can detect abnormalities occurring in an object using a captured image of the object and distinguish between abnormalities and causes of erroneous detection such as shadows.
上記目的を解決するために、代表的な本発明の状態判定装置の一つは、移動体に搭載され、走行空間の撮影画像を取得するカメラと、前記撮影画像において状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出部と、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定部と、を具備することを特徴とする。
また、代表的な本発明の状態判定方法の一つは、状態判定装置が、移動体の走行空間の映像フレームを取得する映像フレーム取得ステップと、前記映像フレームにおいて状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出ステップと、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定ステップと、を具備することを特徴とする。
In order to achieve the above object, one representative status determination device of the present invention is characterized by comprising: a camera mounted on a moving body and acquiring captured images of the driving space; a target image extraction unit that extracts a target image of a small area including an object for status determination from the captured images; and a determination unit that performs image processing on the target image and outputs a status determination result indicating the presence or absence of an abnormality in the object and a false detection factor determination result indicating the presence or absence of a false detection factor.
Furthermore, one representative status determination method of the present invention is characterized in that it includes a video frame acquisition step in which a status determination device acquires a video frame of a traveling space of a moving body, a target image extraction step in which a target image of a small area including an object for status determination in the video frame is extracted, and a determination step in which image processing is performed on the target image, and an output of a status determination result indicating the presence or absence of an abnormality in the object and an erroneous detection factor determination result indicating the presence or absence of an erroneous detection factor.
本発明によれば、本発明によれば、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別することが可能な状態判定装置及び方法を提供することができる。 According to the present invention, it is possible to provide a condition determination device and method that can use a captured image of an object to detect abnormalities occurring in the object and distinguish between abnormalities and causes of erroneous detection, such as shadows.
以下、本発明の実施形態の例を、図面を用いて説明する。 Below, an example embodiment of the present invention will be described with reference to the drawings.
本実施例では、本発明の状態判定装置及び方法の主な用途である沿線設備点検システムについて説明する。沿線設備点検システムは、鉄道車両の前方の撮影映像を用いて、沿線設備に異常が生じているか否かを判定し、設備管理や補修計画に役立てることを目的とする。 In this embodiment, we will explain a wayside equipment inspection system, which is the main application of the status determination device and method of the present invention. The wayside equipment inspection system uses captured video of the area in front of the railway vehicle to determine whether or not there is an abnormality in wayside equipment, and uses the information to help with equipment management and repair planning.
図1は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別可能な沿線設備点検システムを提供することを目的とする。 Figure 1 is a diagram explaining the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. The purpose of this embodiment is to provide a wayside facility inspection system that uses photographed images of the object to detect abnormalities occurring in the object and is capable of distinguishing between abnormalities and causes of false detection such as shadows.
[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図1に示す通り、カメラ1、対象画像抽出部2、判定部3から構成されている。
沿線設備点検システムの動作ついて、図1を用いて説明する。カメラ1は、移動体である鉄道車両に搭載され、鉄道車両の前方を主とした走行空間の撮影画像を取得する。対象画像抽出部2は、対象物にフォーカスして点検を行うために、撮影画像から対象物を含む小領域の対象画像を抽出する。判定部3は、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する。
[System configuration]
The structure and operation of a wayside facility inspection system according to an embodiment of the present invention will be described below. The wayside facility inspection system according to the present embodiment is comprised of a camera 1, a target
The operation of the wayside facility inspection system will be described with reference to Fig. 1. The camera 1 is mounted on a moving railcar and captures images of the travel space, mainly in front of the railcar. The target
沿線設備点検システムの対象物は、例えば、標識、信号機、地上子などである。検知対象の異常は、例えば、汚れ、欠損、錆、塗装剥がれ、草木による隠れなどである。
前記カメラ1の搭載位置は、例えば鉄道車両の運転台付近の車内、車外、さらには屋根上等に搭載することで、鉄道車両の前方全体を撮影し、広範の設備を対象物とすることが可能である。あるいは、車両側面に搭載することで、対象物により近い位置から精細に撮影することが可能となる。あるいは、鉄道車両の前方に限らず、後方を撮影するカメラを搭載することで、対向線路の沿線設備を対象物とすることが可能である。
The target objects of the wayside facility inspection system are, for example, signs, traffic signals, ground coils, etc. The abnormalities of the detection target are, for example, dirt, defects, rust, peeling paint, obscuration by vegetation, etc.
The mounting position of the camera 1 may be, for example, inside or outside the vehicle near the driver's cab of the railroad vehicle, or even on the roof, so that the entire front of the railroad vehicle can be photographed, and a wide range of facilities can be taken as the target object. Alternatively, mounting the camera on the side of the vehicle makes it possible to take detailed photographs of the target object from a position closer to the target object. Alternatively, mounting a camera that photographs not only the front of the railroad vehicle but also the rear can make it possible to target facilities along the opposing track.
前記カメラ1は、使用するレンズを望遠にしたり、高解像度のイメージセンサを使用したりすることで、遠距離にある対象物を点検することが可能である。特に、鉄道車両の運転中に本システムを動作させており、運転に支障し得る異常を早期に検知したい場合、遠距離から対象物を点検できることが望ましい。 The camera 1 can inspect objects at a long distance by using a telephoto lens or a high-resolution image sensor. In particular, when the system is operated while a railway vehicle is in operation and it is desired to detect abnormalities that may interfere with operation at an early stage, it is desirable to be able to inspect objects from a long distance.
前記対象画像抽出部2は、例えば対象物が速度標識のように所定の文字を有する場合、Optical Character Recognition(OCR)を用いて文字を認識することで、対象画像を抽出しても良い。あるいは、Deep Neural Network(DNN)をはじめとする画像処理技術を用いて、撮影画像から対象物の位置及び大きさの情報を出力したり、セマンティックセグメンテーションによって対象物が存在する画素を検出したりすることで、対象画像を抽出しても良い。
For example, if the object has specific characters such as a speed sign, the target
誤検知要因は、例えば、撮影時刻が昼間であれば、太陽光と周囲の構造物に起因する影、太陽光の反射、雨、雪などがあり、撮影時刻が夜間であれば、沿線を走る自動車のヘッドライトと周囲の構造物に起因する影、前記ヘッドライトの反射などがある。以降は、太陽光と周囲の構造物に起因する影を誤検知要因として記載するが、本発明は同様の構成及び方法で他の誤検知要因に対しても適用可能である。 Causes of false detection include, for example, if the image is taken during the day, shadows caused by sunlight and surrounding structures, sunlight reflection, rain, snow, etc., and if the image is taken at night, shadows caused by headlights of cars traveling along the line and surrounding structures, reflections of the headlights, etc. In the following, shadows caused by sunlight and surrounding structures are described as causes of false detection, but the present invention can be applied to other causes of false detection using a similar configuration and method.
図2Aは、鉄道車両の前方の撮影画像の一例である。カメラ1が取得した撮影画像F201には、標識F202が写っている。標識F202には、汚れF203が生じている。対象画像抽出部2は、撮影画像F201から標識F202を検出し、図2Bに示す対象画像F204を出力する。判定部3は、前記対象画像F204から汚れF203を検知し、異常有りとする状態判定結果を出力する。
Figure 2A is an example of a captured image of the front of a railway vehicle. A sign F202 is captured in the captured image F201 acquired by the camera 1. A stain F203 has appeared on the sign F202. The target
図2Cは、鉄道車両の前方の撮影画像の一例である。標識F202には、付近の電線に起因する影F205が生じている。影F205の存在は対象物にとって異常ではないが、異常の誤検知要因となり得る。そこで判定部3は、図2Dに示す対象画像F204から影F205を異常と判断し得る場合も、別途の処理によって影の存在を認め、これらの結果から統合判断して状態判定結果は正常として出力する。
Figure 2C is an example of a captured image of the front of a railway vehicle. A shadow F205 is cast on sign F202 by nearby power lines. The presence of the shadow F205 is not abnormal for the object, but it can be a cause of false detection of an abnormality. Therefore, even if the shadow F205 can be judged to be abnormal from the object image F204 shown in Figure 2D, the
図3は、判定部3の内部構成の一例を示す図である。判定部3は、異常スコア算出部301、影スコア算出部302、統合判定部303から構成されている。
異常スコア算出部301は、画像処理によって対象物の正常状態からの逸脱度を示す異常スコアを算出する。影スコア算出部302は、画像処理によって対象物に生じる影の程度を示す影スコアを算出する。統合判定部303は、前記異常スコアと前記影スコアを用い、影に起因する異常スコアの上昇を考慮した上で、状態判定結果及び影判定結果を出力する。
3 is a diagram showing an example of the internal configuration of the
The abnormality
異常スコア算出部301を設けない場合は、例えば、対象物の抽出の信頼度が低い場合は異常が生じていると見なし、前記対象画像抽出部2におけるDNNの信頼度の逆数を異常スコアとしても良い。
異常スコア算出部301を設ける場合、異常スコア算出部301が用いる画像処理は、一般に異常な画像の大量収集が困難なことから、正常な画像のみを学習に用い、正常状態からの逸脱度を異常スコアとして出力可能なDNNを用いる手法が考えられる。例えば、正常な画像の再構成を学習させたAutoencoder(AE)やGenerative Adversarial Network(GAN)を用い、再構成誤差に基づき異常スコアを出力しても良い。しかしながら、これらの手法においては、対象物の設置場所、周囲の構造物、撮影時間等の条件が合致した際に生じる影を異常と誤検知する可能性がある。
影スコア算出部302は、例えば入力画像が影有りか影無しかの二値識別を行うDNNを用い、影有りらしさの信頼度を影スコアとしても良い。
If the anomaly
When the anomaly
The shadow
図4は、統合判定部303の内部動作の一例を示す表である。異常スコアは、所定の異常スコア閾値との大小に基づき、2カテゴリーに分類する。同様にして、影スコアは、所定の影スコア閾値との大小に基づき、2カテゴリーに分類する。したがって、異常スコアと影スコアの出力は、2×2=4パターンに分類される。このうち、異常スコアと影スコアのいずれも大きいパターンは、異常スコアの上昇は影に起因していると判断し、対象物の状態は正常とする。一方で、異常スコアは大きいものの影スコアは小さいパターンは、異常スコアの上昇は影ではなく真の異常要因に起因していると判断し、対象物の状態は異常とする。異常スコアが小さいパターンは、対象物の状態は正常とする。統合判定部303は、これらの状態パターンを状態判定結果として出力する。また、影スコアの分類結果を影判定結果として出力する。
Figure 4 is a table showing an example of the internal operation of the
図4に示す統合判定部303の内部動作の一例は、本システムを運転支援目的で使用するか保守支援目的で使用するかによって、内部動作を適宜調整しても良い。例えば、運転支援においては、通常運転への支障を減らすべく、多少の未検知は許容しつつ、誤検知の低減を優先するものとする。一方で保守支援においては、補修すべき異常の見逃しは望ましくないため、多少の誤検知は許容しつつ、未検知の低減を優先するものとする。これらの場合、運転支援と比べて保守支援においては異常スコア閾値を低めに設定する。さらには影スコア閾値を高めに設定するまたは無効化することにより、前述の傾向となるように調整することが可能である。
The internal operation of the
都心部、平野部、山間部等、地形や周囲の構造物の条件によっては、影の生じ方に差異が生じ得る。具体的には、ほぼ常時影が発生する場合や、反対に影がほぼ生じない場合も想定される。このような条件に合わせ、影スコア閾値は適宜調整しても良い。
図4に示す統合判定部303の内部動作の一例は、異常スコアと影スコアの出力を2×2=4パターンに分類しているが、パターン数はこれに限定することはなく、例えば3×3=9パターンの分類を用いても良い。
図4では、統合判定部303において状態判定結果及び影判定結果はいずれも二値の形式で出力する例について説明したが、これらは連続値の形式で出力しても良い。例えば、異常スコアに影スコアの逆数を乗算することで、正常状態からの逸脱が大きいかつ影の程度が小さいほど高くなるように異常スコアを補正し、これを状態判定結果として出力しても良い。また、連続値の影スコアを影判定結果として出力しても良い。
影以外の要因(太陽光の反射、雨、雪等)については、要因別にDNNを設けてもよい。この場合、いずれかの要因が該当すれば、異常スコアが高くても正常と判定する。また、複数要因を統合したDNNを設けてもよい。
Depending on the conditions of the terrain and surrounding structures, such as urban areas, plains, and mountainous areas, the way shadows are generated may differ. Specifically, it is possible that shadows are generated almost all the time, and conversely, that shadows are hardly generated at all. The shadow score threshold may be adjusted appropriately to suit such conditions.
In one example of the internal operation of the
4, an example in which the state determination result and the shadow determination result are both output in the form of a binary value by the
For factors other than shadows (such as sunlight reflection, rain, and snow), a DNN may be provided for each factor. In this case, if any factor is applicable, the system will be determined to be normal even if the abnormality score is high. A DNN that integrates multiple factors may also be provided.
[動作シーケンス]
本実施例の処理フローの一例を図5に示す。起動後、処理ループ内に移行し、システム動作継続確認ステップS1では処理ループ内において本実施例の沿線設備点検システムの動作終了命令の有無を監視する。動作を継続する場合は、映像フレーム取得ステップS2において、カメラが撮影した映像フレームを取得する。そして、対象画像抽出ステップS3では、対象物にフォーカスして点検を行うために、映像フレームから対象物を含む小領域の対象画像を抽出する。そして、判定ステップS4では、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する。
[Operation sequence]
An example of the process flow of this embodiment is shown in Figure 5. After startup, the process moves to a processing loop, and in a system operation continuation confirmation step S1, the process loop monitors whether or not there is an instruction to end operation of the lineside facility inspection system of this embodiment. If operation is to be continued, in a video frame acquisition step S2, a video frame captured by the camera is acquired. Then, in a target image extraction step S3, a target image of a small area including the target is extracted from the video frame in order to focus on the target for inspection. Then, in a determination step S4, image processing is performed on the target image, and a status determination result indicating the presence or absence of an abnormality in the target and a false detection factor determination result indicating the presence or absence of a false detection factor are output.
図6は判定ステップS4の内部処理を示す処理フローの一例である。異常スコア算出ステップS401では、画像処理によって対象物の正常状態からの逸脱度を示す異常スコアを算出する。そして、影スコア算出ステップS402では、画像処理によって対象物に生じる影の程度を示す影スコアを算出する。そして、影スコア比較ステップS403では、前記影スコアと所定の影スコア閾値とを比較し、影スコアが影スコア閾値を上回る場合、影判定結果(影有り)設定ステップS404において影判定結果の値を影有りにする。反対に、影スコアが影スコア閾値以下の場合、影判定結果(影無し)設定ステップS405において影判定結果の値を影無しにする。そして、異常スコア比較ステップS406では、前記異常スコアと所定の異常スコア閾値とを比較し、異常スコアが異常スコア閾値を上回る場合、影判定結果確認ステップS407において影判定結果を確認する。影判定結果が影無しの場合、異常スコアの上昇は影ではなく真の異常要因に起因していると判断し、状態判定結果(異常)設定ステップS408において状態判定結果の値を異常とする。異常スコア比較ステップS406において異常スコアが異常スコア閾値以下の場合、対象物の状態は正常と見なし、状態判定結果(正常)設定ステップS409において状態判定結果の値を正常とする。あるいは、影判定結果確認ステップS407において影判定結果が影有りの場合、異常スコアの上昇は影に起因していると判断し、対象物の状態は正常として、同じく状態判定結果(正常)設定ステップS409において状態判定結果の値を正常とする。 Figure 6 is an example of a process flow showing the internal processing of the judgment step S4. In the abnormality score calculation step S401, an abnormality score indicating the degree of deviation from the normal state of the object is calculated by image processing. Then, in the shadow score calculation step S402, a shadow score indicating the degree of a shadow generated on the object is calculated by image processing. Then, in the shadow score comparison step S403, the shadow score is compared with a predetermined shadow score threshold, and if the shadow score exceeds the shadow score threshold, the value of the shadow judgment result is set to "shadow is present" in the shadow judgment result setting step S404. On the other hand, if the shadow score is equal to or less than the shadow score threshold, the value of the shadow judgment result is set to "shadow is absent" in the shadow judgment result setting step S405. Then, in the abnormality score comparison step S406, the abnormality score is compared with a predetermined abnormality score threshold, and if the abnormality score exceeds the abnormality score threshold, the shadow judgment result is confirmed in the shadow judgment result confirmation step S407. If the shadow determination result is "no shadow," it is determined that the increase in the abnormality score is due to a true abnormality factor and not a shadow, and the value of the status determination result is set to abnormal in status determination result (abnormal) setting step S408. If the abnormality score is equal to or less than the abnormality score threshold in abnormality score comparison step S406, the state of the object is deemed normal, and the value of the status determination result is set to normal in status determination result (normal) setting step S409. Alternatively, if the shadow determination result is "there is a shadow" in shadow determination result confirmation step S407, it is determined that the increase in the abnormality score is due to a shadow, the state of the object is deemed normal, and similarly, the value of the status determination result is set to normal in status determination result (normal) setting step S409.
以上説明したように、本発明では対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別可能な沿線設備点検システムを実現可能である。 As described above, the present invention makes it possible to realize a railway line equipment inspection system that uses photographed images of an object to detect abnormalities occurring in the object and distinguish between abnormalities and causes of false detection such as shadows.
図7は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、対象物に関する同一視点の撮影画像から求めた異常スコアを蓄積し、蓄積した異常スコア履歴を解析することで、異常と影等の誤検知要因を識別可能な沿線設備点検システムを提供することを目的とする。 Figure 7 is a diagram explaining the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. This embodiment aims to provide a wayside facility inspection system that can distinguish between anomalies and causes of false detection, such as shadows, by accumulating anomaly scores calculated from images of an object taken from the same viewpoint and analyzing the accumulated anomaly score history.
[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図7に示す通り、図1に示す構成に加えて、位置情報取得部4、異常スコア記録部5から構成されている。位置情報取得部4は各移動体に搭載する。異常スコア記録部5は、複数の移動体と通信可能なサーバ等に設置することが好適である。
[System configuration]
The configuration and operation of a wayside facility inspection system according to an embodiment of the present invention will be described. As shown in Fig. 7, the wayside facility inspection system of this embodiment is composed of a location
沿線設備点検システムの動作ついて、図7を用いて説明する。実施例1と重複する動作の説明は割愛する。位置情報取得部4は、Global Positioning System(GPS)等を用いて、移動体の現在の位置情報を取得する。移動体が対象物付近に差し掛かり、カメラ1、対象画像抽出部2、判定部3が動作して対象物の異常スコアを算出した際、異常スコア記録部5は前記異常スコアと前記位置情報とを紐づけて記録するとともに、現在の時刻から遡って同一位置における過去の所定の第一の期間の異常スコア履歴を出力する。すなわち、前記異常スコア履歴は、対象物に関する同一視点の撮影画像から求めた異常スコアの履歴である。判定部3は前記異常スコア履歴を解析し、状態判定結果及び誤検知要因判定結果を出力する。
The operation of the lineside facility inspection system will be described with reference to FIG. 7. The description of the operation overlapping with the first embodiment will be omitted. The position
図8は、判定部3の内部構成の一例を示す図である。判定部3は、異常スコア算出部301と、異常スコア履歴解析部304から構成されている。図8の判定部3は、図3の判定部3と異なり、影スコア算出部302及び統合判定部303を持たない。
Figure 8 is a diagram showing an example of the internal configuration of the
異常スコア履歴解析部304は、異常スコア記録部5が出力した異常スコア履歴を解析する。具体的には、前記異常スコア履歴が所定の第二の期間に渡ってオフセット成分を有する場合に異常とする状態判定結果を出力すると共に、現在の異常スコアから前記オフセット成分を引いた差分が所定の閾値を上回る場合に誤検知要因有りとする誤検知要因判定結果を出力する。
The anomaly score
図9Aは、対象物の状態が正常である場合の異常スコア履歴の一例である。例えば、対象物に生じた影によって異常スコアが上昇する場合、太陽運動の周期性により、異常スコア履歴には周期的変動F901が生じる。影が生じない時間帯の異常スコアは小さい値をとる。図9Bは、対象物の状態が異常である場合の異常スコア履歴の一例である。影に起因する周期的変動F901に加え、真の異常に起因するオフセット成分F902が生じる。したがって、オフセット成分F902の有無によって、対象物の状態を判定することが可能である。 Figure 9A is an example of an anomaly score history when the state of the object is normal. For example, if the anomaly score increases due to a shadow cast on the object, periodic fluctuations F901 occur in the anomaly score history due to the periodicity of solar motion. The anomaly score during time periods when no shadows are cast takes on small values. Figure 9B is an example of an anomaly score history when the state of the object is abnormal. In addition to periodic fluctuations F901 caused by the shadow, an offset component F902 caused by the true anomaly occurs. Therefore, it is possible to determine the state of the object based on the presence or absence of offset component F902.
言い換えると、本実施例で用いるカメラ1は移動カメラであるものの、あたかも対象物を固定カメラで定点観測するかのように、影等の誤検知要因と真の異常を識別し、対象物の状態を判定することが可能である。 In other words, although the camera 1 used in this embodiment is a moving camera, it is possible to distinguish between false positives such as shadows and true abnormalities and determine the state of the object, as if the object were being observed at a fixed point by a fixed camera.
本実施例の構成では、所定の期間の異常スコア履歴を用いて状態判定を行うため、異常発生時の即時検知は困難である。一方で、例えば異常スコアが太陽運動の周期性等から予測可能な場合、現在の時刻で生じ得る影等の誤検知要因に起因する異常スコアを予測し、現在の時刻の異常スコアと前記予測した異常スコアとの差分を計算することで、異常発生時の即時検知が可能である。前記予測は、天気や季節などに応じて予測値を補正することで、より高精度に行うことが可能である。 In the configuration of this embodiment, since the state is judged using the anomaly score history for a specified period, it is difficult to detect an abnormality immediately when it occurs. On the other hand, for example, if the anomaly score can be predicted from the periodicity of solar motion, etc., it is possible to detect an abnormality immediately when it occurs by predicting the anomaly score caused by a false detection factor such as a shadow that may occur at the current time and calculating the difference between the anomaly score at the current time and the predicted anomaly score. The prediction can be made with higher accuracy by correcting the predicted value according to the weather, season, etc.
本実施例の構成では、所定の期間の異常スコア履歴を用いて状態判定を行うため、時間軸において高頻度に満遍なく異常スコアを蓄積することが望ましい。そのためには、異常スコア記録部5は複数の移動体間で共有する構成とし、複数の移動体で取得した異常スコアを統合利用することが有用である。
In the configuration of this embodiment, since the condition is judged using the anomaly score history for a specified period, it is desirable to accumulate anomaly scores evenly and frequently on the time axis. To achieve this, it is useful to configure the anomaly
以上説明したように、本発明では対象物に関する同一視点の撮影画像から求めた異常スコアを蓄積し、蓄積した異常スコア履歴を解析することで、異常と影等の誤検知要因を識別可能な沿線設備点検システムを実現可能である。
ここでは、影を誤検知要因として識別する場合を例示したが、例えば雨や雪を誤検知要因として識別する場合にも適用できる。雨や雪に起因する異常スコアの上昇は、時間経過により雨や雪がやむことで解消する。したがって、時間経過により一時的な異常スコアの上昇が解消してもオフセットがあれば、このオフセット分が異常を示していると判定可能である。
As described above, the present invention makes it possible to realize a line equipment inspection system that can distinguish between abnormalities and causes of false detection, such as shadows, by accumulating anomaly scores determined from images of an object taken from the same viewpoint and analyzing the accumulated anomaly score history.
Here, the case where a shadow is identified as a cause of false positive detection is exemplified, but the present invention can also be applied to the case where rain or snow is identified as a cause of false positive detection. An increase in the anomaly score caused by rain or snow will disappear when the rain or snow stops over time. Therefore, even if a temporary increase in the anomaly score disappears over time, if there is an offset, it is possible to determine that this offset indicates an anomaly.
図10は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、実施例1における影スコア算出部が用いる画像処理の良質な学習データを自動生成することが可能な沿線設備点検システムを提供することを目的とする。 Figure 10 is a diagram illustrating the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. This embodiment aims to provide a wayside facility inspection system capable of automatically generating high-quality learning data for image processing used by the shadow score calculation unit in embodiment 1.
[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図10に示す通り、図1に示す構成に加えて、学習データ生成部6、学習データ記録部7から構成されている。
[System configuration]
The structure and operation of a wayside facility inspection system according to an embodiment of the present invention will be described below. As shown in Fig. 10, the wayside facility inspection system according to the present embodiment is composed of a learning data generating unit 6 and a learning
沿線設備点検システムの動作ついて、図10を用いて説明する。実施例1乃至2と重複する動作の説明は割愛する。学習データ生成部6は、対象画像抽出部2が出力した対象画像に対して、判定部3が出力した誤検知要因判定結果、誤検知要因が影であれば影判定結果に基づき、自動で教師付けを行う。具体的には、実施例1における影スコア算出部が、例えば入力画像が影有りか影無しかの二値識別を行うDNNを用いる場合、影有りの対象画像に対して「1」、影無しの対象画像に対して「0」の教師データを付与する。学習データ生成部6によって教師付けされた学習データは、学習データ記録部7に記録される。
The operation of the lineside facility inspection system will be described with reference to FIG. 10. Descriptions of operations that overlap with those in Examples 1 and 2 will be omitted. The learning data generation unit 6 automatically performs teacher assignment for the target image output by the target
影有りか影無しかの二値識別を行うDNNの学習においては、影以外の要因が識別結果に与える影響を最小化すべく、影有りと影無しの両画像群において、影以外の条件を可能な限り揃えることが望ましい。本実施例の構成によれば、対象物に関する同一視点かつ異なる時刻の画像、すなわち、影等の誤検知要因の有無のみが異なる画像を数多く収集することが可能である。したがって、本実施例の構成によれば、DNNの学習において良質な学習データを自動生成することが可能である。 When training a DNN that performs a binary discrimination between whether a shadow is present or not, it is desirable to make the conditions other than shadows as consistent as possible in both groups of images with and without shadows in order to minimize the impact of factors other than shadows on the discrimination results. With the configuration of this embodiment, it is possible to collect a large number of images of the target object taken from the same viewpoint at different times, i.e., images that differ only in the presence or absence of factors that cause false detection, such as shadows. Therefore, with the configuration of this embodiment, it is possible to automatically generate high-quality training data in DNN training.
以上説明したように、本発明では実施例1における影スコア算出部が用いる画像処理の良質な学習データを自動生成することが可能な沿線設備点検システムを実現可能である。 As described above, the present invention makes it possible to realize a lineside facility inspection system that can automatically generate high-quality learning data for the image processing used by the shadow score calculation unit in Example 1.
図11は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、対象物の設置状態を判定可能な沿線設備点検システムを提供することを目的とする。 Figure 11 is a diagram illustrating the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. The purpose of this embodiment is to provide a wayside facility inspection system that can determine the installation state of an object.
[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図11に示す通り、図1に示す構成に加えて、位置情報取得部4、設置状態判定部8から構成されている。
[System configuration]
The structure and operation of a wayside facility inspection system according to an embodiment of the present invention will be described below. As shown in Fig. 11, the wayside facility inspection system according to the present embodiment is composed of a location
沿線設備点検システムの動作ついて、図11を用いて説明する。実施例1乃至3と重複する動作の説明は割愛する。対象画像抽出部2は、撮影画像から対象物を含む小領域の対象画像を抽出する際、対象画像と併せて抽出情報を出力する。抽出情報は、対象画像の抽出成否情報及び、抽出した場合は撮影画像中の抽出した座標情報を含む。設置状態判定部8は、内部に対象物の設置状態に関する情報、具体的には実世界における対象物の設置位置や高さに関する情報をデータベースとして備える。また、設置状態判定部8は、移動体の寸法やカメラ1の取付位置を示すデータを参照可能である。設置状態判定部8は、位置情報取得部4が出力した位置情報に基づき、前記データベースを参照し、撮影画像における対象物の出現領域を算出する。移動体が、対象物が出現するはずの位置に差し掛かっているとき、撮影画像の出現領域内から対象物を抽出した場合、設置状態判定結果は正常とする。反対に、移動体が、対象物が出現するはずの位置に差し掛かっているものの、撮影画像から対象画像を抽出できなかったり、抽出した場合も、抽出した座標情報が出現領域から離れていたりした場合、設置状態判定結果を異常として出力する。
The operation of the lineside facility inspection system will be described with reference to FIG. 11. The description of the operation overlapping with the first to third embodiments will be omitted. When the target
抽出した座標情報と出現領域との比較においては、例えば各々の中心座標を求め、両者のユークリッド距離を用いても良い。あるいは、Intersection over Union(IoU)を用い、両者の重なり具合を評価しても良い。 When comparing the extracted coordinate information with the appearance area, for example, the center coordinates of each may be calculated and the Euclidean distance between the two may be used. Alternatively, the degree of overlap between the two may be evaluated using Intersection over Union (IoU).
設置状態判定結果が異常となる例は、草木による隠れ、大変形、傾き、紛失などである。
図12Aは、鉄道車両の前方の撮影画像の一例である。カメラ1が取得した撮影画像F201において、標識F202の付近にある木F1201が生い茂り、標識F202を覆い隠しているため、対象物の出現領域F1202内で対象物を検出することができない。この場合、設置状態判定部8は、対象物の設置状態判定結果を異常として出力する。
Examples of the installation state determination result being abnormal include obscuration by vegetation, large deformation, tilt, and loss.
12A is an example of a captured image of the front of a railway vehicle. In a captured image F201 acquired by the camera 1, a tree F1201 near a sign F202 is overgrown and covers the sign F202, making it impossible to detect the object within the object appearance area F1202. In this case, the installation
図12Bは、鉄道車両の前方の撮影画像の一例である。カメラ1が取得した撮影画像F201において、標識F202が傾いており、対象物の出現領域F1202内で対象物を検出することができない。この場合も、設置状態判定部8は、対象物の設置状態判定結果を異常として出力する。
Figure 12B is an example of a captured image of the front of a railway vehicle. In the captured image F201 acquired by camera 1, the sign F202 is tilted, and the object cannot be detected within the object appearance area F1202. In this case, too, the installation
以上説明したように、本発明では対象物の設置状態を判定可能な沿線設備点検システムを実現可能である。
具体的には、開示の状態判定装置は、移動体に搭載され、走行空間の撮影画像を取得するカメラ1と、前記撮影画像において状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出部2と、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定部3と、を具備する。
この構成により、状態判定装置は、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別することができる。
As described above, the present invention makes it possible to realize a railway line facility inspection system capable of determining the installation state of an object.
Specifically, the disclosed condition determination device includes a camera 1 mounted on a moving body and configured to capture an image of the driving space, a target
With this configuration, the state determination device can use captured images of the object to detect abnormalities occurring in the object and distinguish between abnormalities and causes of erroneous detection, such as shadows.
また、前記判定部3は、1又は複数の誤検知要因について判定を行い、いずれかの誤検知要因が有るとの誤検知要因判定結果を得た場合には、対象物に異常が有るとの状態判定結果の出力を抑制する。
この動作により、誤検知要因に基づいて異常ありとの結果出力を行うことが無いので、不要な保守作業の発生を抑止し、アラートに対する信頼の低下を回避できる。
In addition, the
This operation prevents a result indicating an abnormality from being output based on the cause of a false detection, thereby preventing unnecessary maintenance work from occurring and avoiding a decrease in reliability of alerts.
また、前記誤検知要因が影である場合に、前記判定部3は、前記対象画像が入力され、画像処理によって前記対象物の正常状態からの逸脱度を示す異常スコアを算出する異常スコア算出部301と、前記対象画像が入力され、画像処理によって前記対象物に生じる影の程度を示す影スコアを算出する影スコア算出部302と、前記影スコアが所定の影スコア閾値より大きい場合に影有とする影判定結果を出力すると共に、前記異常スコアが所定の異常スコア閾値より大きく前記影判定結果が影有でない場合に異常とする状態判定結果を出力する統合判定部303と、を具備する構成としてもよい。
この構成では、移動体単体でリアルタイムに高精度な状態判定を実現できる。
Furthermore, when the cause of erroneous detection is a shadow, the
This configuration makes it possible to achieve highly accurate state determination in real time for a single moving object.
また、前記誤検知要因が影である場合に、前記移動体の現在の位置情報を取得する位置情報取得部4をさらに具備し、前記判定部3は、前記位置情報と前記異常スコア算出部が出力する異常スコアを関連付けて異常スコア記録部5に記録させると共に、前記位置情報に基づいて当該対象物に関する過去の所定の第一の期間の異常スコア履歴を前記異常スコア記録部5から取得し、前記判定部3は、前記異常スコア履歴が所定の第二の期間に渡ってオフセット成分を有する場合に異常とする状態判定結果を出力すると共に、現在の異常スコアから前記オフセット成分を引いた差分が所定の閾値を上回る場合に影有とする影判定結果を出力する異常スコア履歴解析部304をさらに具備する構成としてもよい。
この構成では、多数の移動体による異常スコアを統計的に利用して、簡易に状態判定をおこなうことができる。
In addition, the device may further include a location
In this configuration, the abnormality scores of a large number of moving objects are statistically utilized to easily determine the state.
また、影スコアを算出する画像処理の学習を目的として、前記影判定結果を用い、前記対象画像に教師情報を付与する学習データ生成部6と、前記学習データを記録する学習データ記録部7と、を具備する構成としてもよい。
この構成では、判定結果を用いて学習を行い、状態判定の精度を向上させることができる。
Furthermore, for the purpose of learning image processing for calculating a shadow score, the configuration may include a learning data generation unit 6 that uses the shadow determination result to add teacher information to the target image, and a learning
In this configuration, learning is performed using the judgment results, and the accuracy of state judgment can be improved.
また、前記移動体の現在の位置情報を取得する位置情報取得部4と、対象物の設置状態を判定する設置状態判定部8と、をさらに具備し、前記対象画像抽出部2は、撮影画像から対象物を含む小領域の対象画像を抽出する際、対象画像と併せて、対象画像の抽出成否情報及び抽出した場合は撮影画像中の抽出した座標情報とを含む抽出情報を出力し、前記設置状態判定部8は、対象物の設置位置及び/又は高さを含む設置状態に関する情報をデータベースとして備え、位置情報取得部4が出力した位置情報と前記データベースに基づいて撮影画像における対象物の出現領域を算出し、前記出現領域と前記抽出情報とを比較して、撮影画像の出現領域内から対象物を抽出した場合に正常、対象物が出現するはずにも関わらず撮影画像から対象画像を抽出できないあるいは抽出した座標情報が出現領域から離れている場合に異常、とする設置状態判定結果を出力することとしてもよい。
この構成では、対象物の位置の異常も判定することができる。また、位置の異常については、汚れや影などの対象物の外観に関する判定とは独立に行うことができる。
The device further includes a position
This configuration also allows for the determination of positional anomalies of the object, which can be done independently of the determination of the object's appearance, such as stains or shadows.
移動体は、一例として鉄道車両である。また、状態判定の対象物は、一例として標識あるいは信号機である。
鉄道車両にカメラ1を設置すれば、レール上を走行することがカメラ1の位置の特定に寄与する。このため、実施例2乃至実施例4では、同一視点からの画像を容易に収集できる。また、実施例4における「対象物が出現するはずの位置」を簡易且つ高精度に求めることができる。標識や信号機のように、外観上の異常がその機能を直接に損なう対象物であれば、その状態の判定が特に重要である。
An example of the moving body is a railway vehicle, and an example of the object of state determination is a sign or a traffic light.
If the camera 1 is installed on a railway vehicle, traveling on the rails contributes to identifying the position of the camera 1. Therefore, in the second to fourth embodiments, images from the same viewpoint can be easily collected. Also, in the fourth embodiment, the "position where the object is supposed to appear" can be easily and highly accurately obtained. For objects such as signs and traffic lights, where an abnormality in appearance directly impairs their function, it is particularly important to determine their condition.
上述した実施形態では、主に本発明を、鉄道の運転支援や無人運転の実現に向け、沿線設備の状態判定(正常/異常)を自動で行うための沿線設備点検システムに適用した場合について説明したが、他の用途に適用しても良い。例えば、高速道路を走行する自動車、滑走路を走行する航空機、電線沿いを飛行するドローンなどを対象とした運転支援システム、あるいは保守支援システムに適用しても良い。 In the above-described embodiment, the present invention has been mainly applied to a wayside facility inspection system for automatically determining the state (normal/abnormal) of wayside facilities to realize railway operation assistance and unmanned operation, but it may also be applied to other purposes. For example, it may be applied to a driving assistance system or a maintenance assistance system for automobiles traveling on highways, aircraft traveling on runways, drones flying along power lines, etc.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiments, but includes various modified examples. For example, the above-described embodiments have been described in detail to clearly explain the present invention, and are not necessarily limited to those having all of the configurations described. It is also possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. It is also possible to add, delete, or replace part of the configuration of each embodiment with other configurations.
また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Furthermore, each of the above configurations may be configured in part or in whole as hardware, or may be configured to be realized by executing a program on a processor. Furthermore, the control lines and information lines shown are those considered necessary for the explanation, and do not necessarily show all of the control lines and information lines in the product. In reality, it can be considered that almost all of the configurations are interconnected.
1・・・・・・・・カメラ
2・・・・・・・・対象画像抽出部
3・・・・・・・・判定部
4・・・・・・・・位置情報取得部
5・・・・・・・・異常スコア記録部
6・・・・・・・・学習データ生成部
7・・・・・・・・学習データ記録部
8・・・・・・・・設置状態判定部
301・・・・・・異常スコア算出部
302・・・・・・影スコア算出部
303・・・・・・統合判定部
304・・・・・・異常スコア履歴解析部
F201・・・・・撮影画像
F202・・・・・標識
F203・・・・・汚れ
F204・・・・・対象画像
F205・・・・・影
F901・・・・・周期的変動
F902・・・・・オフセット成分
F1201・・・・木
F1202・・・・対象物の出現領域
S1・・・・・・・システム動作継続確認ステップ
S2・・・・・・・映像フレーム取得ステップ
S3・・・・・・・対象画像抽出ステップ
S4・・・・・・・判定ステップ
S401・・・・・異常スコア算出ステップ
S402・・・・・影スコア算出ステップ
S403・・・・・影スコア比較ステップ
S404・・・・・影判定結果(影有り)設定ステップ
S405・・・・・影判定結果(影無し)設定ステップ
S406・・・・・異常スコア比較ステップ
S407・・・・・影判定結果確認ステップ
S408・・・・・状態判定結果(異常)設定ステップ
S409・・・・・状態判定結果(正常)設定ステップ
1.
Claims (9)
前記撮影画像において状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出部と、
前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定部と、
を具備することを特徴とする状態判定装置。 A camera mounted on the vehicle for capturing images of the vehicle's travel space;
a target image extraction unit that extracts a target image of a small region including a target object for state determination from the captured image;
a determination unit that performs image processing on the target image and outputs a state determination result indicating the presence or absence of an abnormality in the target object and an erroneous detection factor determination result indicating the presence or absence of an erroneous detection factor;
A state determination device comprising:
前記判定部は、1又は複数の誤検知要因について判定を行い、いずれかの誤検知要因が有るとの誤検知要因判定結果を得た場合には、対象物に異常が有るとの状態判定結果の出力を抑制すること
を特徴とする状態判定装置。 The state determination device according to claim 1 ,
The judgment unit judges one or more factors of false detection, and when a false detection factor judgment result indicating the presence of any of the factors of false detection is obtained, suppresses output of a status judgment result indicating the presence of an abnormality in the object.
前記誤検知要因が影である場合であり、
前記判定部は、
前記対象画像が入力され、画像処理によって前記対象物の正常状態からの逸脱度を示す異常スコアを算出する異常スコア算出部と、
前記対象画像が入力され、画像処理によって前記対象物に生じる影の程度を示す影スコアを算出する影スコア算出部と、
前記影スコアが所定の影スコア閾値より大きい場合に影有とする影判定結果を出力すると共に、前記異常スコアが所定の異常スコア閾値より大きく前記影判定結果が影有でない場合に異常とする状態判定結果を出力する統合判定部と、を具備すること
を特徴とする状態判定装置。 The state determination device according to claim 1 ,
The cause of the false detection is a shadow,
The determination unit is
an anomaly score calculation unit to which the target image is input and which calculates an anomaly score indicating a deviation degree of the target object from a normal state by image processing;
a shadow score calculation unit that receives the target image and calculates a shadow score indicating the degree of a shadow generated on the target object by image processing;
an integrated judgment unit that outputs a shadow judgment result indicating the presence of a shadow when the shadow score is greater than a predetermined shadow score threshold, and that outputs a status judgment result indicating an abnormality when the abnormality score is greater than a predetermined abnormality score threshold and the shadow judgment result indicates that a shadow is not present.
前記誤検知要因が影である場合であり、
前記移動体の現在の位置情報を取得する位置情報取得部をさらに具備し、
前記判定部は、
前記位置情報と前記異常スコア算出部が出力する異常スコアを関連付けて異常スコア記録部に記録させると共に、前記位置情報に基づいて当該対象物に関する過去の所定の第一の期間の異常スコア履歴を前記異常スコア記録部から取得し、
前記判定部は、
前記異常スコア履歴が所定の第二の期間に渡ってオフセット成分を有する場合に異常とする状態判定結果を出力すると共に、現在の異常スコアから前記オフセット成分を引いた差分が所定の閾値を上回る場合に影有とする影判定結果を出力する異常スコア履歴解析部をさらに具備すること
を特徴とする状態判定装置。 The state determination device according to claim 1 ,
The cause of the false detection is a shadow,
A location information acquisition unit that acquires current location information of the moving object is further provided.
The determination unit is
causing an abnormality score recording unit to record the position information and the abnormality score output by the abnormality score calculation unit in association with each other, and acquiring an abnormality score history for the object during a predetermined first period in the past from the abnormality score recording unit based on the position information;
The determination unit is
The status determination device further comprises an abnormality score history analysis unit that outputs a status determination result that is abnormal when the abnormality score history has an offset component over a predetermined second period, and outputs a shadow determination result that is an influence when the difference obtained by subtracting the offset component from the current abnormality score exceeds a predetermined threshold.
前記影スコアを算出する画像処理の学習を目的として、前記影判定結果を用い、前記対象画像に教師情報を付与する学習データ生成部と、
前記学習データを記録する学習データ記録部と、を具備すること
を特徴とする状態判定装置。 The state determination device according to claim 3 or 4,
a learning data generation unit that uses the shadow determination result to add teacher information to the target image for the purpose of learning image processing for calculating the shadow score;
and a learning data recording unit that records the learning data.
前記移動体の現在の位置情報を取得する位置情報取得部と、
対象物の設置状態を判定する設置状態判定部と、
をさらに具備し、
前記対象画像抽出部は、撮影画像から対象物を含む小領域の対象画像を抽出する際、対象画像と併せて、対象画像の抽出成否情報及び抽出した場合は撮影画像中の抽出した座標情報とを含む抽出情報を出力し、
前記設置状態判定部は、対象物の設置位置及び/又は高さを含む設置状態に関する情報をデータベースとして備え、位置情報取得部が出力した位置情報と前記データベースに基づいて撮影画像における対象物の出現領域を算出し、前記出現領域と前記抽出情報とを比較して、撮影画像の出現領域内から対象物を抽出した場合に正常、対象物が出現するはずにも関わらず撮影画像から対象画像を抽出できないあるいは抽出した座標情報が出現領域から離れている場合に異常、とする設置状態判定結果を出力すること
を特徴とする状態判定装置。 The state determination device according to claim 1 ,
a location information acquisition unit that acquires current location information of the moving object;
an installation state determination unit that determines an installation state of an object;
Further comprising:
the target image extraction unit, when extracting a target image of a small region including an object from the photographed image, outputs extraction information including information on whether the target image was extracted successfully and, if extracted, coordinate information of the extracted target image in the photographed image together with the target image;
The installation state determination unit has a database of information regarding the installation state including the installation position and/or height of the object, calculates the appearance area of the object in the captured image based on the position information output by the position information acquisition unit and the database, compares the appearance area with the extraction information, and outputs an installation state determination result indicating that the installation state is normal when the object is extracted from within the appearance area of the captured image, and that the installation state is abnormal when the object image cannot be extracted from the captured image even though the object should appear or the extracted coordinate information is away from the appearance area.
移動体の走行空間の映像フレームを取得する映像フレーム取得ステップと、
前記映像フレームにおいて状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出ステップと、
前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定ステップと、
を具備することを特徴とする状態判定方法。
The state determination device is
An image frame acquisition step of acquiring an image frame of a traveling space of a moving object;
a target image extraction step of extracting a target image of a small region including a target object for state determination from the video frame;
a determination step of performing image processing on the target image and outputting a state determination result indicating the presence or absence of an abnormality in the target object and an erroneous detection factor determination result indicating the presence or absence of an erroneous detection factor;
A state determination method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023034935A JP2024126526A (en) | 2023-03-07 | 2023-03-07 | State determination device and state determination method |
PCT/JP2023/041447 WO2024185226A1 (en) | 2023-03-07 | 2023-11-17 | State determination device and state determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023034935A JP2024126526A (en) | 2023-03-07 | 2023-03-07 | State determination device and state determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2024126526A true JP2024126526A (en) | 2024-09-20 |
JP2024126526A5 JP2024126526A5 (en) | 2025-03-11 |
Family
ID=92674664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023034935A Pending JP2024126526A (en) | 2023-03-07 | 2023-03-07 | State determination device and state determination method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024126526A (en) |
WO (1) | WO2024185226A1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014007175A1 (en) * | 2012-07-03 | 2014-01-09 | クラリオン株式会社 | Vehicle-mounted environment recognition device |
JP6776513B2 (en) * | 2015-08-19 | 2020-10-28 | ソニー株式会社 | Vehicle control device, vehicle control method, information processing device, and traffic information provision system |
US10783385B2 (en) * | 2018-05-23 | 2020-09-22 | International Business Machines Corporation | Automated crowd sourced tracking of signage conditions by vehicular imaging |
-
2023
- 2023-03-07 JP JP2023034935A patent/JP2024126526A/en active Pending
- 2023-11-17 WO PCT/JP2023/041447 patent/WO2024185226A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024185226A1 (en) | 2024-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ghahremannezhad et al. | Real-time accident detection in traffic surveillance using deep learning | |
JP7343531B2 (en) | Method and system for detecting railway obstacles based on rail segmentation | |
US11620743B2 (en) | Systems and methods for determining defects in physical objects | |
EP3048559A1 (en) | Method and system for detecting a rail track | |
CN112242058B (en) | Target abnormity detection method and device based on traffic monitoring video and storage medium | |
US20240034372A1 (en) | Optical railway detection | |
CN116461571B (en) | Obstacle sensing system based on vision, radio frequency positioning and multi-line laser fusion | |
CN117152971A (en) | AI traffic signal optimization method based on high-altitude panoramic video | |
US8229170B2 (en) | Method and system for detecting a signal structure from a moving video platform | |
CN116740833A (en) | Line inspection and card punching method based on unmanned aerial vehicle | |
Makhmutova et al. | Intelligent detection of object's anomalies for road surveilance cameras | |
CN116485799A (en) | Method and system for detecting foreign matter coverage of railway track | |
KR20200056879A (en) | apparatus and method for automatically detecting bird's cast | |
CN112257683A (en) | Cross-mirror tracking method for vehicle running track monitoring | |
WO2024185226A1 (en) | State determination device and state determination method | |
EP4334186B1 (en) | Automatic digital inspection of railway environment | |
CN114581779B (en) | A vehicle-mounted non-contact contact wire suspension state detection method and system | |
CN118262297A (en) | Automatic acquisition method, system and equipment for dominant offence of inland waterway ship based on AI visual identification | |
CN111062268A (en) | Trackside object intrusion detection method and system | |
US11645838B2 (en) | Object detection system, object detection method, and program | |
Pyykönen et al. | Traffic monitoring and modeling for intersection safety | |
CN117494029B (en) | Road casting event identification method and device | |
Wee et al. | Integrating object detection and optical flow analysis for real-time road accident detection | |
JP7384181B2 (en) | Image collection device, image collection method, and computer program for image collection | |
JP2002300573A (en) | Video diagnostic system on-board of video monitor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250303 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250303 |