[go: up one dir, main page]

JP2024126526A - State determination device and state determination method - Google Patents

State determination device and state determination method Download PDF

Info

Publication number
JP2024126526A
JP2024126526A JP2023034935A JP2023034935A JP2024126526A JP 2024126526 A JP2024126526 A JP 2024126526A JP 2023034935 A JP2023034935 A JP 2023034935A JP 2023034935 A JP2023034935 A JP 2023034935A JP 2024126526 A JP2024126526 A JP 2024126526A
Authority
JP
Japan
Prior art keywords
shadow
score
unit
state determination
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023034935A
Other languages
Japanese (ja)
Other versions
JP2024126526A5 (en
Inventor
章悟 喜多村
Shogo Kitamura
桂一 廣木
Keiichi Hiroki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2023034935A priority Critical patent/JP2024126526A/en
Priority to PCT/JP2023/041447 priority patent/WO2024185226A1/en
Publication of JP2024126526A publication Critical patent/JP2024126526A/en
Publication of JP2024126526A5 publication Critical patent/JP2024126526A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/06Indicating or recording the setting of track apparatus, e.g. of points, of signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)

Abstract

To provide a state determination device and method capable of detecting abnormality occurring in an object and identifying the abnormality and an erroneous detection factor such as a shadow by using a photographic image of the object.SOLUTION: A state determination device is used, including a camera mounted on a mobile body to acquire a photographic image in a travel space, an object image extraction part for extracting an object image of a small area including an object of state determination in the photographic image, and a determination part for performing image processing on the object image and outputting a state determination result showing the presence/absence of abnormality of the object and an erroneous detection factor determination result showing the presence/absence of an erroneous detection factor.SELECTED DRAWING: Figure 1

Description

本発明は、状態判定装置及び状態判定方法に関する。 The present invention relates to a state determination device and a state determination method.

本技術分野の背景技術として、特開2021-124751(特許文献1)がある。該公報には、「撮像部は、鉄道車両に設けられ、鉄道車両の走行経路に沿って設けられる鉄道設備を撮像する。~中略~ 撮像部が撮像した動画と車両位置とを関連付けるとともに、動画を符号化する。~中略~ 復号化された第1動画に含まれる第1画像と、復号化された第2動画に含まれる第2画像と、の間の動きベクトルを算出し、動きベクトルに基づいて、鉄道設備の異常を診断する。」と記載されている。 JP 2021-124751 (Patent Document 1) is a background technology of this technical field. This publication states that "The imaging unit is provided on the railway vehicle and captures images of railway equipment installed along the route of the railway vehicle. ... The video captured by the imaging unit is associated with the vehicle position and the video is encoded. ... The motion vector between the first image included in the decoded first video and the second image included in the decoded second video is calculated, and an abnormality in the railway equipment is diagnosed based on the motion vector."

特開2021-124751号公報JP 2021-124751 A

状態判定装置及び状態判定方法の主な用途として、例えば、鉄道の運転支援や無人運転の実現に向け、沿線設備の状態判定(正常/異常)を自動で行うことを目的とした、沿線設備点検システムがある。沿線設備点検システムは、鉄道車両にカメラを搭載し、移動体内もしくは移動体外における解析装置を用いて、撮影画像から状態判定を行う手法が有用である。 The main applications of the status determination device and status determination method include, for example, wayside equipment inspection systems that aim to automatically determine the status (normal/abnormal) of wayside equipment in order to realize railway operation support and unmanned operation. For wayside equipment inspection systems, a useful method is to mount a camera on a railway vehicle and use an analysis device inside or outside the vehicle to determine the status from the captured images.

前記特許文献1は、「撮像部は、鉄道車両に設けられ、鉄道車両の走行経路に沿って設けられる鉄道設備を撮像する。~中略~ 撮像部が撮像した動画と車両位置とを関連付けるとともに、動画を符号化する。~中略~ 復号化された第1動画に含まれる第1画像と、復号化された第2動画に含まれる第2画像と、の間の動きベクトルを算出し、動きベクトルに基づいて、鉄道設備の異常を診断する。」と記載されている。しかしながら、設備表面の汚れといった、動きベクトルに表れない異常の検知は困難であり、改善の余地がある。特に、設備表面に生じた影等と異常とをいかに識別するかは重要な点の一つである。例えば、設備表面に生じた影と汚れとを識別できず、影を異常と判定すると、不要な保守作業が発生してしまう。また、不要なアラートが頻発すると、アラートに対する信頼の低下を引き起こす。
本発明は、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別可能な状態判定装置及び状態判定方法の提供を目的とする。
The above-mentioned Patent Document 1 describes that "the imaging unit is provided on the railway vehicle and captures railway equipment installed along the railway vehicle's travel route. The video captured by the imaging unit is associated with the vehicle position and the video is encoded. A motion vector between a first image included in the decoded first video and a second image included in the decoded second video is calculated, and an abnormality in the railway equipment is diagnosed based on the motion vector." However, it is difficult to detect an abnormality that does not appear in the motion vector, such as dirt on the surface of the equipment, and there is room for improvement. In particular, how to distinguish between a shadow or the like generated on the surface of the equipment and an abnormality is one of the important points. For example, if it is not possible to distinguish between a shadow generated on the surface of the equipment and dirt, and the shadow is determined to be an abnormality, unnecessary maintenance work will occur. In addition, if unnecessary alerts are frequently generated, it will cause a decrease in reliability of the alert.
An object of the present invention is to provide a state determination device and a state determination method that can detect abnormalities occurring in an object using a captured image of the object and distinguish between abnormalities and causes of erroneous detection such as shadows.

上記目的を解決するために、代表的な本発明の状態判定装置の一つは、移動体に搭載され、走行空間の撮影画像を取得するカメラと、前記撮影画像において状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出部と、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定部と、を具備することを特徴とする。
また、代表的な本発明の状態判定方法の一つは、状態判定装置が、移動体の走行空間の映像フレームを取得する映像フレーム取得ステップと、前記映像フレームにおいて状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出ステップと、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定ステップと、を具備することを特徴とする。
In order to achieve the above object, one representative status determination device of the present invention is characterized by comprising: a camera mounted on a moving body and acquiring captured images of the driving space; a target image extraction unit that extracts a target image of a small area including an object for status determination from the captured images; and a determination unit that performs image processing on the target image and outputs a status determination result indicating the presence or absence of an abnormality in the object and a false detection factor determination result indicating the presence or absence of a false detection factor.
Furthermore, one representative status determination method of the present invention is characterized in that it includes a video frame acquisition step in which a status determination device acquires a video frame of a traveling space of a moving body, a target image extraction step in which a target image of a small area including an object for status determination in the video frame is extracted, and a determination step in which image processing is performed on the target image, and an output of a status determination result indicating the presence or absence of an abnormality in the object and an erroneous detection factor determination result indicating the presence or absence of an erroneous detection factor.

本発明によれば、本発明によれば、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別することが可能な状態判定装置及び方法を提供することができる。 According to the present invention, it is possible to provide a condition determination device and method that can use a captured image of an object to detect abnormalities occurring in the object and distinguish between abnormalities and causes of erroneous detection, such as shadows.

本発明の第1の実施形態の沿線設備点検システムの全体構成を説明する図である。1 is a diagram illustrating an overall configuration of a railway line facility inspection system according to a first embodiment of the present invention. FIG. 鉄道車両の前方の撮影画像の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a captured image of the front of a railway vehicle. 対象画像の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a target image. 鉄道車両の前方の撮影画像の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a captured image of the front of a railway vehicle. 対象画像の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a target image. 本発明の第1の実施形態の沿線設備点検システムにおける判定部の内部構成を説明する図である。2 is a diagram illustrating an internal configuration of a determination unit in the trackside facility inspection system according to the first embodiment of the present invention. FIG. 本発明の第1の実施形態の沿線設備点検システムにおける統合判定部の内部動作の一例を示す表である。4 is a table showing an example of an internal operation of an integrated determination unit in the lineside facility inspection system according to the first embodiment of the present invention. 本発明の第1の実施形態の沿線設備点検システムにおける内部処理の一例を説明するフローチャートである。4 is a flowchart illustrating an example of internal processing in the trackside facility inspection system according to the first embodiment of the present invention. 本発明の第1の実施形態の沿線設備点検システムにおける判定ステップの内部処理の一例を説明するフローチャートである。5 is a flowchart illustrating an example of internal processing of a determination step in the lineside facility inspection system according to the first embodiment of the present invention. 本発明の第2の実施形態の沿線設備点検システムの全体構成を説明する図である。FIG. 11 is a diagram illustrating an overall configuration of a railway line facility inspection system according to a second embodiment of the present invention. 本発明の第2の実施形態の沿線設備点検システムにおける判定部の内部構成を説明する図である。13 is a diagram illustrating an internal configuration of a determination unit in a wayside facility inspection system according to a second embodiment of the present invention. FIG. 対象物の状態が正常である場合の異常スコア履歴の一例を示す模式図である。13 is a schematic diagram showing an example of an anomaly score history when the state of an object is normal. FIG. 対象物の状態が異常である場合の異常スコア履歴の一例を示す模式図である。13 is a schematic diagram showing an example of an abnormality score history when the state of an object is abnormal. FIG. 本発明の第3の実施形態の沿線設備点検システムの全体構成を説明する図である。FIG. 13 is a diagram illustrating the overall configuration of a trackside facility inspection system according to a third embodiment of the present invention. 本発明の第4の実施形態の沿線設備点検システムの全体構成を説明する図である。FIG. 13 is a diagram illustrating the overall configuration of a trackside facility inspection system according to a fourth embodiment of the present invention. 鉄道車両の前方の撮影画像の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a captured image of the front of a railway vehicle. 鉄道車両の前方の撮影画像の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a captured image of the front of a railway vehicle.

以下、本発明の実施形態の例を、図面を用いて説明する。 Below, an example embodiment of the present invention will be described with reference to the drawings.

本実施例では、本発明の状態判定装置及び方法の主な用途である沿線設備点検システムについて説明する。沿線設備点検システムは、鉄道車両の前方の撮影映像を用いて、沿線設備に異常が生じているか否かを判定し、設備管理や補修計画に役立てることを目的とする。 In this embodiment, we will explain a wayside equipment inspection system, which is the main application of the status determination device and method of the present invention. The wayside equipment inspection system uses captured video of the area in front of the railway vehicle to determine whether or not there is an abnormality in wayside equipment, and uses the information to help with equipment management and repair planning.

図1は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別可能な沿線設備点検システムを提供することを目的とする。 Figure 1 is a diagram explaining the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. The purpose of this embodiment is to provide a wayside facility inspection system that uses photographed images of the object to detect abnormalities occurring in the object and is capable of distinguishing between abnormalities and causes of false detection such as shadows.

[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図1に示す通り、カメラ1、対象画像抽出部2、判定部3から構成されている。
沿線設備点検システムの動作ついて、図1を用いて説明する。カメラ1は、移動体である鉄道車両に搭載され、鉄道車両の前方を主とした走行空間の撮影画像を取得する。対象画像抽出部2は、対象物にフォーカスして点検を行うために、撮影画像から対象物を含む小領域の対象画像を抽出する。判定部3は、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する。
[System configuration]
The structure and operation of a wayside facility inspection system according to an embodiment of the present invention will be described below. The wayside facility inspection system according to the present embodiment is comprised of a camera 1, a target image extraction unit 2, and a determination unit 3, as shown in FIG.
The operation of the wayside facility inspection system will be described with reference to Fig. 1. The camera 1 is mounted on a moving railcar and captures images of the travel space, mainly in front of the railcar. The target image extraction unit 2 extracts a target image of a small area including the target from the captured image in order to focus on the target for inspection. The determination unit 3 performs image processing on the target image and outputs a state determination result indicating the presence or absence of an abnormality in the target and a false detection factor determination result indicating the presence or absence of a false detection factor.

沿線設備点検システムの対象物は、例えば、標識、信号機、地上子などである。検知対象の異常は、例えば、汚れ、欠損、錆、塗装剥がれ、草木による隠れなどである。
前記カメラ1の搭載位置は、例えば鉄道車両の運転台付近の車内、車外、さらには屋根上等に搭載することで、鉄道車両の前方全体を撮影し、広範の設備を対象物とすることが可能である。あるいは、車両側面に搭載することで、対象物により近い位置から精細に撮影することが可能となる。あるいは、鉄道車両の前方に限らず、後方を撮影するカメラを搭載することで、対向線路の沿線設備を対象物とすることが可能である。
The target objects of the wayside facility inspection system are, for example, signs, traffic signals, ground coils, etc. The abnormalities of the detection target are, for example, dirt, defects, rust, peeling paint, obscuration by vegetation, etc.
The mounting position of the camera 1 may be, for example, inside or outside the vehicle near the driver's cab of the railroad vehicle, or even on the roof, so that the entire front of the railroad vehicle can be photographed, and a wide range of facilities can be taken as the target object. Alternatively, mounting the camera on the side of the vehicle makes it possible to take detailed photographs of the target object from a position closer to the target object. Alternatively, mounting a camera that photographs not only the front of the railroad vehicle but also the rear can make it possible to target facilities along the opposing track.

前記カメラ1は、使用するレンズを望遠にしたり、高解像度のイメージセンサを使用したりすることで、遠距離にある対象物を点検することが可能である。特に、鉄道車両の運転中に本システムを動作させており、運転に支障し得る異常を早期に検知したい場合、遠距離から対象物を点検できることが望ましい。 The camera 1 can inspect objects at a long distance by using a telephoto lens or a high-resolution image sensor. In particular, when the system is operated while a railway vehicle is in operation and it is desired to detect abnormalities that may interfere with operation at an early stage, it is desirable to be able to inspect objects from a long distance.

前記対象画像抽出部2は、例えば対象物が速度標識のように所定の文字を有する場合、Optical Character Recognition(OCR)を用いて文字を認識することで、対象画像を抽出しても良い。あるいは、Deep Neural Network(DNN)をはじめとする画像処理技術を用いて、撮影画像から対象物の位置及び大きさの情報を出力したり、セマンティックセグメンテーションによって対象物が存在する画素を検出したりすることで、対象画像を抽出しても良い。 For example, if the object has specific characters such as a speed sign, the target image extraction unit 2 may extract the target image by recognizing the characters using Optical Character Recognition (OCR). Alternatively, the target image may be extracted by using image processing techniques such as Deep Neural Network (DNN) to output information on the position and size of the object from the captured image, or by detecting pixels in which the object exists using semantic segmentation.

誤検知要因は、例えば、撮影時刻が昼間であれば、太陽光と周囲の構造物に起因する影、太陽光の反射、雨、雪などがあり、撮影時刻が夜間であれば、沿線を走る自動車のヘッドライトと周囲の構造物に起因する影、前記ヘッドライトの反射などがある。以降は、太陽光と周囲の構造物に起因する影を誤検知要因として記載するが、本発明は同様の構成及び方法で他の誤検知要因に対しても適用可能である。 Causes of false detection include, for example, if the image is taken during the day, shadows caused by sunlight and surrounding structures, sunlight reflection, rain, snow, etc., and if the image is taken at night, shadows caused by headlights of cars traveling along the line and surrounding structures, reflections of the headlights, etc. In the following, shadows caused by sunlight and surrounding structures are described as causes of false detection, but the present invention can be applied to other causes of false detection using a similar configuration and method.

図2Aは、鉄道車両の前方の撮影画像の一例である。カメラ1が取得した撮影画像F201には、標識F202が写っている。標識F202には、汚れF203が生じている。対象画像抽出部2は、撮影画像F201から標識F202を検出し、図2Bに示す対象画像F204を出力する。判定部3は、前記対象画像F204から汚れF203を検知し、異常有りとする状態判定結果を出力する。 Figure 2A is an example of a captured image of the front of a railway vehicle. A sign F202 is captured in the captured image F201 acquired by the camera 1. A stain F203 has appeared on the sign F202. The target image extraction unit 2 detects the sign F202 from the captured image F201, and outputs the target image F204 shown in Figure 2B. The determination unit 3 detects the stain F203 from the target image F204, and outputs a state determination result indicating that an abnormality exists.

図2Cは、鉄道車両の前方の撮影画像の一例である。標識F202には、付近の電線に起因する影F205が生じている。影F205の存在は対象物にとって異常ではないが、異常の誤検知要因となり得る。そこで判定部3は、図2Dに示す対象画像F204から影F205を異常と判断し得る場合も、別途の処理によって影の存在を認め、これらの結果から統合判断して状態判定結果は正常として出力する。 Figure 2C is an example of a captured image of the front of a railway vehicle. A shadow F205 is cast on sign F202 by nearby power lines. The presence of the shadow F205 is not abnormal for the object, but it can be a cause of false detection of an abnormality. Therefore, even if the shadow F205 can be judged to be abnormal from the object image F204 shown in Figure 2D, the judgment unit 3 recognizes the presence of the shadow through separate processing, and makes an integrated judgment from these results to output the status judgment result as normal.

図3は、判定部3の内部構成の一例を示す図である。判定部3は、異常スコア算出部301、影スコア算出部302、統合判定部303から構成されている。
異常スコア算出部301は、画像処理によって対象物の正常状態からの逸脱度を示す異常スコアを算出する。影スコア算出部302は、画像処理によって対象物に生じる影の程度を示す影スコアを算出する。統合判定部303は、前記異常スコアと前記影スコアを用い、影に起因する異常スコアの上昇を考慮した上で、状態判定結果及び影判定結果を出力する。
3 is a diagram showing an example of the internal configuration of the determination unit 3. The determination unit 3 is composed of an abnormality score calculation unit 301, a shadow score calculation unit 302, and an integrated determination unit 303.
The abnormality score calculation unit 301 calculates an abnormality score indicating the degree of deviation from the normal state of the object by image processing. The shadow score calculation unit 302 calculates a shadow score indicating the degree of a shadow generated on the object by image processing. The integrated judgment unit 303 uses the abnormality score and the shadow score, and outputs a state judgment result and a shadow judgment result after taking into account an increase in the abnormality score due to the shadow.

異常スコア算出部301を設けない場合は、例えば、対象物の抽出の信頼度が低い場合は異常が生じていると見なし、前記対象画像抽出部2におけるDNNの信頼度の逆数を異常スコアとしても良い。
異常スコア算出部301を設ける場合、異常スコア算出部301が用いる画像処理は、一般に異常な画像の大量収集が困難なことから、正常な画像のみを学習に用い、正常状態からの逸脱度を異常スコアとして出力可能なDNNを用いる手法が考えられる。例えば、正常な画像の再構成を学習させたAutoencoder(AE)やGenerative Adversarial Network(GAN)を用い、再構成誤差に基づき異常スコアを出力しても良い。しかしながら、これらの手法においては、対象物の設置場所、周囲の構造物、撮影時間等の条件が合致した際に生じる影を異常と誤検知する可能性がある。
影スコア算出部302は、例えば入力画像が影有りか影無しかの二値識別を行うDNNを用い、影有りらしさの信頼度を影スコアとしても良い。
If the anomaly score calculation unit 301 is not provided, for example, if the reliability of the extraction of the object is low, it may be assumed that an abnormality has occurred, and the inverse of the reliability of the DNN in the target image extraction unit 2 may be used as the anomaly score.
When the anomaly score calculation unit 301 is provided, since it is generally difficult to collect a large amount of abnormal images, the image processing used by the anomaly score calculation unit 301 may use only normal images for learning and use a DNN that can output the deviation from the normal state as an anomaly score. For example, an Autoencoder (AE) or Generative Adversarial Network (GAN) that has learned to reconstruct normal images may be used to output an anomaly score based on a reconstruction error. However, in these methods, there is a possibility that a shadow that occurs when conditions such as the installation location of the object, surrounding structures, and shooting time match may be erroneously detected as an anomaly.
The shadow score calculation unit 302 may use, for example, a DNN that performs binary discrimination of whether an input image has a shadow or not, and may use the confidence of the likelihood of a shadow as the shadow score.

図4は、統合判定部303の内部動作の一例を示す表である。異常スコアは、所定の異常スコア閾値との大小に基づき、2カテゴリーに分類する。同様にして、影スコアは、所定の影スコア閾値との大小に基づき、2カテゴリーに分類する。したがって、異常スコアと影スコアの出力は、2×2=4パターンに分類される。このうち、異常スコアと影スコアのいずれも大きいパターンは、異常スコアの上昇は影に起因していると判断し、対象物の状態は正常とする。一方で、異常スコアは大きいものの影スコアは小さいパターンは、異常スコアの上昇は影ではなく真の異常要因に起因していると判断し、対象物の状態は異常とする。異常スコアが小さいパターンは、対象物の状態は正常とする。統合判定部303は、これらの状態パターンを状態判定結果として出力する。また、影スコアの分類結果を影判定結果として出力する。 Figure 4 is a table showing an example of the internal operation of the integrated judgment unit 303. The abnormality score is classified into two categories based on whether it is larger or smaller than a predetermined abnormality score threshold. Similarly, the shadow score is classified into two categories based on whether it is larger or smaller than a predetermined shadow score threshold. Therefore, the output of the abnormality score and the shadow score are classified into 2 x 2 = 4 patterns. Of these, in a pattern in which both the abnormality score and the shadow score are large, it is determined that the increase in the abnormality score is caused by the shadow, and the state of the object is determined to be normal. On the other hand, in a pattern in which the abnormality score is large but the shadow score is small, it is determined that the increase in the abnormality score is caused by the true abnormality factor, not the shadow, and the state of the object is determined to be abnormal. In a pattern in which the abnormality score is small, the state of the object is determined to be normal. The integrated judgment unit 303 outputs these state patterns as state judgment results. In addition, it outputs the classification result of the shadow score as a shadow judgment result.

図4に示す統合判定部303の内部動作の一例は、本システムを運転支援目的で使用するか保守支援目的で使用するかによって、内部動作を適宜調整しても良い。例えば、運転支援においては、通常運転への支障を減らすべく、多少の未検知は許容しつつ、誤検知の低減を優先するものとする。一方で保守支援においては、補修すべき異常の見逃しは望ましくないため、多少の誤検知は許容しつつ、未検知の低減を優先するものとする。これらの場合、運転支援と比べて保守支援においては異常スコア閾値を低めに設定する。さらには影スコア閾値を高めに設定するまたは無効化することにより、前述の傾向となるように調整することが可能である。 The internal operation of the integrated judgment unit 303 shown in FIG. 4 may be adjusted as appropriate depending on whether the system is used for driving assistance or maintenance assistance. For example, in driving assistance, in order to reduce disruption to normal operation, some non-detection is tolerated while reducing false positives is prioritized. On the other hand, in maintenance assistance, since it is undesirable to overlook anomalies that need to be repaired, some false positives are tolerated while reducing non-detection is prioritized. In these cases, the anomaly score threshold is set lower in maintenance assistance than in driving assistance. Furthermore, it is possible to adjust the above-mentioned tendency by setting the shadow score threshold higher or disabling it.

都心部、平野部、山間部等、地形や周囲の構造物の条件によっては、影の生じ方に差異が生じ得る。具体的には、ほぼ常時影が発生する場合や、反対に影がほぼ生じない場合も想定される。このような条件に合わせ、影スコア閾値は適宜調整しても良い。
図4に示す統合判定部303の内部動作の一例は、異常スコアと影スコアの出力を2×2=4パターンに分類しているが、パターン数はこれに限定することはなく、例えば3×3=9パターンの分類を用いても良い。
図4では、統合判定部303において状態判定結果及び影判定結果はいずれも二値の形式で出力する例について説明したが、これらは連続値の形式で出力しても良い。例えば、異常スコアに影スコアの逆数を乗算することで、正常状態からの逸脱が大きいかつ影の程度が小さいほど高くなるように異常スコアを補正し、これを状態判定結果として出力しても良い。また、連続値の影スコアを影判定結果として出力しても良い。
影以外の要因(太陽光の反射、雨、雪等)については、要因別にDNNを設けてもよい。この場合、いずれかの要因が該当すれば、異常スコアが高くても正常と判定する。また、複数要因を統合したDNNを設けてもよい。
Depending on the conditions of the terrain and surrounding structures, such as urban areas, plains, and mountainous areas, the way shadows are generated may differ. Specifically, it is possible that shadows are generated almost all the time, and conversely, that shadows are hardly generated at all. The shadow score threshold may be adjusted appropriately to suit such conditions.
In one example of the internal operation of the integrated determination unit 303 shown in FIG. 4, the outputs of the anomaly scores and shadow scores are classified into 2×2=4 patterns, but the number of patterns is not limited to this, and classification into, for example, 3×3=9 patterns may be used.
4, an example in which the state determination result and the shadow determination result are both output in the form of a binary value by the integrated determination unit 303 has been described, but these may be output in the form of a continuous value. For example, the abnormality score may be corrected by multiplying the reciprocal of the shadow score so that the abnormality score is higher as the deviation from the normal state increases and the degree of the shadow is smaller, and this may be output as the state determination result. Also, a continuous value of the shadow score may be output as the shadow determination result.
For factors other than shadows (such as sunlight reflection, rain, and snow), a DNN may be provided for each factor. In this case, if any factor is applicable, the system will be determined to be normal even if the abnormality score is high. A DNN that integrates multiple factors may also be provided.

[動作シーケンス]
本実施例の処理フローの一例を図5に示す。起動後、処理ループ内に移行し、システム動作継続確認ステップS1では処理ループ内において本実施例の沿線設備点検システムの動作終了命令の有無を監視する。動作を継続する場合は、映像フレーム取得ステップS2において、カメラが撮影した映像フレームを取得する。そして、対象画像抽出ステップS3では、対象物にフォーカスして点検を行うために、映像フレームから対象物を含む小領域の対象画像を抽出する。そして、判定ステップS4では、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する。
[Operation sequence]
An example of the process flow of this embodiment is shown in Figure 5. After startup, the process moves to a processing loop, and in a system operation continuation confirmation step S1, the process loop monitors whether or not there is an instruction to end operation of the lineside facility inspection system of this embodiment. If operation is to be continued, in a video frame acquisition step S2, a video frame captured by the camera is acquired. Then, in a target image extraction step S3, a target image of a small area including the target is extracted from the video frame in order to focus on the target for inspection. Then, in a determination step S4, image processing is performed on the target image, and a status determination result indicating the presence or absence of an abnormality in the target and a false detection factor determination result indicating the presence or absence of a false detection factor are output.

図6は判定ステップS4の内部処理を示す処理フローの一例である。異常スコア算出ステップS401では、画像処理によって対象物の正常状態からの逸脱度を示す異常スコアを算出する。そして、影スコア算出ステップS402では、画像処理によって対象物に生じる影の程度を示す影スコアを算出する。そして、影スコア比較ステップS403では、前記影スコアと所定の影スコア閾値とを比較し、影スコアが影スコア閾値を上回る場合、影判定結果(影有り)設定ステップS404において影判定結果の値を影有りにする。反対に、影スコアが影スコア閾値以下の場合、影判定結果(影無し)設定ステップS405において影判定結果の値を影無しにする。そして、異常スコア比較ステップS406では、前記異常スコアと所定の異常スコア閾値とを比較し、異常スコアが異常スコア閾値を上回る場合、影判定結果確認ステップS407において影判定結果を確認する。影判定結果が影無しの場合、異常スコアの上昇は影ではなく真の異常要因に起因していると判断し、状態判定結果(異常)設定ステップS408において状態判定結果の値を異常とする。異常スコア比較ステップS406において異常スコアが異常スコア閾値以下の場合、対象物の状態は正常と見なし、状態判定結果(正常)設定ステップS409において状態判定結果の値を正常とする。あるいは、影判定結果確認ステップS407において影判定結果が影有りの場合、異常スコアの上昇は影に起因していると判断し、対象物の状態は正常として、同じく状態判定結果(正常)設定ステップS409において状態判定結果の値を正常とする。 Figure 6 is an example of a process flow showing the internal processing of the judgment step S4. In the abnormality score calculation step S401, an abnormality score indicating the degree of deviation from the normal state of the object is calculated by image processing. Then, in the shadow score calculation step S402, a shadow score indicating the degree of a shadow generated on the object is calculated by image processing. Then, in the shadow score comparison step S403, the shadow score is compared with a predetermined shadow score threshold, and if the shadow score exceeds the shadow score threshold, the value of the shadow judgment result is set to "shadow is present" in the shadow judgment result setting step S404. On the other hand, if the shadow score is equal to or less than the shadow score threshold, the value of the shadow judgment result is set to "shadow is absent" in the shadow judgment result setting step S405. Then, in the abnormality score comparison step S406, the abnormality score is compared with a predetermined abnormality score threshold, and if the abnormality score exceeds the abnormality score threshold, the shadow judgment result is confirmed in the shadow judgment result confirmation step S407. If the shadow determination result is "no shadow," it is determined that the increase in the abnormality score is due to a true abnormality factor and not a shadow, and the value of the status determination result is set to abnormal in status determination result (abnormal) setting step S408. If the abnormality score is equal to or less than the abnormality score threshold in abnormality score comparison step S406, the state of the object is deemed normal, and the value of the status determination result is set to normal in status determination result (normal) setting step S409. Alternatively, if the shadow determination result is "there is a shadow" in shadow determination result confirmation step S407, it is determined that the increase in the abnormality score is due to a shadow, the state of the object is deemed normal, and similarly, the value of the status determination result is set to normal in status determination result (normal) setting step S409.

以上説明したように、本発明では対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別可能な沿線設備点検システムを実現可能である。 As described above, the present invention makes it possible to realize a railway line equipment inspection system that uses photographed images of an object to detect abnormalities occurring in the object and distinguish between abnormalities and causes of false detection such as shadows.

図7は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、対象物に関する同一視点の撮影画像から求めた異常スコアを蓄積し、蓄積した異常スコア履歴を解析することで、異常と影等の誤検知要因を識別可能な沿線設備点検システムを提供することを目的とする。 Figure 7 is a diagram explaining the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. This embodiment aims to provide a wayside facility inspection system that can distinguish between anomalies and causes of false detection, such as shadows, by accumulating anomaly scores calculated from images of an object taken from the same viewpoint and analyzing the accumulated anomaly score history.

[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図7に示す通り、図1に示す構成に加えて、位置情報取得部4、異常スコア記録部5から構成されている。位置情報取得部4は各移動体に搭載する。異常スコア記録部5は、複数の移動体と通信可能なサーバ等に設置することが好適である。
[System configuration]
The configuration and operation of a wayside facility inspection system according to an embodiment of the present invention will be described. As shown in Fig. 7, the wayside facility inspection system of this embodiment is composed of a location information acquisition unit 4 and an abnormality score recording unit 5 in addition to the configuration shown in Fig. 1. The location information acquisition unit 4 is mounted on each mobile object. The abnormality score recording unit 5 is preferably installed in a server or the like capable of communicating with a plurality of mobile objects.

沿線設備点検システムの動作ついて、図7を用いて説明する。実施例1と重複する動作の説明は割愛する。位置情報取得部4は、Global Positioning System(GPS)等を用いて、移動体の現在の位置情報を取得する。移動体が対象物付近に差し掛かり、カメラ1、対象画像抽出部2、判定部3が動作して対象物の異常スコアを算出した際、異常スコア記録部5は前記異常スコアと前記位置情報とを紐づけて記録するとともに、現在の時刻から遡って同一位置における過去の所定の第一の期間の異常スコア履歴を出力する。すなわち、前記異常スコア履歴は、対象物に関する同一視点の撮影画像から求めた異常スコアの履歴である。判定部3は前記異常スコア履歴を解析し、状態判定結果及び誤検知要因判定結果を出力する。 The operation of the lineside facility inspection system will be described with reference to FIG. 7. The description of the operation overlapping with the first embodiment will be omitted. The position information acquisition unit 4 acquires the current position information of the moving object using the Global Positioning System (GPS) or the like. When the moving object approaches the vicinity of the object and the camera 1, the object image extraction unit 2, and the judgment unit 3 operate to calculate the abnormality score of the object, the abnormality score recording unit 5 links the abnormality score and the position information and records them, and outputs the abnormality score history for a predetermined first period in the past at the same position going back from the current time. In other words, the abnormality score history is a history of abnormality scores obtained from images taken from the same viewpoint of the object. The judgment unit 3 analyzes the abnormality score history and outputs a state judgment result and a false detection cause judgment result.

図8は、判定部3の内部構成の一例を示す図である。判定部3は、異常スコア算出部301と、異常スコア履歴解析部304から構成されている。図8の判定部3は、図3の判定部3と異なり、影スコア算出部302及び統合判定部303を持たない。 Figure 8 is a diagram showing an example of the internal configuration of the determination unit 3. The determination unit 3 is composed of an anomaly score calculation unit 301 and an anomaly score history analysis unit 304. Unlike the determination unit 3 in Figure 3, the determination unit 3 in Figure 8 does not have a shadow score calculation unit 302 and an integrated determination unit 303.

異常スコア履歴解析部304は、異常スコア記録部5が出力した異常スコア履歴を解析する。具体的には、前記異常スコア履歴が所定の第二の期間に渡ってオフセット成分を有する場合に異常とする状態判定結果を出力すると共に、現在の異常スコアから前記オフセット成分を引いた差分が所定の閾値を上回る場合に誤検知要因有りとする誤検知要因判定結果を出力する。 The anomaly score history analysis unit 304 analyzes the anomaly score history output by the anomaly score recording unit 5. Specifically, if the anomaly score history has an offset component over a predetermined second period, it outputs a state determination result indicating an abnormality, and if the difference obtained by subtracting the offset component from the current anomaly score exceeds a predetermined threshold, it outputs an erroneous detection factor determination result indicating the presence of an erroneous detection factor.

図9Aは、対象物の状態が正常である場合の異常スコア履歴の一例である。例えば、対象物に生じた影によって異常スコアが上昇する場合、太陽運動の周期性により、異常スコア履歴には周期的変動F901が生じる。影が生じない時間帯の異常スコアは小さい値をとる。図9Bは、対象物の状態が異常である場合の異常スコア履歴の一例である。影に起因する周期的変動F901に加え、真の異常に起因するオフセット成分F902が生じる。したがって、オフセット成分F902の有無によって、対象物の状態を判定することが可能である。 Figure 9A is an example of an anomaly score history when the state of the object is normal. For example, if the anomaly score increases due to a shadow cast on the object, periodic fluctuations F901 occur in the anomaly score history due to the periodicity of solar motion. The anomaly score during time periods when no shadows are cast takes on small values. Figure 9B is an example of an anomaly score history when the state of the object is abnormal. In addition to periodic fluctuations F901 caused by the shadow, an offset component F902 caused by the true anomaly occurs. Therefore, it is possible to determine the state of the object based on the presence or absence of offset component F902.

言い換えると、本実施例で用いるカメラ1は移動カメラであるものの、あたかも対象物を固定カメラで定点観測するかのように、影等の誤検知要因と真の異常を識別し、対象物の状態を判定することが可能である。 In other words, although the camera 1 used in this embodiment is a moving camera, it is possible to distinguish between false positives such as shadows and true abnormalities and determine the state of the object, as if the object were being observed at a fixed point by a fixed camera.

本実施例の構成では、所定の期間の異常スコア履歴を用いて状態判定を行うため、異常発生時の即時検知は困難である。一方で、例えば異常スコアが太陽運動の周期性等から予測可能な場合、現在の時刻で生じ得る影等の誤検知要因に起因する異常スコアを予測し、現在の時刻の異常スコアと前記予測した異常スコアとの差分を計算することで、異常発生時の即時検知が可能である。前記予測は、天気や季節などに応じて予測値を補正することで、より高精度に行うことが可能である。 In the configuration of this embodiment, since the state is judged using the anomaly score history for a specified period, it is difficult to detect an abnormality immediately when it occurs. On the other hand, for example, if the anomaly score can be predicted from the periodicity of solar motion, etc., it is possible to detect an abnormality immediately when it occurs by predicting the anomaly score caused by a false detection factor such as a shadow that may occur at the current time and calculating the difference between the anomaly score at the current time and the predicted anomaly score. The prediction can be made with higher accuracy by correcting the predicted value according to the weather, season, etc.

本実施例の構成では、所定の期間の異常スコア履歴を用いて状態判定を行うため、時間軸において高頻度に満遍なく異常スコアを蓄積することが望ましい。そのためには、異常スコア記録部5は複数の移動体間で共有する構成とし、複数の移動体で取得した異常スコアを統合利用することが有用である。 In the configuration of this embodiment, since the condition is judged using the anomaly score history for a specified period, it is desirable to accumulate anomaly scores evenly and frequently on the time axis. To achieve this, it is useful to configure the anomaly score recording unit 5 to be shared between multiple mobile objects, and to integrate and use the anomaly scores obtained from multiple mobile objects.

以上説明したように、本発明では対象物に関する同一視点の撮影画像から求めた異常スコアを蓄積し、蓄積した異常スコア履歴を解析することで、異常と影等の誤検知要因を識別可能な沿線設備点検システムを実現可能である。
ここでは、影を誤検知要因として識別する場合を例示したが、例えば雨や雪を誤検知要因として識別する場合にも適用できる。雨や雪に起因する異常スコアの上昇は、時間経過により雨や雪がやむことで解消する。したがって、時間経過により一時的な異常スコアの上昇が解消してもオフセットがあれば、このオフセット分が異常を示していると判定可能である。
As described above, the present invention makes it possible to realize a line equipment inspection system that can distinguish between abnormalities and causes of false detection, such as shadows, by accumulating anomaly scores determined from images of an object taken from the same viewpoint and analyzing the accumulated anomaly score history.
Here, the case where a shadow is identified as a cause of false positive detection is exemplified, but the present invention can also be applied to the case where rain or snow is identified as a cause of false positive detection. An increase in the anomaly score caused by rain or snow will disappear when the rain or snow stops over time. Therefore, even if a temporary increase in the anomaly score disappears over time, if there is an offset, it is possible to determine that this offset indicates an anomaly.

図10は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、実施例1における影スコア算出部が用いる画像処理の良質な学習データを自動生成することが可能な沿線設備点検システムを提供することを目的とする。 Figure 10 is a diagram illustrating the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. This embodiment aims to provide a wayside facility inspection system capable of automatically generating high-quality learning data for image processing used by the shadow score calculation unit in embodiment 1.

[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図10に示す通り、図1に示す構成に加えて、学習データ生成部6、学習データ記録部7から構成されている。
[System configuration]
The structure and operation of a wayside facility inspection system according to an embodiment of the present invention will be described below. As shown in Fig. 10, the wayside facility inspection system according to the present embodiment is composed of a learning data generating unit 6 and a learning data recording unit 7 in addition to the structure shown in Fig. 1.

沿線設備点検システムの動作ついて、図10を用いて説明する。実施例1乃至2と重複する動作の説明は割愛する。学習データ生成部6は、対象画像抽出部2が出力した対象画像に対して、判定部3が出力した誤検知要因判定結果、誤検知要因が影であれば影判定結果に基づき、自動で教師付けを行う。具体的には、実施例1における影スコア算出部が、例えば入力画像が影有りか影無しかの二値識別を行うDNNを用いる場合、影有りの対象画像に対して「1」、影無しの対象画像に対して「0」の教師データを付与する。学習データ生成部6によって教師付けされた学習データは、学習データ記録部7に記録される。 The operation of the lineside facility inspection system will be described with reference to FIG. 10. Descriptions of operations that overlap with those in Examples 1 and 2 will be omitted. The learning data generation unit 6 automatically performs teacher assignment for the target image output by the target image extraction unit 2 based on the erroneous detection cause judgment result output by the judgment unit 3, and the shadow judgment result if the erroneous detection cause is a shadow. Specifically, when the shadow score calculation unit in Example 1 uses a DNN that performs binary discrimination of whether an input image has a shadow or not, for example, teacher data of "1" is assigned to a target image with a shadow and "0" to a target image without a shadow. The learning data assigned by the learning data generation unit 6 is recorded in the learning data recording unit 7.

影有りか影無しかの二値識別を行うDNNの学習においては、影以外の要因が識別結果に与える影響を最小化すべく、影有りと影無しの両画像群において、影以外の条件を可能な限り揃えることが望ましい。本実施例の構成によれば、対象物に関する同一視点かつ異なる時刻の画像、すなわち、影等の誤検知要因の有無のみが異なる画像を数多く収集することが可能である。したがって、本実施例の構成によれば、DNNの学習において良質な学習データを自動生成することが可能である。 When training a DNN that performs a binary discrimination between whether a shadow is present or not, it is desirable to make the conditions other than shadows as consistent as possible in both groups of images with and without shadows in order to minimize the impact of factors other than shadows on the discrimination results. With the configuration of this embodiment, it is possible to collect a large number of images of the target object taken from the same viewpoint at different times, i.e., images that differ only in the presence or absence of factors that cause false detection, such as shadows. Therefore, with the configuration of this embodiment, it is possible to automatically generate high-quality training data in DNN training.

以上説明したように、本発明では実施例1における影スコア算出部が用いる画像処理の良質な学習データを自動生成することが可能な沿線設備点検システムを実現可能である。 As described above, the present invention makes it possible to realize a lineside facility inspection system that can automatically generate high-quality learning data for the image processing used by the shadow score calculation unit in Example 1.

図11は本発明の一実施例である沿線設備点検システムの全体構成を説明する図である。本実施例は、対象物の設置状態を判定可能な沿線設備点検システムを提供することを目的とする。 Figure 11 is a diagram illustrating the overall configuration of a wayside facility inspection system according to one embodiment of the present invention. The purpose of this embodiment is to provide a wayside facility inspection system that can determine the installation state of an object.

[システム構成]
本発明の一実施例である沿線設備点検システムの構成と動作について説明する。本実施例の沿線設備点検システムは図11に示す通り、図1に示す構成に加えて、位置情報取得部4、設置状態判定部8から構成されている。
[System configuration]
The structure and operation of a wayside facility inspection system according to an embodiment of the present invention will be described below. As shown in Fig. 11, the wayside facility inspection system according to the present embodiment is composed of a location information acquisition unit 4 and an installation state determination unit 8 in addition to the structure shown in Fig. 1.

沿線設備点検システムの動作ついて、図11を用いて説明する。実施例1乃至3と重複する動作の説明は割愛する。対象画像抽出部2は、撮影画像から対象物を含む小領域の対象画像を抽出する際、対象画像と併せて抽出情報を出力する。抽出情報は、対象画像の抽出成否情報及び、抽出した場合は撮影画像中の抽出した座標情報を含む。設置状態判定部8は、内部に対象物の設置状態に関する情報、具体的には実世界における対象物の設置位置や高さに関する情報をデータベースとして備える。また、設置状態判定部8は、移動体の寸法やカメラ1の取付位置を示すデータを参照可能である。設置状態判定部8は、位置情報取得部4が出力した位置情報に基づき、前記データベースを参照し、撮影画像における対象物の出現領域を算出する。移動体が、対象物が出現するはずの位置に差し掛かっているとき、撮影画像の出現領域内から対象物を抽出した場合、設置状態判定結果は正常とする。反対に、移動体が、対象物が出現するはずの位置に差し掛かっているものの、撮影画像から対象画像を抽出できなかったり、抽出した場合も、抽出した座標情報が出現領域から離れていたりした場合、設置状態判定結果を異常として出力する。 The operation of the lineside facility inspection system will be described with reference to FIG. 11. The description of the operation overlapping with the first to third embodiments will be omitted. When the target image extraction unit 2 extracts a target image of a small area including an object from the photographed image, it outputs extraction information together with the target image. The extraction information includes information on whether the target image was extracted successfully and, if extracted, coordinate information of the extracted image in the photographed image. The installation state determination unit 8 has information on the installation state of the object, specifically, information on the installation position and height of the object in the real world, stored as a database. The installation state determination unit 8 can also refer to data indicating the dimensions of the moving body and the mounting position of the camera 1. The installation state determination unit 8 refers to the database based on the position information output by the position information acquisition unit 4, and calculates the appearance area of the object in the photographed image. When the moving body is approaching the position where the object is supposed to appear, if the object is extracted from the appearance area of the photographed image, the installation state determination result is considered to be normal. Conversely, if the moving body is approaching a position where the target object is supposed to appear but the target image cannot be extracted from the captured image, or if the target image is extracted but its coordinate information is far from the appearance area, the installation status determination result is output as an abnormality.

抽出した座標情報と出現領域との比較においては、例えば各々の中心座標を求め、両者のユークリッド距離を用いても良い。あるいは、Intersection over Union(IoU)を用い、両者の重なり具合を評価しても良い。 When comparing the extracted coordinate information with the appearance area, for example, the center coordinates of each may be calculated and the Euclidean distance between the two may be used. Alternatively, the degree of overlap between the two may be evaluated using Intersection over Union (IoU).

設置状態判定結果が異常となる例は、草木による隠れ、大変形、傾き、紛失などである。
図12Aは、鉄道車両の前方の撮影画像の一例である。カメラ1が取得した撮影画像F201において、標識F202の付近にある木F1201が生い茂り、標識F202を覆い隠しているため、対象物の出現領域F1202内で対象物を検出することができない。この場合、設置状態判定部8は、対象物の設置状態判定結果を異常として出力する。
Examples of the installation state determination result being abnormal include obscuration by vegetation, large deformation, tilt, and loss.
12A is an example of a captured image of the front of a railway vehicle. In a captured image F201 acquired by the camera 1, a tree F1201 near a sign F202 is overgrown and covers the sign F202, making it impossible to detect the object within the object appearance area F1202. In this case, the installation state determination unit 8 outputs the installation state determination result of the object as an abnormality.

図12Bは、鉄道車両の前方の撮影画像の一例である。カメラ1が取得した撮影画像F201において、標識F202が傾いており、対象物の出現領域F1202内で対象物を検出することができない。この場合も、設置状態判定部8は、対象物の設置状態判定結果を異常として出力する。 Figure 12B is an example of a captured image of the front of a railway vehicle. In the captured image F201 acquired by camera 1, the sign F202 is tilted, and the object cannot be detected within the object appearance area F1202. In this case, too, the installation state determination unit 8 outputs the object installation state determination result as an abnormality.

以上説明したように、本発明では対象物の設置状態を判定可能な沿線設備点検システムを実現可能である。
具体的には、開示の状態判定装置は、移動体に搭載され、走行空間の撮影画像を取得するカメラ1と、前記撮影画像において状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出部2と、前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定部3と、を具備する。
この構成により、状態判定装置は、対象物の撮影画像を用い、対象物に生じている異常を検知するとともに、異常と影等の誤検知要因を識別することができる。
As described above, the present invention makes it possible to realize a railway line facility inspection system capable of determining the installation state of an object.
Specifically, the disclosed condition determination device includes a camera 1 mounted on a moving body and configured to capture an image of the driving space, a target image extraction unit 2 configured to extract a target image of a small area including an object for condition determination from the captured image, and a determination unit 3 configured to perform image processing on the target image and output a condition determination result indicating the presence or absence of an abnormality in the object and a false detection factor determination result indicating the presence or absence of a false detection factor.
With this configuration, the state determination device can use captured images of the object to detect abnormalities occurring in the object and distinguish between abnormalities and causes of erroneous detection, such as shadows.

また、前記判定部3は、1又は複数の誤検知要因について判定を行い、いずれかの誤検知要因が有るとの誤検知要因判定結果を得た場合には、対象物に異常が有るとの状態判定結果の出力を抑制する。
この動作により、誤検知要因に基づいて異常ありとの結果出力を行うことが無いので、不要な保守作業の発生を抑止し、アラートに対する信頼の低下を回避できる。
In addition, the judgment unit 3 judges one or more factors of erroneous detection, and if a result of the erroneous detection factor judgment indicates that any of the factors of erroneous detection is present, it suppresses the output of a status judgment result indicating that an abnormality exists in the target object.
This operation prevents a result indicating an abnormality from being output based on the cause of a false detection, thereby preventing unnecessary maintenance work from occurring and avoiding a decrease in reliability of alerts.

また、前記誤検知要因が影である場合に、前記判定部3は、前記対象画像が入力され、画像処理によって前記対象物の正常状態からの逸脱度を示す異常スコアを算出する異常スコア算出部301と、前記対象画像が入力され、画像処理によって前記対象物に生じる影の程度を示す影スコアを算出する影スコア算出部302と、前記影スコアが所定の影スコア閾値より大きい場合に影有とする影判定結果を出力すると共に、前記異常スコアが所定の異常スコア閾値より大きく前記影判定結果が影有でない場合に異常とする状態判定結果を出力する統合判定部303と、を具備する構成としてもよい。
この構成では、移動体単体でリアルタイムに高精度な状態判定を実現できる。
Furthermore, when the cause of erroneous detection is a shadow, the determination unit 3 may be configured to include an abnormality score calculation unit 301 which receives the target image and calculates, by image processing, an abnormality score indicating the degree of deviation from the normal state of the target, a shadow score calculation unit 302 which receives the target image and calculates, by image processing, a shadow score indicating the degree of shadow cast on the target, and an integrated determination unit 303 which outputs a shadow determination result indicating the presence of a shadow when the shadow score is greater than a predetermined shadow score threshold, and outputs a state determination result indicating an abnormality when the abnormality score is greater than the predetermined abnormality score threshold and the shadow determination result does not indicate the presence of a shadow.
This configuration makes it possible to achieve highly accurate state determination in real time for a single moving object.

また、前記誤検知要因が影である場合に、前記移動体の現在の位置情報を取得する位置情報取得部4をさらに具備し、前記判定部3は、前記位置情報と前記異常スコア算出部が出力する異常スコアを関連付けて異常スコア記録部5に記録させると共に、前記位置情報に基づいて当該対象物に関する過去の所定の第一の期間の異常スコア履歴を前記異常スコア記録部5から取得し、前記判定部3は、前記異常スコア履歴が所定の第二の期間に渡ってオフセット成分を有する場合に異常とする状態判定結果を出力すると共に、現在の異常スコアから前記オフセット成分を引いた差分が所定の閾値を上回る場合に影有とする影判定結果を出力する異常スコア履歴解析部304をさらに具備する構成としてもよい。
この構成では、多数の移動体による異常スコアを統計的に利用して、簡易に状態判定をおこなうことができる。
In addition, the device may further include a location information acquisition unit 4 that acquires current location information of the moving object when the cause of the erroneous detection is a shadow, and the determination unit 3 associates the location information with the abnormality score output by the abnormality score calculation unit and records them in the abnormality score recording unit 5, and acquires an abnormality score history for the object for a predetermined first period in the past from the abnormality score recording unit 5 based on the location information, and the determination unit 3 may further include an abnormality score history analysis unit 304 that outputs a state determination result that is abnormal when the abnormality score history has an offset component over a predetermined second period, and outputs a shadow determination result that a shadow is present when the difference obtained by subtracting the offset component from the current abnormality score exceeds a predetermined threshold value.
In this configuration, the abnormality scores of a large number of moving objects are statistically utilized to easily determine the state.

また、影スコアを算出する画像処理の学習を目的として、前記影判定結果を用い、前記対象画像に教師情報を付与する学習データ生成部6と、前記学習データを記録する学習データ記録部7と、を具備する構成としてもよい。
この構成では、判定結果を用いて学習を行い、状態判定の精度を向上させることができる。
Furthermore, for the purpose of learning image processing for calculating a shadow score, the configuration may include a learning data generation unit 6 that uses the shadow determination result to add teacher information to the target image, and a learning data recording unit 7 that records the learning data.
In this configuration, learning is performed using the judgment results, and the accuracy of state judgment can be improved.

また、前記移動体の現在の位置情報を取得する位置情報取得部4と、対象物の設置状態を判定する設置状態判定部8と、をさらに具備し、前記対象画像抽出部2は、撮影画像から対象物を含む小領域の対象画像を抽出する際、対象画像と併せて、対象画像の抽出成否情報及び抽出した場合は撮影画像中の抽出した座標情報とを含む抽出情報を出力し、前記設置状態判定部8は、対象物の設置位置及び/又は高さを含む設置状態に関する情報をデータベースとして備え、位置情報取得部4が出力した位置情報と前記データベースに基づいて撮影画像における対象物の出現領域を算出し、前記出現領域と前記抽出情報とを比較して、撮影画像の出現領域内から対象物を抽出した場合に正常、対象物が出現するはずにも関わらず撮影画像から対象画像を抽出できないあるいは抽出した座標情報が出現領域から離れている場合に異常、とする設置状態判定結果を出力することとしてもよい。
この構成では、対象物の位置の異常も判定することができる。また、位置の異常については、汚れや影などの対象物の外観に関する判定とは独立に行うことができる。
The device further includes a position information acquisition unit 4 that acquires current position information of the moving body, and an installation state determination unit 8 that determines the installation state of the object. When the target image extraction unit 2 extracts a target image of a small area including the object from the captured image, it outputs extraction information including information on whether the target image was extracted successfully and, if extracted, the extracted coordinate information in the captured image together with the target image. The installation state determination unit 8 has a database of information regarding the installation state including the installation position and/or height of the object, calculates the appearance area of the object in the captured image based on the position information output by the position information acquisition unit 4 and the database, compares the appearance area with the extraction information, and outputs an installation state determination result indicating normal when the object is extracted from within the appearance area of the captured image, and abnormal when the target image cannot be extracted from the captured image even though the object should appear, or the extracted coordinate information is away from the appearance area.
This configuration also allows for the determination of positional anomalies of the object, which can be done independently of the determination of the object's appearance, such as stains or shadows.

移動体は、一例として鉄道車両である。また、状態判定の対象物は、一例として標識あるいは信号機である。
鉄道車両にカメラ1を設置すれば、レール上を走行することがカメラ1の位置の特定に寄与する。このため、実施例2乃至実施例4では、同一視点からの画像を容易に収集できる。また、実施例4における「対象物が出現するはずの位置」を簡易且つ高精度に求めることができる。標識や信号機のように、外観上の異常がその機能を直接に損なう対象物であれば、その状態の判定が特に重要である。
An example of the moving body is a railway vehicle, and an example of the object of state determination is a sign or a traffic light.
If the camera 1 is installed on a railway vehicle, traveling on the rails contributes to identifying the position of the camera 1. Therefore, in the second to fourth embodiments, images from the same viewpoint can be easily collected. Also, in the fourth embodiment, the "position where the object is supposed to appear" can be easily and highly accurately obtained. For objects such as signs and traffic lights, where an abnormality in appearance directly impairs their function, it is particularly important to determine their condition.

上述した実施形態では、主に本発明を、鉄道の運転支援や無人運転の実現に向け、沿線設備の状態判定(正常/異常)を自動で行うための沿線設備点検システムに適用した場合について説明したが、他の用途に適用しても良い。例えば、高速道路を走行する自動車、滑走路を走行する航空機、電線沿いを飛行するドローンなどを対象とした運転支援システム、あるいは保守支援システムに適用しても良い。 In the above-described embodiment, the present invention has been mainly applied to a wayside facility inspection system for automatically determining the state (normal/abnormal) of wayside facilities to realize railway operation assistance and unmanned operation, but it may also be applied to other purposes. For example, it may be applied to a driving assistance system or a maintenance assistance system for automobiles traveling on highways, aircraft traveling on runways, drones flying along power lines, etc.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiments, but includes various modified examples. For example, the above-described embodiments have been described in detail to clearly explain the present invention, and are not necessarily limited to those having all of the configurations described. It is also possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. It is also possible to add, delete, or replace part of the configuration of each embodiment with other configurations.

また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Furthermore, each of the above configurations may be configured in part or in whole as hardware, or may be configured to be realized by executing a program on a processor. Furthermore, the control lines and information lines shown are those considered necessary for the explanation, and do not necessarily show all of the control lines and information lines in the product. In reality, it can be considered that almost all of the configurations are interconnected.

1・・・・・・・・カメラ
2・・・・・・・・対象画像抽出部
3・・・・・・・・判定部
4・・・・・・・・位置情報取得部
5・・・・・・・・異常スコア記録部
6・・・・・・・・学習データ生成部
7・・・・・・・・学習データ記録部
8・・・・・・・・設置状態判定部
301・・・・・・異常スコア算出部
302・・・・・・影スコア算出部
303・・・・・・統合判定部
304・・・・・・異常スコア履歴解析部
F201・・・・・撮影画像
F202・・・・・標識
F203・・・・・汚れ
F204・・・・・対象画像
F205・・・・・影
F901・・・・・周期的変動
F902・・・・・オフセット成分
F1201・・・・木
F1202・・・・対象物の出現領域
S1・・・・・・・システム動作継続確認ステップ
S2・・・・・・・映像フレーム取得ステップ
S3・・・・・・・対象画像抽出ステップ
S4・・・・・・・判定ステップ
S401・・・・・異常スコア算出ステップ
S402・・・・・影スコア算出ステップ
S403・・・・・影スコア比較ステップ
S404・・・・・影判定結果(影有り)設定ステップ
S405・・・・・影判定結果(影無し)設定ステップ
S406・・・・・異常スコア比較ステップ
S407・・・・・影判定結果確認ステップ
S408・・・・・状態判定結果(異常)設定ステップ
S409・・・・・状態判定結果(正常)設定ステップ
1. Camera 2. Target image extraction unit 3. Determination unit 4. Location information acquisition unit 5. Abnormality score recording unit 6. Learning data generation unit 7. Learning data recording unit 8. Installation state determination unit 301. Abnormality score calculation unit 302. Shadow score calculation unit 303. Integrated determination unit 304. Abnormality score history analysis unit F201. Captured image F202. Sign F203. Stains F204. Target image F205. Shadow F901. Periodic fluctuation F902. Offset component F1201. Tree F12 S402: Object appearance area S1: System operation continuation confirmation step S2: Video frame acquisition step S3: Target image extraction step S4: Judgment step S401: Abnormality score calculation step S402: Shadow score calculation step S403: Shadow score comparison step S404: Shadow judgment result (shadow present) setting step S405: Shadow judgment result (no shadow) setting step S406: Abnormality score comparison step S407: Shadow judgment result confirmation step S408: Status judgment result (abnormal) setting step S409: Status judgment result (normal) setting step

Claims (9)

移動体に搭載され、走行空間の撮影画像を取得するカメラと、
前記撮影画像において状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出部と、
前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定部と、
を具備することを特徴とする状態判定装置。
A camera mounted on the vehicle for capturing images of the vehicle's travel space;
a target image extraction unit that extracts a target image of a small region including a target object for state determination from the captured image;
a determination unit that performs image processing on the target image and outputs a state determination result indicating the presence or absence of an abnormality in the target object and an erroneous detection factor determination result indicating the presence or absence of an erroneous detection factor;
A state determination device comprising:
請求項1に記載の状態判定装置であって、
前記判定部は、1又は複数の誤検知要因について判定を行い、いずれかの誤検知要因が有るとの誤検知要因判定結果を得た場合には、対象物に異常が有るとの状態判定結果の出力を抑制すること
を特徴とする状態判定装置。
The state determination device according to claim 1 ,
The judgment unit judges one or more factors of false detection, and when a false detection factor judgment result indicating the presence of any of the factors of false detection is obtained, suppresses output of a status judgment result indicating the presence of an abnormality in the object.
請求項1に記載の状態判定装置であって、
前記誤検知要因が影である場合であり、
前記判定部は、
前記対象画像が入力され、画像処理によって前記対象物の正常状態からの逸脱度を示す異常スコアを算出する異常スコア算出部と、
前記対象画像が入力され、画像処理によって前記対象物に生じる影の程度を示す影スコアを算出する影スコア算出部と、
前記影スコアが所定の影スコア閾値より大きい場合に影有とする影判定結果を出力すると共に、前記異常スコアが所定の異常スコア閾値より大きく前記影判定結果が影有でない場合に異常とする状態判定結果を出力する統合判定部と、を具備すること
を特徴とする状態判定装置。
The state determination device according to claim 1 ,
The cause of the false detection is a shadow,
The determination unit is
an anomaly score calculation unit to which the target image is input and which calculates an anomaly score indicating a deviation degree of the target object from a normal state by image processing;
a shadow score calculation unit that receives the target image and calculates a shadow score indicating the degree of a shadow generated on the target object by image processing;
an integrated judgment unit that outputs a shadow judgment result indicating the presence of a shadow when the shadow score is greater than a predetermined shadow score threshold, and that outputs a status judgment result indicating an abnormality when the abnormality score is greater than a predetermined abnormality score threshold and the shadow judgment result indicates that a shadow is not present.
請求項1に記載の状態判定装置であって、
前記誤検知要因が影である場合であり、
前記移動体の現在の位置情報を取得する位置情報取得部をさらに具備し、
前記判定部は、
前記位置情報と前記異常スコア算出部が出力する異常スコアを関連付けて異常スコア記録部に記録させると共に、前記位置情報に基づいて当該対象物に関する過去の所定の第一の期間の異常スコア履歴を前記異常スコア記録部から取得し、
前記判定部は、
前記異常スコア履歴が所定の第二の期間に渡ってオフセット成分を有する場合に異常とする状態判定結果を出力すると共に、現在の異常スコアから前記オフセット成分を引いた差分が所定の閾値を上回る場合に影有とする影判定結果を出力する異常スコア履歴解析部をさらに具備すること
を特徴とする状態判定装置。
The state determination device according to claim 1 ,
The cause of the false detection is a shadow,
A location information acquisition unit that acquires current location information of the moving object is further provided.
The determination unit is
causing an abnormality score recording unit to record the position information and the abnormality score output by the abnormality score calculation unit in association with each other, and acquiring an abnormality score history for the object during a predetermined first period in the past from the abnormality score recording unit based on the position information;
The determination unit is
The status determination device further comprises an abnormality score history analysis unit that outputs a status determination result that is abnormal when the abnormality score history has an offset component over a predetermined second period, and outputs a shadow determination result that is an influence when the difference obtained by subtracting the offset component from the current abnormality score exceeds a predetermined threshold.
請求項3乃至4に記載の状態判定装置であって、
前記影スコアを算出する画像処理の学習を目的として、前記影判定結果を用い、前記対象画像に教師情報を付与する学習データ生成部と、
前記学習データを記録する学習データ記録部と、を具備すること
を特徴とする状態判定装置。
The state determination device according to claim 3 or 4,
a learning data generation unit that uses the shadow determination result to add teacher information to the target image for the purpose of learning image processing for calculating the shadow score;
and a learning data recording unit that records the learning data.
請求項1に記載の状態判定装置であって、
前記移動体の現在の位置情報を取得する位置情報取得部と、
対象物の設置状態を判定する設置状態判定部と、
をさらに具備し、
前記対象画像抽出部は、撮影画像から対象物を含む小領域の対象画像を抽出する際、対象画像と併せて、対象画像の抽出成否情報及び抽出した場合は撮影画像中の抽出した座標情報とを含む抽出情報を出力し、
前記設置状態判定部は、対象物の設置位置及び/又は高さを含む設置状態に関する情報をデータベースとして備え、位置情報取得部が出力した位置情報と前記データベースに基づいて撮影画像における対象物の出現領域を算出し、前記出現領域と前記抽出情報とを比較して、撮影画像の出現領域内から対象物を抽出した場合に正常、対象物が出現するはずにも関わらず撮影画像から対象画像を抽出できないあるいは抽出した座標情報が出現領域から離れている場合に異常、とする設置状態判定結果を出力すること
を特徴とする状態判定装置。
The state determination device according to claim 1 ,
a location information acquisition unit that acquires current location information of the moving object;
an installation state determination unit that determines an installation state of an object;
Further comprising:
the target image extraction unit, when extracting a target image of a small region including an object from the photographed image, outputs extraction information including information on whether the target image was extracted successfully and, if extracted, coordinate information of the extracted target image in the photographed image together with the target image;
The installation state determination unit has a database of information regarding the installation state including the installation position and/or height of the object, calculates the appearance area of the object in the captured image based on the position information output by the position information acquisition unit and the database, compares the appearance area with the extraction information, and outputs an installation state determination result indicating that the installation state is normal when the object is extracted from within the appearance area of the captured image, and that the installation state is abnormal when the object image cannot be extracted from the captured image even though the object should appear or the extracted coordinate information is away from the appearance area.
移動体は鉄道車両であることを特徴とする、請求項1に記載の状態判定装置。 The state determination device according to claim 1, characterized in that the moving body is a railway vehicle. 状態判定の対象物は標識あるいは信号機であることを特徴とする、請求項1に記載の状態判定装置。 The state determination device according to claim 1, characterized in that the object of state determination is a sign or a traffic light. 状態判定装置が、
移動体の走行空間の映像フレームを取得する映像フレーム取得ステップと、
前記映像フレームにおいて状態判定の対象物を含む小領域の対象画像を抽出する対象画像抽出ステップと、
前記対象画像に対して画像処理を行い、対象物の異常の有無を示す状態判定結果と誤検知要因の有無を示す誤検知要因判定結果を出力する判定ステップと、
を具備することを特徴とする状態判定方法。
The state determination device is
An image frame acquisition step of acquiring an image frame of a traveling space of a moving object;
a target image extraction step of extracting a target image of a small region including a target object for state determination from the video frame;
a determination step of performing image processing on the target image and outputting a state determination result indicating the presence or absence of an abnormality in the target object and an erroneous detection factor determination result indicating the presence or absence of an erroneous detection factor;
A state determination method comprising:
JP2023034935A 2023-03-07 2023-03-07 State determination device and state determination method Pending JP2024126526A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023034935A JP2024126526A (en) 2023-03-07 2023-03-07 State determination device and state determination method
PCT/JP2023/041447 WO2024185226A1 (en) 2023-03-07 2023-11-17 State determination device and state determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023034935A JP2024126526A (en) 2023-03-07 2023-03-07 State determination device and state determination method

Publications (2)

Publication Number Publication Date
JP2024126526A true JP2024126526A (en) 2024-09-20
JP2024126526A5 JP2024126526A5 (en) 2025-03-11

Family

ID=92674664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023034935A Pending JP2024126526A (en) 2023-03-07 2023-03-07 State determination device and state determination method

Country Status (2)

Country Link
JP (1) JP2024126526A (en)
WO (1) WO2024185226A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014007175A1 (en) * 2012-07-03 2014-01-09 クラリオン株式会社 Vehicle-mounted environment recognition device
JP6776513B2 (en) * 2015-08-19 2020-10-28 ソニー株式会社 Vehicle control device, vehicle control method, information processing device, and traffic information provision system
US10783385B2 (en) * 2018-05-23 2020-09-22 International Business Machines Corporation Automated crowd sourced tracking of signage conditions by vehicular imaging

Also Published As

Publication number Publication date
WO2024185226A1 (en) 2024-09-12

Similar Documents

Publication Publication Date Title
Ghahremannezhad et al. Real-time accident detection in traffic surveillance using deep learning
JP7343531B2 (en) Method and system for detecting railway obstacles based on rail segmentation
US11620743B2 (en) Systems and methods for determining defects in physical objects
EP3048559A1 (en) Method and system for detecting a rail track
CN112242058B (en) Target abnormity detection method and device based on traffic monitoring video and storage medium
US20240034372A1 (en) Optical railway detection
CN116461571B (en) Obstacle sensing system based on vision, radio frequency positioning and multi-line laser fusion
CN117152971A (en) AI traffic signal optimization method based on high-altitude panoramic video
US8229170B2 (en) Method and system for detecting a signal structure from a moving video platform
CN116740833A (en) Line inspection and card punching method based on unmanned aerial vehicle
Makhmutova et al. Intelligent detection of object's anomalies for road surveilance cameras
CN116485799A (en) Method and system for detecting foreign matter coverage of railway track
KR20200056879A (en) apparatus and method for automatically detecting bird's cast
CN112257683A (en) Cross-mirror tracking method for vehicle running track monitoring
WO2024185226A1 (en) State determination device and state determination method
EP4334186B1 (en) Automatic digital inspection of railway environment
CN114581779B (en) A vehicle-mounted non-contact contact wire suspension state detection method and system
CN118262297A (en) Automatic acquisition method, system and equipment for dominant offence of inland waterway ship based on AI visual identification
CN111062268A (en) Trackside object intrusion detection method and system
US11645838B2 (en) Object detection system, object detection method, and program
Pyykönen et al. Traffic monitoring and modeling for intersection safety
CN117494029B (en) Road casting event identification method and device
Wee et al. Integrating object detection and optical flow analysis for real-time road accident detection
JP7384181B2 (en) Image collection device, image collection method, and computer program for image collection
JP2002300573A (en) Video diagnostic system on-board of video monitor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250303