[go: up one dir, main page]

JP6494103B2 - 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム - Google Patents

画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム Download PDF

Info

Publication number
JP6494103B2
JP6494103B2 JP2015120778A JP2015120778A JP6494103B2 JP 6494103 B2 JP6494103 B2 JP 6494103B2 JP 2015120778 A JP2015120778 A JP 2015120778A JP 2015120778 A JP2015120778 A JP 2015120778A JP 6494103 B2 JP6494103 B2 JP 6494103B2
Authority
JP
Japan
Prior art keywords
image
frame
train
detection system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015120778A
Other languages
English (en)
Other versions
JP2017001638A (ja
Inventor
誠 千台
誠 千台
安部 聡
安部  聡
勇治 内田
勇治 内田
英記 近藤
英記 近藤
実 三好
実 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nishiyama Corp
West Japan Railway Co
Original Assignee
Nishiyama Corp
West Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nishiyama Corp, West Japan Railway Co filed Critical Nishiyama Corp
Priority to JP2015120778A priority Critical patent/JP6494103B2/ja
Publication of JP2017001638A publication Critical patent/JP2017001638A/ja
Application granted granted Critical
Publication of JP6494103B2 publication Critical patent/JP6494103B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Description

この発明は画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システムに関し、鉄道の軌道上を走行する列車の位置を検出し、軌道周辺の時系列的な環境の変化を把握するのに用いて好適なものである。
鉄道において、列車が走行する軌道の周辺の時系列的な環境の変化を検出することは、列車の走行に支障をきたすおそれのある建築物や植生などの支障物を早期に発見する上で重要である。軌道の周辺の時系列的な環境の変化を検出する方法として、同一路線で異なる日時に列車を走行させながら列車に設置したビデオカメラにより軌道の周辺を撮影することにより収録されたビデオ画像を比較することが考えられる。異なる日時に収録されたこれらのビデオ画像を比較する場合、比較されるビデオ画像のフレームは同一地点で撮影されたものであることが望ましい。このためには、列車の走行位置を正確に検出する必要がある。
従来、列車の走行位置を検出する技術として次のようなものが知られている。1つは、速度発電機からの信号によるTG位置(列車の走行距離と経路情報とにより算出された列車の走行位置)とGPS受信機からのGPS位置とを比較して列車の位置を検出するとともに、検出した列車の位置を、加速度センサから出力される列車の上下振動信号と集音装置から出力される音響信号との両方の波形特徴を抽出して車上装置がレール継ぎ目や分岐部などの特異点を通過したときの特異点通過信号により補正する技術である(特許文献1参照。)。である。もう1つは、DGPS(差動地球測位システム)を移動体走行システムに適用し、列車の情報測定用走行を行って線路情報データベースを作成し、運用走行時には、情報処理部は、受信信頼度が高い場合にはDGPS距離程を用い、受信信頼度が中程度の場合にはDGPS距離程を初期値とし運用時線路曲率相当値を演算し、既知線路曲率相当値と比較して距離程を特定し、受信信頼度が低い場合には車軸回転数に基づく車軸距離程に基づいて距離程を特定する技術である(特許文献2参照。)。
特開2011−225188号公報 特開2004−271255号公報 特開2015−23370号公報
[平成25年7月8日検索]、インターネット〈http://www.m-system.co.jp/mstoday/plan/mame/b _network/9812/index.html 〉
しかしながら、本発明者らの検討によれば、特許文献1、2で提案された列車の位置を検出する技術は、列車が走行する軌道の周辺の時系列的な環境の変化を検出する上で必要な位置の検出精度を得ることができなかったり、コストが高く付いたりするという欠点がある。
そこで、この発明が解決しようとする課題は、列車の走行位置を高精度にかつ低コストで検出することができる、画像処理を利用した列車位置検出システムを提供することである。
この発明が解決しようとする他の課題は、列車の走行位置を高精度にかつ低コストで検出することができ、それによって列車が走行する軌道の周辺の時系列的な環境の変化を容易にかつ正確に検出することができる、画像処理を利用した列車位置および環境変化検出システムを提供することである。
上記課題を解決するために、この発明は、
動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置検出システムである。
また、この発明は、
動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置および環境変化検出システムである。
この列車位置検出システムあるいは列車位置および環境変化検出システムにおいて、第1の動画の各フレーム画像から抽出されたSURF特徴と対応付けられた位置情報は、例えば、第1の動画の各フレーム画像と対応付けられたキロ程情報あるいは第1の動画の各フレーム画像と対応付けられた速度情報から速度の積分により求められる距離情報であるが、これに限定されるものではない。この速度情報は、例えば、列車に設置された速度発電機またはGPS受信機により取得されるものであるが、これに限定されるものではない。
第2の動画の指定されたフレーム画像のSURF特徴と画像特徴データベースに格納された第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度は、好適には、第2の動画の指定されたフレーム画像から抽出されたSURF特徴点数に対する、第1の動画のフレーム画像と第2の動画の指定されたフレーム画像との間で対応点があるSURF特徴点数の比である。この場合、第1の動画のフレーム画像と第2の動画の指定されたフレーム画像との間で対応点があるSURF特徴点の対は、典型的には、SURF特徴の特徴記述ベクトルのユークリッド距離が最も短い対である。好適には、第2の動画の各フレーム画像と対応付けられた速度情報のみによる列車の位置の推定結果に上記の類似度を重みとして反映させることにより列車の位置を検出する。こうすることで、列車の位置を高精度に検出することができる。
鉄道の軌道に特有な枕木などの、周期的に設けられた構造物による検出精度の低下を防止するために、好適には、第1の動画および第2の動画の各フレーム画像からSURF特徴を抽出する際に、例えば、当該フレーム画像の下部中央の軌道部分と中央遠隔風景部分とをマスク画像によりマスクしておく。
第2の動画のフレーム画像に対応するキロ程は、次のようにして求めることもできる。すなわち、列車に前後方向加速度計およびGPS受信機を設置する。こうして前後方向加速度計およびGPS受信機を設置した列車を軌道上を走行させながらカメラにより進行方向前方の空間を撮影することにより第1の動画および上記の前後方向加速度計により計測される前後方向加速度の積分または上記のGPS受信機により取得される速度情報を収録し、収録された第1の動画の各フレーム画像に手動などでキロ程を割り振って画像データベースを作成する。そして、第1の動画が収録された日時以後の異なる日時に列車を軌道上を走行させながらカメラにより進行方向前方の空間を撮影することにより収録される第2の動画と上記の画像データベースに格納された第1の動画とを比較することにより第2の動画の指定されたフレーム画像が第1の動画のどのフレーム画像に対応するかを決定することにより第2の動画のフレーム画像に対応するキロ程を決定する。
上記の列車位置および環境変化検出システムにおいては、好適には、カメラが設置された車両を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影し、軌道上の互いに異なる位置であって第2の動画の各フレーム画像に対応付けられた速度情報を用いて計算されるそれらの間の距離が選択された距離になる位置で撮影された2枚の画像を比較することにより軌道の周辺の時系列的な環境の変化を検出する。ここで、軌道上の互いに異なる位置であって速度情報を用いて計算されるそれらの間の距離は、サンプリング間隔あるいは前後2枚のフレーム間の距離と言い換えることもできる。選択された距離は、典型的には一定であり、予め決められるが、これに限定されるものではない。軌道上の互いに異なる位置であって速度情報を用いて計算されるそれらの間の距離が選択された距離になる位置で撮影された2枚の画像は視点の異なる画像であるから、この2枚の画像を比較することにより、言い換えるとこの2枚の画像を用いて一眼ステレオ視を行うことにより、軌道の周辺の時系列的な環境の変化を定量的に評価することができる。好適には、列車の進行方向と直交する面の方向に仮想支障枠が多段(あるいは多重)に設定される。
動画の撮影が可能なカメラは、列車の進行方向前方の空間を撮影することができるように設置され、典型的には、車両の運転室内、例えば運転室の前方の窓ガラスの内側に設置される。このカメラとしては、動画の撮影が可能である限り、基本的にはどのようなものを用いてもよく、デジタルカメラであってもアナログカメラであってもよく、録画機能の有無も問わない。このカメラは、例えば、ビデオカメラ、工業用カメラなどである。ビデオカメラとしては、好適にはデジタルビデオカメラが用いられ、取り分け、高解像度のデジタルビデオカメラ、例えばハイビジョンデジタルビデオカメラが用いられる。ビデオカメラとしては、遠赤外線を利用したサーモグラフィビデオカメラを用いてもよく、これによってこの列車位置検出システムあるいは列車位置および環境変化検出システムを夜間に利用することが可能となる。カメラにより撮影される画像と車両の速度情報とを画像同期装置により同期することにより、カメラにより撮影される画像と車両の速度情報とを一対一に関連付けすることができる。画像同期装置は、典型的には、カメラと共に列車の車両内に設置される。画像同期装置としては、画像同期が可能である限り、基本的にはどのようなものを用いてもよく、従来公知のものを用いることができる。画像同期装置は、専用化された画像同期装置であってもよいし、ソフトウェアで画像同期機能を持たせたコンピュータ、データロガーなどであってもよい。専用化された画像同期装置としては、好適には、選択された時間間隔毎に取得され、データインデクス(あるいは同期番号)がそれぞれ付与された速度情報のデータインデクスを選択された時間間隔毎に音声レベル信号に変換するデジタル/アナログ変換回路を有する画像同期装置が用いられる(特許文献3参照。)。この画像同期装置は、典型的には、音声入力機能を有するカメラの音声入力端子が接続される出力端子を有し、上記のデジタル/アナログ変換回路から出力される音声レベル信号はその出力端子から出力される。データインデクスは、典型的には、シリアル通信規格のシリアル信号として画像同期装置の入力端子に送られる。シリアル通信規格は、例えば、RS485、RS422AまたはRS232Cであり、これらの中から必要に応じて選択されるが、中でもRS485が好ましい。一つの典型的な例では、データインデクスを1200Hzまたは2200Hzの周波数信号に変換し、「1」を1200Hz、「0」を2200Hzとする。典型的な例では、画像同期装置は、シリアル通信規格のシリアル信号として画像同期装置の入力端子に送られるデータインデクスをTTLレベルの信号に変換するTTLレベル変換回路を有し、このTTLレベル変換回路の出力がデジタル/アナログ変換回路に入力される。速度情報あるいはこれに加えて他のセンサーデータなどを取得する時間間隔および音声レベル信号に変換する時間間隔は必要に応じて選ばれる。データインデクスのビット数は必要に応じて選ばれるが、例えば6ビット以上10ビット以下である。
列車位置検出システムあるいは列車位置および環境変化検出システムは、カメラおよび画像同期装置に加えて、例えば、車両内に設置される車両動揺測定装置をさらに有する。この車両動揺測定装置は、例えば、加速度センサー、角速度センサーおよび傾斜センサーからなる群から選ばれた少なくとも一つを有する。このうち加速度センサーは、軌道上を走行する列車の車両の前後方向、左右方向および上下方向の加速度を検出する3軸加速度センサーである。
この発明によれば、第2の動画の指定されたフレーム画像のSURF特徴と画像特徴データベースに格納された第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて列車の走行位置を検出するので、列車の走行位置を高精度にかつ低コストで検出することができる。また、列車位置および環境変化検出システムによれば、列車の走行位置を高精度にかつ低コストで検出することができ、それによって列車が走行する軌道の周辺の時系列的な環境の変化を容易にかつ正確に検出することができる。
この発明の第1の実施の形態による列車位置検出システムの概要を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムの画像同期装置の回路構成の一例を示す回路図である。 この発明の第1の実施の形態による列車位置検出システムの画像同期装置においてデータインデクスを音声レベル信号に変換する方法を説明するための略線図である。 この発明の第1の実施の形態による列車位置検出システムの画像同期装置の具体的な構成例を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムの車両動揺測定装置の構成例を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムの車両動揺測定装置の筐体の構成例を示す平面図、正面図および側面図である。 この発明の第1の実施の形態による列車位置検出システムの車両動揺測定装置の各部の信号波形の一例を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムの画像同期装置の各部の信号波形の一例を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムのカメラ姿勢調整プログラムの画面の一例を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムの連動表示プログラムの画面の一例を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられるフレームマッチング処理の概念を説明するための略線図である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられる画像特徴データベースの生成処理とフレームマッチング処理との関係を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられる画像特徴データベースの生成処理フローを示す略線図である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられるSURF特徴による対応点探索の一例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられるSURF特徴によるテンプレートマッチングの一例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられるSURF特徴の抽出例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられるフレームマッチング処理のフローを示す略線図である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられるリファレンスビデオ画像の開始フレームに対応するベースビデオ画像のフレーム画像の探索フローを示す略線図である。 SIFT特徴の特徴記述ベクトルを説明するための略線図である。 この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始フレームに対するSURF特徴の抽出結果の一例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始フレームのSURF特徴と画像特徴データベースに格納されたベースビデオ画像のSURF特徴とのマッチングの例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始フレームおよびこの開始フレームに対応付けられたベースビデオ画像のフレームの例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおけるリファレンスビデオ画像の開始位置での確率密度分布の一例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおける速度情報による確率密度分布の更新の様子の一例を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムにおけるSURF特徴のマッチングによる速度累積誤差の修正方法を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムにおいてSURF特徴の抽出時に用いるマスク画像の一例を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムにおいて用いられるフレームマッチング処理の精度を説明するための略線図である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR奈良線でのフレームマッチング結果を示す図面代用写真である。 この発明の第1の実施の形態による列車位置検出システムを用いて行われたJR草津線でのフレームマッチング結果を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムの検知画面の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラム設定画面の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラム設定画面で用いられる軌道座標系の定義を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による仮想建築限界枠設定画面の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による仮想建築限界枠設定画面で用いられる建築限界枠幅の設定方法を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による仮想建築限界枠とビデオカメラ画像上の画素との関係の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術においてデジタルビデオカメラが前進した場合の見え方の変化の一例を説明するための略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術において前進するデジタルビデオカメラの画像の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムの検知画面における消失点および画像の移動方向の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムにおけるデジタルビデオカメラの前進前および前進後の仮想建築限界枠の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムにおいてエピ極線上の追尾の方法の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術による建築限界支障検出プログラムにおけるエピ極線上の追尾による類似度プロファイルの一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術を用いて行われた試験線撮影試験における追尾の安定化を図るための検討結果を説明するための略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出の基礎となる建築限界支障検出技術を用いて行われた試験線撮影試験における異なる地点間の類似度プロファイルの合成方法の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出に用いられる支障限界枠の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて環境変化抽出に用いられる多重支障限界枠の一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により線路脇の電柱について建築限界枠支障個数を求めた結果を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られた結果の解析においてベースビデオ画像とリファレンスビデオ画像との対応する一対のフレームのみで差異を計算した一例を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像の処理対象区間の様子を示す図面代用写真である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像の処理対象区間の様子を示す図面代用写真である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像における仮想建築限界枠による支障検出結果を示す図面代用写真である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像における仮想建築限界枠による支障検出結果を示す図面代用写真である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像およびリファレンスビデオ画像における注目箇所の支障点個数および差異検出結果を示す図面代用写真である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像の処理対象区間の様子を示す図面代用写真である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像の処理対象区間の様子を示す図面代用写真である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたベースビデオ画像およびリファレンスビデオ画像の注目箇所の支障点個数および差異検出の結果を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムを用いて実路線で行われた試験走行により得られたリファレンスビデオ画像における仮想建築限界枠による電柱の支障の検出結果を示す略線図である。 この発明の第2の実施の形態による列車位置および環境変化検出システムにおいて用いられる拡大された仮想建築限界枠を示す略線図である。 この発明の第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて用いられる複数ビデオ画像のハンドリング機能を有するアプリケーションの操作方法を説明するための略線図である。 この発明の第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて用いられるキロ程決め技術を説明するための略線図である。 この発明の第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて用いられるキロ程決め技術を説明するための略線図である。 この発明の第5の実施の形態による列車位置検出システムを示す略線図である。
以下、発明を実施するための形態(以下「実施の形態」という)について説明する。
〈第1の実施の形態〉
第1の実施の形態による画像処理を利用した列車位置検出システム(以下「列車位置検出システム」という。)について説明する。
[列車位置検出システムの全体構成]
図1はこの列車位置検出システムの概要を示す。図1に示すように、この列車位置検出システムにおいては、画像同期装置10を介して、音声入力機能を有するデジタルビデオカメラ20と車両動揺測定装置30とが接続されている。より詳細には、車両動揺測定装置30の出力端子と画像同期装置10の入力端子とがケーブルC1により接続され、画像同期装置10の出力端子とデジタルビデオカメラ20の音声入力端子とがケーブルC2により接続されている。これらの画像同期装置10、デジタルビデオカメラ20および車両動揺測定装置30は車両内、具体的には、例えば先頭車両内に設置される。
デジタルビデオカメラ20は、例えば、列車の先頭車両の運転室内に、進行方向前方の空間を撮影することができるように設置される。より具体的には、デジタルビデオカメラ20は、例えば、先頭車両の運転室の前方の窓ガラスの内側の面や窓ガラスの内側の面の直ぐ手前の台上に強力な吸盤などを用いて動かないように設置される。デジタルビデオカメラ20としては、市販の汎用デジタルビデオカメラを用いることができるが、好適には、高解像度のデジタルビデオカメラ、例えばハイビジョンデジタルビデオカメラが用いられる。
車両動揺測定装置30は、例えば、加速度センサー、角速度センサーおよび傾斜センサーからなる群から選ばれた少なくとも一つのセンサーを有する。このうち加速度センサーは、線路を走行する車両の前後方向、左右方向および上下方向の加速度を検出する3軸加速度センサーである。車両動揺測定装置30にはケーブルC3を介してGPS受信機38が接続されている。車両動揺測定装置30は、GPS受信機38により受信されるGPS信号により、車両の位置(緯度、経度)の情報および速度情報(NMEA0183)を取得し、記録することができるように構成されている。また、車両動揺測定装置30は、車両の車軸端などに設置された速度発電機から送出されるパルス電圧により軌道上の位置(キロ程)および速度情報を取得し、記録することができるように構成されている。車両動揺測定装置30の詳細については後述する。
画像同期装置10は、車両の走行中に、デジタルビデオカメラ20により選択されたサンプリング間隔で撮影される線路空間の画像(フレーム)と車両動揺測定装置30により取得される時系列の位置情報および速度情報とを同期させ、互いに一対一の関連付けを行うために用いられる。このために、画像同期装置10では、車両動揺測定装置30により生成されたデータインデクス(data index)(あるいは同期番号)が音声エンコードされ、デジタルビデオカメラ20の音声トラックに記録される。画像同期装置10の詳細については後述する。車両動揺測定装置30では、速度発電機から送出されるパルス電圧を記録し、上述と同様に撮影画像との関連付けを行う。
デジタルビデオカメラ20の設置の仕方の一例を説明する。すなわち、デジタルビデオカメラ20の設置時には、線路の消失点がカメラ画像中心に来るように、しかも画面垂直方向が重力軸に平行になるようにする。この際、これらの調整を正確に行うため、画面に補助線を表示するようにする。また、デジタルビデオカメラ20のレンズの広角端で撮影を行うため、デジタルビデオカメラ20の設置時にこの補助線を使うにあたりレンズ歪および画像中心のずれが無視できないことから、レンズ歪補正および画像中心補正を施したビデオカメラ画像に補助線が引かれるツールプログラム(カメラセットアッププログラム)を開発し、このツールプログラムをインストールしたノート型パーソナルコンピュータ(ノートPC)を車両内に持ち込んで使用する。また、この際、デジタルビデオカメラ20から出力されるHDMI(登録商標)信号をPCで入力できる形式(H.264)に変換するHDMI−USB変換器をデジタルビデオカメラ20とノートPCとの間に接続する。
上記のデジタルビデオカメラ20のレンズ歪補正係数および画像中心のずれ、また後の処理で用いる焦点距離を別途較正しておく。これをカメラ内部パラメータキャリブレーションと呼ぶ。このために、上記のノートPCにはカメラ内部パラメータキャリブレーションプログラムをインストールしておく。このカメラ内部パラメータキャリブレーションのパラメータはファイルとして保存され、上記のデジタルビデオカメラ20の設置時の作業および後の列車位置検出機能において用いられる。
列車を走行させながらデジタルビデオカメラ20により撮影が行われた後、車両動揺測定装置30から、動揺・緯度経度・速度データおよびデータインデクスが、例えば撮影回数分CSVファイルとしてデータ処理PC50に渡される。また、デジタルビデオカメラ20からは、撮影画像および音声エンコードされた車両動揺測定装置30発行のデータインデクスがデータ処理PC50に渡される。データ処理PC50には、後に詳述する、フレームマッチング処理を始めとした各種の処理を行うための列車位置検出プログラムがインストールされている。データ処理PC50は、列車内あるいは列車外のオフィスなどに設置される。車両動揺測定装置30からの動揺・緯度経度・速度データおよびデータインデクスは、例えばSDカード経由でデータ処理PC50に渡されてもよい。同様に、デジタルビデオカメラ20からの撮影画像および音声エンコードされた車両動揺測定装置30発行のデータインデクスは、例えばSDカード経由でデータ処理PC50に渡されてもよい。
上記の各種データは、ビデオカメラ画像と各種センサーデータとを連動表示するプログラム(連動表示プログラム)に読み込まれ、ビデオカメラ画像の音声データからデータインデクスにデコードされ、動揺・経度緯度・速度データとビデオカメラ画像のフレームとは一対一対応の関係を与えられる。また、連動表示プログラム上でビデオカメラ画像と速度グラフとを同期表示し、データが妥当か否かを確認する。
ビデオカメラ画像および速度情報が妥当であると確認された後、連動表示プログラムからビデオカメラ画像と、各フレームの速度情報とが出力され、列車位置検出プログラムに読み込まれる。
[列車位置検出システムにおけるデータファイル入出力の概要]
この列車位置検出システムにおけるデータファイル入出力について説明する。
(1)既に述べたように、画像同期装置10を介してデジタルビデオカメラ20と車両動揺測定装置30とを接続し、デジタルビデオカメラ20で撮影されたビデオカメラ画像と車両動揺測定装置30により得られた速度情報(速度データ)およびセンサーデータとを同時に収録する。
(2)車両動揺測定装置30のSDカード内には、年月日時分秒をファイル名前半とする数種類のファイルが生成される。また、デジタルビデオカメラ20のSDカード内にも年月日時分秒をファイル名とするビデオファイルが生成される。
(3)同期ビューアから車両動揺測定装置30の解析プログラムを起動(キック)し、解析プログラムのGUIでまず_vbsd.binファイルを読み込む。解析プログラム内では引き続き_vbsd.binファイル内にあるリンクから_gpsd.csvファイル、_xind.binファイルおよび_spdd.binファイルを読み込む。
(4)次に、解析プログラムのGUIを用いて、.INIファイル、.PTPファイルおよび.ANAファイルを出力し、これを同期ビューアに読み込む。
(5)同期ビューアでは、出力された.INIファイル、.PTPファイルおよび.ANAファイルを自動的に指定フォルダにコピーする。
(6)次に、同期ビューアによりビデオファイルである.mtsファイルを読み込み、音声トラックに記録されたデータインデクスを自動的にデコードし、ビデオカメラ画像のフレームとデータインデクスとの対応表ファイルを作成し出力する。
[列車位置検出システムの詳細]
(画像同期装置10の詳細)
画像同期装置10の詳細を説明する。図2はこの画像同期装置10を示す。図2に示すように、画像同期装置10は、デジタル信号であるデータインデクス(同期番号)をアナログ信号である音声レベル信号に変換するためのデジタル/アナログ変換(D/A変換)回路11を有する。このデジタル/アナログ変換は、例えば、データインデクスの「1」を音声周波数帯の周波数f1 の周波数信号に、「0」を音声周波数帯の周波数f2 (≠f1 )の周波数信号に変換するものであり、典型的にはf2 >f1 に選ばれる。一例として、図3に、データインデクスとして6ビットの「001100」を周波数信号に変換した例を示す。f1 、f2 の具体例を挙げると、f1 =1200Hz、f2 =2200Hzであるが、これに限定されるものではない。このデータインデクスは、車両動揺測定装置30から選択された時間間隔毎に取得される時系列のデータ(位置情報のデータ、速度情報のデータおよび加速度センサーなどのセンサーデータ)にそれぞれ付与されるものであり、これらのデータに対して連番となっている。画像同期装置10は入力端子12を有し、データインデクスは車両動揺測定装置30の出力端子からこの入力端子12に送出される。データインデクスは、車両動揺測定装置30からシリアル通信規格のシリアル信号として入力端子12に供給される。シリアル通信規格は、例えば、RS485、RS422AまたはRS232Cである。画像同期装置10は出力端子13を有し、デジタル/アナログ変換回路11から出力される音声レベル信号はこの出力端子13から出力される。この出力端子13には、音声入力機能を有するデジタルビデオカメラ20の音声入力端子が接続されるようになっている。
図4は画像同期装置10の具体的な構成例を示す。図4に示すように、この画像同期装置10は、TTLレベル変換回路14、デジタル/アナログ変換回路11および音声電圧レベル変換回路15を有する。TTLレベル変換回路14は画像同期装置10の入力端子12と接続されている。入力端子12にはシリアル通信規格によるシリアル信号が供給され、このシリアル信号のレベルがTTLレベル変換回路14によりTTLレベルに変換される。こうしてTTLレベルに変換されたデータインデクスがデジタル/アナログ変換回路11に入力され、音声レベル信号に変換される。例えば、車両動揺測定装置30から入力端子12にデータインデクスがRS485レベル信号として供給され、このRS485レベル信号がTTLレベル変換回路14によりTTLレベルに変換される。デジタル/アナログ変換回路14から出力される音声レベル信号は音声電圧レベル変換回路15に入力され、電圧レベル変換が行われる。音声電圧レベル変換回路15の出力端子は画像同期装置10の出力端子13と接続されている。出力端子13には、デジタルビデオカメラ20の音声入力端子を接続することができるようになっている。デジタル/アナログ変換回路11の具体例を挙げると、HART(Highway Addressable Remote Transducer)モデム(例えば、非特許文献1参照。「HART」は登録商標。)である。HARTモデムでは、「1」を1200Hzの周波数信号に、「0」を2200Hzの周波数信号に変換する。画像同期装置10は入力端子25を有し、この入力端子25に外部マイク26を接続することができるようになっている。この外部マイク26はモノラル録音に用いられる。入力端子25は出力端子13と接続されており、必要に応じて、入力端子25に入力されるモノラル音声(あるいは、ステレオ片チャンネル)を音声レベル信号とともに出力端子13から外部に送ることができるようになっている。
この画像同期装置10によれば、車両動揺測定装置30から出力される時系列のデータ(位置情報のデータ、速度情報のデータおよびセンサーデータ)に付与されたデータインデクスを音声レベル信号に変換しているので、この音声レベル信号をデジタルビデオカメラ20の音声入力端子に入力して録音することができる。このため、この音声レベル信号を用いて、位置情報のデータ、速度情報のデータおよびセンサーデータとデジタルビデオカメラ20により撮影された画像とを同期させることができる。この画像同期装置10は簡単に構成することができるため、製造コストを低く抑えることができ、しかもサイズを小さくすることができる。
(車両動揺測定装置30の詳細)
車両動揺測定装置30の詳細を説明する。図5は車両動揺測定装置30の構成を示す。車両動揺測定装置30は、センサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース(I/F)制御部35および電源制御部36を有する。これらのセンサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース制御部35および電源制御部36は高速シリアルバス37を介して相互に接続されている。外部インターフェース制御部35の出力端子が画像同期装置10の入力端子(図4に示す入力端子12)と接続されている。位置情報処理部33には、GPS受信機38により受信されるGPS信号および速度発電機39の信号が供給されるようになっている。
センサー処理部31は、軌道上を走行する車両の前後方向、左右方向および上下方向の加速度を検出するための3軸加速度センサー、角速度センサー(ヨー、ロール)および傾斜センサー(ピッチ、ロール)の出力信号が供給され、所定の処理が行われる。表示処理部32は、例えば液晶ディスプレイ(LCD)の表示制御を行う。位置情報処理部33は、GPS受信機38により受信されるGPS信号により車両の位置(経度、緯度)を測定するとともに、速度発電機39の信号により線路上の位置(キロ程)を測定する。データ保存部34は、センサー処理部31により処理されたセンサーデータおよびセンサーデータに付与されたデータインデクスを保存し、記録媒体としては例えばSDカードが用いられる。外部インターフェース制御部35は、センサー処理部31から出力されるSCI(Serial Communication Interface)のTTLレベルのデータインデクスをシリアル通信規格、例えばRS485レベルに変換して画像同期装置10の入力端子12に送る。電源制御部36はバッテリー40を備えており、センサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース制御部35およびディスプレイへの電源の供給を制御する。
車両動揺測定装置30の具体的な構成例(外形)を図6A、BおよびCに示す。ここで、図6Aは平面図、図6Bは正面図、図6Cは側面図である。図6A、BおよびCに示すように、車両動揺測定装置30は、直方体形状の筐体30aの内部に、図5に示すセンサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース制御部35、電源制御部36および高速シリアルバス37が収納されている。ここで、センサー処理部31、表示処理部32、位置情報処理部33、外部インターフェース制御部35および電源制御部36はそれぞれセンサー処理基板、表示処理基板、位置情報処理基板、外部インターフェース制御基板および電源制御基板として構成されている。筐体30aの大きさの一例を挙げると、250mm×170mm×120mm程度である。筐体30aの両端には把手30b、30cが取り付けられており、これらの把手30b、30cを両手で掴んで車両動揺測定装置30を持ち運ぶことができるようになっている。筐体30aの前面にはLCD30dが設置されている。このLCD30dの表示は表示処理部32により制御される。筐体30aの前面には電源スイッチ30eが取り付けられている。電源スイッチ30eは電源制御部36と接続されている。電源スイッチ30eにより車両動揺測定装置30の電源のオン/オフを行うことができるようになっている。
車両動揺測定装置30の外部インターフェース制御部35のSCI(TTL)信号の波形の例を図7Aに、RS485レベル変換後のRS485レベル信号の波形の例を図7BおよびCに示す。また、画像同期装置10に入力されたRS485レベル信号の波形の例を図8AおよびBに、TTLレベル変換回路14により変換されたTTLレベル信号の波形の例を図8Cに、音声電圧レベル変換を行った後の音声レベル信号の波形の例を図8Dに示す。
(カメラ姿勢調整プログラム)
この列車位置検出システムでは、上記のカメラ内部パラメータキャリブレーションの結果を読み込み、リアルタイムで歪補正したスルー画像を表示するカメラ姿勢調整プログラムを作成し、使用することもできる。このカメラ姿勢調整プログラムを用いることにより、列車位置検出エンジンにデジタルビデオカメラ20のロール角度を補正する機能がなくても、線路の消失点を画像中心に正しく設定することができる。すなわち、カメラ画像そのものは、画像中心がずれているほか、歪もあり、正しく設定することが難しい。しかし、このカメラ姿勢調整プログラムを用いることにより、消失点を画像中心に容易に設定することができる。
図9にカメラ姿勢調整プログラムの画面(実際にはカラー画面)を示す。このカメラ姿勢調整プログラムの画面の機能について説明すると以下の通りである。
(1)デジタルビデオカメラ20で撮影された画像をリアルタイム表示する。
(2)別途、上記の内部パラメータキャリブレーションにより得られた、デジタルビデオカメラ20のレンズの歪補正係数および画像中心を読み込む。歪補正および画像中心補正をリアルタイムで行い、補正画像を表示する。
(3)画面に表示される縦線L1と横線L2とからなる十字線(例えば、赤十字線)の交点Pは、画像中心であり、線路の消失点がこの交点Pに重なるようにデジタルビデオカメラ20の姿勢を調整する。
(4)画面の中央下部に表示された左下がりの斜め線L3および右下がりの斜め線L4(例えば、黄色線)は、画面右下の“2.左斜め線”および“3.:右斜め線”のラジオボタンで選択し、その下の左向きの矢印ボタン(←)および右向きの矢印ボタン(→)を押すことで、十字線の交点Pを中心に角度を調整することができる。これらの左斜め線L3および右斜め線L4を2本のレールに沿わせることで、消失点が正しいか否かを判断できる。
(5)画面に表示された二本の縦線L5、L6(例えば、黄緑線)は、画面垂直方向を表し、画面右下の“1:左垂線”および“4:右垂線”のラジオボタンで選択し、その下の左右向きの矢印ボタンを押すことで、左右位置を調整することができる。この左垂線および右垂線を建物などの垂線に沿わせることで、デジタルビデオカメラ20のロール角を微調整する。
以上のカメラ姿勢調整プログラムを用いることで、デジタルビデオカメラ20の取り付け姿勢を以下のように調整する。
・カメラ視線軸は、地平面と平行
・カメラ視線軸は、軌道方向と平行
・カメラ撮像面Y軸と重力軸とは平行
なお、カメラ姿勢調整プログラムを用いることによりデジタルビデオカメラ20の姿勢の調整を高精度で行うことができるが、実際に現場でデジタルビデオカメラ20を取り付ける際には、たとえ姿勢の調整の精度を多少犠牲にしても、より簡便に姿勢を調整することが求められることもある。このような場合には、列車位置検出プログラムにおいて、撮影されたビデオカメラ画像から、デジタルビデオカメラ20の姿勢を推定する。その際、例えば、撮影されたビデオカメラ画像上に図9に示すカメラ姿勢調整プログラム画面のようなガイド線を表示して、レールの消失点および建物垂直線をユーザーがマウス指定することが考えられる。
(連動表示プログラム)
連動表示プログラムは、車両動揺測定装置30で収録されたGPSデータおよび速度発電機情報と、デジタルビデオカメラ20で撮影された画像とを連動表示する。図10に連動表示プログラム100の画面を示す。連動表示プログラムの機能は下記の通りである。
(1)ビデオカメラ画像の音声トラックの音声データからデータインデクスをデコードし、車両動揺測定装置30の速度情報およびセンサーデータと対応付け、各ビデオフレームに速度情報を割り当てる。
(2)デジタルビデオカメラ20のビデオフレームレートと車両動揺測定装置30の速度情報サンプリングレートとは一般的に異なる。例えば、デジタルビデオカメラ20のビデオフレームレートは60Hz、速度情報サンプリングレートは1Hzである。このため、一次の補間を行い、全ビデオフレームに速度情報を割り当てる。
(3)収録されたビデオカメラ画像と、加速度センサーデータ、GPS速度データおよび速度発電機データとを連動して再生する。
(4)現在表示しているビデオフレームに対応した速度情報(GPS速度)を表示する。
[フレームマッチング技術]
この列車位置検出システムにおいて使用するフレームマッチング技術について説明する。
このフレームマッチングのアルゴリズムは、(1)ベースビデオ画像特徴データベースの生成処理、(2)フレームマッチング処理、とからなる。このうち(2)のフレームマッチング処理は、同一路線を異なる日時に撮影したビデオ画像が複数本ある場合、特定の1本を基本となるビデオ画像(ベースビデオ画像)(第1の動画に対応する)とし、それ以外のビデオ画像(リファレンスビデオ画像)(第2の動画に対応する)の各フレームに対するベースビデオ画像の対応フレームを探索するという処理を行う。図11にその一例を示す。図11に示すように、ベースビデオ画像は複数のリファレンスビデオ画像との比較を行うため、予め画像特徴データベースを生成しておく。画像特徴データベースの詳細は後述するが、ベースビデオ画像の全フレーム画像のうち、フレームマッチングに用いる情報抽出を予め行いデータベース化することで、複数のリファレンスビデオ画像とのフレームマッチング処理において、同一処理が重複することを防ぐ。図12にその一例を示す。図12に示すように、同一路線の全てのリファレンスビデオ画像(この例ではリファレンスビデオ画像1〜3)は、ベースビデオ画像とフレームマッチングを行い、その結果をフレームマッチング結果として出力する。このとき、フレームマッチング結果は、リファレンスビデオ画像のフレーム番号(ビデオ画像の第1フレームを番号0として、以下カウントアップされる番号)と、それに対応するベースビデオ画像のフレーム番号とのペアを1レコードとするデータベースになる。
画像特徴データベースの生成処理フローを図13に示す。図13で入力されるベースビデオ画像および速度情報は、車両動揺測定装置30によって収録されたデータセットで、MPEG4のビデオ画像ファイルと、ビデオフレームに対応付けられた速度情報およびキロ程情報を含む解析ファイルと、これらをフレームごとに対応付ける情報とから構成される。図13で生成される画像特徴データベースとは、ベースビデオ画像の各フレーム画像に対し、画像の特徴的な情報を抽出し、その時点までの速度を積分した距離情報、および元データのキロ程情報を1レコードとしたものとなる。ここで使用するフレームマッチング技術では、SURF(Speeded Up Robust Features)特徴を特徴量として用いる。これらの画像特徴は、例えば互いに異なる日時に同一対象物を撮影した図14Aに示す画像を入力画像としたとき、図14Bに示すようにこれらの画像間で対応するポイントを探索するために用いられる。図14Bに示すように、SURF特徴による対応点推定が行われる(斜めの直線の両端位置がSURF特徴の位置である)。SURF特徴は、画像内の特定対象物の探索(テンプレートマッチング)にも利用される。図15にその一例を示す。
SURF特徴はSIFT(Scale Invariant Feature Transform)特徴などと同様、照明変化や拡大縮小、および回転に対して頑健であり、鉄道軌道画像のように天候、時刻などにより刻々と変化する自然画像において有効と考えられる。
一例として、図16に、JR草津線で取得したビデオ画像に対して、実際にSURF特徴を抽出した結果を示す。図16において、ビデオ画像上に描画された赤色・緑色・青色の3色のドットが抽出されたSURF特徴点位置を示す。赤色・緑色・青色はSURF特徴の強さを示し(赤ドットが最も強く、緑ドットが次に強く、青ドットが次に強い)、一定の強さ以下のものは排除される。レール面上および中央の遠方風景にはSURF特徴が検出されていないが、これは後に述べるフレームマッチングアルゴリズムへの悪影響を考慮して意図的に未検出とした。
図13に示すように、上記のSURF特徴をベースビデオ画像の全フレームに対し検出し、画像特徴データベースに保存している。このとき、SURF特徴検出を行ったフレームが、第1フレームを撮影した位置からどの距離にあるかを速度情報から速度の積分により求め、SURF特徴と対応付けてデータベースに保存している。
本アルゴリズムにおいて、SURF特徴を画像データベースとして保存し、フレームマッチング処理にて用いる目的および理由は下記の(1)〜(3)の通りである。
示す。
(1)ベースビデオ画像の特定フレームにリファレンスビデオ画像の特定フレーム上にある物体が存在するかを調べる。
(2)上記を実行するにあたり、天候・時刻などにより照明環境が変動しても影響されない。
(3)上記を実行するにあたり、カメラの取り付け角度あるいは車両の姿勢の誤差などがあっても影響されない
なお、画像特徴データベースは、好適には、SURF特徴が上記のように頑健性を実現するため、1つの特徴に対し比較的大きな情報を持っており、ビデオ画像全フレームでは比較的大きくなる(例えば、1時間あたり10GB程度)ため、バイナリデータとして保存する。
以上のようにして、ベースビデオ画像の画像特徴データベースを用いて、リファレンスビデオ画像とベースビデオ画像とのフレームマッチング処理を行う。フレームマッチング処理フローを図17に示す。このフレームマッチング処理フローを図17に付した(1)〜(12)の順に説明すると下記の通りである。
(1)入力として、新しいリファレンスビデオ画像と対応付けられた速度情報のセットを準備する。
(2)予め準備されたベースビデオ画像の画像特徴データベースを用いる。
(3)リファレンスビデオ画像のフレーム画像からユーザーがフレームマッチングの開始フレームを指定する。
(4)リファレンスビデオ画像の開始フレームに対応するベースビデオ画像のフレームを探索する。この探索は図18に示す処理フローで行う。すなわち、図18に示すように、まずリファレンスビデオ画像の開始フレームに対し、SURF特徴を抽出する。このリファレンスビデオ画像の開始フレームのSURF特徴と、ベースビデオ画像の画像特徴データベース内に格納されている各フレームのSURF特徴とを比較し、類似度を計算する。類似度は、以下に述べるベースビデオ画像およびリファレンスビデオ画像のフレーム画像各々の対応点がある特徴点数と、リファレンスビデオ画像のフレーム画像上で抽出されたSURF特徴点数との比として下記式(1)のように定義する。
この類似度を図18に示す、リファレンスビデオ画像の開始フレームに対応するベースビデオ画像のフレーム探索フロー内のSim に代入する。
また、特徴点の対応は、SURF特徴の特徴記述ベクトルのユークリッド距離が最も短くなる対を選択することにより得る。ここで、SURFアルゴリズムの基となるSIFTアルゴリズムで用いられている特徴記述ベクトルについて説明する。SIFT特徴の特徴記述ベクトルとは、特徴点周辺の画像輝度の各方向の変動量をベクトルで表したものである(図19参照)。図19の左図は入力画像であり、中心の白丸で示した点に特徴点があるとする。この地点の輝度がどの方向に最も勾配(輝度の変化量)があるかを計算する。この例の場合は、図19の左図の左上方向(矢印方向)に輝度が最も変動している。この方向を縦軸に考えた4×4グリッド(左上図緑グリッド)を設定し、この各々1グリッド内で各方向への輝度の変動を計算する。こうすることで、画像が回転した場合でも、同一地点ではグリッド内の輝度の変動は同一となる。図19の右図は、8方向に対する輝度の変動量を矢印の長さで表示したものである。本プログラムでは、4方向に対する変動量を使用している。よって、SURF特徴は4×4グリッド×4方向=64個の値で、1つの特徴点を記述することとなる。すなわち、1つの特徴点は、64次元ベクトルとして特徴付けられる。
2つの異なる画像上の特徴点に関し、この64次元ベクトルが似ているということは、その特徴点およびその周辺が非常に似た画像であると推定できる。これは、言い換えると64次元空間でユークリッド距離が短いということで、2つの画像上の特徴点を総当たりして、最も64次元ベクトルが似ているもの同士を対応点として対にすることができる。また、上述の特徴記述ベクトルの求め方を考えると、輝度の絶対値などに影響されず、また画像間の回転変動があっても同一点の対応が取れると考えられる。
SURFアルゴリズムは、SIFTと同様の性能を高速に行えるようにしたものであり、基本的な特徴点対応の考え方は同様である。
以上のように、SURF特徴による対応点を検出し、式(1)により類似度を求める。この処理を画像特徴データベース内の全レコードに対して行い、類似度が最大になるレコードを求める。しかし画像特徴データベースの全レコードに対して行うと処理時間が増大するため、実際の処理では、例えば、画像特徴データベースに保存されたキロ程情報と、リファレンスビデオ画像のキロ程情報とを突き合わせ、ベースビデオ画像の対応するキロ程の前後100m程度で上記対応処理を行う。
以上のようにして最大の類似度を持つレコードを求めたら、それに対応するベースビデオ画像のフレーム番号を画像特徴データベースから取得し、出力する。
以下に、本処理を行っている様子を示す。図20はリファレンスビデオ画像の開始フレーム画像に対するSURF特徴抽出結果を示し、図18に示すフロー図右上のリファレンスビデオ画像の開始フレーム画像に対し、SURF特徴抽出処理を行ったものである。図20中の白点位置がSURF特徴として抽出された位置である。
図21AおよびBに、リファレンスビデオ画像の開始フレームのSURF特徴に対し、ベースビデオ画像の画像特徴データベースに格納されたSURF特徴をマッチングしている様子を示す。図21AおよびBの青点は、図20の白点と同じもので、リファレンスビデオ画像の開始フレームで検出されたSURF特徴を示す。また、赤点は、ベースビデオ画像の画像特徴データベースから読み込まれたベースビデオ画像探索フレーム上のSURF特徴を示す。一部の青点と赤点はその間を黄色線で結ばれているが、これは、その両端点の赤・青が対応点であることを示す。図21Aは、対応点が20個しかなく、類似度は低い。また、図21Bは、最も類似度が高く146個の対応点が存在する。図22に、この方法によって対応付けられたベースビデオ画像のフレームを示す。図22中、右側がリファレンスビデオ画像の開始フレーム画像で、左側が上記アルゴリズムで対応付けられたベースビデオ画像のフレーム画像である。
(5)前記処理で求めたフレームに対応する位置(速度情報を積分した位置)の状態設定を行う。
状態とは、リファレンスビデオ画像の現在フレームの撮影位置の確からしさを確率密度で表したものである。求められた位置が最も確からしい位置であるから、ここを中心とした正規分布を設定する。図23にその一例を示す。図23のグラフ横軸は、ベースビデオ画像の位置(フレームに割り当てられた速度を積分したもの)で、縦軸はリファレンスビデオ画像の現在フレームを撮影した位置がそこである確からしさ(確率)である。グラフの左右中央が、(4)で求められた位置であり、ここを中心に正規分布を割り当てている(白い縦線)。以後、この確率密度を変更しながら、その最も確率が大きな位置に、リファレンスビデオ画像の現在のフレームを撮影した位置があると考える。
(6)リファレンスビデオ画像の次のフレーム画像を読み込む。以降(7)〜(10)までの処理を繰り返すごとに読み込む。このとき、フレームに割り当てられた速度情報も読み込む。
(7)速度情報から、現在フレームでの図23に示した確率密度を推定する。推定には以下の式(2)を用いる。
ここで、kおよびiは、位置を表す(本システムでは、例えば0.5mごとの位置の連番)。tは時刻を表し、具体的には図17のフロー図における(6)から(12)に至るループを回る回数である。pは確率密度を表し、pi,t は時刻tのときに、iにビデオカメラが存在する確率を示す。
式(2)は、過去t−1に位置iにビデオカメラが存在する確率密度分布pi,t-1 と現在tにその時の速度ut である場合、位置kに存在する確率を掛け合わせ、これを全位置に関して累積したものである。過去の確率分布を踏まえたうえで、現在の速度ut により現在の確率密度分布がどのように変更されるかを表している。
ここで、現在の速度ut で位置がどこに移動するかを考える。フレーム間の時刻をΔt
とすると、移動量は、l=ut ×Δtとなるが、速度(本システムの場合は、GPS速度情報あるいは速度発電機情報)データ自体に誤差が含まれている。この誤差を正規分布としてモデル化し、式(2)の中央部分を以下のように正規分布で定義する。
ここで、μ=ut ×Δt、δ=Δtδs である。δs は速度情報の誤差分散で、本プログラムでは例えば1m/sとする。
以上の計算により、図23に示した確率密度分布を初期状態とし、以降時刻t−1の確率密度分布をtの確率密度分布に更新する。
実際のデータでこの計算により確率密度が変更される様子を図24A〜Cに以下に示す。図24A〜Cでは、A、BおよびCの順番で時刻が進み、確率密度分布が更新されている様子を示す。確率密度のピーク位置が徐々に右すなわち前方にシフトしていることが分かる。
以上の処理で、速度情報からリファレンスビデオ画像の現在フレームを撮影した位置が推定される。しかし、速度情報は誤差を含んでおり、上記のように確率密度を導入しているが、推定は速度の積分と本質的に変わらないため、この位置推定は時間が経つほど誤差が増大する。
(8)リファレンスビデオ画像のフレームが10進む毎に、次の(9)で説明する状態推定修正を行う。
(9)(7)で推定された位置は、そのままでは誤差が累積するため、(4)で行っているものと同等の処理を行い、累積誤差を解消する。以下にその方法を説明する。
式(2)に対し、(4)で説明した類似度を重みとして各地点の確率密度に反映させる。このようにすれば、間違ったマッチングにより類似度が高くなる偽の位置があったとしても、速度による確率密度分布を考えると、最も確率が高くなることはない。速度情報だけによる推定が、この処理を行うことで正しい位置に補正される。図25A〜Cにその様子を示す。図25Aのグラフは、(7)の処理を繰り返した結果、真の位置から確率密度分布のピークがずれている状態を表す。図25Bのグラフは、リファレンスビデオ画像の現在のフレームに対し、ベースビデオ画像の画像情報データベースのSURF特徴をマッチングさせて、類似度を表示したものである。この場合、真の位置で類似度がピークになるが、たまたま他の位置での類似度が高くなる可能性がある(例えば、周りに建物が無い田園風景で、電柱のみが規則的に表れる場合)。よって、画像の類似度のみでマッチングを行った場合、非常に大きな誤差を発生することがある。図25Cのグラフは、図25Aの速度による確率密度分布に図25Bのマッチングによる類似度を重みとして反映させたものである。図25Cに示すように、マッチング類似度で現れていた偽のピークは、同じ位置の確率密度がほとんど0であるために、無くなっており、また確率密度は正しい位置に修正されることが分かる。当然このような処理を行っても真の位置からずれる可能性は残っているが、大きな誤差は生成されず、より妥当な位置が推定される。
(10)推定された位置に対し、これに対応するベースビデオ画像のフレーム番号を画像特徴データベースから取得する。
(11)(10)ベースビデオ画像の対応フレームと、リファレンスビデオ画像の現在のフレームとをペアとしてフレーム対応情報ファイルに書き出す。
(12)(6)から(10)までの処理をリファレンスビデオ画像のフレーム番号を増加させながら行い、リファレンスビデオ画像の最後のフレーム(あるいは、指定されたフレーム)まで行う。
この列車位置検出システムでは、進行方向前方を向いた1台のデジタルビデオカメラ20で軌道を撮影しているが、これにより、以下のような問題が発生するおそれがある。すなわち、軌道の枕木が繰り返しパターンとなっており、田園風景など他領域でのSURF特徴が少ない場合、間違ったマッチングを行ってしまう。しかも、枕木間が短いため、図25BおよびCで説明した修正が効かない場合がある。枕木は、繰り返し多数出現するため、この現象が長期間続き、結果として大きな誤差を発生する。また、画像中央遠くに建物が有り、手前は田園風景などのSURF特徴が少ない風景では間違ったマッチングを行ってしまう。これは、非常に遠くの風景は画像内で動きが極小さいことに起因している。車両が数十m進行しているにもかかわらず、画像上ではこれを検出できないため、フレームマッチングによる修正機能により逆に誤差が拡大してしまう場合がある。このような鉄道のビデオ画像特有の問題を解決するため、マスク画像を導入する。図26にマスク画像の一例を示す。図26に示すように、このマスク画像では、下部中央の軌道部分と中央遠隔風景部分とをマスクしている。このマスク画像をSURF特徴抽出時に用いて、黒い領域では特徴抽出を行わないようにした。こうすることで、軌道上の枕木の規則的な繰り返しおよび遠隔風景の影響を排除できる。
(実路線での検証結果)
以上のアルゴリズムの実装を行い、実路線ビデオ画像でフレームマッチングを行った検証結果を説明する。
この列車位置検出システムにおいて用いたフレームマッチングの効果を確かめるため、同一データに対し、以下の4種類のフレームマッチングを行った。
(1)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、単に両ビデオ画像を1フレームずつ増加させる。
(2)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、速度情報のみを用いてフレームマッチングを行う。
(3)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、画像のSURF特徴のマッチングのみを用いてフレームマッチングを行う。
(4)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、速度情報および画像のSURF特徴のマッチングを用いて先に説明したアルゴリズムにてフレームマッチングを行う。
これら4つのフレームマッチングの精度は、フレームマッチング結果の画像を人間が目視比較し、軌道枕木が何本ずれているか(最低単位は、0.5本)で判定した。また、すべてのビデオ画像フレームで目視比較することはできないため、キロ程で5km間を200フレームごとに100点程度サンプリングした。図27に試験結果のグラフを示す。試験を行った路線は、JR草津線の草津→柘植間である。撮影条件は下記の通りである。
ベースビデオ画像
撮影日時:2014年9月10日11時
天候:曇天
画質:良好
リファレンスビデオ画像
撮影日時:2014年9月12日11時
天候:晴天
画質:良好
比較区間キロ程 36.7→32.7
図27において、横軸は、リファレンスビデオ画像のフレーム番号、縦軸は、上述したフレームマッチング結果のベースビデオ画像との誤差を枕木本数で表したものである。(1)で示すグラフは上記(1)を、(2)で示すグラフは上記(2)を、(3)で示すグラフは上記(4)の結果を表す。上記(3)(SURF特徴マッチングのみ)の結果は、数フレームでいきなり数十本の誤差となったため、表示していない。
図28〜図31にJR草津線における4回のフレームマッチング結果を示す画像例(図中左側の画像はベースビデオ画像、右側の画像はリファレンスビデオ画像を示す。)を、図32にフレームマッチング結果のフレーム番号のグラフを示す。図32の横軸は計算回数、縦軸はフレーム番号、(1)で示す折れ線グラフは今回のビデオ画像のフレーム番号、(2)で示す折れ線グラフは対応付けられた前回ビデオ画像のフレーム番号である。
試験を行った路線は、JR草津線 草津→柘植間である。撮影条件およびフレームマッチング結果は下記の通りである。
ベースビデオ画像
撮影日時:2014年9月10日11時
天候:曇天
画質:良好
リファレンスビデオ画像
撮影日時2014年9月12日11時
天候:晴天
画質:良好
比較区間キロ程 35.908→0.1
フレームマッチング結果は良好で誤差は最大で枕木本数1.5本程度であり、環境差異検出は十分可能と思われる。
図33〜図36に、JR奈良線におけるフレームマッチング結果の画像例(図中左側の画像はベースビデオ画像、右側の画像はリファレンスビデオ画像を示す。)を、図37にフレームマッチング結果のフレーム番号のグラフを示す。図37の横軸は計算回数、縦軸はフレーム番号、(1)の折れ線グラフは今回のビデオフレーム番号、(2)の折れ線グラフは対応付けられた前回のビデオフレーム番号である。
試験を行った路線は、JR奈良線 棚倉→東福寺間である。撮影条件およびフレームマッチング結果は下記の通りである。
ベースビデオ画像
撮影日時:2013年12月19日14時
天候:晴天
画質:良好
リファレンスビデオ画像
撮影日時:2014年2月12日9時
天候:雨天
画質:不良(先頭車両の運転室の前方の窓ガラスの内側の面へのデジタルビデオカメラ20の固定に用いた吸盤の一部が写っており、雨だれによる画像の屈折、霧あるいはガラス窓の曇りにより非常にコントラストが悪い)
比較区間キロ程 4.5→30.0
フレームマッチング結果は部分的に不良であり、誤差が大きいところでは枕木本数6本程度であり、環境差異検出は不可と考えられる。また、フレームマッチングが成功している部分でも、画質が違いすぎる。
(検証結果の考察)
図27に示すデータの取得に用いたビデオ画像は、同一路線で異なる日時に列車を走行させて撮影されたものであるが、停車駅などは同じであり、走行速度、加速・減速位置などはほぼ同一である。図27の(1)のグラフは、ベースビデオ画像とリファレンスビデオ画像との開始位置を一致させ、両ビデオ画像のフレームを1つずつ送っただけのものであるため、運転手の操作による速度誤差および加速・減速位置誤差はそのまま反映される。よって、最大で枕木本数が7.5まで誤差が拡大している。しかし、駅間走行時間は同じであるため、累積的に誤差が拡大せず、最終的には誤差が収束している。(2)のグラフは、ビデオ画像と同期して収録された速度情報を微分して距離を計算し、フレームマッチングを行っている。(2)のグラフを見ると、25000フレームあたりから急激に誤差が拡大し、最終的には枕木本数20本以上となっている。フレーム番号25000から28000は駅への停車区間となっており、負の加速度が加わっている区間となる。速度発電機の特性として、加速度区間においては車輪の滑りなどによる精度低下があり、これが累積的に誤差を拡大しているものと思われる。(3)のグラフは、今回使用したアルゴリズムでフレームマッチングされたものであり、3つのグラフの中で最も精度が高くなっている。誤差は、枕木本数0〜1.5となっており、これは画素のズレとしては最大90画素程度、画像縦方向の9%程度となる。差異検出を行う場合、当然ながら画面内のほとんどの対象物がベースビデオ、リファレンスビデオのマッチングされた2フレーム画像に重複して存在しなければならない。ズレが一番大きいのは画面の端であり、中央に行くに従いズレは小さくなるため、今回計測した画像下端での枕木のずれが画像の10%以下であれば十分に差異検出が可能であると思われる。
小さな誤差の原因は以下のことが考えられる。
(1)両ピッチングによるカメラ画角の移動による誤差
(2)SURF特徴マッチングの間違いによる誤差
(1)は、車両がピッチングを起こした際、窓ガラスに装着されたビデオカメラの視線が上下方向に揺れ、画面下端が移動するために同一地点の画像でも枕木の見える本数が変動してしまうことが原因と考えられる。(2)は本アルゴリズムの本質的な問題で、前後方向に移動するカメラの映像ではよく似たフレーム画像が連続するため、画像の条件によっては正しいフレームの前後のフレームでSURF特徴の類似度が最も高くなることがあると考えられる。図25A〜Cで説明したアルゴリズムでは、SURF特徴の類似度が最大のフレームが正しいマッチングフレームから大きく離れたフレームである場合には正しく働くが、近い場合には、誤差が発生する。
次に、草津線全線のビデオ画像をフレームマッチングした結果の画像を示す図28〜図31を見ると、良好にマッチングしていることが分かる。草津線全線を観察すると、操車場、住宅地、田園地帯、山間部など多様性に富んだ風景であるが、どのような場合でもフレームマッチング機能は良好に稼働していた。また、ベースビデオ画像とリファレンスビデオ画像では晴天と曇天程度の照明光の変動があるが、この程度の違いは克服できているものと思われる。
図32のフレーム番号グラフは横軸が計算回数を表す。これは、図17における(6)から(12)までの計算を指している。これは、リファレンスビデオ画像のフレームと対応している。ただし、リファレンスビデオ画像のフレームに対応している速度が0の場合は、計算されずにスキップされる。図32の(1)のグラフは、処理されるリファレンスビデオ画像のフレーム番号を縦軸の値として表示している。従って、傾きが1の直線となる。15646フレームおよび57366フレーム付近は駅での停車を表している。一方、図32の(2)のグラフは、フレームマッチングによって対応付けられたベースビデオ画像のフレーム番号である。始発駅でビデオ画像の収録開始時点から発車までの時間が異なるため、図32の(1)、(2)のグラフの左端の切片は異なっている。もし、ベースビデオ画像およびリファレンスビデオ画像を撮影したときの車両が正確に同一速度、加速・減速位置で走行していれば、図32の(1)、(2)のグラフは、切片の量だけシフトして、完全に同じ形のグラフとなる。しかし、実際のグラフでは、(2)のグラフが微妙に曲線となっている。これは、リファレンスビデオ画像撮影時の車両の速度、加速・減速位置とベースビデオ画像撮影時車両のそれとが異なっているからと考えられる。もし、フレームマッチングの間違いによりリファレンスビデオ画像のフレーム番号が増加しているにもかかわらず、ベースビデオ画像の対応フレームの番号が減少していたら、単調増加ではなくなる。また、大きく対応を間違っている場合には、駅での停車以外の区間でステップ状やスパイク状となる。図32ではこれらの形状がみあたらないため、全体として妥当にフレームマッチング処理が稼働していると言える。
次に、天候が極端に異なる例をJR奈良線のビデオ画像で検証した結果について説明する。
図33〜図36は、ベースビデオ画像が晴天、リファレンスビデオ画像が雨天でのフレームマッチング結果を表している。草津線データと異なる条件は、天候だけでなく、窓ガラスに雨粒が多数ついており、風景が鮮明に見えない部分がある。また、一部区間では窓ガラスの曇りも確認できた。さらに、画像下部にビデオカメラ装着治具の吸盤の一部が写りこんでおり、フレームマッチング処理を行うには不利な画像となっている。また、速度情報も草津線が速度発電機を用いているのに対し、奈良線では、車両動揺測定装置30のGPS受信機38で得られたものを使用している。先に、図37のフレームマッチング結果フレーム番号グラフを確認すると、途中の駅停車位置以外では、(2)のグラフは単調増加でステップ状やスパイク状の形状がなく、全体として安定してフレームマッチングが稼働しているものと考えられる。また、図33〜図36も一見正しくフレームマッチングできているように見えるが、図36の地上子の位置を見ると枕木3〜4本程度ずれていることが確認できる。図35もリファレンスビデオ画像のフレーム画像が不鮮明なため確認が困難であるが、ベースビデオ画像のほうがリファレンスビデオ画像よりも前方位置にあることが分かる。
これらの比較的大きな誤差が発生した理由は以下のように推定される。
(a)雨粒による画像の変形で、SURF特徴の対応が正しくとれない。
(b)下部吸盤により画像の一部が撮像されず、対応点が正しくとれない。
(c)発車、停車など低速域ではGPSの速度情報は誤差が大きい。
(a)は図19で説明しているように、SURF特徴は周辺の画像の輝度の変動方向を用いてマッチングしているため、雨粒によって光が屈折すると正しくSURF特徴のマッチングができなくなる。(b)は、画像の一部が欠落しているため、リファレンスビデオ画像は実際の位置よりもかなり手前の状態がベースビデオ画像と一致する(画像の大きさは異なる)と判定される可能性がある。(c)は本来、SURF特徴のマッチングによってその誤差が修正されるため、(a)および(b)がなければ、問題とはならないが、SURF特徴のマッチングが正しくない場合は、誤差を増大させる要因となる。
以上のことから、今回使用したフレームマッチング機能の性能・特性をまとめると、以下の通りである。
・速度によるもの、画像マッチングによるものに比較し、この列車位置検出システムで採用したアルゴリズムを実装したフレームマッチング機能が最も精度が高いと言える。
・晴天・曇天程度の照明環境の変動化では環境変化差異検出を行える程度のフレームマッチング精度は確保可能である。
・晴天・雨天のような照明環境の変動(および雨粒などによる画質の変動)がある場合は環境変化差異検出を行う精度は確保できない
以上のように、この第1の実施の形態によれば、リファレンスビデオ画像の指定されたフレーム画像のSURF特徴と画像特徴データベースに格納されたベースビデオ画像の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて列車の走行位置を検出するので、列車の走行位置を高精度にかつ低コストで検出することができる。
〈第2の実施の形態〉
第2の実施の形態による画像処理を利用した列車位置および環境変化検出システム(以下「列車位置および環境変化検出システム」という。)について説明する。
[列車位置および環境変化検出システムの構成]
この列車位置および環境変化検出システムは、第1の実施の形態による列車位置検出システムに環境変化検出機能を付加したものである。この列車位置および環境変化検出システムの列車位置検出機能は第1の実施の形態による列車位置検出システムと同様に実現することができる。この列車位置検出機能により列車の走行位置を高精度に検出することができるため、時系列的な環境の変化を正確に抽出することができるようになる。
まず、この列車位置および環境変化検出システムにおいて用いられる環境変化抽出技術を説明する前に、この環境変化抽出技術の基礎となる、本出願人によって開発された建築限界支障検出技術について説明する。
データ処理PC50に建築限界支障検出プログラムをインストールする。この建築限界支障検出プログラムは、収録され連動表示プログラムでビデオ画像のフレームと速度情報とが対応付けられたデータを読み込み、ビデオカメラ画像に撮像された対象物が、所定の位置、大きさに設定された仮想の建築限界枠に支障しているか否かを判定し、支障していると判定した場合には画面上で例えば建築限界枠の色を変えて表示する。
図38に、建築限界支障検出プログラムの検出画面の一例を示す。この建築限界支障検出プログラムの機能について説明すると下記の通りである。
(1)“開始”ボタンを押すと、速度情報付ビデオカメラ画像が再生され、同時に建築限界支障検出処理が開始される。
(2)ビデオカメラ画像上に仮想の建築限界枠を点線(例えば、青点線)で表示する。この建築限界枠と重なる位置にあるビデオカメラ画像上の物体が建築限界枠の内側にある場合は、この点線が太い点線(例えば、赤点線)の表示に変わる。
(3)フレーム番号、速度、建築限界枠横方向サイズなどが表示される。
(4)フレーム番号を入力し、“ジャンプ”ボタンを押すと指定したフレームに画像がジャンプする。図38においては、フレーム番号として“1720”が入力された例が示されている。
図39に、建築限界支障検出プログラムの設定画面を示す。この設定画面の機能は下記の通りである。
(1)“参照”ボタンを押すと、入力データのファイルダイアログが表示され、建築限界支障検出に用いる、ビデオファイルおよび速度情報ファイルを指定できる。
(2)ビデオファイル読み込み後、“画像プレビュー開始”ボタンを押すと、画像が再生され内容を確認できる。
(3)“カメラ内部パラメータファイルを開く”ボタンを押すと、ファイルダイアログが表示され、カメラ内部パラメータ(カメラレンズ焦点距離、歪補正係数、画像中心座標)が記述されたファイルを読み込める。
(4)“カメラ外部パラメータファイルを開く”ボタンを押すと、ファイルダイアログが表示され、カメラ外部パラメータ(軌道面中心からの相対距離および軌道面に対する姿勢)が読み込める。軌道座標系は、図40に示す通りである(Y軸は軌道面に垂直)。
(5)“建築限界検出枠の設定ダイアログを開く”ボタンを押すと、仮想の建築限界枠を車両に対しどのように設定するかを指定する仮想建築限界枠設定画面が表示される。
図41に仮想建築限界枠設定画面を示す。この設定画面の機能は下記の通りである。
(1)図41の仮想建築限界枠設定画面の上部に模式的に示すように、デジタルビデオカメラ20から仮想の建築限界枠の位置までの距離dおよび仮想の建築限界枠の大きさrを想定し、仮想建築限界枠があたかもそこに存在するとして図38のビデオカメラ画像上の点線(例えば、青点線)を描画している。このビデオカメラ画像上の点線で示した建築限界枠は、dおよびr、カメラ内部・外部パラメータによって、位置・大きさが変動する。画像処理精度としては、建築限界枠が極力、画面全体に広がるように設定するほうが有利であるため、そのようにdを調整する。また、アルゴリズムが正しく作動していることを確認するために、意図的に建築限界枠を大きくして、実際には建築限界に支障しない対象物に反応させる操作をするために、rを大きく設定したりする。
(2)建築限界検出枠の半径に建築限界枠幅の1/2を入力する(メートル単位) 。例えば、1.9mを入力した場合、仮想建築限界枠は、軌道中心から1.9mのところに限界枠線が生成される(図42参照)。
(3)建築限界検出枠の枠までの距離にデジタルビデオカメラ20から仮想建築限界枠までの想定距離を入力する(メートル単位)。当然、この距離を大きくすると、ビデオカメラ画像上の点線(例えば、青点線)で表された仮想建築限界枠は小さくなり、距離を小さくすると建築限界枠は大きくなる。
(建築限界支障検出アルゴリズム)
建築限界支障検知アルゴリズムを説明する。
軌道上を走行する列車の車両の前方に取り付けられたデジタルビデオカメラ20のビデオカメラ画像の複数枚フレームを用いて、一眼ステレオ視を行い、建築限界枠位置の画素に撮像されている対象物が実際の建築限界の内側にあるのか、外側にあるのかを判定する。
図43は、デジタルビデオカメラ20から見た場合に、設定した仮想の建築限界枠と同一画素に撮像される2本の棒の関係を示したものである。●で示した地点はビデオカメラ画像上の同一の画素に撮像されるが、1本は建築限界枠の内側、1本は建築限界枠の外側である。このように、2次元画像1枚では、建築限界枠内外判定は不可能である。
そこで、デジタルビデオカメラ20が走行中に前進した位置から同一シーンを撮像することを利用してステレオ計測の原理を導入し、この問題を解決する。図44では、デジタルビデオカメラ20が前進した状態を示している。仮想の建築限界枠は移動しないとすると、ビデオカメラ画像上の建築限界枠は近づいて見えるために、外側に向かって大きくなっている。この状態で建築限界枠の内外にある2本の棒の見え方を考えると、建築限界枠内側にある棒はビデオカメラ画像上では仮想の建築限界枠の像よりも外側に写り、建築限界枠の外側に立っている棒はビデオカメラ画像上では仮想の建築限界枠の像よりも内側に写る(図45AおよびB参照)。
よって、以下のような手順で、2次元画像上の建築限界枠位置に写っている対象物が実際には建築限界枠の内側にあるのか、外側にあるのかが判定できる。
(1)デジタルビデオカメラ20が前進する前後の画像を準備
(2)仮想の建築限界枠が前進する前のビデオカメラ画像上のどこに写像されるか計算
(3)消失点から建築限界枠写像画素に向けた直線を生成
(4)移動後の建築限界枠写像を計算
(5)前進前後の画像間で、建築限界枠上の画素位置にあった対象物がどのように移動したかを追尾する。その際追尾は、(3)で求めた直線上に限定する
(6)移動後の位置が(4)で求めた建築限界枠写像位置より内側にあるか、外側にあるかを判定する(内側なら建築限界枠に支障しない、外側なら支障している)
(1)の処理では、ステレオ計測を成立させるために、レール上の位置の異なる、すなわち視点の異なる画像を用意する。毎フレームのステレオ視精度を安定させるためには、ステレオ視に用いる前後2枚の画像の視点間距離は、一定であるほうが望ましい。しかし、走行速度は、まちまちであるからフレーム数では指定できない。そこで、速度情報の積分からフレーム間の距離を計算し、予め決めておいた距離になるペア画像を探す必要がある。
(2)の処理は、デジタルビデオカメラ20からの指定距離離れた位置に、仮想建築限界枠が存在するとして、カメラ外部・内部パラメータを用いてビデオカメラ画像上に仮想建築限界枠を射影する。建築限界枠は、平面上にあるため、ホモグラフィ変換でも求めることができる。
(3)の処理は、(5)で行われる追尾処理のために行われる。デジタルビデオカメラ20が前進するとき、ビデオカメラ画像に写っている全ての点は、消失点からその点を結ぶ直線上を外側に向かって移動する(線路のカーブや、振動の影響はここでは省略する)。この直線をエピ極線と呼ぶ。図46に消失点と画像の移動方向とを示す。
(4)では、(2)と同様の処理を仮想建築限界枠とデジタルビデオカメラ20との距離を前進分だけ短くして行う。図47に、前進前と前進後の仮想建築限界枠を前進前の画像上に表示した画像を示す。ここで、小さい点の点線(例えば、青点線)とより大きい点の点線(例えば、赤点線)とが混合した点線で示した建築限界枠が前進前のもの、より大きい点の点線(例えば、赤点線)だけで示した建築限界枠が前進後のものを示す。
(5)では、前進前の画像で建築限界枠上にあった物体が、前進後どこに移動したかを探索する。この際、前進前の建築限界枠上の画像の小領域をテンプレート画像とし、前進後の画像上で今テンプレート画像と同じ画像がどこにあるかを探索する。この際、探索は、2 次元的に行われるが、(3)で説明したエピ極線上を1次元探索すればよい(エピ極線拘束)。また、直線の探索範囲は、図47で示した、小さい点の点線(例えば、青点線)とより大きい点の点線(例えば、赤点線)とが混合した点線で示した建築限界枠から、より大きい点の点線(例えば、赤点線)だけで示した建築限界枠を超えるところまでとなる(図48参照)。前進前と前進後の建築限界枠間距離を1とすると、追尾する距離は1より若干大きくする。これは、建築限界枠よりさらに内部に突出している対象物を検知するためである。
図49に示すように、追尾位置は、地点1の画像の建築限界枠上の小領域をテンプレート画像として切り出し、これを地点2の画像上でエピ極線上に移動させながら、対応位置の画像との類似度のプロファイルを計算する。この場合、この類似度プロファイルのピーク位置を追尾位置とし、その位置が地点2における建築限界枠位置を超えているか否かにより判定を行う。
さて、環境変化の抽出において、線路周辺の植生の接近が進行しているか否かは重要と思われる。しかし、植生は非常に細かな構造を持っており、そのため照明環境によって簡単に画像の状態が変動しやすくなっている。そのため、2 次元画像の差異を検出する方式では、ノイズが多数発生し本当の差異を抽出することは容易ではない。そこで、この第2の実施の形態においては、上述の建築限界支障検出技術で開発した物体の3次元情報を用いることで、環境変化抽出の安定性を向上させることを図る。異なる2時刻、具体的には朝と夕とで撮影したビデオ画像を考えると、朝と夕とで照明環境がまったく異なるため、照明環境の差異と環境の差異とを峻別することが困難である。一方、朝夕それぞれの3次元形状の計測を行うと照明環境の変化から受ける影響を軽減することが可能となる。
[環境変化抽出の処理の概要]
上述の建築限界支障検出技術では、図52のように、ビデオカメラの前方に対し、レール上に仮想の建築限界枠(3.8m幅)を設定し、撮像された対象物がこの枠の中に食い込んでいるか否かを検出するアルゴリズムを用いている。仮想建築限界枠に食い込んでいるか否かを2次元のビデオ映像から判断するために、ビデオカメラが前方方向に進行することを利用したステレオ視が用いられている。これに対し、環境変化抽出では、この仮想建築限界枠を図53に示すように左右方向および高さ方向に拡張する。すなわち、多重化した仮想建築限界枠(最も内側の枠は標準枠、その外側の3つの枠は拡大した枠)を用いる。これにより、1 回目の撮影では建築限界枠への支障がなかった植生が、以降の撮影時に建築限界枠に支障するか否かをみることで、差異を検出することができる。
[環境変化抽出の処理技術の詳細]
(1)仮想建築限界枠の拡張
図53に示すように、仮想建築限界枠の個数を拡張し、任意個数の仮想建築限界枠を設定する。これにより支障物体が線路方向に干渉していく経過を任意の精度で捉えることができ、環境の変化を精緻に検出する。拡張は、建築限界支障検出技術で開発した仮想支障枠を左右方向および高さ方向に拡幅することで行った。拡張を簡便に行うため、個数と拡幅量をメートル単位で指定することにより実行可能とした。なお、以降の検討および検証では、拡張した仮想建築限界枠1個(幅7.6m)を用い、線路近傍の支障を検出した。
(2)ベースビデオ画像とリファレンスビデオ画像との間での差異検出
ベースビデオ画像およびリファレンスビデオ画像の双方の支障検出結果をもとに差異を計算する際、対応するフレーム間で支障有無や個数を単純な減算により行うと所望の結果を得るのが困難となることがある。図54は、ビデオ画像中で線路傍に立つ電柱が写っている箇所で仮想建築限界支障枠の個数をプロットしたグラフである。グラフの横軸方向はフレームマッチングの結果を用いて同期させている。時速数十kmで走行中の列車にて撮影したビデオ画像は数十フレーム毎秒(=数十センチ毎フレーム)で撮影を行っており、ベースビデオ画像とリファレンスビデオ画像との間で各フレームのシャッターを切った位置に数十cmの差異がある。従って、これらのフレーム間の対応付けは最小でも数十cmの誤差を含むこととなる。ベースビデオ画像とリファレンスビデオ画像との間での単純な減算はこの誤差を無視しており、上図のような意図しない結果を招いてしまう。図54のデータを単純な減算した場合には、図55に示すような結果になる。本来であれば、ベースビデオ画像およびリファレンスビデオ画像とも同一の電柱が支障しているため、図55の3段目の差異が何も現れないことが望ましい。
また、図55に示すグラフでは線路傍の草木がノイズとして一部検出されている箇所がある。処理の安定化のため、このようなノイズは一定量検出されることを想定し、閾値処理を行うこととする(上のグラフでは3段目を計算する際にノイズを除去している)。
以上のことを踏まえ、この列車位置および環境変化検出システムでは、以下の手法にしたがって差異を計算し、頑健な検出を行う。
(1)注目フレームとその近傍を考慮して減算する。
(2)注目フレームの支障点個数が一定以下の場合には無視する。
具体的なアルゴリズムを以下に示す。
(差異計算アルゴリズム)
(A)近傍フレームの閾値をt1 とする
(B)支障点個数の閾値をt2 とする
(C)ベースビデオ画像の注目フレーム番号をNとする。
(D)フレームマッチングの結果を用い、Nに対応するリファレンスビデオ画像の注目フレーム番号Mを求める。
(E)ベースビデオ画像のN番目のフレームにて仮想建築限界枠を設け、支障点個数CGb (N)を求める。リファレンスビデオ画像のM番目のフレームにて仮想建築限界枠を設け、支障点個数CGr (M)を求める。CGb (N)、CGr (M)いずれもt2 以下ならばN番目のフレームの差異Diff(N)を0とする。この時点で終了となる。
(F)ベースビデオ画像の区間[N−t1 ,N+t1 ]の各フレームにて支障点個数を求める。いずれかのフレームで支障点個数がt2 以上ならば支障物体ありと判定する。
(G)リファレンスビデオ画像の区間[M−t1 ,M+t1 ]の各フレームにて支障点個数を求める。いずれかのフレームで支障点個数がt2 以上ならば支障物体ありと判定する。
(H)(F),(G)いずれも支障物体ありならば、N番目のフレームの差異Diff(N)=0とする。(F),(G)いずれも支障物体なしならば、N番目のフレームの差異Diff(N)=0とする。さもなくば、N番目のフレームの差異Diff(N)=0を以下の式で求める。
ただし、Σp はすべての支障点に対する和、hitN (p)はNフレーム目の支障点pが支障していれば1、さもなくば0とする関数である。つまり、支障有無の異なる支障点の個数が、当該フレームを差異とするものである。
以上の手続きによりDiff(N)≠0と判定したフレームは2本のビデオ画像の間で差異があり、Diff(N)=0と判定したフレームは差異がない、と判定する。
[実路線での検証]
実路線を走行する列車で撮影した映像に対して処理を適用し、以下の2つの地点について検証を行った。
(1)草津線上り17.1km地点
ベースビデオ画像撮影日:2014年9月10日
リファレンスビデオ画像撮影日:2014年9月12日
(2)草津線上り22.9km地点
ベースビデオ画像撮影日:2014年9月10日
リファレンスビデオ画像撮影日:2014年9月12日
(A)草津線上り17.1km地点での検証結果
ビデオ画像を目視で確認して差異のある箇所を探し、見つかった箇所を対象とした。図56はベースビデオ画像の処理対象区間の様子、図57はリファレンスビデオ画像の処理対象区間の様子を示す。図56および図57の各画像下の「#000000」はビデオ画像のフレーム番号を表す。このうち、差異検出の対象として注目したのは以下の3箇所((1)〜(3))である。
(1)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がある箇所
線路傍に電柱が立っており、いずれのビデオ画像でも仮想建築限界枠に物体が支障すると考えられる箇所であり、図56の#133094、図57の#154474が該当するものである。当該箇所における差異検出では、差異無しと判定することを想定している。
(2)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がない箇所
線路近傍に物体が無く、いずれのビデオ画像でも仮想建築限界枠に物体が支障することがないと考えられる場所であり、図56の#133138、図57の#154410が該当するものである。当該箇所における差異検出では、差異無しと判定することを想定している。
(3)ベースビデオ画像のみ支障物体がある箇所
ベースビデオ画像にのみ線路傍の側溝で作業している人物が写っており、ベースビデオ画像のみで仮想建築限界枠に支障すると考えられる箇所である。当該箇所における差異検出では、差異有りと判定することを想定している。図56の#133189、図57の#154548が該当するものである。
上記の3箇所を含むビデオ画像を対象として、検出処理を行った。アルゴリズムのパラメータは、近傍フレームの閾値をt1 =3 、支障点個数の閾値をt2 =4 とした。仮想建築限界枠による支障の検出結果は図58および図59に示す通りとなった。図58はベースビデオ画像、図59はリファレンスビデオ画像である。画像中の赤点が支障している点、青点が支障していない点である。
処理結果は図60に示すグラフのようになった。このグラフは横軸が時間軸、縦軸が検出程度を表す。1段目のグラフはベースビデオ画像における仮想建築限界枠の支障点個数、2段目のグラフはリファレンスビデオ画像における仮想建築限界枠の支障点個数、3段目のグラフは両ビデオ画像の差異を計算した結果である。
(B)草津線上り29.1km地点での検証結果
ビデオ画像を目視で確認して差異のある箇所を探し、見つかった箇所を対象とした。対象箇所の様子と、仮想建築限界枠(幅7.6m)による支障点検出の結果を重畳表示した画像を図61および図62に示す。図61はベースビデオ画像の処理対象区間の様子、図62はリファレンスビデオ画像の処理対象区間の様子である。このうち、差異検出の対象として注目したのは線路傍の雑草の部分である。ベースビデオ画像(図38の#78304)にて雑草が繁茂しているのが写っているが、リファレンスビデオ画像(図39の#58437)では除草されており写っていない。したがって、ベースビデオ画像のみ仮想建築限界枠に支障すると考えられる。
上記箇所を含むビデオ画像を対象として、検出処理を行った。アルゴリズムのパラメータは、近傍フレームの閾値をt1 =3 、支障点個数の閾値をt2 =4 とした(上記の検証結果(A)と同じ)。処理結果を図63に示すグラフに示す。このグラフは、横軸が時間軸、縦軸が検出程度を表す。1段目のグラフはベースビデオ画像における仮想建築限界枠の支障個数、2段目のグラフはリファレンスビデオ画像における仮想建築限界枠の支障個数、3段目のグラフは両ビデオ画像の差異を計算した結果である。
[検証結果の考察]
(A)の検証結果の注目箇所ごとに下記の通り考察を行った。
(1)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がある箇所
ベースビデオ画像、リファレンスビデオ画像のいずれにおいても線路傍の電柱が支障しており、支障個数が増大していることが図55に示すグラフから見て取れる。同箇所はフレームマッチングに誤差があり、電柱に由来する支障個数のピーク位置に若干ずれがある。差異をそのまま計算すると、図55に示すように2つのピークが生じることとなる。
今回使用した差異計算アルゴリズムにより、注目フレームとその近傍フレームとを考慮して差異を計算することで、誤差をうまく吸収できている。従って、図55の3段目のグラフにおいて差異が検出されていない。
(2)ベースビデオ画像、リファレンスビデオ画像ともに支障物体がない箇所
ベースビデオ画像、リファレンスビデオ画像のいずれにおいても支障個数が0で図55の3段目のグラフにおいても、差異が検出されていない。また、当該箇所では線路から離れた位置にある側道に車両や作業員がいるが、これらは支障として検出されていない。
(3)ベースビデオ画像のみ支障物体がある箇所
ベースビデオ画像にのみ線路傍の側溝で作業している人物が支障しており、支障数が増大していることが図55のグラフから見て取れる。差異を計算すると図55の3段目のグラフのようになり、当該箇所に差異が存在することが読み取れる。
(B)の検証結果の注目箇所ごとに下記の通り考察を行った。
注目箇所では、図61のベースビデオ画像で線路傍の雑草が支障しており、支障数が増大していることが図63のグラフから見て取れる。一方で、図62のリファレンスビデオ画像においては雑草が除草されており、支障する点はほとんどない。差異を計算すると、図63の3段目のグラフのようになり、当該箇所に差異が存在することが読み取れる。
なお、仮想建築限界枠に線路傍の電柱が支障している箇所では、差異がほとんど検出されていない。これは差異有無の判定が線路の左右のどちら側かを考慮していないため、電柱による支障と雑草による支障を混同しているためである。仮想建築限界枠による支障判定および差異検出を線路の左右で分割する、すなわち図63のグラフが6段(1段目:ベースビデオ画像支障検出左、2段目:ベースビデオ画像支障検出右、3段目:リファレンスビデオ画像支障検出左、4段目:リファレンスビデオ画像支障検出右、5段目:差異検出左、6段目:差異検出右)になるように分割することで、このような事態に対応することが可能となる。
上述のように、線路傍の支障物体の有無に応じて差異の有無を正しく判断でできていることが分かる。
[検証結果の考察に対する補足]
(仮想建築限界枠による支障検出の電柱に対する適用)
図64に、リファレンスビデオ画像にて上記(1)の箇所の支障検出を行った結果を1フレームずつ示す。
仮想建築限界枠による支障検出では、注目フレームの注目点近傍の矩形領域の画素をテンプレートとして、次フレームにて類似した矩形領域を探索することによって、検出を実現している。ここで、矩形領域の画素の類似度の計算は、次式の正規化相互相関(ZNCC)で行う。
注目点近傍でZNCCの値が最大となる矩形領域の位置を探索結果として得る。ただし、ZNCCの最大値が小さすぎる場合には探索該当なしと判断するほうが安定的に処理を行えるので、下限閾値を設けている。この下限閾値が適用されうるケースとして、注目点近傍の矩形領域が暗いために画素値の分散が小さい場合、がある。
図59の例では、太陽とカメラの位置関係上、逆光となっており、電柱の表面が黒くつぶれてしまい、画素値の分散が小さい。従って、上述のZNCCによる類似度計算には不利な状況であるといえる。一方で、電柱の左右輪郭部においては、注目矩形に電柱以外の画素値分散が大きい景色が一部入っており、ZNCCの計算に不利な状況は軽減されている。従って、この電柱を含む前後数フレームで仮想建築限界枠による支障点の検出を行うと、電柱の左右輪郭に該当する2つのピークが得られることとなる。なお、この事象は逆光具合、車速とビデオフレームレートに依存することに注意が必要である。
(線路近傍物体の支障度合いの変化を検出するアルゴリズムの検討)
上記の[環境変化抽出の処理技術の詳細]の(2)ベースビデオ画像とリファレンスビデオ画像との間での差異検出、では線路近傍物体の支障の有無(=環境変化の有無)を検出するアルゴリズムを説明した。さらなる環境変化検出の高度化を目指し、電柱が傾くことで線路に接近してくることを変化事例として想定し、これを検出することについて検討する。
これまでに述べた事項は、幅7.6m(片側3.8m) の仮想建築限界枠を用いた検出処理である。ここから電柱が線路側に20cmだけ近接してきたことを想定し、図65に示すように、幅7.2m(片側3.6m) の仮想建築限界枠を用いて処理を行う。上記の電柱が傾斜する過程を、以下に説明する時点で撮影した3本のビデオカメラ画像で検出するものとする。
(A)電柱が傾斜する前の時点で撮影したビデオ画像
(B)電柱が傾斜し、7.6m幅の仮想建築限界枠に支障する時点で撮影したビデオ画像
(C)電柱が(B)よりさらに傾斜し、7.2m幅の仮想建築限界枠に支障する時点で撮影したビデオ画像
3本のビデオ画像に対し、仮想建築限界枠による支障検出処理を以下の6回実行すると、それぞれ支障有無の判定が得られる。
(1)(A)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障なし
(2)(A)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障なし
(3)(B)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障あり
(4)(B)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障なし
(5)(C)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障あり
(6)(C)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障あり
6個の支障検出結果に対し、差異検出処理を以下の4回実行すると、それぞれ差異有無の判定が得られる。
(I)(a)(c)に対して差異検出処理を行う…差異あり
(II)(b)(d)に対して差異検出処理を行う…差異なし
(III)(a)(e)に対して差異検出処理を行う…差異あり
(IV)(b)(f)に対して差異検出処理を行う…差異あり
以上の処理結果から分かることは以下の点である。
・7.6m幅の仮想建築限界枠による支障検出結果を用いた差異検出では、(A)(B)および(A)(C)の間で差異検出の結果が同一である((I)と(III)))。
・7.2m幅の仮想建築限界枠による支障検出結果を用いた差異検出では、(A)(B)および(A)(C)の間で差異検出の結果が異なる((II)と(IV))
仮想建築限界枠の幅の広さによって2撮影時点の差異検出結果が異なるということは、その時点間で支障物体の支障具合に変化があったということである。したがって、上記のアルゴリズムにより線路傍の物体の支障具合の変化を検出することが可能となることが示唆される。
以上のように、この第2の実施の形態によれば、列車の走行位置を高精度にかつ低コストで検出することができ、それによって列車が走行する軌道の周辺の時系列的な環境の変化を容易にかつ正確に検出することができる。
〈第3の実施の形態〉
第3の実施の形態においては、第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムに、複数ビデオ画像のハンドリングが可能なソフトウェアを組み込んだものについて説明する。
[ソフトウェア機能の概要]
(1)単体再生機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像を独立に再生および一時停止する。
(2)同時再生機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像を撮影時のフレームレートで再生する。ただし、これらの2本のビデオ画像は撮影時の車両の速度が異なっているため、再生開始時点から一定時間経過したときには表示されているシーンが不一致となる。この不一致は時間の経過とともに拡大していくため、両ビデオ画像を比較してシーン中の差異を確認するのは困難となる。
(3)フレームマッチング結果を用いた同期再生機能
フレームマッチングを用い、任意時点で映像中のシーンが一致するようフレームを調整して表示する。(2)の例で考えると、再生開始後に車両速度のズレが原因でシーンの不一致が生じるが、それを補間するようフレーム番号を調整することで同期しての再生を実現する。これにより、時間の経過によらずシーンが一致するので、両ビデオ画像を比較してシーン中の差異を検討することが可能となる。
(4)フレームマッチング実行機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像の間でフレームマッチングを行うのに必要なインターフェースを備え、映像を見ながら処理を行うことを可能とした。ソフトウェア起動時にビデオデータと処理パラメータとを設定し、一連の処理を実行する。
[アプリケーションの操作]
アプリケーション画面を図66に示す。このアプリケーション画面上で[ソフトウェア機能の概要]で説明した機能ごとに以下の手順で操作を行う。
(1)単体再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(B)[ |>]ボタンを押してベースビデオ画像の再生を開始する。
なお、リファレンスビデオ画像についても同様に(C)(D)のボタンで単体再生が可能である。
(2)同時再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(C)[INPUT] ボタンを押してリファレンスビデオ画像を読み込む。
(F)[ 同時]ボタンを押し、ファイル選択ダイアログが開く。フレームマッチング結果ファイルを指定する。
(D)[ |>]ボタンを押して、再生を開始する。
(3)同期再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(C)[INPUT] ボタンを押してリファレンスビデオ画像を読み込む。
(F)[ 同期] ボタンを押し、ファイル選択ダイアログが開く。フレームマッチング結果ファイルを指定する。
(D)[ |>]ボタンを押して、再生を開始する。
この第3の実施の形態によれば、第1の実施の形態あるいは第2の実施の形態と同様な利点に加えて、ベースビデオ画像およびリファレンスビデオ画像のハンドリングが容易になるという利点を得ることができる。
〈第4の実施の形態〉
第4の実施の形態においては、第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて、リファレンスビデオ画像のフレーム画像に対するキロ程を決定する技術について説明する。
図67に示すように、画像を用いたキロ程決め計算機80に、列車に設置されたデジタルビデオカメラ20、GPS受信機38、前後方向加速度計90および画像データベース100を接続する。前後方向加速度計90は列車の車両の前後方向の加速度を計測するためのものである。なお、速度発電機が使える場合は、GPS受信機38および前後方向加速度計90の代わりに用いればよい。画像データベース100は、同一路線の一度目の走行で、沿線のビデオ画像および速度情報を収録してベースビデオ画像とし、このベースビデオ画像の内容などから例えば手動でこのベースビデオ画像の各フレームのキロ程を正確に割り振ることにより作成する。そして、二度目の走行では、走行時のリファレンスビデオ画像と、画像データベース100に格納されたベースビデオ画像とを比較し、また、速度情報を補助データとして用いて、現在のリファレンスビデオ画像の画像内容がベースビデオ画像内のどのキロ程位置にいるかを決定する。こうすることで、同一軌道上の走行により得られる計測データを正確かつ安定的にキロ程に対応させることができる。
このキロ程決め技術では、GPS受信機38により取得される速度の精度あるいは前後方向加速度計90により計測される速度の精度は画像情報で補正されるため、GPS受信機38および前後方向加速度計90とも、それほど精度が求められず、安価なもので足りる。さらに、デジタルビデオカメラ20も、フレームレート、画像の解像度ともそれほど求められないため、安価もので足りる。
図67に示すキロ程決め装置を図68に示すようにして管理計測器110と接続する。すなわち、図68に示すように、画像を用いたキロ程決め計算機80に管理計測器110を接続する。計測時には、画像を用いたキロ程決め計算機80から管理計測器110に対し、計測トリガパルスを送る。管理計測器110は、この計測トリガパルスのタイミングで各種データを取得する。また、デジタルビデオカメラ20は、この計測トリガパルスに連動して撮像される。すなわち、計測トリガパルスの累積番号とデジタルビデオカメラ20で撮影される画像のフレーム番号とは対応しているため、図68の左下に示されているように、この情報を撮影時にファイルに出力しておく。このようにして収録されたビデオ画像から上述のキロ程決め処理を行えば、計測トリガパルス番号とキロ程とが対応付けられる。管理計測器110のサンプル数は計測トリガパルス数であるから、最終的にキロ程は直接、管理計測器110の収録データと対応付けられる。
以上のように、この第4の実施の形態によれば、次のような種々の利点を得ることができる。すなわち、小型かつ安価な装置で高精度なキロ程の決定が可能である。キロ程が正確に収録データと対応付けられることにより、収録データから現場作業が必要と判断された場合、このキロ程を基に現場を正確に特定することができ、それによって現場作業の能率が向上し、ひいては人件費の大幅な削減が可能となる。また、同一地点の状況を正確に比較することができるようになり、時系列的な環境変化を自動的に抽出することができるようになるため、広大な鉄道設備の高度な管理が可能となる。
〈第5の実施の形態〉
[列車位置検出システム]
図69に示すように、第5の実施の形態による列車位置検出システムにおいては、第1の実施の形態において用いた画像同期装置10の代わりに、画像同期プログラムがインストールされたコンピュータ200を用いる。コンピュータ200としては、例えば、PCを用いることができる。その他のことは、第1の実施の形態と同様である。
この第5の実施の形態によれば、第1の実施の形態と同様な利点を得ることができる。
以上、この発明の実施の形態について具体的に説明したが、この発明は、上述の実施の形態に限定されるものではなく、この発明の技術的思想に基づく各種の変形が可能である。
例えば、上述の実施の形態において挙げた数値、構造、構成、形状、回路などはあくまでも例に過ぎず、必要に応じてこれらと異なる数値、構造、構成、形状、回路などを用いてもよい。
10…画像同期装置、11…デジタル/アナログ変換回路、12、25…入力端子、13…出力端子、14…TTLレベル変換回路、15…音声電圧レベル変換回路、20…デジタルビデオカメラ、26…外部マイク、30…車両動揺測定装置、30a…筐体、30b、30c…把手、30d…LCD、30e…電源スイッチ、31…センサー処理部、32…表示処理部、33…位置情報処理部、34…データ保存部、35…外部インターフェース制御部、36…電源制御部、37…高速シリアルバス、40…GPS受信機、39…速度発電機、50…データ処理PC、200…PC

Claims (11)

  1. 動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
    上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出し、
    上記第1の動画および上記第2の動画の各フレーム画像からSURF特徴を抽出する際に当該フレーム画像の下部中央の軌道部分と中央遠隔風景部分とをマスク画像によりマスクしておくことを特徴とする画像処理を利用した列車位置検出システム。
  2. 上記位置情報は上記第1の動画の各フレーム画像と対応付けられたキロ程情報であることを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。
  3. 上記位置情報は上記第1の動画の各フレーム画像と対応付けられた速度情報から速度の積分により求められる距離情報であることを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。
  4. 上記速度情報は上記列車に設置された速度発電機またはGPS受信機により取得されるものであることを特徴とする請求項3記載の画像処理を利用した列車位置検出システム。
  5. 上記類似度は、上記第2の動画の上記指定されたフレーム画像から抽出されたSURF特徴点数に対する、上記第1の動画のフレーム画像と上記第2の動画の上記指定されたフレーム画像との間で対応点があるSURF特徴点数の比であることを特徴とする請求項1〜4のいずれか一項記載の画像処理を利用した列車位置検出システム。
  6. 上記第1の動画のフレーム画像と上記第2の動画の上記指定されたフレーム画像との間で対応点があるSURF特徴点の対はSURF特徴の特徴記述ベクトルのユークリッド距離が最も短い対であることを特徴とする請求項5記載の画像処理を利用した列車位置検出システム。
  7. 上記第2の動画の各フレーム画像と対応付けられた速度情報のみによる上記列車の位置の推定結果に上記類似度を重みとして反映させることにより上記列車の位置を検出することを特徴とする請求項1〜6のいずれか一項記載の画像処理を利用した列車位置検出システム。
  8. 上記列車に前後方向加速度計およびGPS受信機を設置し、上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより上記第1の動画および上記前後方向加速度計により計測される前後方向加速度の積分または上記GPS受信機により取得される速度情報を収録し、収録された上記第1の動画の各フレーム画像にキロ程を割り振って画像データベースを作成し、上記第1の動画が収録された日時以後の異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録される上記第2の動画と上記画像データベースに格納された上記第1の動画とを比較することにより上記第2の動画の指定されたフレーム画像が上記第1の動画のどのフレーム画像に対応するかを決定することにより上記第2の動画の上記フレーム画像に対応するキロ程を決定することを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。
  9. 上記カメラはビデオカメラまたは工業用カメラであることを特徴とする請求項1〜8のいずれか一項記載の画像処理を利用した列車位置検出システム。
  10. 動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
    上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出し、
    上記第1の動画および上記第2の動画の各フレーム画像からSURF特徴を抽出する際に当該フレーム画像の下部中央の軌道部分と中央遠隔風景部分とをマスク画像によりマスクしておくことを特徴とする画像処理を利用した列車位置および環境変化検出システム。
  11. 上記カメラが設置された上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影し、上記軌道上の互いに異なる位置であって上記第2の動画の各フレーム画像に対応付けられた速度情報を用いて計算されるそれらの間の距離が選択された距離になる位置で撮影された2枚の画像を比較することにより上記軌道の周辺の時系列的な環境の変化を検出することを特徴とする請求項10記載の画像処理を利用した列車位置および環境変化検出システム。
JP2015120778A 2015-06-16 2015-06-16 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム Active JP6494103B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015120778A JP6494103B2 (ja) 2015-06-16 2015-06-16 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015120778A JP6494103B2 (ja) 2015-06-16 2015-06-16 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム

Publications (2)

Publication Number Publication Date
JP2017001638A JP2017001638A (ja) 2017-01-05
JP6494103B2 true JP6494103B2 (ja) 2019-04-03

Family

ID=57751665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015120778A Active JP6494103B2 (ja) 2015-06-16 2015-06-16 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム

Country Status (1)

Country Link
JP (1) JP6494103B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200377133A1 (en) * 2018-01-12 2020-12-03 Mitsubishi Electric Corporation Train control system and obstacle detection device

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6381981B2 (ja) * 2014-06-12 2018-08-29 西日本旅客鉄道株式会社 線路空間支障物検知システム
JP6931316B2 (ja) * 2017-11-10 2021-09-01 東日本旅客鉄道株式会社 軌道周辺の環境変化検出方法
JP6986936B2 (ja) * 2017-11-21 2021-12-22 株式会社日立製作所 車両制御システム
EP3493535B1 (en) * 2017-11-29 2020-09-09 Mitsubishi Electric R & D Centre Europe B.V. Method for controlling a video encoder of a video camera installed on a moving conveyance
JP7016276B2 (ja) 2018-03-05 2022-02-04 株式会社日立製作所 列車位置推定装置
GB2577106A (en) * 2018-09-14 2020-03-18 Reliable Data Systems International Ltd Vehicle Position Identification
JP7299007B2 (ja) * 2018-10-05 2023-06-27 株式会社日立製作所 位置推定装置及び方法
JP7290942B2 (ja) * 2018-12-29 2023-06-14 日本信号株式会社 監視装置
JP7227879B2 (ja) * 2019-09-02 2023-02-22 株式会社日立製作所 周辺観測システム、周辺観測プログラムおよび周辺観測方法
JP7510274B2 (ja) * 2020-04-24 2024-07-03 株式会社京三製作所 列車位置検知装置
CN111814560B (zh) * 2020-06-10 2023-12-26 河南观潮智能科技有限公司 一种车位状态识别方法、系统、介质及设备
JP7301802B2 (ja) * 2020-09-10 2023-07-03 公益財団法人鉄道総合技術研究所 車載センサデータへの位置情報付与方法、システム及びプログラム
JP7461275B2 (ja) 2020-10-28 2024-04-03 株式会社日立製作所 軌道輸送システム、軌道輸送システムの制御方法および沿線設備形状計測システム
CN113020428B (zh) * 2021-03-24 2022-06-28 北京理工大学 级进模的加工监控方法、装置、设备及存储介质
CN113895481B (zh) * 2021-10-26 2024-01-23 卡斯柯信号有限公司 基于图形识别的列车定位与追踪管理方法、设备及介质
CN116389793B (zh) * 2023-02-21 2024-01-26 三亚学院 一种视频帧率提升的实现方法和装置
CN117818704B (zh) * 2023-11-22 2024-12-13 北京城建智控科技股份有限公司 列车定位方法、装置、电子设备和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL117279A (en) * 1996-02-27 2000-01-31 Israel Aircraft Ind Ltd System for detecting obstacles on a railway track
JPH09270013A (ja) * 1996-04-02 1997-10-14 Nippon Signal Co Ltd:The 移動体位置検知装置
JP4900810B2 (ja) * 2007-03-30 2012-03-21 株式会社京三製作所 列車位置検知装置と列車制御装置
JP5476264B2 (ja) * 2010-09-22 2014-04-23 日本放送協会 カメラトラッキング装置およびそのプログラム
FR2976355B1 (fr) * 2011-06-09 2013-06-21 Jean Luc Desbordes Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant.
JP2013171308A (ja) * 2012-02-17 2013-09-02 Kddi Corp 判定装置、判定方法及びプログラム
JP6327413B2 (ja) * 2013-07-18 2018-05-23 株式会社ニシヤマ 画像同期装置、測定システムおよび画像同期方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200377133A1 (en) * 2018-01-12 2020-12-03 Mitsubishi Electric Corporation Train control system and obstacle detection device
US11987275B2 (en) * 2018-01-12 2024-05-21 Mitsubishi Electric Corporation Train control system and obstacle detection device

Also Published As

Publication number Publication date
JP2017001638A (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6494103B2 (ja) 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム
JP6381981B2 (ja) 線路空間支障物検知システム
US11477374B2 (en) Three dimensional image capture system for imaging building facades using a digital camera, a near-infrared camera, and laser range finder
KR101235815B1 (ko) 촬영 위치 해석 장치, 촬영 위치 해석 방법, 기록 매체 및 화상 데이터 취득 장치
JP5047515B2 (ja) 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
JP2011238242A (ja) ナビゲーション及びインスペクションシステム
CN113678079A (zh) 从车辆传感器和相机阵列生成结构化地图数据
EP2588882B1 (en) Method for producing a digital photo wherein at least some of the pixels comprise position information, and such a digital photo
JP2008204304A (ja) 車両挙動再現方法およびシステム
CN1284191A (zh) 数字地图数据处理器和数字地图数据处理方法
CN101510311B (zh) 基于gps信息对大量建筑物侧立面图像快速分类的方法
CN106998434A (zh) 一种移动视频轨迹在电子地图中与视频播放同步显示的方法
TWI444593B (zh) 地面目標定位系統與方法
KR102358547B1 (ko) 유동성을 지닌 mms의 실측치 실시간 보정을 통한 수집데이터 출력시스템
CN102692213A (zh) 基于主动式全景视觉传感器的交通事故现场测绘仪
CN111402702A (zh) 地图构建方法、装置及系统
CN106920260A (zh) 立体惯性导盲方法及装置和系统
JP3641750B2 (ja) 地図経路等情報管理システム
JPH099197A (ja) 連続ステレオ画像データ記録装置
JP2019085056A (ja) 軌道周辺の環境変化検出方法
KR102362509B1 (ko) 영상도화이미지의 정밀성 향상을 위한 도화오류 자동 검색기능의 영상도화시스템
Jorgensen et al. Validation of vehicle speed analysis utilizing the input-ace camera match overlay tool
WO2022014215A1 (ja) 処理装置及び車載カメラ装置
JP2023112536A (ja) 路面損傷位置の算定方法
JP3781034B2 (ja) ステレオ画像形成方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190304

R150 Certificate of patent or registration of utility model

Ref document number: 6494103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250