JP6494103B2 - 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム - Google Patents
画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム Download PDFInfo
- Publication number
- JP6494103B2 JP6494103B2 JP2015120778A JP2015120778A JP6494103B2 JP 6494103 B2 JP6494103 B2 JP 6494103B2 JP 2015120778 A JP2015120778 A JP 2015120778A JP 2015120778 A JP2015120778 A JP 2015120778A JP 6494103 B2 JP6494103 B2 JP 6494103B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- train
- detection system
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 206
- 238000012545 processing Methods 0.000 title claims description 97
- 230000008859 change Effects 0.000 title claims description 91
- 238000000034 method Methods 0.000 claims description 67
- 230000008569 process Effects 0.000 claims description 43
- 230000007613 environmental effect Effects 0.000 claims description 37
- 230000001133 acceleration Effects 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 11
- 230000010354 integration Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 41
- 230000000875 corresponding effect Effects 0.000 description 36
- 238000000605 extraction Methods 0.000 description 31
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000006243 chemical reaction Methods 0.000 description 24
- 238000005259 measurement Methods 0.000 description 22
- 238000010276 construction Methods 0.000 description 19
- 238000012360 testing method Methods 0.000 description 17
- 238000009826 distribution Methods 0.000 description 16
- 230000036544 posture Effects 0.000 description 12
- 238000012795 verification Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 7
- 241000196324 Embryophyta Species 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 239000005357 flat glass Substances 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012905 input function Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 241001669679 Eleotris Species 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011295 pitch Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 241000238097 Callinectes sapidus Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Electric Propulsion And Braking For Vehicles (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Description
動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置検出システムである。
動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出することを特徴とする画像処理を利用した列車位置および環境変化検出システムである。
第1の実施の形態による画像処理を利用した列車位置検出システム(以下「列車位置検出システム」という。)について説明する。
図1はこの列車位置検出システムの概要を示す。図1に示すように、この列車位置検出システムにおいては、画像同期装置10を介して、音声入力機能を有するデジタルビデオカメラ20と車両動揺測定装置30とが接続されている。より詳細には、車両動揺測定装置30の出力端子と画像同期装置10の入力端子とがケーブルC1により接続され、画像同期装置10の出力端子とデジタルビデオカメラ20の音声入力端子とがケーブルC2により接続されている。これらの画像同期装置10、デジタルビデオカメラ20および車両動揺測定装置30は車両内、具体的には、例えば先頭車両内に設置される。
この列車位置検出システムにおけるデータファイル入出力について説明する。
(2)車両動揺測定装置30のSDカード内には、年月日時分秒をファイル名前半とする数種類のファイルが生成される。また、デジタルビデオカメラ20のSDカード内にも年月日時分秒をファイル名とするビデオファイルが生成される。
(3)同期ビューアから車両動揺測定装置30の解析プログラムを起動(キック)し、解析プログラムのGUIでまず_vbsd.binファイルを読み込む。解析プログラム内では引き続き_vbsd.binファイル内にあるリンクから_gpsd.csvファイル、_xind.binファイルおよび_spdd.binファイルを読み込む。
(4)次に、解析プログラムのGUIを用いて、.INIファイル、.PTPファイルおよび.ANAファイルを出力し、これを同期ビューアに読み込む。
(5)同期ビューアでは、出力された.INIファイル、.PTPファイルおよび.ANAファイルを自動的に指定フォルダにコピーする。
(6)次に、同期ビューアによりビデオファイルである.mtsファイルを読み込み、音声トラックに記録されたデータインデクスを自動的にデコードし、ビデオカメラ画像のフレームとデータインデクスとの対応表ファイルを作成し出力する。
(画像同期装置10の詳細)
画像同期装置10の詳細を説明する。図2はこの画像同期装置10を示す。図2に示すように、画像同期装置10は、デジタル信号であるデータインデクス(同期番号)をアナログ信号である音声レベル信号に変換するためのデジタル/アナログ変換(D/A変換)回路11を有する。このデジタル/アナログ変換は、例えば、データインデクスの「1」を音声周波数帯の周波数f1 の周波数信号に、「0」を音声周波数帯の周波数f2 (≠f1 )の周波数信号に変換するものであり、典型的にはf2 >f1 に選ばれる。一例として、図3に、データインデクスとして6ビットの「001100」を周波数信号に変換した例を示す。f1 、f2 の具体例を挙げると、f1 =1200Hz、f2 =2200Hzであるが、これに限定されるものではない。このデータインデクスは、車両動揺測定装置30から選択された時間間隔毎に取得される時系列のデータ(位置情報のデータ、速度情報のデータおよび加速度センサーなどのセンサーデータ)にそれぞれ付与されるものであり、これらのデータに対して連番となっている。画像同期装置10は入力端子12を有し、データインデクスは車両動揺測定装置30の出力端子からこの入力端子12に送出される。データインデクスは、車両動揺測定装置30からシリアル通信規格のシリアル信号として入力端子12に供給される。シリアル通信規格は、例えば、RS485、RS422AまたはRS232Cである。画像同期装置10は出力端子13を有し、デジタル/アナログ変換回路11から出力される音声レベル信号はこの出力端子13から出力される。この出力端子13には、音声入力機能を有するデジタルビデオカメラ20の音声入力端子が接続されるようになっている。
車両動揺測定装置30の詳細を説明する。図5は車両動揺測定装置30の構成を示す。車両動揺測定装置30は、センサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース(I/F)制御部35および電源制御部36を有する。これらのセンサー処理部31、表示処理部32、位置情報処理部33、データ保存部34、外部インターフェース制御部35および電源制御部36は高速シリアルバス37を介して相互に接続されている。外部インターフェース制御部35の出力端子が画像同期装置10の入力端子(図4に示す入力端子12)と接続されている。位置情報処理部33には、GPS受信機38により受信されるGPS信号および速度発電機39の信号が供給されるようになっている。
この列車位置検出システムでは、上記のカメラ内部パラメータキャリブレーションの結果を読み込み、リアルタイムで歪補正したスルー画像を表示するカメラ姿勢調整プログラムを作成し、使用することもできる。このカメラ姿勢調整プログラムを用いることにより、列車位置検出エンジンにデジタルビデオカメラ20のロール角度を補正する機能がなくても、線路の消失点を画像中心に正しく設定することができる。すなわち、カメラ画像そのものは、画像中心がずれているほか、歪もあり、正しく設定することが難しい。しかし、このカメラ姿勢調整プログラムを用いることにより、消失点を画像中心に容易に設定することができる。
(1)デジタルビデオカメラ20で撮影された画像をリアルタイム表示する。
(2)別途、上記の内部パラメータキャリブレーションにより得られた、デジタルビデオカメラ20のレンズの歪補正係数および画像中心を読み込む。歪補正および画像中心補正をリアルタイムで行い、補正画像を表示する。
(3)画面に表示される縦線L1と横線L2とからなる十字線(例えば、赤十字線)の交点Pは、画像中心であり、線路の消失点がこの交点Pに重なるようにデジタルビデオカメラ20の姿勢を調整する。
(4)画面の中央下部に表示された左下がりの斜め線L3および右下がりの斜め線L4(例えば、黄色線)は、画面右下の“2.左斜め線”および“3.:右斜め線”のラジオボタンで選択し、その下の左向きの矢印ボタン(←)および右向きの矢印ボタン(→)を押すことで、十字線の交点Pを中心に角度を調整することができる。これらの左斜め線L3および右斜め線L4を2本のレールに沿わせることで、消失点が正しいか否かを判断できる。
(5)画面に表示された二本の縦線L5、L6(例えば、黄緑線)は、画面垂直方向を表し、画面右下の“1:左垂線”および“4:右垂線”のラジオボタンで選択し、その下の左右向きの矢印ボタンを押すことで、左右位置を調整することができる。この左垂線および右垂線を建物などの垂線に沿わせることで、デジタルビデオカメラ20のロール角を微調整する。
・カメラ視線軸は、地平面と平行
・カメラ視線軸は、軌道方向と平行
・カメラ撮像面Y軸と重力軸とは平行
連動表示プログラムは、車両動揺測定装置30で収録されたGPSデータおよび速度発電機情報と、デジタルビデオカメラ20で撮影された画像とを連動表示する。図10に連動表示プログラム100の画面を示す。連動表示プログラムの機能は下記の通りである。
(1)ビデオカメラ画像の音声トラックの音声データからデータインデクスをデコードし、車両動揺測定装置30の速度情報およびセンサーデータと対応付け、各ビデオフレームに速度情報を割り当てる。
(2)デジタルビデオカメラ20のビデオフレームレートと車両動揺測定装置30の速度情報サンプリングレートとは一般的に異なる。例えば、デジタルビデオカメラ20のビデオフレームレートは60Hz、速度情報サンプリングレートは1Hzである。このため、一次の補間を行い、全ビデオフレームに速度情報を割り当てる。
(3)収録されたビデオカメラ画像と、加速度センサーデータ、GPS速度データおよび速度発電機データとを連動して再生する。
(4)現在表示しているビデオフレームに対応した速度情報(GPS速度)を表示する。
この列車位置検出システムにおいて使用するフレームマッチング技術について説明する。
示す。
(2)上記を実行するにあたり、天候・時刻などにより照明環境が変動しても影響されない。
(3)上記を実行するにあたり、カメラの取り付け角度あるいは車両の姿勢の誤差などがあっても影響されない
(2)予め準備されたベースビデオ画像の画像特徴データベースを用いる。
(3)リファレンスビデオ画像のフレーム画像からユーザーがフレームマッチングの開始フレームを指定する。
(4)リファレンスビデオ画像の開始フレームに対応するベースビデオ画像のフレームを探索する。この探索は図18に示す処理フローで行う。すなわち、図18に示すように、まずリファレンスビデオ画像の開始フレームに対し、SURF特徴を抽出する。このリファレンスビデオ画像の開始フレームのSURF特徴と、ベースビデオ画像の画像特徴データベース内に格納されている各フレームのSURF特徴とを比較し、類似度を計算する。類似度は、以下に述べるベースビデオ画像およびリファレンスビデオ画像のフレーム画像各々の対応点がある特徴点数と、リファレンスビデオ画像のフレーム画像上で抽出されたSURF特徴点数との比として下記式(1)のように定義する。
とすると、移動量は、l=ut ×Δtとなるが、速度(本システムの場合は、GPS速度情報あるいは速度発電機情報)データ自体に誤差が含まれている。この誤差を正規分布としてモデル化し、式(2)の中央部分を以下のように正規分布で定義する。
以上のアルゴリズムの実装を行い、実路線ビデオ画像でフレームマッチングを行った検証結果を説明する。
(2)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、速度情報のみを用いてフレームマッチングを行う。
(3)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、画像のSURF特徴のマッチングのみを用いてフレームマッチングを行う。
(4)リファレンス画像の開始位置フレームに対してベースビデオ画像の対応フレームを探索後、速度情報および画像のSURF特徴のマッチングを用いて先に説明したアルゴリズムにてフレームマッチングを行う。
撮影日時:2014年9月10日11時
天候:曇天
画質:良好
リファレンスビデオ画像
撮影日時:2014年9月12日11時
天候:晴天
画質:良好
比較区間キロ程 36.7→32.7
撮影日時:2014年9月10日11時
天候:曇天
画質:良好
リファレンスビデオ画像
撮影日時2014年9月12日11時
天候:晴天
画質:良好
比較区間キロ程 35.908→0.1
撮影日時:2013年12月19日14時
天候:晴天
画質:良好
リファレンスビデオ画像
撮影日時:2014年2月12日9時
天候:雨天
画質:不良(先頭車両の運転室の前方の窓ガラスの内側の面へのデジタルビデオカメラ20の固定に用いた吸盤の一部が写っており、雨だれによる画像の屈折、霧あるいはガラス窓の曇りにより非常にコントラストが悪い)
比較区間キロ程 4.5→30.0
図27に示すデータの取得に用いたビデオ画像は、同一路線で異なる日時に列車を走行させて撮影されたものであるが、停車駅などは同じであり、走行速度、加速・減速位置などはほぼ同一である。図27の(1)のグラフは、ベースビデオ画像とリファレンスビデオ画像との開始位置を一致させ、両ビデオ画像のフレームを1つずつ送っただけのものであるため、運転手の操作による速度誤差および加速・減速位置誤差はそのまま反映される。よって、最大で枕木本数が7.5まで誤差が拡大している。しかし、駅間走行時間は同じであるため、累積的に誤差が拡大せず、最終的には誤差が収束している。(2)のグラフは、ビデオ画像と同期して収録された速度情報を微分して距離を計算し、フレームマッチングを行っている。(2)のグラフを見ると、25000フレームあたりから急激に誤差が拡大し、最終的には枕木本数20本以上となっている。フレーム番号25000から28000は駅への停車区間となっており、負の加速度が加わっている区間となる。速度発電機の特性として、加速度区間においては車輪の滑りなどによる精度低下があり、これが累積的に誤差を拡大しているものと思われる。(3)のグラフは、今回使用したアルゴリズムでフレームマッチングされたものであり、3つのグラフの中で最も精度が高くなっている。誤差は、枕木本数0〜1.5となっており、これは画素のズレとしては最大90画素程度、画像縦方向の9%程度となる。差異検出を行う場合、当然ながら画面内のほとんどの対象物がベースビデオ、リファレンスビデオのマッチングされた2フレーム画像に重複して存在しなければならない。ズレが一番大きいのは画面の端であり、中央に行くに従いズレは小さくなるため、今回計測した画像下端での枕木のずれが画像の10%以下であれば十分に差異検出が可能であると思われる。
(1)両ピッチングによるカメラ画角の移動による誤差
(2)SURF特徴マッチングの間違いによる誤差
(a)雨粒による画像の変形で、SURF特徴の対応が正しくとれない。
(b)下部吸盤により画像の一部が撮像されず、対応点が正しくとれない。
(c)発車、停車など低速域ではGPSの速度情報は誤差が大きい。
・晴天・曇天程度の照明環境の変動化では環境変化差異検出を行える程度のフレームマッチング精度は確保可能である。
・晴天・雨天のような照明環境の変動(および雨粒などによる画質の変動)がある場合は環境変化差異検出を行う精度は確保できない
第2の実施の形態による画像処理を利用した列車位置および環境変化検出システム(以下「列車位置および環境変化検出システム」という。)について説明する。
この列車位置および環境変化検出システムは、第1の実施の形態による列車位置検出システムに環境変化検出機能を付加したものである。この列車位置および環境変化検出システムの列車位置検出機能は第1の実施の形態による列車位置検出システムと同様に実現することができる。この列車位置検出機能により列車の走行位置を高精度に検出することができるため、時系列的な環境の変化を正確に抽出することができるようになる。
(1)“開始”ボタンを押すと、速度情報付ビデオカメラ画像が再生され、同時に建築限界支障検出処理が開始される。
(2)ビデオカメラ画像上に仮想の建築限界枠を点線(例えば、青点線)で表示する。この建築限界枠と重なる位置にあるビデオカメラ画像上の物体が建築限界枠の内側にある場合は、この点線が太い点線(例えば、赤点線)の表示に変わる。
(3)フレーム番号、速度、建築限界枠横方向サイズなどが表示される。
(4)フレーム番号を入力し、“ジャンプ”ボタンを押すと指定したフレームに画像がジャンプする。図38においては、フレーム番号として“1720”が入力された例が示されている。
(1)“参照”ボタンを押すと、入力データのファイルダイアログが表示され、建築限界支障検出に用いる、ビデオファイルおよび速度情報ファイルを指定できる。
(2)ビデオファイル読み込み後、“画像プレビュー開始”ボタンを押すと、画像が再生され内容を確認できる。
(3)“カメラ内部パラメータファイルを開く”ボタンを押すと、ファイルダイアログが表示され、カメラ内部パラメータ(カメラレンズ焦点距離、歪補正係数、画像中心座標)が記述されたファイルを読み込める。
(4)“カメラ外部パラメータファイルを開く”ボタンを押すと、ファイルダイアログが表示され、カメラ外部パラメータ(軌道面中心からの相対距離および軌道面に対する姿勢)が読み込める。軌道座標系は、図40に示す通りである(Y軸は軌道面に垂直)。
(5)“建築限界検出枠の設定ダイアログを開く”ボタンを押すと、仮想の建築限界枠を車両に対しどのように設定するかを指定する仮想建築限界枠設定画面が表示される。
(1)図41の仮想建築限界枠設定画面の上部に模式的に示すように、デジタルビデオカメラ20から仮想の建築限界枠の位置までの距離dおよび仮想の建築限界枠の大きさrを想定し、仮想建築限界枠があたかもそこに存在するとして図38のビデオカメラ画像上の点線(例えば、青点線)を描画している。このビデオカメラ画像上の点線で示した建築限界枠は、dおよびr、カメラ内部・外部パラメータによって、位置・大きさが変動する。画像処理精度としては、建築限界枠が極力、画面全体に広がるように設定するほうが有利であるため、そのようにdを調整する。また、アルゴリズムが正しく作動していることを確認するために、意図的に建築限界枠を大きくして、実際には建築限界に支障しない対象物に反応させる操作をするために、rを大きく設定したりする。
(2)建築限界検出枠の半径に建築限界枠幅の1/2を入力する(メートル単位) 。例えば、1.9mを入力した場合、仮想建築限界枠は、軌道中心から1.9mのところに限界枠線が生成される(図42参照)。
(3)建築限界検出枠の枠までの距離にデジタルビデオカメラ20から仮想建築限界枠までの想定距離を入力する(メートル単位)。当然、この距離を大きくすると、ビデオカメラ画像上の点線(例えば、青点線)で表された仮想建築限界枠は小さくなり、距離を小さくすると建築限界枠は大きくなる。
建築限界支障検知アルゴリズムを説明する。
(1)デジタルビデオカメラ20が前進する前後の画像を準備
(2)仮想の建築限界枠が前進する前のビデオカメラ画像上のどこに写像されるか計算
(3)消失点から建築限界枠写像画素に向けた直線を生成
(4)移動後の建築限界枠写像を計算
(5)前進前後の画像間で、建築限界枠上の画素位置にあった対象物がどのように移動したかを追尾する。その際追尾は、(3)で求めた直線上に限定する
(6)移動後の位置が(4)で求めた建築限界枠写像位置より内側にあるか、外側にあるかを判定する(内側なら建築限界枠に支障しない、外側なら支障している)
上述の建築限界支障検出技術では、図52のように、ビデオカメラの前方に対し、レール上に仮想の建築限界枠(3.8m幅)を設定し、撮像された対象物がこの枠の中に食い込んでいるか否かを検出するアルゴリズムを用いている。仮想建築限界枠に食い込んでいるか否かを2次元のビデオ映像から判断するために、ビデオカメラが前方方向に進行することを利用したステレオ視が用いられている。これに対し、環境変化抽出では、この仮想建築限界枠を図53に示すように左右方向および高さ方向に拡張する。すなわち、多重化した仮想建築限界枠(最も内側の枠は標準枠、その外側の3つの枠は拡大した枠)を用いる。これにより、1 回目の撮影では建築限界枠への支障がなかった植生が、以降の撮影時に建築限界枠に支障するか否かをみることで、差異を検出することができる。
(1)仮想建築限界枠の拡張
図53に示すように、仮想建築限界枠の個数を拡張し、任意個数の仮想建築限界枠を設定する。これにより支障物体が線路方向に干渉していく経過を任意の精度で捉えることができ、環境の変化を精緻に検出する。拡張は、建築限界支障検出技術で開発した仮想支障枠を左右方向および高さ方向に拡幅することで行った。拡張を簡便に行うため、個数と拡幅量をメートル単位で指定することにより実行可能とした。なお、以降の検討および検証では、拡張した仮想建築限界枠1個(幅7.6m)を用い、線路近傍の支障を検出した。
ベースビデオ画像およびリファレンスビデオ画像の双方の支障検出結果をもとに差異を計算する際、対応するフレーム間で支障有無や個数を単純な減算により行うと所望の結果を得るのが困難となることがある。図54は、ビデオ画像中で線路傍に立つ電柱が写っている箇所で仮想建築限界支障枠の個数をプロットしたグラフである。グラフの横軸方向はフレームマッチングの結果を用いて同期させている。時速数十kmで走行中の列車にて撮影したビデオ画像は数十フレーム毎秒(=数十センチ毎フレーム)で撮影を行っており、ベースビデオ画像とリファレンスビデオ画像との間で各フレームのシャッターを切った位置に数十cmの差異がある。従って、これらのフレーム間の対応付けは最小でも数十cmの誤差を含むこととなる。ベースビデオ画像とリファレンスビデオ画像との間での単純な減算はこの誤差を無視しており、上図のような意図しない結果を招いてしまう。図54のデータを単純な減算した場合には、図55に示すような結果になる。本来であれば、ベースビデオ画像およびリファレンスビデオ画像とも同一の電柱が支障しているため、図55の3段目の差異が何も現れないことが望ましい。
(2)注目フレームの支障点個数が一定以下の場合には無視する。
(差異計算アルゴリズム)
(A)近傍フレームの閾値をt1 とする
(B)支障点個数の閾値をt2 とする
(C)ベースビデオ画像の注目フレーム番号をNとする。
(D)フレームマッチングの結果を用い、Nに対応するリファレンスビデオ画像の注目フレーム番号Mを求める。
(E)ベースビデオ画像のN番目のフレームにて仮想建築限界枠を設け、支障点個数CGb (N)を求める。リファレンスビデオ画像のM番目のフレームにて仮想建築限界枠を設け、支障点個数CGr (M)を求める。CGb (N)、CGr (M)いずれもt2 以下ならばN番目のフレームの差異Diff(N)を0とする。この時点で終了となる。
(F)ベースビデオ画像の区間[N−t1 ,N+t1 ]の各フレームにて支障点個数を求める。いずれかのフレームで支障点個数がt2 以上ならば支障物体ありと判定する。
(G)リファレンスビデオ画像の区間[M−t1 ,M+t1 ]の各フレームにて支障点個数を求める。いずれかのフレームで支障点個数がt2 以上ならば支障物体ありと判定する。
(H)(F),(G)いずれも支障物体ありならば、N番目のフレームの差異Diff(N)=0とする。(F),(G)いずれも支障物体なしならば、N番目のフレームの差異Diff(N)=0とする。さもなくば、N番目のフレームの差異Diff(N)=0を以下の式で求める。
実路線を走行する列車で撮影した映像に対して処理を適用し、以下の2つの地点について検証を行った。
ベースビデオ画像撮影日:2014年9月10日
リファレンスビデオ画像撮影日:2014年9月12日
(2)草津線上り22.9km地点
ベースビデオ画像撮影日:2014年9月10日
リファレンスビデオ画像撮影日:2014年9月12日
ビデオ画像を目視で確認して差異のある箇所を探し、見つかった箇所を対象とした。図56はベースビデオ画像の処理対象区間の様子、図57はリファレンスビデオ画像の処理対象区間の様子を示す。図56および図57の各画像下の「#000000」はビデオ画像のフレーム番号を表す。このうち、差異検出の対象として注目したのは以下の3箇所((1)〜(3))である。
線路傍に電柱が立っており、いずれのビデオ画像でも仮想建築限界枠に物体が支障すると考えられる箇所であり、図56の#133094、図57の#154474が該当するものである。当該箇所における差異検出では、差異無しと判定することを想定している。
線路近傍に物体が無く、いずれのビデオ画像でも仮想建築限界枠に物体が支障することがないと考えられる場所であり、図56の#133138、図57の#154410が該当するものである。当該箇所における差異検出では、差異無しと判定することを想定している。
ベースビデオ画像にのみ線路傍の側溝で作業している人物が写っており、ベースビデオ画像のみで仮想建築限界枠に支障すると考えられる箇所である。当該箇所における差異検出では、差異有りと判定することを想定している。図56の#133189、図57の#154548が該当するものである。
ビデオ画像を目視で確認して差異のある箇所を探し、見つかった箇所を対象とした。対象箇所の様子と、仮想建築限界枠(幅7.6m)による支障点検出の結果を重畳表示した画像を図61および図62に示す。図61はベースビデオ画像の処理対象区間の様子、図62はリファレンスビデオ画像の処理対象区間の様子である。このうち、差異検出の対象として注目したのは線路傍の雑草の部分である。ベースビデオ画像(図38の#78304)にて雑草が繁茂しているのが写っているが、リファレンスビデオ画像(図39の#58437)では除草されており写っていない。したがって、ベースビデオ画像のみ仮想建築限界枠に支障すると考えられる。
(A)の検証結果の注目箇所ごとに下記の通り考察を行った。
ベースビデオ画像、リファレンスビデオ画像のいずれにおいても線路傍の電柱が支障しており、支障個数が増大していることが図55に示すグラフから見て取れる。同箇所はフレームマッチングに誤差があり、電柱に由来する支障個数のピーク位置に若干ずれがある。差異をそのまま計算すると、図55に示すように2つのピークが生じることとなる。
ベースビデオ画像、リファレンスビデオ画像のいずれにおいても支障個数が0で図55の3段目のグラフにおいても、差異が検出されていない。また、当該箇所では線路から離れた位置にある側道に車両や作業員がいるが、これらは支障として検出されていない。
ベースビデオ画像にのみ線路傍の側溝で作業している人物が支障しており、支障数が増大していることが図55のグラフから見て取れる。差異を計算すると図55の3段目のグラフのようになり、当該箇所に差異が存在することが読み取れる。
(仮想建築限界枠による支障検出の電柱に対する適用)
図64に、リファレンスビデオ画像にて上記(1)の箇所の支障検出を行った結果を1フレームずつ示す。
上記の[環境変化抽出の処理技術の詳細]の(2)ベースビデオ画像とリファレンスビデオ画像との間での差異検出、では線路近傍物体の支障の有無(=環境変化の有無)を検出するアルゴリズムを説明した。さらなる環境変化検出の高度化を目指し、電柱が傾くことで線路に接近してくることを変化事例として想定し、これを検出することについて検討する。
(B)電柱が傾斜し、7.6m幅の仮想建築限界枠に支障する時点で撮影したビデオ画像
(C)電柱が(B)よりさらに傾斜し、7.2m幅の仮想建築限界枠に支障する時点で撮影したビデオ画像
(2)(A)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障なし
(3)(B)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障あり
(4)(B)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障なし
(5)(C)に対し、7.6m幅の仮想建築限界枠を用いて処理…支障あり
(6)(C)に対し、7.2m幅の仮想建築限界枠を用いて処理…支障あり
(II)(b)(d)に対して差異検出処理を行う…差異なし
(III)(a)(e)に対して差異検出処理を行う…差異あり
(IV)(b)(f)に対して差異検出処理を行う…差異あり
・7.2m幅の仮想建築限界枠による支障検出結果を用いた差異検出では、(A)(B)および(A)(C)の間で差異検出の結果が異なる((II)と(IV))
第3の実施の形態においては、第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムに、複数ビデオ画像のハンドリングが可能なソフトウェアを組み込んだものについて説明する。
(1)単体再生機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像を独立に再生および一時停止する。
(2)同時再生機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像を撮影時のフレームレートで再生する。ただし、これらの2本のビデオ画像は撮影時の車両の速度が異なっているため、再生開始時点から一定時間経過したときには表示されているシーンが不一致となる。この不一致は時間の経過とともに拡大していくため、両ビデオ画像を比較してシーン中の差異を確認するのは困難となる。
(3)フレームマッチング結果を用いた同期再生機能
フレームマッチングを用い、任意時点で映像中のシーンが一致するようフレームを調整して表示する。(2)の例で考えると、再生開始後に車両速度のズレが原因でシーンの不一致が生じるが、それを補間するようフレーム番号を調整することで同期しての再生を実現する。これにより、時間の経過によらずシーンが一致するので、両ビデオ画像を比較してシーン中の差異を検討することが可能となる。
(4)フレームマッチング実行機能
ベースビデオ画像とリファレンスビデオ画像との2本のビデオ画像の間でフレームマッチングを行うのに必要なインターフェースを備え、映像を見ながら処理を行うことを可能とした。ソフトウェア起動時にビデオデータと処理パラメータとを設定し、一連の処理を実行する。
アプリケーション画面を図66に示す。このアプリケーション画面上で[ソフトウェア機能の概要]で説明した機能ごとに以下の手順で操作を行う。
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(B)[ |>]ボタンを押してベースビデオ画像の再生を開始する。
なお、リファレンスビデオ画像についても同様に(C)(D)のボタンで単体再生が可能である。
(2)同時再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(C)[INPUT] ボタンを押してリファレンスビデオ画像を読み込む。
(F)[ 同時]ボタンを押し、ファイル選択ダイアログが開く。フレームマッチング結果ファイルを指定する。
(D)[ |>]ボタンを押して、再生を開始する。
(3)同期再生
(A)[INPUT] ボタンを押してベースビデオ画像を読み込む。
(C)[INPUT] ボタンを押してリファレンスビデオ画像を読み込む。
(F)[ 同期] ボタンを押し、ファイル選択ダイアログが開く。フレームマッチング結果ファイルを指定する。
(D)[ |>]ボタンを押して、再生を開始する。
第4の実施の形態においては、第1の実施の形態による列車位置検出システムあるいは第2の実施の形態による列車位置および環境変化検出システムにおいて、リファレンスビデオ画像のフレーム画像に対するキロ程を決定する技術について説明する。
[列車位置検出システム]
図69に示すように、第5の実施の形態による列車位置検出システムにおいては、第1の実施の形態において用いた画像同期装置10の代わりに、画像同期プログラムがインストールされたコンピュータ200を用いる。コンピュータ200としては、例えば、PCを用いることができる。その他のことは、第1の実施の形態と同様である。
Claims (11)
- 動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出し、
上記第1の動画および上記第2の動画の各フレーム画像からSURF特徴を抽出する際に当該フレーム画像の下部中央の軌道部分と中央遠隔風景部分とをマスク画像によりマスクしておくことを特徴とする画像処理を利用した列車位置検出システム。 - 上記位置情報は上記第1の動画の各フレーム画像と対応付けられたキロ程情報であることを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。
- 上記位置情報は上記第1の動画の各フレーム画像と対応付けられた速度情報から速度の積分により求められる距離情報であることを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。
- 上記速度情報は上記列車に設置された速度発電機またはGPS受信機により取得されるものであることを特徴とする請求項3記載の画像処理を利用した列車位置検出システム。
- 上記類似度は、上記第2の動画の上記指定されたフレーム画像から抽出されたSURF特徴点数に対する、上記第1の動画のフレーム画像と上記第2の動画の上記指定されたフレーム画像との間で対応点があるSURF特徴点数の比であることを特徴とする請求項1〜4のいずれか一項記載の画像処理を利用した列車位置検出システム。
- 上記第1の動画のフレーム画像と上記第2の動画の上記指定されたフレーム画像との間で対応点があるSURF特徴点の対はSURF特徴の特徴記述ベクトルのユークリッド距離が最も短い対であることを特徴とする請求項5記載の画像処理を利用した列車位置検出システム。
- 上記第2の動画の各フレーム画像と対応付けられた速度情報のみによる上記列車の位置の推定結果に上記類似度を重みとして反映させることにより上記列車の位置を検出することを特徴とする請求項1〜6のいずれか一項記載の画像処理を利用した列車位置検出システム。
- 上記列車に前後方向加速度計およびGPS受信機を設置し、上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより上記第1の動画および上記前後方向加速度計により計測される前後方向加速度の積分または上記GPS受信機により取得される速度情報を収録し、収録された上記第1の動画の各フレーム画像にキロ程を割り振って画像データベースを作成し、上記第1の動画が収録された日時以後の異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録される上記第2の動画と上記画像データベースに格納された上記第1の動画とを比較することにより上記第2の動画の指定されたフレーム画像が上記第1の動画のどのフレーム画像に対応するかを決定することにより上記第2の動画の上記フレーム画像に対応するキロ程を決定することを特徴とする請求項1記載の画像処理を利用した列車位置検出システム。
- 上記カメラはビデオカメラまたは工業用カメラであることを特徴とする請求項1〜8のいずれか一項記載の画像処理を利用した列車位置検出システム。
- 動画の撮影が可能なカメラが設置された列車を軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第1の動画の各フレーム画像から抽出されたSURF特徴および当該SURF特徴と対応付けられた位置情報を格納した画像特徴データベースを有し、
上記第1の動画が収録された日時と異なる日時に上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影することにより収録された第2の動画の指定されたフレーム画像のSURF特徴と上記画像特徴データベースに格納された上記第1の動画の各フレーム画像のSURF特徴とをフレームマッチング処理により比較することにより求められる類似度に基づいて上記列車の走行位置を検出し、
上記第1の動画および上記第2の動画の各フレーム画像からSURF特徴を抽出する際に当該フレーム画像の下部中央の軌道部分と中央遠隔風景部分とをマスク画像によりマスクしておくことを特徴とする画像処理を利用した列車位置および環境変化検出システム。 - 上記カメラが設置された上記列車を上記軌道上を走行させながら上記カメラにより進行方向前方の空間を撮影し、上記軌道上の互いに異なる位置であって上記第2の動画の各フレーム画像に対応付けられた速度情報を用いて計算されるそれらの間の距離が選択された距離になる位置で撮影された2枚の画像を比較することにより上記軌道の周辺の時系列的な環境の変化を検出することを特徴とする請求項10記載の画像処理を利用した列車位置および環境変化検出システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015120778A JP6494103B2 (ja) | 2015-06-16 | 2015-06-16 | 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015120778A JP6494103B2 (ja) | 2015-06-16 | 2015-06-16 | 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017001638A JP2017001638A (ja) | 2017-01-05 |
JP6494103B2 true JP6494103B2 (ja) | 2019-04-03 |
Family
ID=57751665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015120778A Active JP6494103B2 (ja) | 2015-06-16 | 2015-06-16 | 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6494103B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200377133A1 (en) * | 2018-01-12 | 2020-12-03 | Mitsubishi Electric Corporation | Train control system and obstacle detection device |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6381981B2 (ja) * | 2014-06-12 | 2018-08-29 | 西日本旅客鉄道株式会社 | 線路空間支障物検知システム |
JP6931316B2 (ja) * | 2017-11-10 | 2021-09-01 | 東日本旅客鉄道株式会社 | 軌道周辺の環境変化検出方法 |
JP6986936B2 (ja) * | 2017-11-21 | 2021-12-22 | 株式会社日立製作所 | 車両制御システム |
EP3493535B1 (en) * | 2017-11-29 | 2020-09-09 | Mitsubishi Electric R & D Centre Europe B.V. | Method for controlling a video encoder of a video camera installed on a moving conveyance |
JP7016276B2 (ja) | 2018-03-05 | 2022-02-04 | 株式会社日立製作所 | 列車位置推定装置 |
GB2577106A (en) * | 2018-09-14 | 2020-03-18 | Reliable Data Systems International Ltd | Vehicle Position Identification |
JP7299007B2 (ja) * | 2018-10-05 | 2023-06-27 | 株式会社日立製作所 | 位置推定装置及び方法 |
JP7290942B2 (ja) * | 2018-12-29 | 2023-06-14 | 日本信号株式会社 | 監視装置 |
JP7227879B2 (ja) * | 2019-09-02 | 2023-02-22 | 株式会社日立製作所 | 周辺観測システム、周辺観測プログラムおよび周辺観測方法 |
JP7510274B2 (ja) * | 2020-04-24 | 2024-07-03 | 株式会社京三製作所 | 列車位置検知装置 |
CN111814560B (zh) * | 2020-06-10 | 2023-12-26 | 河南观潮智能科技有限公司 | 一种车位状态识别方法、系统、介质及设备 |
JP7301802B2 (ja) * | 2020-09-10 | 2023-07-03 | 公益財団法人鉄道総合技術研究所 | 車載センサデータへの位置情報付与方法、システム及びプログラム |
JP7461275B2 (ja) | 2020-10-28 | 2024-04-03 | 株式会社日立製作所 | 軌道輸送システム、軌道輸送システムの制御方法および沿線設備形状計測システム |
CN113020428B (zh) * | 2021-03-24 | 2022-06-28 | 北京理工大学 | 级进模的加工监控方法、装置、设备及存储介质 |
CN113895481B (zh) * | 2021-10-26 | 2024-01-23 | 卡斯柯信号有限公司 | 基于图形识别的列车定位与追踪管理方法、设备及介质 |
CN116389793B (zh) * | 2023-02-21 | 2024-01-26 | 三亚学院 | 一种视频帧率提升的实现方法和装置 |
CN117818704B (zh) * | 2023-11-22 | 2024-12-13 | 北京城建智控科技股份有限公司 | 列车定位方法、装置、电子设备和存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL117279A (en) * | 1996-02-27 | 2000-01-31 | Israel Aircraft Ind Ltd | System for detecting obstacles on a railway track |
JPH09270013A (ja) * | 1996-04-02 | 1997-10-14 | Nippon Signal Co Ltd:The | 移動体位置検知装置 |
JP4900810B2 (ja) * | 2007-03-30 | 2012-03-21 | 株式会社京三製作所 | 列車位置検知装置と列車制御装置 |
JP5476264B2 (ja) * | 2010-09-22 | 2014-04-23 | 日本放送協会 | カメラトラッキング装置およびそのプログラム |
FR2976355B1 (fr) * | 2011-06-09 | 2013-06-21 | Jean Luc Desbordes | Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant. |
JP2013171308A (ja) * | 2012-02-17 | 2013-09-02 | Kddi Corp | 判定装置、判定方法及びプログラム |
JP6327413B2 (ja) * | 2013-07-18 | 2018-05-23 | 株式会社ニシヤマ | 画像同期装置、測定システムおよび画像同期方法 |
-
2015
- 2015-06-16 JP JP2015120778A patent/JP6494103B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200377133A1 (en) * | 2018-01-12 | 2020-12-03 | Mitsubishi Electric Corporation | Train control system and obstacle detection device |
US11987275B2 (en) * | 2018-01-12 | 2024-05-21 | Mitsubishi Electric Corporation | Train control system and obstacle detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2017001638A (ja) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6494103B2 (ja) | 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム | |
JP6381981B2 (ja) | 線路空間支障物検知システム | |
US11477374B2 (en) | Three dimensional image capture system for imaging building facades using a digital camera, a near-infrared camera, and laser range finder | |
KR101235815B1 (ko) | 촬영 위치 해석 장치, 촬영 위치 해석 방법, 기록 매체 및 화상 데이터 취득 장치 | |
JP5047515B2 (ja) | 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置 | |
JP2011238242A (ja) | ナビゲーション及びインスペクションシステム | |
CN113678079A (zh) | 从车辆传感器和相机阵列生成结构化地图数据 | |
EP2588882B1 (en) | Method for producing a digital photo wherein at least some of the pixels comprise position information, and such a digital photo | |
JP2008204304A (ja) | 車両挙動再現方法およびシステム | |
CN1284191A (zh) | 数字地图数据处理器和数字地图数据处理方法 | |
CN101510311B (zh) | 基于gps信息对大量建筑物侧立面图像快速分类的方法 | |
CN106998434A (zh) | 一种移动视频轨迹在电子地图中与视频播放同步显示的方法 | |
TWI444593B (zh) | 地面目標定位系統與方法 | |
KR102358547B1 (ko) | 유동성을 지닌 mms의 실측치 실시간 보정을 통한 수집데이터 출력시스템 | |
CN102692213A (zh) | 基于主动式全景视觉传感器的交通事故现场测绘仪 | |
CN111402702A (zh) | 地图构建方法、装置及系统 | |
CN106920260A (zh) | 立体惯性导盲方法及装置和系统 | |
JP3641750B2 (ja) | 地図経路等情報管理システム | |
JPH099197A (ja) | 連続ステレオ画像データ記録装置 | |
JP2019085056A (ja) | 軌道周辺の環境変化検出方法 | |
KR102362509B1 (ko) | 영상도화이미지의 정밀성 향상을 위한 도화오류 자동 검색기능의 영상도화시스템 | |
Jorgensen et al. | Validation of vehicle speed analysis utilizing the input-ace camera match overlay tool | |
WO2022014215A1 (ja) | 処理装置及び車載カメラ装置 | |
JP2023112536A (ja) | 路面損傷位置の算定方法 | |
JP3781034B2 (ja) | ステレオ画像形成方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6494103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |