JP2004070929A - Image processing device and method - Google Patents
Image processing device and method Download PDFInfo
- Publication number
- JP2004070929A JP2004070929A JP2003162710A JP2003162710A JP2004070929A JP 2004070929 A JP2004070929 A JP 2004070929A JP 2003162710 A JP2003162710 A JP 2003162710A JP 2003162710 A JP2003162710 A JP 2003162710A JP 2004070929 A JP2004070929 A JP 2004070929A
- Authority
- JP
- Japan
- Prior art keywords
- image
- map
- data
- frame
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title description 48
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000013500 data storage Methods 0.000 claims description 41
- 238000003672 processing method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 39
- 230000006870 function Effects 0.000 description 16
- 238000013480 data collection Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 7
- 102100029968 Calreticulin Human genes 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 101100326671 Homo sapiens CALR gene Proteins 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像の処理方法、画像処理装置及び記憶媒体に関する。特に、実空間の撮影によって得られた画像データと地図上の位置データとの対応付けを行うのに好適なユーザインタフェースを備えた画像処理方法、画像処理装置および記憶媒体に関する。
【0002】
【従来の技術】
移動体に搭載された撮影装置によって現実空間を撮影し、撮影された実写画像データをもとに、撮影した現実空間を計算機を用いて仮想空間として表現する試みが提案されている(例えば遠藤、片山、田村、廣瀬、渡辺、谷川:“移動車輌搭載カメラを用いた都市空間の電脳映像化について”(信学ソサイエティ、PA−3−4、pp.276−277、1997年)、または廣瀬、渡辺、谷川、遠藤、片山、田村:“移動車輌搭載カメラを用いた電脳映像都市空間の構築(2)−実写画像を用いた広域仮想空間の生成−”(日本バーチャルリアリティ学会第2回大会論文集、pp.67−70、1997年)などを参照)。
【0003】
移動体に搭載された撮影装置によって撮影された実写画像データをもとに、撮影した現実空間を仮想空間として表現する手法としては、実写画像データをもとに現実空間の幾何形状モデルを再現し、従来のCG技術で表現する手法が挙げられるが、モデルの正確性や精密度、写実性などの点で限界がある。一方、モデルを用いた再現を行わずに、実写画像を用いて仮想空間を表現するImage−Based Rendering(IBR)技術が近年注目を集めている。IBR技術は、複数の実写画像をもとに、任意の視点から見た画像を生成する技術である。IBR技術は実写画像に基づいているために、写実的な仮想空間の表現が可能である。
【0004】
このようなIBR技術を用いてウォークスルー可能な仮想空間を構築するためには、体験者の仮想空間内の位置に応じた画像の生成・呈示を行う必要がある。そのため、実写画像データの各フレームと、仮想空間内の位置とを対応付ける必要がある。但し、ここでは、仮想空間は現実空間をもとに生成された空間であるので、仮想空間内の位置は、現実空間の位置と換言できる。つまり、実写画像データの各フレームと現実空間の位置データの対応付けを行い、各フレームが現実空間内のどの位置で撮影されたかを既知としておく必要がある。
【0005】
現実空間内の位置データを得る手法としては、カー・ナビゲーション・システムなどにも用いられているGPS(Global Positioning System)に代表される人工衛星を用いた測位システムを利用するのが一般的である。GPSなどから得られる位置データと、実写画像データを対応付ける手法としては、タイムコードを用いて対応付ける手法が提案されている(特開平11−168754)。この手法では、位置データに含まれる時刻データと、実写画像データの各フレームに付加したタイムコードとを対応付けることで、実写画像データの各フレームと位置データとの対応付けを行う。
現実空間内の位置データを得る手法としては、カー・ナビゲーション・システムなどにも用いられているGPS(Global Positioning System)に代表される人工衛星を用いた測位システムを利用するのが一般的である。GPSなどから得られる位置データと、実写画像データを対応付ける手法としては、タイムコードを用いて対応付ける手法が提案されている(特許文献1)。この手法では、位置データに含まれる時刻データと、実写画像データの各フレームに付加したタイムコードとを対応付けることで、実写画像データの各フレームと位置データとの対応付けを行う。
【0006】
【発明が解決しようとする課題】
しかしながら、例えばGPSの場合には地理的条件によって位置データを得ることができなかったり、位置データに含まれる誤差が無視できないほど大きくなる場合が起こりうる。そのため、画像データと位置データの対応付けができなかった、もしくは不正確だった部分に対して、簡易に位置を求め、画像データとの対応付けを行う手法が求められている。
【0007】
本発明は上記の課題に鑑みてなされたものであり、実写画像データと現実空間の位置とを簡易な操作で対応づけ可能とすることを目的とする。
また、本発明の他の目的は、GPSを用いて実写画像データと現実空間との位置の対応づけを行った場合に、適正に対応づけが出来なかった部分について簡易な操作で対応づけを可能とすることにある。
【0008】
また、一般的な手法による画像データと位置との対応付けでは、各フレーム毎に位置との対応付けを行なうので、データ量が膨大となってしまう。そこで本発明の他の目的は、実写画像データと現実空間との対応付けをより簡易に少ないデータ量で行なうことを可能とした画像データ記録を提供することにある。
【0009】
更に、本発明の他の目的は、上記画像データ記録に基づいて画像再生を可能とすることにある。
【0010】
また、上記画像再生においては、実写画像データを順次再生することになるので、所望の位置を再生するためには、道に沿って当該所望の位置まで再生を進めなくてはならない。このため、所望の位置の再生を得るのに少なからぬ時間と手間がかかることになる。そこで、本発明の他の目的は、実写画像の再生開始位置を地図上で指定可能とすることにある。
【0011】
【課題を解決するための手段】
上記の目的の少なくとも一つを達成するための本発明による画像処理装置は以下の構成を備える。すなわち、
撮影画像を用いてウォークスルー可能な仮想空間を構築するための画像処理装置であって、
複数の撮像装置によって撮影された撮影画像を保存する撮影画像保存部と、
地図データを保存する地図データ保存部と、
ユーザの指示に基づき、前記地図データと前記撮影画像の対応づけを行う画像・地図対応づけ部とを備え、
前記画像・地図対応付け部は、
前記地図データに応じた地図画像表示と前記撮影画像に応じた画像表示とを行う操作画面を有し、前記画像表示は、前記複数の撮像装置によって撮影された撮影画像を同期をとって表示する。
【0012】
また、上記の目的の少なくとも一つを達成するための本発明による画像処理方法は、
撮影画像を用いてウォークスルー可能な仮想空間を構築するための画像処理方法であって、
地図データを保存する地図データ保存部より地図データを取得して表示する地図画像を表示し、複数の撮像装置によって撮影された撮影画像を保存する撮影画像保存部より撮影画像を取得して撮影画像を表示する操作画面を提供する提供工程と、
前記操作画面に対するユーザの指示に基づき、前記地図データと前記撮影画像の対応づけを行う画像・地図対応づけ工程とを備え、
前記操作画面における撮影画像の表示は、前記複数の撮像装置によって撮影された撮影画像を同期をとって表示する。
【0013】
また、本発明によれば、上記画像処理方法をコンピュータに実行させるための制御プログラムを格納した記録媒体が提供される。
【0014】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の好適な実施形態を説明する。
【0015】
<第1の実施形態>
本実施形態では、例えば自動車などの移動体に搭載された撮影装置によって撮影して得られた実写画像データと、現実空間の位置としての地図データとの対応付けを、視覚的なユーザ・インタフェースを用いて行うことができる画像記録装置を説明する。
【0016】
図1は本実施形態による画像記録装置の機能構成を説明する図である。本画像記録システムは、画像データ収集システム90と画像記録装置1とを含んで構成される。画像記録装置1は、画像データ保存部10、地図データ保存部20、画像・地図対応付け部30、操作部40、対応付けデータ保存部50を有する。
【0017】
画像データ保存部10は、後述の画像データ収集システム90によって得られた実写画像データとしてのビデオデータ(以下、画像データという)を格納する。地図データ保存部20は、地図のイメージ情報と該地図イメージ上の各位置を経度と緯度に関連した座標で表すための座標情報を含む地図データを格納する。地図データ保存部20には、少なくとも画像データ収集システム90によって撮影され、画像データ保存部10に保存された画像データの現実空間位置に対応した地図データが保存されている。なお、地図データは、ここでは不図示のハードディスク、RAMまたは他の外部記憶装置に保存される。
【0018】
画像・地図対応付け部30は、画像データ保存部10に保存されている画像データと、地図データ保存部20に保存されている地図データを読み出して操作部40の有する表示装置上に表示するとともに、操作部40を用いてユーザが行った画像データと地図データの対応付けを行う。こうして対応付けされた画像データと地図データは、対応付けデータとして対応付けデータ保存部50に保存される。なお、操作部40は、表示装置、マウス及びキーボードなどから構成される。
【0019】
図2は、画像データ保存部10に保存される画像データを収集するための画像データ収集システムの構成例を示す図である。図2に示されるように、この画像データ収集システム90は、撮影部60、記録部70、A/D変換部80の3つの部分に分けられる。以下、各部について、図3〜図5を参照して詳細に説明する。
【0020】
図3は、撮影部60の構成を詳細に示すブロック図である。本実施形態では、撮影部60は車輌などの移動体に搭載して用いられる。撮影部60は、n台(n≧1)のビデオカメラ(60−1〜60−n)と同期信号発生部62から成る。ビデオカメラ60−1〜60−nにはそれぞれ同期信号発生部62からの外部同期信号を入力することが可能である。同期信号発生部62より出力される外部同期信号を用いてビデオカメラ60−1〜60−nのn台の撮影タイミングを一致させる。
【0021】
図4は、記録部70の構成を詳細に示すブロック図である。記録部70はタイムコード発生部72と、ビデオカメラ60−1〜60−nに対応する録画部(本例ではビデオカセットレコーダVCR)70−1〜70−nとを備える。撮影部60のビデオカメラ60−1〜60−nからの画像出力は、それぞれ録画部70−1〜70−nの入力となる。また、タイムコード発生部72は、撮影時刻を表すタイムコードを各VCR70−1〜70−nに供給する。VCR70−1〜70−nは、対応するビデオカメラからの画像入力とタイムコード発生部72からのタイムコードを取り込み、タイムコードつきの画像データとして格納する。
【0022】
図5Aは、A/D変換部80の構成を詳細に示すブロック図である。A/D変換部80は、パーソナルコンピュータ(以下PC)84と、VCR70−1〜70−nの各々に対応するビデオ・キャプチャ・ボード(以下、キャプチャ・ボード)82を有する。キャプチャ・ボードは必ずしもビデオカメラの台数分必要ではなく、PCに搭載できる数のキャプチャ・ボードを共有してもよい。A/D変換部80は、各VCRから供給されるアナログ画像データをディジタル画像データ(例えばAVIフォーマット)に変換し、PC84に接続されたハードディスク10またはその他の記憶媒体に保存する。画像データがキャプチャ・ボード82を通じてPC84内に取り込まれる際には、記録されているタイムコードを用いてキャプチャ開始部分、終了部分を決定し、n台のVCRおよびキャプチャ・ボードを介して取得されるディジタル画像データがすべて同時刻に撮影された、同じ長さのキャプチャデータで構成されるようにする。なお、採用され得るデータフォーマットとしては、たとえばAVIフォーマットが挙げられる。
【0023】
図5Bは、画像データ保存部10における画像データの保存形態の一例を示す図である。図5Bに示すように、各カメラ(60−1〜60−n)毎に、フレーム番号とフレームデータとが対応付けられて格納される。なお、同時刻のフレームデータには同一のフレーム番号が付与される。また、本実施形態では、画像データは通常の撮影手段によって撮影された画像データとして保存されるものとするが、同一のフレーム番号の複数のフレームを合成してパノラマ画像として保存されていてもよい。
【0024】
図6は、本実施形態による画像記録装置のハード構成を示すブロック図である。図6に示したハード構成は通常のパーソナルコンピュータの構成と同等である。図6において、ディスク105には、上述した画像データ収集システム90によって得られたディジタル画像データが記憶されている。ディスク105は上述の画像データ保存部10、地図データ保存部20、対応付けデータ保存部50を構成する。CPU101は、ディスク105またはROM106、または外部記憶装置(不図示)に保存されているプログラムを実行し、図7のフローチャート等を用いて後述する画像データと地図データとの対応付けを実行する。すなわち、画像・地図対応づけ部30を実現する。
【0025】
CPU101が表示コントローラ102に対して各種の表示指示を行うことにより、表示コントローラ102およびレームバッファ103によって表示器104に所望の表示がなされる。なお、図では表示コントローラ102としてCRTC、表示器104としてCRTを示したが、表示器としては陰極線管に限らず、液晶表示器等を用いてもよいことはもちろんである。マウス108やキーボード109は、ユーザの操作入力を行うためのものであり、後述するGUIへの入力を行う。画像・地図対応付け部によって出力されるデータは、ディスク105または外部記憶装置(不図示)に記録される。CRT104、マウス108、キーボード109は上述の操作部40を構成する。
【0026】
以上の構成を備えた本実施形態の画像記録装置において、画像データ保存部10に格納された現実空間の画像データと地図データ保存部20に保存された地図情報との対応付けをユーザの操作に従って行う画像・地図対応付け部30の動作について説明する。
【0027】
図7は画像・地図対応付け部30による処理手順を示すフローチャートである。画像・地図対応付け部30は、まずステップS1において、地図データをCRT104に表示するとともに、当該地図上に区分点や道を特定するためのユーザインターフェースを提供する。そして、ステップS2において、提供されたユーザインターフェースを用いて、表示された地図データに対して撮影経路を区分する点(以後、区分点と呼ぶ)と区分点を結ぶ線分(以後、道と呼ぶ)を、必要な区分点、道の数だけ設定する。このとき、区分点、道には、それぞれを唯一に特定できるIDが付けられる。なお、区分点を結ぶ線分とは、2つの区分点の間、すなわち区間を表す直線もしくは曲線である。
【0028】
図8は区分点と道を設定するためのユーザインターフェースにおける画面表示例を示す図である。ステップS1において画面上に表示された地図データを表示するとともに、当該地図801上に後述の区分点と道を設定するためのユーザインターフェース(GUI)を提供する。ステップS2では、ステップS1で表示された地図上に、撮影経路に沿って、主に道の分岐点等に区分点を設定するとともに、両端が区分点で挟まれた道をユーザ操作により設定する。ここで、区分点や道のIDは自動的に付与されるようにしてもよいし、ユーザが設定して付与するようにしてもよい。また、各道や区分点には、名称(○○通り、××交差点等)を付与可能とし、この名称によって検索可能としてもよい。また、区分点は道路の分岐点のみでなく、道路の任意の箇所に設定してよい。
【0029】
なお、以上の区分点と道の設定は、例えば次のような操作で行われる。画面上に表示された地図上でマウスをクリックするとクリックされた位置に区分点が設定される。もちろん、区分点はキーボードより、地図上の座標値として与えてもよい。また区分点から区分点へマウス・ポインタをドラッグすると道が設定できる。もちろん、キーボードから2つの区分点のIDを与えて2点を結ぶことにより道を設定してもよい。
【0030】
こうして設定された区分点や道の格納に関しては、種々の方法が考えられるが、本実施形態では、図9A,Bに示すような形態で区分点や道を保持するものとする。図9Aは区分点の登録例を説明する図である。また、図9Bは、道の登録例を説明する図である。図9Aに示されるように、区分点リスト900において、各区分点について、それを特定するための区分点ID901とその地図上の位置を表す地図座標データ902と区分点に付与された名称903とが登録される。なお、名称データは付与されてもされなくてもかまわない。また、図9Bに示されるように、道リスト910においては、各道について、道ID911と、その道の両端の区分点を示す開始区分点912、終了区分点913、及び道の名称914が登録される。なお、名称データは付与されてもされなくてもかまわない。なお、開始フレーム915、終了フレーム916、フレーム位置情報917については後述する。
【0031】
図7に戻り、次に、画像データ収集システム90によって収集され、画像データ保存部10に図5Bの如く保存された画像データと、上記処理によって設定された区分点、道との対応付けを行うために、ステップS3においてその操作のための画面(GUI)をCRT104に表示する。
【0032】
図10は、ステップS3で表示される、本実施形態による画像データと地図データとの対応付けを行うためのGUI画面の表示例を示す図である。このGUI上には、地図データ表示部301、画像データ表示部302、道情報表示部303、画像データ再生操作部304が表示される。地図データ表示部301には、地図データ保存部20に保持された地図データとともに、上述のステップS1、S2によって設定された区分点および道(区分点リスト、道リストに登録されている)が、それぞれたとえば○と太線で表示される。
【0033】
画像データ表示部302には、画像データ保存部10に保持された画像データが再生される。画像データ表示部302では、複数台(本例ではn台)のカメラによって撮影された画像が同期をとって表示される。道情報表示部303には、道のID、その道に付与された名称、その道の両端の区分点のID、その道に対応する画像データのフレーム番号(開始(Start)と終了(End))を表示する。ただし、フレーム番号は、道との対応づけが行われるまでは表示されない(この場合、未定と表示してもよい)。また、画像データ再生操作部304は、再生、停止、早送り、巻戻し、コマ送りなどの操作ボタンを具備する。
【0034】
以降のステップS4〜S6では、以上の図10に示したGUIを用いて画像データのフレームと道との対応付けを行う。まず、ステップS4において、ユーザは先のステップS1、S2において設定され、地図データ表示部301に表示された道から所望の道をマウスにより選択する。なお、道の選択は、地図データ表示部301に表示された所望の道の上もしくは近傍でダブルクリック操作をする、或いはダイアログを開いてキーボードから入力するなどして行われる。ここで、選択された道に関する情報が道情報表示部303に表示される。
【0035】
そして、ステップS5において、この選択された道の両端の区分点に対応するビデオフレームの探索を行う。すなわち、ユーザは、画像データ再生操作部304の再生、停止、早送り、巻戻し、コマ送りボタン等を用いて画像データ表示部302に画像を再生させ、選択された道の両端の区分点において撮影された画像に最も近いフレームを画像データ内から探索する。そして、道の両端の区分点に対応した2つのフレーム番号を決定する。ステップS6では、以上のようにして選択された2つのフレームと、それら2つのフレーム間の画像データをその選択された道に対応付け、対応づけデータとして登録する。こうして、道の両端の開始区分点及び終了区分点に対して決定されたフレーム番号は、それぞれ図9Bに示した道リストの開始フレーム915及び終了フレーム916に登録される。
【0036】
図11は、地図と画像データの対応付けによって各フレームが撮影された位置を求める概念図を示す。上述したようにコマ送り操作等によって表示された画像1101を選択して区分点t0と対応付け、画像1102を選択して区分点t1と対応付ける。すると、区分点に対応付けられた2つのフレーム間の画像フレーム群1103が、地図上の2つの区分点t0、t1を両端とする道に対応付けられることになる。即ち、道とフレーム群とを対応付ける情報が得られることになる。さらに、本実施形態では、区分点間に割り当てた画像フレーム群1103のフレーム数で当該区分点間を等分することで、各画像フレームが撮影された実空間内の位置を簡便に求める。求められた各フレームの位置情報は、図9Bに示した道リストのフレーム位置情報917に登録される。ただし、本実施形態では、各フレームの位置情報は、両端の区分点の地図座標がわかれば補間により求めることができるので、省略することもできる。
【0037】
すなわち、画像フレーム群1103は、(1)区分点に対応付けられたビデオフレーム間に存在する画像フレーム毎に上記補間によって求められた位置情報を付与して記憶してもよいし、(2)各道の開始及び終了区分点に対応するビデオフレームのみを登録しておき、画像再生時に、その道の区分点間の画像フレームを、当該区分点間の画像フレーム数と再生時間或いは距離に応じて均等に再生するようにしてもよい。図5Bでは(1)の方法による格納形態を示しており、フレーム位置情報917において、各フレームに開始区分点の位置、終了区分点の位置、或いは仮想的な位置を付与している。たとえば、(u1,v1)及び(u100,v100)が道R1の開始区分点及び終了区分点に相当し、その間のフレームを道R1に均等に配置した座標値が付与されている。なお、上述のように、(2)の方法を採用する場合にはフレーム位置情報917は省略可能である。
【0038】
以上のようにして、選択した道に対する画像データの対応付けが終了したら、ステップS7において、他の道について対応付けを行うのであればステップS4へ戻る。また、これ以上の対応付けを行わないのであれば、ユーザの終了操作により本処理を終了する。
【0039】
なお、本実施形態では、画像データ表示部302にn台のビデオカメラから撮影された画像を同期を取って表示する。こうすることにより、たとえば前後左右方向を向くカメラからの画像を同時に見ることができ、交差点等の位置をより正確に特定しやすくなる。しかしながら、画像データ表示部302における表示形態はこれに限られるものではない。たとえば、n台のうちの1台のビデオカメラからの画像を表示するようにしてもよい。1台分の画像を表示すればよいので、CPUの負荷が軽減される。また、何台のビデオカメラからの画像を同時に表示するかを指定可能としてもよい。さらに、1台あるいは所望台数のビデオカメラからの画像を同時に表示する場合、画像データ表示部302に表示すべき画像をどのカメラの画像にするかを選択可能としてもよい。また、所望台数のビデオカメラからの画像を同時に表示する場合にはその台数を指定可能にしてもよい。
【0040】
さらに、コマ送り操作が行われた場合は、画像データ表示部302において、図10の画像データ表示部302に示したように、各カメラからの画像毎に連続する複数のコマを表示するようにしてもよい。本実施形態では、マウスで所望のコマを選択すると、そのコマを道の両端の区分点のどちら(開始点か終了点か)に対応付けるかを問い合わせる画面がポップアップし、それに応答することで、所望の区分点と画像のフレームとを対応付ける。
【0041】
以上のようにして画像・地図対応付け部30から対応付けデータ保存部50に保存されるデータは、画像データと地図上の位置データが何らかの形でリンクしているデータである。つまり地図上の、道上の所望の位置が指定されれば、対応する画像データのフレームが特定され、これを表示することを可能とするデータである。
【0042】
図12は対応付けデータ保存部50に保存されるリンク・データの記録フォーマットの一例を示す図である。このデータ・フォーマットはツリー構造になっており、地図データを頂点としている。地図データ1201は、地図データ保存部に保存されているデータである。地図データ1201には、道データ1202、区分点データ1203、画像データ1204がリンクしている。道データ1202は、図9Bで示した道リスト910を含み、各道の名前、両端の区分点のID、両端の区分点に対応する画像データのフレーム番号、画像データの各フレームの位置を示すフレーム位置情報が記録される。また、区分点データ1203は、図9Aで示した区分点リスト900を含み、区分点の名前、その区分点に接続されている道のIDが記録される。画像データ1204は、画像データ保存部10に保持された画像データ、或いは同一フレーム番号同士のビデオフレームを合成して得られたパノラマ画像であり、フレーム番号と対応付けて格納される。
【0043】
すなわち、撮影部60のビデオカメラ60−1〜60−nによって撮影された画像は、各ビデオフレーム毎にフレーム番号が付与されて記録されるようになっており、図11に示すように地図上で区分点t0、t1を選択し、その区分点に対応するビデオフレームを選択して対応付けを行なった場合には、区分点t0、t1とこれに対応付けられたビデオフレーム番号とがリンク可能に記憶されることになる。
【0044】
また、図12では、地図上の区分点に対応するフレーム番号をリンクさせて記憶しているが、当該区分点の長さに相当するフレーム数で当該区分点間を分割して、仮想的にフレーム位置を設定して各ビデオフレームに割り当てて記憶してもよい。なお、上述のように、区分点に対応するビデオフレームのみを記憶した場合は、その中間のビデオフレームは区分点間のビデオフレームを再生するときに、その区分点間の距離及び/または再生時間に応じて順次再生してゆくことになる。なお、再生系の詳しい内容については、第3の実施形態で説明する。
【0045】
以上説明したように、第1の実施形態によれば、収集した実写画像データと地図上の位置とを容易に対応付けることが可能である。
【0046】
なお、図10に示したGUIでは、プレビューボタン305が設けられている。地図表示部301状で所望の道を選択し、このプレビューボタンを押すと、ウインドウがポップアップし、選択された道の指定区間に割り当てられたビデオフレームの再生が連続して行われる。このようなプレビューボタンを設けることで、ユーザは割り付け操作を行いながら、その割り付け状態を随時確認できるので、操作性が向上する。
【0047】
<第2の実施形態>
上述した第1の実施形態では、収集した実写画像データのすべてについて、図10に示したGUIを用いて地図上の位置との対応付け行う。第2の実施形態では、GPSによって得られた位置情報を有効に利用して画像データと地図情報との対応付けを行うことにより、より効率的に対応付け作業を行えるようにする。すなわち、第2の実施形態では、実写画像データと現実空間の位置データの対応付けを行う際に、GPSによって位置データが得られなかった部分や、得られた位置データの誤差が大きい部分などへ位置データの対応付けを行う。すなわち、第1の実施形態で説明したGUIを用いた位置データの対応付けを、GPSで得られた位置データを補完するのに用いる。
【0048】
図13は第2の実施形態による画像収集システムの構成を示すブロック図である。図13において、ビデオカメラ60−1からの画像はVCR70−1に記録される。このとき、第1の実施形態で説明したようにタイムコード発生部72からのタイムコードがVCR70−1に供給され、タイムコードつきの画像データがVCR70−1に記録されることになる。VCR70−1の出力はキャプチャ・ボード82−1によってディジタル画像データ(例えばAVIフォーマット)に変換され、PC84に接続されたハードディスク10またはその他の記憶媒体に保存される。なお、図13ではビデオカメラ、VCR、キャプチャ・ボードを一組示したが、第1の実施形態のように複数組で構成してもよいことは言うまでもない。
【0049】
また、図13では、さらにGPS部1301より緯度、経度データとタイムコード発生部72からのタイムコードがPC84に供給される。PC84は、これら緯度、経度データとタイムコードとを対応させた情報をハードディスク10に格納する。図14は第2の実施形態による画像データ保存部10におけるビデオデータと位置データ(GPS測定結果データ)の格納状態例を示す図である。こうして、図14に示すように、タイムコードが付加されたビデオフレームとタイムコードが付加された位置データとが格納されることになる。よって、このタイムコードを介して、ビデオフレームと位置データが対応付けられる。
【0050】
なお、GPSにおける3次元位置の算出は公知であり、ここでは詳細な説明を省略する。以上のようにして、n台のビデオカメラによって画像を撮影しながら、GPSによって逐次得られる緯度、経度データP(θ,φ)をタイムコード発生部72からのタイムコードに対応付けて格納していく。そして、このタイムコードに基づいて、画像の各フレームと緯度,経度データを対応付ける。
【0051】
図15は第2の実施形態による地図データ表示部301の表示状態を示す図である。また、図16は第2の実施形態による処理手順を説明するフローチャートである。
【0052】
まず、ステップS100において、区分点と道を設定するための画面を表示する。これは上述の図7におけるステップS1と同様である。次にステップS101において、地図表示上へGPSデータをプロットする。なお、図15では、GPSデータによるプロットを点線で示してある。
【0053】
その後、ステップS102において、図7のステップS2で説明したように、ステップS1で表示した地図上に区分点と道を設定する。この時点で、地図表示部301上には、図15に示すように、地図、GPSデータのプロット、区分点及び道が表示されることになる。その後、画像データ対応付け処理の開始が指示されると、処理はステップS103からステップS104へ進むことになる。尚、画像データ対応付け処理の開始の判断は、図10に示したユーザインターフェース上に適当なボタンを設け、これがクリック操作されたか否かで行なうことができる。
【0054】
さて、画像データ対応付け処理が開始されると、まずステップS104において、ユーザに画像データを対応付けるべき道を指定させる。道が指定されると、ステップS105において、当該指定された道の両端の区分点を取得し、これら区分点に対応するフレームを探索する。フレームの探索は、地図上における区分点の座標と各フレームのGPSデータの座標とを比較し、区分点の位置に最も近い位置のフレームが取得される。そして、その距離が所定範囲内であった場合に、当該区分点に対応するフレームとする。ステップS105では、このようにして、指定された道の両端の区分点に対応するフレームの取得が試みられ、両区分点に対応するフレームが取得できた場合には、ステップS106からステップS107へ進み、指定された道について、図9Bに示す開始フレームと終了フレームが登録される。
【0055】
更に、ステップS108では、ステップS105で取得された2つのフレームに挟まれるフレーム群の各位置について指定された道から大きく逸脱するもの、或いはGPSデータが欠落しているものが無いかを調べる。そして、調査されたフレーム群の各位置が、指定された道に対して所定距離内に納まる場合は、ステップS109へ進み、それらフレーム群とGPSデータに基づく位置情報に従って図9Bのフレーム位置情報917への登録が行なわれる。
【0056】
一方、ステップS105、S106において区分点に対応するフレームが見つからなかった場合はステップS110へ進み、マニュアルによるフレームの割当てが行なわれる。この処理は、第1の実施形態で説明したのと同様の処理である。即ち、ビデオフレームを再生して指定された道の両端に対応する終了及び開始フレームを指定する。そしてステップS111で、指定された開始及び終了フレーム間のフレーム群を、図11で説明したようにして道に割り当てる。また、開始及び終了フレームに挟まれるフレーム群にGPSデータの不良が存在する場合には、ステップS108からステップS111へ進み、ステップS107で決定された開始及び終了フレームに挟まれるフレーム群について図11で説明した道への割当て処理が行なわれる。
【0057】
その後、ステップS112において、終了が指示されたか否かを判断し、指示されていなければ処理をステップS104へ戻し上記の処理を繰り返す。一方、終了が指示されたのであれば、本処理を終了する。
【0058】
なお、地図上の各位置(x,y)は関数f(θ,φ)で求まる(地図を作成する際の投影方法により関数fは異なる)。すなわち、
位置(x,y)=f(θ,φ)
によって、GPSデータを地図上の位置座標に換算し、表示された地図上にプロットする。プロットされた点を線で結んで表示してもよい。図15の例では点線によってプロットを結んで表示した例を示している。
【0059】
ユーザはこの地図データ表示部301の表示内容からGPSによる測定誤差が大きい部分やGPSデータが欠落している部分を認識することができる。図15の例では、1501の個所でGPSの誤差が大きく、1502の個所でGPSデータが欠落している。
【0060】
図15において、区分点1511と1512を両端にもつ道1513を選択し、上述のごとく両区分点とビデオフレームとの対応付けを行えば、GPSによる測定誤差の大きかった1501の部分について、より正しくビデオフレームと位置データとを対応付けることができる。また、区分点1521と1522を両端にもつ道1523を選択し、上述のごとく両区分点とビデオフレームとの対応付けを行えば、GPSによる測定が不能であった1502の個所を含むビデオフレーム群を正しく位置データに対応付けることができる。
【0061】
なお、上記実施形態では道に対してGPSデータの誤差が許容範囲であった場合にはそのままGPSデータを位置データと用いてフレーム位置情報917への登録を行なったがこれに限らない。たとえば、GPSデータに基づいて開始及び終了フレームが決定されたならば、それらを区分点に対応付けるとともに、これらフレームで挟まれたフレーム群については、GPSデータを用いずに、図11で説明した手法を適用して道との対応付けを行なうようにしてもよい。
【0062】
以上説明したように、第2の実施形態によれば、GPSによって位置データを得られない場合や、位置データに含まれる誤差が無視できないほど大きい場合でも、簡易的に位置データを求め、画像データと位置データとの対応付けを行うことができる。また、GPSによって不完全である部分を補うだけで画像データ収集システムによって収集されたビデオフレームと地図上の位置とを対応付けることができるので、より簡易にビデオフレームと位置との対応付けを行うことができる。
【0063】
なお、GPSデータの欠落としては、上記測定誤差によるものの他に、GPSデータが動画像のレート(30frames/sec)では記録できない場合が挙げられる。すなわち、図14に示すように各フレーム毎にGPSによる測定結果データが得られる場合はよいが、そうでない場合は、GPSが記録されているフレーム間のフレームの位置情報を補間によって求めるようにしてもよい。
【0064】
この場合、たとえば、フレームi(位置(ui,vi))とフレームi+n(位置(ui+n,vi+n)のGPSデータが記録されている場合、これらフレームiからフレームi+nの間の各フレームx(x=i+1,…,i+n−1)の位置((ux,vx)は、たとえば、
ux=ui+(x−i)(ui+n−ui)/n
vx=vi+(x−i)(vi+n−vi)/n
で求めることができる。
【0065】
なお、上記の例では、線形補間によってフレームxの各位置を求めたが、線形補間に限られるものではない。
【0066】
以上のように、画像フレームよりGPSデータが疎にサンプリングされた場合には、位置情報が得られていない画像フレームについて補間によって位置情報を求めることも可能である。
【0067】
<第3の実施形態>
次に、上述のようにして地図と画像をリンクさせたデータベースを用いた画像の再生系について説明する。
【0068】
図17は画像再生系の機能構成を説明するブロック図である。なお、再生系の装置構成は上述の第1の実施形態(図6)と同様であり、CPU101がROM106に格納された、或いはRAM107にロードされた制御プログラムを実行することによって、図17に示す各機能が実現されることになる。
【0069】
図17において、対応付けデータ保存部50には、上述したような道リスト910(図9B)を含む対応付けデータが保持されている。なお、本実施形態では、対応付けデータ保存部50に保存されているフレームは、複数台のカメラから得られた同一フレーム番号の複数の画像を合成して得られたパノラマ画像であるとする。また、対応付けデータは各道の開始及び終了フレームが登録され、フレーム位置情報917は省略された形態を有するものとする。
【0070】
1701はパノラマ画像フレーム群取得部であり、対応付けデータ保存部50から再生すべき「道」に対応するフレーム群を取得し、再生方向に応じて順次フレームを表示処理のために出力する。なお、出力されたフレームが当該「道」の何番目のフレームであるかを視点位置取得部1704に通知する。1702は視線方向画像抽出部であり、パノラマ画像フレーム取得部1701から取得されたパノラマ画像より、指定された視線方向に対応した部分画像を抽出する。1703は表示部であり、CRT104に視線方向画像抽出部1702で抽出された部分画像を表示するとともに、地図データ保存部20に保持された地図データに基づいて地図を表示する。
【0071】
1704は視点位置取得部であり、視線方向画像抽出部1702によって画像抽出の対象となっているフレームが、パノラマ画像フレーム群取得部1701で取得されたフレーム群のうちの何番目のフレームであるか(パノラマ画像フレーム群取得部1701より通知される)に基づいて、当該「道」における現在位置を割り出す。この現在位置の情報は、表示部1703に送られ、地図表示上に現在位置を表示するのに用いられる。1705は位置・視線方向指示部であり、ユーザの現在位置及び視線方向を指示する。
【0072】
図18は第3の実施形態による表示例を示す図である。図18に示されるように画面内には、地図のウインドウである地図表示部301と、撮影画像を表示するウインドウである画像データ表示部302が表示され、不図示のジョイスティックとマウスにより再生操作を行う。画像データ表示部302には、パノラマ画像フレーム取得部1701から取得され、視線方向画像抽出部1702で抽出された画像が表示される。なお、視線方向はジョイスティックの傾斜角度に基づいて位置・視線方向指示部1705が検出し、視線方向画像抽出部1702に通知する。
【0073】
また、地図のウインドウ301には地図データ保存部から取得された地図情報が表示される。地図表示部301には、画像データ表示部302で表示されている位置及びその視線方向を示す位置マーク320が表示される。また、地図表示部301の右側と下側に設けられているスクロールバー309,310を操作して、表示する地図を最適位置に修正することができる。
【0074】
上記の構成において、図12に示すデータを読み込み、視点位置の存在する道の画像フレーム群が順次再生される。たとえば、現在の視点位置が道iの第jフレームに対応する位置とすると、道iの第jフレームが画像データ表示部302に表示されることになる。それとともに、第jフレームの地図上での位置を道iをはさむ両区分点の地図上の座標から補間により求め、位置マーク320を表示する(なお、図9Bに示すフレーム位置情報917がある場合は、その情報から第jフレームの地図上での位置が求まる)。すなわち、再生系では対応付けデータ保存部50に保持されたフレームに基づいて画像表示を行なうと共に、地図データも同時に画面上に表示し、現在の位置(第jフレームの位置)を地図上に矢印等の位置マーク320を表示する。
【0075】
道iを進行中の場合、道iに対応するフレーム群を用いて再生画像が表示されると共に、各フレーム毎に位置を求めて地図上に表示する。しばらく道iを移動していくと、区分点に対応するフレームに到達する。区分点に到達した場合は、そのときの視線方向と、当該区分点に接続されている道の方向とに基づいて次に進む道を決定する。
【0076】
図19は進行方向の決定を説明する図である。たとえば、視線方向1を向いた状態で区分点に到達したならば、[1]の方向の道が選択される。その結果、[1]の道に対応するフレーム群がパノラマ画像フレーム取得部1701によって選択されて画像再生及び地図上への位置表示が行なわれる。
【0077】
さて、以上のようにして実写画像系列によって仮想都市空間を移動する場合、所定の初期位置から画像の再生が開始され、所望の位置へ移動するには、地図上のフレーム群の存在する道に沿って移動していかなければならず、無駄な時間や手間がかかってしまう。そこで本実施形態では、地図上の所望の位置をユーザが指定した場合に、指定された位置に最も近い位置の画像から再生を開始可能として、その操作性を向上する。
【0078】
例えば、ユーザが地図表示部301においてカーソル321をマウス等によって移動し、所望の位置を指示すると、地図上におけるクリック位置が算出され、当該クリック位置に最も近い道が検出され、更にその道上においてクリック位置に最も近いフレーム位置を有するフレームから再生を開始する。
【0079】
図20は以上の様なユーザインターフェースを実現するための制御手順を説明するフローチャートである。図20において、ステップS1901で表示すべき道が決定されると、ステップS1902において、当該決定された道に対応するフレーム群が取得される。そして、ステップS1903で、取得した画像をシーケンシャルに画像データ表示部302上に表示する。尚、視線方向はジョイスティックのレバーの方向によって与えられるとする。また、その際、ステップS1904で、表示中のフレームの位置を算出し、現在の再生位置を示す矢印をこの算出結果に基づいて地図表示部301上に表示する。
【0080】
そして、再生画像が区分点のフレーム(即ち、当該[道」の開始フレームか終了フレーム)に到達したならば、図19によって上述した方法により、次に進むべき道を決定し(ステップS1901)、上記ステップS1902以降の処理によって画像の再生が行なわれる。
【0081】
また、上記の画像再生中に、マウスによって地図表示部301における所望の位置がクリックされると、処理はステップS1906からステップS1907へ進む。ステップS1907では、クリックされた地図上の位置に最も近い道を検索し、更にその道上でクリック位置に最も近いフレームを選択する。その後、ステップS1908において、ステップS1907で決定した再生開始フレームを静止表示し、待機状態となる。ジョイスティックによって進行開始が指示されると、ステップS1903へ戻り、ステップS1907で取得したフレーム群を用いて画像データ表示部302への画像再生を開始する。
【0082】
次に、ステップS1907におけるクリック位置に近い道とフレームの選択処理を図21のフローチャートを参照して説明する。
【0083】
ステップS2001で地図をクリックするイベントが発生すると、ステップS2002へ進み、クリックされた地図の座標位置(x,y)を取得する。そして、ステップS2003へ進み、対応付けデータ保存部に保存されている道リストから順次「道」を選択し、ステップS2004で選択された「道」とクリックされたいちとの距離を算出する。以上のステップS2003とステップS2004の処理を道リストに登録された全ての道について行なう(ステップS2005)。
【0084】
全ての道につて、クリック位置との距離が算出されると、ステップS2006へ進み、最も距離の小さい道を、「クリックされた地図上の位置に最も近い道」として選択する。
【0085】
更に、ステップS2007では、ステップS2006で選択した「道」に対して、クリックされた点から垂線をおろし、「道」と垂線との交点を求め、この交点に対応する画像フレームを求める。例えば、選択された「道」に対応付けられたフレーム群を所得し、フレーム群のフレーム数でこの「道」を等分割する。そして、上記交点に最も近い分割位置を決定し、対応するフレームを取得する。
【0086】
ステップS2008では以上のようにして求めた「道」のIDと画像フレーム番号を結果として返す。
【0087】
尚、上記実施形態においては画像再生中に所望の位置が指定される場合を示したが、画像再生の初期位置を地図表示部301上で所望に設定可能としてもよい。
【0088】
また、第3の実施形態では、最も近い道をクリック位置からの距離を算出することで選択したが、予めクリック位置と道との対応をテーブル化(地図上のクリック位置に対して道が一意に決定できるように対応付けた情報)して保持するようにしてもよい。この場合のステップS1907における処理を図22のフローチャートを参照して説明する。
【0089】
図22において、まずステップS2101で地図をクリックするイベントが発生するとステップS2102へ進み、クリックされた地図の座標位置(x,y)を取得する。次にステップS2103に進み、上記テーブルから(x,y)に対応付けられた道を取得する。その後、ステップS2104に進み、ステップS2103で選択した「道」に対して、クリックされた点から垂線をおろし、「道」と垂線との交点を求め、この交点に対応する画像フレームを求める。例えば、選択された「道」に対応付けられたフレーム群を所得し、フレーム群のフレーム数でこの「道」を等分割する。そして、上記交点に最も近い分割位置を決定し、対応するフレームを取得する。ステップS2105では以上のようにして求めた「道」のIDと画像フレーム番号を結果として返す。
【0090】
以上のように、図21、図22のフローチャートで示される処理によれば、クリック位置に近い道を選択してからフレームを特定するので、各フレームについて位置情報をもたせる必要がなくなり、管理が容易である。また、図21の処理の場合においては、「道」との距離計算を行なうので、フレーム毎に距離計算を行なう必要がなくなり、計算量を削減できる。また、図22の処理によれば、距離計算が不要となるので高速な処理が可能となる。
【0091】
また、複数の地域に対応した複数のフレーム系列を含む場合は、それら複数の地域を含む広域地図を表示しておいて、当該広域地図上のクリック位置に最も近い地域のフレーム系列を選択可能にしてもよい。この場合、まず選択されたフレーム系列に対応する地域の地図を表示し、その後、上述した手順でクリック位置に対応するフレームの特定を行なう。また、広域地図の範囲が広すぎて、クリック位置に対して複数の地域が候補となってしまう場合は、それら候補となった地域を含む広域地図(直前の広域地図よりは狭い範囲を表す)を表示し、絞込を行なうように構成してもよい。
【0092】
<第4の実施形態>
第4の実施形態では、地図上で任意の位置を指定することによってその位置に対応する画像を表示させたり、地図上で複数の区分点を指定することによってその間に形成されるパスに対応する複数の画像を動画或いはコマ送り再生するようにした機能について説明する。このようにすることにより、地図上の任意の位置における風景画像を再生することができる。また同じ地点における異なる方向の画像(各カメラの画像)を再生することもできる。尚、地図上で指定された任意の位置に対応するフレームの特定は上述したとおりである。
【0093】
図23は、この機能を実現するためのユーザインターフェースを示すものである。基本的に図10のユーザインターフェースと類似する部分もあるが、実行する機能に応じて適宜切り替えて使用できるようになっている。
【0094】
画面内に表示された、地図のウインドウ301と、画像データ表示部302が形成され、画像データ再生制御部304の操作ボタンによって各操作を行う。
【0095】
まず、検索ボタン307をマウス等でクリックすると、地名入力用のスペース306が表示され、任意の地名を入力することができる。続いて実行ボタン308をクリックすることによって地図表示部301に入力した地名に対応する地域の地図が表示される。このとき画像データ表示部に、初期画像としていずれかの静止画像を表示してもよい。この場合、表示する画像は、入力された地域に対応する画像化、最も近い位置の画像等でよい。また、地図表示部301の右側と下側に設けられているスクロールバー309,310を操作して、表示する地図を最適位置に修正することができる。
【0096】
次に表示された地図上において、マウス等で、任意の位置をクリックすることにより、指定された位置に区分点の表示を行なう。同図では○の表示である。
【0097】
この区分点の指定を行なって、再生制御部304の再生ボタンをクリックすると、その区分点にリンクされている画像が画像データ表示部に表示される。
【0098】
また、区分点をあらかじめ複数指定すると、各区分点間のパスが表示され(同図の太線)、そのパスをマウス等でクリックして選択し(このとき選択されたパスは色を変化させるなど、表示を異ならせる)、再生ボタンをクリックすると、そのパス上にリンクされている複数の画像を連続して順次再生し、動画再生することができる。また、動画再生する方向については、順方向再生ボタン、逆方向再生ボタンで選択すればよい。
【0099】
また、コマ送りボタン、コマ戻しボタンを用いれば、選択されたパス上の画像をコマ送りで確認しながら再生することができる。また、再生中、一時停止ボタンによって、再生動作を一時停止することができる。
【0100】
また、表示する再生画像は、複数のカメラそれぞれに対応して存在するので、カメラすなわち各地点における再生画像の方向を方向選択ボタン311を操作して選択することができる。また、再生時は、区分点は、分岐点だけでなくパスの途中に設定することもできる。
【0101】
以上のシステムにより、任意の地域の地図を表示し、その地図上の任意の位置における景色を画像で確認することができる。このシステムは、地図と移動するパスに応じた景色の変化のシミュレーションだけでなく、カーナビゲーション等においても、進行ルートの景色、目印等をあらかじめ知ることができる機能等として用いることができ、種々の適用が可能である。
【0102】
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
【0103】
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0104】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
【0105】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0106】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0107】
【発明の効果】
以上説明したように、本発明によれば、実写画像データと現実空間の位置との対応付けに関る操作の操作性が向上する。
【図面の簡単な説明】
【図1】本実施形態による画像記録装置の機能構成を説明する図である。
【図2】画像データ保存部10に保存される画像データを収集するための画像データ収集システムの構成例を示す図である。
【図3】撮影部60の構成を詳細に示すブロック図である。
【図4】記録部70の構成を詳細に示すブロック図である。
【図5A】A/D変換部80の構成を詳細に示すブロック図である。
【図5B】画像データ保存部に格納される画像データを説明する図である。
【図6】本実施形態による画像記録装置のハード構成を示すブロック図である。
【図7】画像・地図対応付け部30による処理手順を示すフローチャートである。
【図8】区分点と道を設定するためのユーザインターフェースにおける画面表示例を示す図である。
【図9A】区分点の登録例を説明する図である。
【図9B】道の登録例を説明する図である。
【図10】ステップS3で表示される、本実施形態による画像データと地図データとの対応付けを行うためのGUI画面の表示例を示す図である。
【図11】地図と画像データの対応付けによって各画像フレームが撮影された位置を求める概念を示す図である。
【図12】対応付けデータ保存部50に保存されるリンク・データの記録フォーマットの一例を示す図である。
【図13】第2の実施形態による画像収集システムの構成を示すブロック図である。
【図14】第2の実施形態による画像データ保存部10におけるビデオデータと位置データ(GPS測定結果データ)の格納状態例を示す図である。
【図15】第2の実施形態による地図データ表示部301の表示状態を示す図である。
【図16】第2の実施形態による処理手順を説明するフローチャートである。
【図17】第3の実施形態による画像データの再生系の機能構成を示すブロック図である。
【図18】第3の実施形態による表示例を示す図である。
【図19】画像再生時における進行方向の変更を説明する図である。
【図20】第3の実施形態による画像再生処理を説明するフローチャートである。
【図21】指定位置から再生すべきフレームを取得するための手順を示すフローチャートである。
【図22】指定位置から再生すべきフレームを取得するための、他の手順を示すフローチャートである。
【図23】第4の実施形態による表示例を示す図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method, an image processing device, and a storage medium. In particular, the present invention relates to an image processing method, an image processing apparatus, and a storage medium having a user interface suitable for associating image data obtained by photographing a real space with position data on a map.
[0002]
[Prior art]
Attempts have been made to photograph a real space with a photographing device mounted on a moving body and to represent the photographed real space as a virtual space using a computer based on photographed real image data (for example, Endo, Katayama, Tamura, Hirose, Watanabe, Tanikawa: "On Cyber-Electronic Imaging of Urban Space Using a Camera Mounted on a Moving Vehicle" (Research Society, PA-3-4, pp. 276-277, 1997), or Hirose, Watanabe, Tanigawa, Endo, Katayama, Tamura: "Construction of a cyber-visual urban space using a camera mounted on a mobile vehicle (2)-Creation of a wide-area virtual space using real images-" Pp. 67-70, 1997)).
[0003]
As a method of expressing the photographed real space as a virtual space based on the real image data captured by the imaging device mounted on the moving object, a geometric model of the real space is reproduced based on the real image data. However, there is a method of expressing by a conventional CG technique, but there is a limit in terms of accuracy, precision, and realism of the model. On the other hand, Image-Based Rendering (IBR) technology for expressing a virtual space using a real image without performing reproduction using a model has recently attracted attention. The IBR technology is a technology for generating an image viewed from an arbitrary viewpoint based on a plurality of real images. Since the IBR technology is based on a real image, it is possible to represent a realistic virtual space.
[0004]
In order to construct a walkable virtual space using such an IBR technology, it is necessary to generate and present an image according to the position of the user in the virtual space. Therefore, it is necessary to associate each frame of the real image data with a position in the virtual space. However, in this case, since the virtual space is a space generated based on the real space, a position in the virtual space can be translated into a position in the real space. That is, it is necessary to correlate each frame of the real image data with the position data in the real space, and to know at which position in the real space each frame was photographed.
[0005]
As a method of obtaining position data in the real space, it is general to use a positioning system using an artificial satellite represented by GPS (Global Positioning System) which is also used in a car navigation system and the like. . As a method of associating position data obtained from a GPS or the like with actual image data, a method of associating the data with a time code has been proposed (Japanese Patent Laid-Open No. 11-168754). In this method, the time data included in the position data is associated with the time code added to each frame of the actually shot image data, so that each frame of the actually shot image data is associated with the position data.
As a method of obtaining position data in the real space, it is general to use a positioning system using an artificial satellite represented by GPS (Global Positioning System) which is also used in a car navigation system and the like. . As a method of associating position data obtained from a GPS or the like with real image data, a method of associating using time code has been proposed (Patent Document 1). In this method, the time data included in the position data is associated with the time code added to each frame of the actually shot image data, so that each frame of the actually shot image data is associated with the position data.
[0006]
[Problems to be solved by the invention]
However, in the case of GPS, for example, there may be cases where position data cannot be obtained due to geographical conditions or an error included in the position data becomes too large to be ignored. For this reason, there is a need for a method of easily obtaining a position for an inaccurate or inaccurate portion of image data and position data, and associating the position with image data.
[0007]
The present invention has been made in view of the above problems, and has as its object to make it possible to associate actual image data with a position in a real space by a simple operation.
Further, another object of the present invention is that, when the position of the real image data is associated with the real space by using the GPS, it is possible to easily associate a portion that cannot be appropriately associated with the position by a simple operation. It is to be.
[0008]
Further, in associating image data with a position by a general method, since the position is associated with each frame, the data amount becomes enormous. Therefore, another object of the present invention is to provide an image data recording that enables the real image data and the real space to be easily associated with each other with a small data amount.
[0009]
Still another object of the present invention is to enable image reproduction based on the image data recording.
[0010]
Further, in the image reproduction, since the actual image data is sequentially reproduced, in order to reproduce a desired position, the reproduction must be advanced along the road to the desired position. For this reason, it takes a considerable amount of time and effort to obtain reproduction at a desired position. Therefore, another object of the present invention is to make it possible to specify a reproduction start position of a photographed image on a map.
[0011]
[Means for Solving the Problems]
An image processing apparatus according to the present invention for achieving at least one of the above objects has the following configuration. That is,
An image processing device for constructing a walkable virtual space using the captured image,
A captured image storage unit that stores captured images captured by a plurality of imaging devices,
A map data storage unit for storing map data,
An image-map associating unit that associates the map data with the captured image based on a user's instruction,
The image / map associating unit includes:
An operation screen for performing a map image display according to the map data and an image display according to the photographed image, wherein the image display synchronously displays photographed images photographed by the plurality of imaging devices. .
[0012]
Further, an image processing method according to the present invention for achieving at least one of the above objects,
An image processing method for constructing a walkable virtual space using a captured image,
A map image is obtained from a map data storage unit for storing map data, and a map image to be displayed is displayed. A providing step of providing an operation screen for displaying
An image / map associating step of associating the map data with the photographed image based on a user instruction on the operation screen,
The display of the captured image on the operation screen displays the captured images captured by the plurality of imaging devices in synchronization.
[0013]
According to the present invention, there is provided a recording medium storing a control program for causing a computer to execute the image processing method.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0015]
<First embodiment>
In the present embodiment, for example, a visual user interface is used to associate real image data obtained by photographing with a photographing device mounted on a moving object such as a car with map data as a position in a real space. An image recording device that can be used will be described.
[0016]
FIG. 1 is a diagram illustrating a functional configuration of the image recording apparatus according to the present embodiment. The present image recording system includes an image
[0017]
The image
[0018]
The image /
[0019]
FIG. 2 is a diagram illustrating a configuration example of an image data collection system for collecting image data stored in the image
[0020]
FIG. 3 is a block diagram illustrating the configuration of the
[0021]
FIG. 4 is a block diagram illustrating the configuration of the
[0022]
FIG. 5A is a block diagram showing the configuration of the A /
[0023]
FIG. 5B is a diagram illustrating an example of a storage mode of image data in the image
[0024]
FIG. 6 is a block diagram illustrating a hardware configuration of the image recording apparatus according to the present embodiment. The hardware configuration shown in FIG. 6 is equivalent to the configuration of a normal personal computer. In FIG. 6, the
[0025]
When the
[0026]
In the image recording apparatus according to the present embodiment having the above configuration, the correspondence between the image data of the real space stored in the image
[0027]
FIG. 7 is a flowchart showing a processing procedure by the image /
[0028]
FIG. 8 is a diagram showing an example of a screen display in a user interface for setting a section point and a road. In step S1, the map data displayed on the screen is displayed, and a user interface (GUI) for setting later-described section points and roads is provided on the
[0029]
The setting of the above-mentioned section points and roads is performed by, for example, the following operation. When the mouse is clicked on the map displayed on the screen, a breakpoint is set at the clicked position. Of course, the dividing points may be given as coordinate values on the map from the keyboard. The road can be set by dragging the mouse pointer from one section point to another. Of course, the way may be set by connecting the two points by giving the IDs of the two division points from the keyboard.
[0030]
Various methods are conceivable for storing the set points and roads in this way, but in the present embodiment, it is assumed that the points and roads are stored in a form as shown in FIGS. 9A and 9B. FIG. 9A is a diagram for explaining an example of registration of a section point. FIG. 9B is a diagram illustrating an example of registering a road. As shown in FIG. 9A, in the
[0031]
Returning to FIG. 7, next, the image data collected by the image
[0032]
FIG. 10 is a diagram illustrating a display example of a GUI screen displayed in step S3 for associating image data and map data according to the present embodiment. On this GUI, a map data display unit 301, an image data display unit 302, a road
[0033]
The image data display unit 302 reproduces the image data stored in the image
[0034]
In the following steps S4 to S6, the frames of the image data are associated with the roads using the GUI shown in FIG. First, in step S4, the user selects a desired road from the roads set in the previous steps S1 and S2 and displayed on the map data display unit 301 with a mouse. The selection of a road is performed by performing a double-click operation on or near a desired road displayed on the map data display unit 301, or by opening a dialog and inputting from a keyboard. Here, information on the selected road is displayed on the road
[0035]
Then, in step S5, a search is made for video frames corresponding to the section points at both ends of the selected road. That is, the user causes the image data display unit 302 to reproduce an image using the reproduction, stop, fast forward, rewind, frame forward buttons, and the like of the image data reproduction operation unit 304, and captures images at the section points at both ends of the selected road. A frame closest to the selected image is searched from the image data. Then, two frame numbers corresponding to the section points at both ends of the road are determined. In step S6, the two frames selected as described above and the image data between the two frames are associated with the selected road and registered as the association data. In this way, the frame numbers determined for the start section point and the end section point at both ends of the road are registered in the
[0036]
FIG. 11 is a conceptual diagram for finding a position where each frame is photographed by associating a map with image data. As described above, the
[0037]
That is, the
[0038]
When the association of the image data with the selected road is completed as described above, in step S7, if the association is to be performed with another road, the process returns to step S4. If no further association is to be performed, this processing is terminated by a user's termination operation.
[0039]
In this embodiment, images taken from n video cameras are displayed on the image data display unit 302 in a synchronized manner. By doing so, for example, images from cameras facing in the front, rear, left, and right directions can be simultaneously viewed, and it becomes easier to more accurately specify the position of an intersection or the like. However, the display mode in the image data display unit 302 is not limited to this. For example, an image from one of the n video cameras may be displayed. Since only one image needs to be displayed, the load on the CPU is reduced. Further, it may be possible to specify how many images from the video cameras are to be displayed at the same time. Further, when images from one or a desired number of video cameras are simultaneously displayed, it may be possible to select which camera image should be displayed on the image data display unit 302. When images from a desired number of video cameras are simultaneously displayed, the number may be designated.
[0040]
Further, when a frame advance operation is performed, a plurality of continuous frames are displayed on the image data display unit 302 for each image from each camera as shown in the image data display unit 302 in FIG. You may. In the present embodiment, when a desired frame is selected with a mouse, a screen pops up asking which one of the dividing points at the both ends of the road is to be associated (start point or end point). Are associated with the image frame.
[0041]
The data stored in the association
[0042]
FIG. 12 is a diagram showing an example of a recording format of link data stored in the association
[0043]
That is, the images captured by the video cameras 60-1 to 60-n of the
[0044]
In FIG. 12, the frame numbers corresponding to the segment points on the map are linked and stored. However, the segment points are divided by the number of frames corresponding to the length of the segment points, and virtually, A frame position may be set, assigned to each video frame, and stored. As described above, when only the video frame corresponding to the segment point is stored, the intermediate video frame is used to reproduce the video frame between the segment points, and the distance between the segment points and / or the reproduction time is used. Are sequentially reproduced in accordance with. The detailed contents of the reproduction system will be described in a third embodiment.
[0045]
As described above, according to the first embodiment, it is possible to easily associate collected real image data with a position on a map.
[0046]
Note that a
[0047]
<Second embodiment>
In the first embodiment described above, all of the collected real image data is associated with a position on a map using the GUI shown in FIG. In the second embodiment, by associating the image data with the map information by effectively using the position information obtained by the GPS, the association work can be performed more efficiently. That is, in the second embodiment, when associating the photographed image data with the position data in the real space, the position data is not obtained by the GPS, or the position data obtained has a large error. The position data is associated. That is, the association of the position data using the GUI described in the first embodiment is used to complement the position data obtained by the GPS.
[0048]
FIG. 13 is a block diagram illustrating a configuration of an image collection system according to the second embodiment. In FIG. 13, an image from a video camera 60-1 is recorded on a VCR 70-1. At this time, as described in the first embodiment, the time code from the
[0049]
In FIG. 13, the
[0050]
The calculation of the three-dimensional position in the GPS is known, and a detailed description is omitted here. As described above, the latitude and longitude data P (θ, φ) sequentially obtained by the GPS are stored in association with the time code from the time
[0051]
FIG. 15 is a diagram illustrating a display state of the map data display unit 301 according to the second embodiment. FIG. 16 is a flowchart illustrating a processing procedure according to the second embodiment.
[0052]
First, in step S100, a screen for setting a section point and a road is displayed. This is the same as step S1 in FIG. 7 described above. Next, in step S101, the GPS data is plotted on the map display. In FIG. 15, a plot based on GPS data is indicated by a dotted line.
[0053]
Then, in step S102, as described in step S2 of FIG. 7, a dividing point and a road are set on the map displayed in step S1. At this point, a map, a plot of GPS data, a section point, and a road are displayed on the map display unit 301 as shown in FIG. Thereafter, when the start of the image data association process is instructed, the process proceeds from step S103 to step S104. The start of the image data association process can be determined by providing an appropriate button on the user interface shown in FIG. 10 and performing a click operation.
[0054]
When the image data associating process is started, first, in step S104, the user is caused to specify a road to which image data is to be associated. When a road is designated, in step S105, the dividing points at both ends of the designated road are acquired, and a frame corresponding to these dividing points is searched. In the frame search, the coordinates of the segment on the map are compared with the coordinates of the GPS data of each frame, and the frame closest to the position of the segment is obtained. If the distance is within a predetermined range, the frame is set to a frame corresponding to the section point. In step S105, the acquisition of the frames corresponding to the section points at both ends of the designated road is tried in this way. If the frames corresponding to both the section points can be acquired, the process proceeds from step S106 to step S107. The start frame and the end frame shown in FIG. 9B are registered for the designated road.
[0055]
Further, in step S108, it is checked whether or not there is any one of the positions of the frame group sandwiched between the two frames acquired in step S105 that largely deviates from the designated road or that lacks GPS data. If the positions of the investigated frame group fall within a predetermined distance with respect to the designated road, the process proceeds to step S109, and the
[0056]
On the other hand, if no frame corresponding to the section point is found in steps S105 and S106, the process proceeds to step S110, and manual frame allocation is performed. This processing is similar to the processing described in the first embodiment. That is, the video frame is reproduced and the end and start frames corresponding to both ends of the specified road are specified. Then, in step S111, a frame group between the specified start and end frames is assigned to a road as described with reference to FIG. If there is a GPS data defect in the frame group between the start and end frames, the process proceeds from step S108 to step S111, and the frame group between the start and end frames determined in step S107 is shown in FIG. The process of allocating to the described road is performed.
[0057]
Thereafter, in step S112, it is determined whether or not termination has been instructed, and if not, the process returns to step S104 to repeat the above processing. On the other hand, if the end is instructed, the process ends.
[0058]
Each position (x, y) on the map is obtained by a function f (θ, φ) (the function f differs depending on a projection method when creating a map). That is,
Position (x, y) = f (θ, φ)
, The GPS data is converted into position coordinates on the map, and plotted on the displayed map. The plotted points may be displayed by connecting them with a line. FIG. 15 shows an example in which plots are connected and displayed by dotted lines.
[0059]
The user can recognize from the display contents of the map data display section 301 a portion where the measurement error by GPS is large or a portion where GPS data is missing. In the example of FIG. 15, a GPS error is large at a
[0060]
In FIG. 15, if a
[0061]
In the above embodiment, when the error of the GPS data with respect to the road is within the allowable range, the registration in the
[0062]
As described above, according to the second embodiment, even if the position data cannot be obtained by the GPS or the error included in the position data is not negligibly large, the position data is simply obtained and the image data is obtained. And position data can be associated with each other. In addition, since the video frames collected by the image data collection system can be associated with the positions on the map simply by compensating for the incomplete portion by the GPS, it is possible to more easily associate the video frames with the positions. Can be.
[0063]
The missing GPS data may be caused by a case where the GPS data cannot be recorded at a moving image rate (30 frames / sec), in addition to the above-described measurement error. That is, as shown in FIG. 14, it is good if measurement result data by GPS is obtained for each frame, but otherwise, position information of frames between frames in which GPS is recorded is obtained by interpolation. Is also good.
[0064]
In this case, for example, frame i (position (u i , V i )) And frame i + n (position (u i + n , V i + n ), The position ((u) of each frame x (x = i + 1,..., I + n−1) between the frame i and the frame i + n is recorded. x , V x ) Is, for example,
u x = U i + (Xi) (u i + n -U i ) / N
v x = V i + (Xi) (v i + n -V i ) / N
Can be obtained by
[0065]
In the above example, each position of the frame x is obtained by the linear interpolation. However, the position is not limited to the linear interpolation.
[0066]
As described above, when GPS data is sparsely sampled from an image frame, position information can be obtained by interpolation for an image frame for which position information has not been obtained.
[0067]
<Third embodiment>
Next, an image reproduction system using a database in which a map and an image are linked as described above will be described.
[0068]
FIG. 17 is a block diagram illustrating a functional configuration of an image reproducing system. Note that the device configuration of the reproduction system is the same as that of the first embodiment (FIG. 6), and the
[0069]
In FIG. 17, the association
[0070]
[0071]
[0072]
FIG. 18 is a diagram illustrating a display example according to the third embodiment. As shown in FIG. 18, a map display section 301 as a map window and an image data display section 302 as a window for displaying a captured image are displayed on the screen, and a joystick (not shown) and a mouse are used to perform a reproduction operation. Do. The image data display unit 302 displays an image acquired from the panoramic image
[0073]
In the map window 301, map information acquired from the map data storage unit is displayed. On the map display section 301, a
[0074]
In the above configuration, the data shown in FIG. 12 is read, and the image frame group of the road where the viewpoint position exists is sequentially reproduced. For example, if the current viewpoint position is a position corresponding to the j-th frame of the road i, the j-th frame of the road i will be displayed on the image data display unit 302. At the same time, the position of the j-th frame on the map is obtained by interpolation from the coordinates of the two segment points sandwiching the road i on the map, and the
[0075]
When the road i is proceeding, a reproduced image is displayed using a frame group corresponding to the road i, and a position is obtained for each frame to be displayed on a map. After traveling on the road i for a while, a frame corresponding to the section point is reached. When the vehicle arrives at the section point, the road to go next is determined based on the direction of the line of sight at that time and the direction of the road connected to the section point.
[0076]
FIG. 19 is a diagram illustrating the determination of the traveling direction. For example, if the vehicle arrives at the section point in the direction of the line of
[0077]
By the way, when moving in the virtual city space by the real image sequence as described above, the reproduction of the image is started from a predetermined initial position, and in order to move to the desired position, the road on which the frame group on the map exists exists. They have to move along, which wastes time and effort. Therefore, in the present embodiment, when the user specifies a desired position on the map, reproduction can be started from the image closest to the specified position, and the operability is improved.
[0078]
For example, when the user moves the
[0079]
FIG. 20 is a flowchart illustrating a control procedure for realizing the above-described user interface. In FIG. 20, when the road to be displayed is determined in step S1901, in step S1902, a frame group corresponding to the determined road is acquired. Then, in step S1903, the acquired images are sequentially displayed on the image data display unit 302. It is assumed that the line of sight is given by the direction of the joystick lever. At this time, in step S1904, the position of the frame being displayed is calculated, and an arrow indicating the current playback position is displayed on the map display unit 301 based on the calculation result.
[0080]
Then, when the reproduced image reaches the frame of the section point (that is, the start frame or the end frame of the [road]), the road to go next is determined by the method described above with reference to FIG. 19 (step S1901), Image reproduction is performed by the processing after step S1902.
[0081]
If a desired position on the map display unit 301 is clicked with the mouse during the image reproduction, the process proceeds from step S1906 to step S1907. In step S1907, the road closest to the clicked position on the map is searched, and the frame closest to the clicked position on that road is selected. After that, in step S1908, the reproduction start frame determined in step S1907 is statically displayed, and a standby state is set. When the progress start is instructed by the joystick, the process returns to step S1903, and the image reproduction to the image data display unit 302 is started using the frame group acquired in step S1907.
[0082]
Next, the process of selecting a road and a frame close to the click position in step S1907 will be described with reference to the flowchart in FIG.
[0083]
When the event of clicking the map occurs in step S2001, the process proceeds to step S2002, and the coordinate position (x, y) of the clicked map is acquired. Then, the process proceeds to step S2003, where “roads” are sequentially selected from the road list stored in the association data storage unit, and the distance between the “road” selected in step S2004 and the clicked one is calculated. The processing of steps S2003 and S2004 is performed for all the roads registered in the road list (step S2005).
[0084]
When the distance from all the roads to the clicked position is calculated, the process proceeds to step S2006, and the road with the shortest distance is selected as “the road closest to the clicked position on the map”.
[0085]
Further, in step S2007, a vertical line is lowered from the clicked point on the “road” selected in step S2006, an intersection between the “road” and the vertical line is obtained, and an image frame corresponding to this intersection is obtained. For example, a frame group associated with the selected “road” is obtained, and the “road” is equally divided by the number of frames in the frame group. Then, a division position closest to the intersection is determined, and a corresponding frame is acquired.
[0086]
In step S2008, the ID of the “road” and the image frame number obtained as described above are returned as a result.
[0087]
Note that, in the above embodiment, a case where a desired position is designated during image reproduction is shown, but an initial position of image reproduction may be set as desired on the map display unit 301.
[0088]
In the third embodiment, the closest road is selected by calculating the distance from the click position. However, the correspondence between the click position and the road is tabulated in advance (the road is unique for the click position on the map). May be stored as information associated with each other so as to be able to determine the information. The processing in step S1907 in this case will be described with reference to the flowchart in FIG.
[0089]
In FIG. 22, first, when an event of clicking the map occurs in step S2101, the process proceeds to step S2102, and the coordinate position (x, y) of the clicked map is acquired. Next, the process advances to step S2103 to acquire a road associated with (x, y) from the table. Thereafter, the process proceeds to step S2104, where a perpendicular is dropped from the clicked point on the “road” selected in step S2103, an intersection between the “road” and the vertical is obtained, and an image frame corresponding to this intersection is obtained. For example, a frame group associated with the selected “road” is obtained, and the “road” is equally divided by the number of frames in the frame group. Then, a division position closest to the intersection is determined, and a corresponding frame is acquired. In step S2105, the ID of the “road” and the image frame number obtained as described above are returned as a result.
[0090]
As described above, according to the processing shown in the flowcharts of FIGS. 21 and 22, since a frame is specified after selecting a road close to the clicked position, there is no need to provide position information for each frame, and management is easy. It is. Further, in the case of the processing in FIG. 21, since the distance to the “road” is calculated, it is not necessary to calculate the distance for each frame, and the amount of calculation can be reduced. Further, according to the processing of FIG. 22, high-speed processing is possible because distance calculation is not required.
[0091]
When a plurality of frame sequences corresponding to a plurality of regions are included, a wide-area map including the plurality of regions is displayed, and a frame sequence of the region closest to the click position on the wide-area map can be selected. You may. In this case, first, a map of the area corresponding to the selected frame sequence is displayed, and thereafter, the frame corresponding to the click position is specified by the above-described procedure. If the range of the wide area map is too wide and a plurality of areas are candidates for the click position, a wide area map including the candidate areas (representing a smaller area than the immediately preceding wide area map) May be displayed to narrow down.
[0092]
<Fourth embodiment>
In the fourth embodiment, by specifying an arbitrary position on a map, an image corresponding to the position is displayed, or by specifying a plurality of section points on a map, an image corresponding to a path formed therebetween is displayed. A function for reproducing a plurality of images by moving image or frame by frame will be described. By doing so, a landscape image at an arbitrary position on the map can be reproduced. It is also possible to reproduce images in different directions (images of each camera) at the same point. The specification of the frame corresponding to the specified position on the map is as described above.
[0093]
FIG. 23 shows a user interface for realizing this function. Although some parts are basically similar to the user interface of FIG. 10, they can be used by appropriately switching according to the function to be executed.
[0094]
A map window 301 and an image data display unit 302 displayed on the screen are formed, and each operation is performed by operation buttons of the image data reproduction control unit 304.
[0095]
First, when
[0096]
Next, by clicking on an arbitrary position on the displayed map with a mouse or the like, a breakpoint is displayed at the designated position. In the same figure, the display is indicated by ○.
[0097]
When the segment point is specified and the reproduction button of the reproduction control unit 304 is clicked, an image linked to the segment point is displayed on the image data display unit.
[0098]
If a plurality of segment points are specified in advance, the path between the segment points is displayed (thick line in the figure), and the path is clicked with a mouse or the like to select it (the selected path changes color, etc.). , Display is changed), and when a play button is clicked, a plurality of images linked on the path are successively and sequentially reproduced, and a moving image can be reproduced. In addition, the direction in which the moving image is reproduced may be selected using the forward reproduction button and the reverse reproduction button.
[0099]
Further, if the frame advance button and the frame return button are used, the image on the selected path can be reproduced while being confirmed by the frame advance. During playback, the playback operation can be paused by the pause button.
[0100]
In addition, since the reproduced images to be displayed exist for each of the plurality of cameras, the direction of the reproduced image at each camera, that is, at each point, can be selected by operating the
[0101]
With the above system, a map of an arbitrary area can be displayed, and the scenery at an arbitrary position on the map can be confirmed with an image. This system can be used not only for simulation of changes in the scenery according to a map and a moving path, but also for car navigation and the like as a function for previously knowing the scenery, landmarks, and the like of a traveling route. Applicable.
[0102]
An object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and a computer (or CPU or MPU) of the system or apparatus to store the storage medium. It is needless to say that the present invention can also be achieved by reading and executing the program code stored in the program.
[0103]
In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
[0104]
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.
[0105]
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an OS (Operating System) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0106]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that a CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0107]
【The invention's effect】
As described above, according to the present invention, the operability of the operation relating to the association between the real image data and the position in the real space is improved.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a functional configuration of an image recording apparatus according to an embodiment.
FIG. 2 is a diagram illustrating a configuration example of an image data collection system for collecting image data stored in an image
FIG. 3 is a block diagram illustrating a configuration of a photographing
FIG. 4 is a block diagram showing a configuration of a
FIG. 5A is a block diagram showing a configuration of an A /
FIG. 5B is a diagram illustrating image data stored in an image data storage unit.
FIG. 6 is a block diagram illustrating a hardware configuration of the image recording apparatus according to the present embodiment.
FIG. 7 is a flowchart showing a processing procedure by an image /
FIG. 8 is a diagram showing a screen display example in a user interface for setting a section point and a road.
FIG. 9A is a diagram illustrating an example of registration of a breakpoint;
FIG. 9B is a diagram illustrating an example of registering a road.
FIG. 10 is a diagram showing a display example of a GUI screen displayed in step S3 for associating image data and map data according to the present embodiment.
FIG. 11 is a diagram showing a concept of obtaining a position where each image frame is captured by associating a map with image data.
FIG. 12 is a diagram illustrating an example of a recording format of link data stored in an association
FIG. 13 is a block diagram illustrating a configuration of an image collection system according to a second embodiment.
FIG. 14 is a diagram illustrating an example of a storage state of video data and position data (GPS measurement result data) in an image
FIG. 15 is a diagram showing a display state of a map data display unit 301 according to the second embodiment.
FIG. 16 is a flowchart illustrating a processing procedure according to the second embodiment.
FIG. 17 is a block diagram showing a functional configuration of a reproduction system of image data according to a third embodiment.
FIG. 18 is a diagram illustrating a display example according to the third embodiment.
FIG. 19 is a diagram illustrating a change in a traveling direction during image reproduction.
FIG. 20 is a flowchart illustrating an image reproduction process according to the third embodiment.
FIG. 21 is a flowchart showing a procedure for acquiring a frame to be reproduced from a designated position.
FIG. 22 is a flowchart showing another procedure for acquiring a frame to be reproduced from a designated position.
FIG. 23 is a diagram showing a display example according to the fourth embodiment.
Claims (5)
複数の撮像装置によって撮影された撮影画像を保存する撮影画像保存部と、
地図データを保存する地図データ保存部と、
ユーザの指示に基づき、前記地図データと前記撮影画像の対応づけを行う画像・地図対応づけ部とを備え、
前記画像・地図対応付け部は、
前記地図データに応じた地図画像表示と前記撮影画像に応じた画像表示とを行う操作画面を有し、前記画像表示は、前記複数の撮像装置によって撮影された撮影画像を同期をとって表示することを特徴とする画像処理装置。An image processing device for constructing a walkable virtual space using the captured image,
A captured image storage unit that stores captured images captured by a plurality of imaging devices,
A map data storage unit for storing map data,
An image-map associating unit that associates the map data with the captured image based on a user's instruction,
The image / map associating unit includes:
An operation screen for performing a map image display according to the map data and an image display according to the photographed image, wherein the image display synchronously displays photographed images photographed by the plurality of imaging devices. An image processing apparatus characterized by the above-mentioned.
地図データを保存する地図データ保存部より地図データを取得して表示する地図画像を表示し、複数の撮像装置によって撮影された撮影画像を保存する撮影画像保存部より撮影画像を取得して撮影画像を表示する操作画面を提供する提供工程と、
前記操作画面に対するユーザの指示に基づき、前記地図データと前記撮影画像の対応づけを行う画像・地図対応づけ工程とを備え、
前記操作画面における撮影画像の表示は、前記複数の撮像装置によって撮影された撮影画像を同期をとって表示することを特徴とする画像処理方法。An image processing method for constructing a walkable virtual space using a captured image,
A map image is obtained from a map data storage unit for storing map data, and a map image to be displayed is displayed. A providing step of providing an operation screen for displaying
An image / map associating step of associating the map data with the photographed image based on a user instruction on the operation screen,
The image processing method according to claim 1, wherein the display of the captured image on the operation screen includes displaying the captured images captured by the plurality of imaging devices in synchronization with each other.
地図データを保存する地図データ保存部より地図データを取得して表示する地図画像を表示し、複数の撮像装置によって撮影された撮影画像を保存する撮影画像保存部より撮影画像を取得して撮影画像を表示する操作画面を提供する提供工程と、
前記操作画面に対するユーザの指示に基づき、前記地図データと前記撮影画像の対応づけを行う画像・地図対応づけ工程とを備え、
前記操作画面における撮影画像の表示は、前記複数の撮像装置によって撮影された撮影画像を同期をとって表示することを特徴とする記録媒体。A recording medium storing a control program for causing a computer to execute an image processing method for constructing a walkable virtual space using a captured image, wherein the image processing method includes:
A map image is obtained from a map data storage unit for storing map data, and a map image to be displayed is displayed. A providing step of providing an operation screen for displaying
An image / map associating step of associating the map data with the photographed image based on a user instruction on the operation screen,
A recording medium according to claim 1, wherein the display of the captured image on the operation screen displays the captured images captured by the plurality of imaging devices in synchronization with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003162710A JP2004070929A (en) | 2003-06-06 | 2003-06-06 | Image processing device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003162710A JP2004070929A (en) | 2003-06-06 | 2003-06-06 | Image processing device and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001058466A Division JP2002258740A (en) | 2001-03-02 | 2001-03-02 | Method and device for recording picture and method and device for reproducing picture |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004070929A true JP2004070929A (en) | 2004-03-04 |
Family
ID=32025663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003162710A Pending JP2004070929A (en) | 2003-06-06 | 2003-06-06 | Image processing device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004070929A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012048523A (en) * | 2010-08-27 | 2012-03-08 | Toshiba Corp | Association device |
JP2013076701A (en) * | 2012-10-30 | 2013-04-25 | Pioneer Electronic Corp | Display control device, display control method, and program for display control device |
JP2014224822A (en) * | 2014-07-03 | 2014-12-04 | パイオニア株式会社 | Display control device, display control method, and program for display control device |
JP2015069445A (en) * | 2013-09-30 | 2015-04-13 | 大日本印刷株式会社 | Video output device, video output method, and program |
JP2019067416A (en) * | 2012-12-04 | 2019-04-25 | 任天堂株式会社 | Information processing system and display method |
-
2003
- 2003-06-06 JP JP2003162710A patent/JP2004070929A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012048523A (en) * | 2010-08-27 | 2012-03-08 | Toshiba Corp | Association device |
JP2013076701A (en) * | 2012-10-30 | 2013-04-25 | Pioneer Electronic Corp | Display control device, display control method, and program for display control device |
JP2019067416A (en) * | 2012-12-04 | 2019-04-25 | 任天堂株式会社 | Information processing system and display method |
JP2015069445A (en) * | 2013-09-30 | 2015-04-13 | 大日本印刷株式会社 | Video output device, video output method, and program |
JP2014224822A (en) * | 2014-07-03 | 2014-12-04 | パイオニア株式会社 | Display control device, display control method, and program for display control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7110592B2 (en) | Image recording apparatus, image reproducing apparatus and methods therefor | |
JP3432212B2 (en) | Image processing apparatus and method | |
US5768447A (en) | Method for indexing image information using a reference model | |
US9807354B2 (en) | Virtual image generating apparatus, virtual image generating method, and recording medium storing virtual image generating program | |
KR0184245B1 (en) | Electronic cameras and their playback devices | |
Tompkin et al. | Videoscapes: exploring sparse, unstructured video collections | |
JPH11259502A (en) | Image information display device | |
US20120262552A1 (en) | City scene video sharing on digital maps | |
JP2019125303A (en) | Information processing device, information processing method, and program | |
WO2013167157A1 (en) | Browsing and 3d navigation of sparse, unstructured digital video collections | |
JP2009200601A (en) | Video editing device and method | |
JP2004070929A (en) | Image processing device and method | |
JP4078080B2 (en) | Information processing apparatus and method | |
KR101059601B1 (en) | Method and apparatus for making interactive virtual movie | |
JPH11328433A (en) | Animation anchor setting device and animation hyper media device using the same device and system for serving animation | |
JPH10187759A (en) | Moving picture anchor displaying, selecting, and stetting device, moving picture hypermedia device using moving picture anchor, and moving picture provision system | |
JP2004062755A (en) | Image providing device and image processing method | |
JP3432213B2 (en) | Image reproducing apparatus and method | |
JP2013214158A (en) | Display image retrieval device, display control system, display control method, and program | |
JP4115121B2 (en) | Captured image processing system and image management system | |
JP3572025B2 (en) | Image reproducing apparatus, image processing apparatus and their methods | |
JP4109985B2 (en) | Video information display device | |
JP3527233B2 (en) | Video information display device | |
JP3450311B2 (en) | Video information display device | |
JP2006222901A (en) | Method and program for supporting moving picture reproduction, server device and computer system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060414 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090227 |