JP2004265396A - 映像生成システム及び映像生成方法 - Google Patents
映像生成システム及び映像生成方法 Download PDFInfo
- Publication number
- JP2004265396A JP2004265396A JP2004036616A JP2004036616A JP2004265396A JP 2004265396 A JP2004265396 A JP 2004265396A JP 2004036616 A JP2004036616 A JP 2004036616A JP 2004036616 A JP2004036616 A JP 2004036616A JP 2004265396 A JP2004265396 A JP 2004265396A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- traveling
- locus
- intersection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
【解決手段】 自動車10と、周方向の映像を撮影して画像データを出力するビデオカメラ30と、奥行き情報を出力するレーザーレンジスキャナ20と、コンピュータ40とを備え、コンピュータ40は、奥行き情報に基づいて所定時間ごとに周囲の物体の位置を特定し、特定された周囲の物体の位置に対して自動車10の走行軌跡Tを特定して走行軌跡T上の自動車10の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する処理と、画像データに基づいて所定時間ごとに走行軌跡T上から見た全周囲方向を表示するパノラマ画像Pnを生成する処理と、奥行き情報,位置情報,進行方向情報及びパノラマ画像に基づいて、ウォークスルーアニメーションを生成する処理を行う。
【選択図】 図2
Description
このウォークスルーアニメーションは、道案内や観光案内、美術館案内、不動産販売を始め、様々な分野で利用されている。例えば、観光案内等としては、仮想の3D都市空間である「デジタルシティ」中でバスツアーやドライブ等をウォークスルーアニメーションで体験できる。
また、2次元地図が3次元化され、これが自動車や歩行者等のためのナビゲーションシステムに利用されている。
また、不動産販売としては、ホームページ上でモデルルームや物件近隣の映像を立体的に観賞できるサービスが提供されている。このサービスでは、自在に画像を動かしてモデルルームにいるかのごとく物件を見学できる。また、最寄り駅から物件までの道程を画面で見ることができる。ユーザーは、このサービスにより物件付近の環境を一覧することが可能で、現地に行かなくとも周囲のイメージをつかむことができる。
一つ目は、モデル・ベースト・レンダリングと呼ばれる手法であり、物体の「立体形状」を入力して(モデリングして)いくものである。具体例には、ウォークスルーアニメーションやVRML、CAD、ゲームなどで3次元的な表現を作り出すために利用されている。
これを改善するために、仮想空間内の建物の側面に実際の写真をテクスチャーとして貼る等の手法が提案されている(例えば、特許文献2参照)。しかしこの手法では、テクスチャーの取得に時間や費用が多くかかるといった欠点がある。また、いかに技術が高度になっても、現実世界のリアリティを完全に再現することはできないため、実際にその場所の環境や雰囲気をよく知ることはできない。
つまり、この手法は、モデルを生成せずに、物体やシーンの見え方そのものを入力画像として記録・蓄積しておき、これらを再合成することで新しい画像を生成するものである。この手法では対象物体の形状や反射特性を考慮する必要がないため、モデル化が困難な物体に対しても適用することができ、実際の空間と略同程度のリアリティを得ることができる(例えば、特許文献3参照)。
例えば、物体の撮影地点からの奥行き情報を取得するために、ステレオマッチングによる情報取得方法がある。この方法では、まず元となる実写画像を車載型撮影システムにより実際に都市空間を撮影し取得する。さらに奥行き情報を得るために、GPSなどで得た位置・姿勢情報が既知の二画像から、エピポーラ拘束を利用した対応点マッチングを行い、ステレオマッチングの原理を利用して対応点の奥行き値を導出する方法をとる。そして大量の実写画像と奥行き情報をもとに、仮想空間の生成を行う。
実際、道路を走って取得された画像データ等から位置や奥行きを推定する処理を行なう場合、様々な環境要因によって正確な位置情報や奥行き情報を得ることはかなり難しいものとなっていた。
さらに交差点には、店舗や看板など価値ある情報を持った地物が多く存在しており、映像が急に切り替わるとこれらの情報を十分に把握できない可能性があるという問題があった。
本発明の他の目的は、交差点でのリアルな右左折映像や任意視点からの映像を、従来のように手間をかけることなく生成することが可能な、映像生成システム及び映像生成方法を提供することにある。
また、水平レーザーを用いることにより、測定点から建物等の物体までの奥行き距離を直接的に測定することができ、位置精度が向上する。
そして、本発明では、実際に撮影した映像と奥行き情報とを用いることによって、リアリティのあるウォークスルーアニメーションを生成することが可能となる。
より詳細には、前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点からの所定の視野角度範囲の映像を生成する任意視点映像生成処理処理を行い、該任意視点映像生成処理では、前記視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、該走行軌跡外部分画像を連結して走行軌跡外映像を生成するように構成することができる。
より詳細には、前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする。
さらに、交差点でのリアルな右左折映像や任意視点からの映像を、従来のように手間をかけることなく、リアルに再現することが可能となる。
図5から図9は奥行き情報の処理に関するものであり、図5は走行軌跡データ取得処理の流れ図、図6はレンジ画像の一例を示す説明図、図7はレンジ画像のデータ処理を説明する説明図、図8は走行軌跡画像の一例を示す説明図、図9は走行軌跡データの一例を示す説明図である。
図10から図15はパノラマ画像生成処理に関するものであり、図10はパノラマ画像生成処理の流れ図、図11は隣合う3台のビデオカメラによる画像の一例を示す説明図、図12はビデオカメラ画像の重複部分を削除する処理を説明する説明図、図13は重複部分を削除したビデオカメラ画像の一例を示す説明図、図14は隣合うビデオカメラ画像の端部の重複部分のヒストグラム、図15は8台のビデオカメラによる画像からパノラマ画像を生成する処理を説明する説明図である。
図19から図25は任意視点映像生成処理に関するものであり、図19は任意視点映像を生成する処理の説明図、図20は任意視点映像を生成する処理の流れ図、図21は任意視点映像を生成する処理の説明図、図22は任意視点映像を生成する処理の説明図、図23はパノラマ画像及びピクセルラインの説明図、図24は視点Pから見たピクセルラインの生成処理を説明する説明図、図25は生成されたピクセルラインの配置を示す説明図である。
図26から図37は具体例に係るものであり、図26は左折映像生成に使用した走行軌跡画像を示す説明図、図27は左折映像の一例を示す説明図、図28はフレームごとの移動パラメータを示す説明図、図29は右折映像生成に使用した走行軌跡画像を示す説明図、図30は右折映像の一例を示す説明図、図31はフレームごとの移動パラメータを示す説明図である。また、図32は任意視点映像生成に使用した走行軌跡画像を示す説明図、図33は任意視点映像生成に使用した走行軌跡データを示す説明図、図34から図37は任意視点の位置と任意視点からの画像を示す説明図である。
ビデオカメラ30およびレーザーレンジスキャナ20は、それぞれコンピュータ40に電気的に接続され、図2に示すように、ビデオカメラ30からは画像データ、レーザーレンジスキャナ20からは周囲の建物等の側面までの奥行き情報がコンピュータ40へ出力されるように構成されている。
また、微振動や縦揺れを軽減させるために、不図示の防振材がアングル台12と台座31との間に装着されている。本例では、防振材として、GELTEC社製インシュレータMN−5を使用している。この防振材はαゲルでできており、固有振動数が低く設定されているため低周波数域の防振が可能であり、上下左右全方向の防振が期待される。
このように配設されたビデオカメラ30は、地上からの高さがおよそ2.3mとなった。
このレーザーレンジスキャナ20により、奥行き情報、すなわち、センサー位置(レーザーレンジスキャナ20本体)と映像生成システムSの周囲にある対象物(建物)との間の距離情報およびこのときのレーザーの照射方位情報を継続的に取得することができる。そして、この奥行き情報から建物の側面形状を取得することが可能となる。
レーザーレンジスキャナ20で取得された奥行き情報は、レーザーヘッダが1回転する毎に1周期のデータとしてコンピュータ40へ出力される。コンピュータ40は、この奥行き情報を受信して、モニター表示したり、記憶部内に保存したりする。
CPUは、所定のプログラムにしたがって、データの表示や保存及び処理を行う。記憶部は、HDD,ROM,RAMから構成されている。ROMには、コンピュータシステムのハードウェア制御のための基本的な各種プログラムが格納されている。RAMは、コンピュータ制御のためのワークエリアとして機能するように構成されている。HDDには、オペレーティングプログラムや、各プログラム等の情報が格納されている。
このコンピュータ40は、後述するようにレーザーレンジスキャナ20やビデオカメラ30からのデータを取得して、各種のデータ処理を行なう。レーザーレンジスキャナ20からの奥行き情報は、時間ごとにスキャンライン番号が付されて記憶部に記憶される。ビデオカメラ30からの画像データは、時間ごとにフレーム番号が付されて記憶される。このスキャンライン番号とフレーム番号とは、所定の対応関係に関係付けられており、これにより奥行き情報と画像データを時間的に同調させている。
本例では、コンピュータ40は自動車10内に搭載される。ただし、コンピュータ40を自動車10とは別の場所に載置しておき、レーザーレンジスキャナ20やビデオカメラ30からのデータを無線や有線でコンピュータ40に出力したり、記憶媒体を介してコンピュータ40に提供するように構成してもよい。
本例では、ビデオカメラ30としてワイドコンバージョンレンズを備えたデジタルビデオカメラを使用している。また、本例では、360度全方向の映像を取得するために、8台の同じビデオカメラ30を45度ごとに放射状に配置して全方位カメラシステムを構築している。なお、本例では、動画映像を取得することができるビデオカメラ30を撮像手段(カメラ)として用いているが、これに限らず、撮像手段として静止画像を取得することができるカメラを用いてもよい。
ここで、8台のビデオカメラ30は、自動車10の真正面に向けられたものから時計方向にカメラ1,2,・・・8ということとする。
本例のビデオカメラ30の実測値に基づく画角は、縦34度、横46度である。また、ワイドコンバージョンレンズ装着時の画角は、縦46度、横60である。
また、台座31上には、レーザーレンジスキャナ20が、その中心と中心Oとが一致するように配設されている。
なお、本例では、ビデオカメラ30を8台構成としたが、これに限らず、周囲360°をカバーする映像が得られれば台数には限定されない。
x/r=sin(180°−θ/2)/sin((θ/2)−22.5°)
つまり、台座31の中心Oから約115cmの距離で隣合う2台のビデオカメラ30の映像が重複する。よって、本例では、台座31の中心Oから半径115cmの円内の物体は映像には写らないが、中心Oから半径115cmの円外であれば、360°全方向の物体を映像に記録できる。
8台のビデオカメラ30は、マニュアルモードで撮影条件を一定に設定して撮影を行うとよい。本例では、秒間30コマの高密度連続フレーム静止画記録を行った。
また、すべてのビデオカメラ30の明るさの設定は同一に固定した。
次に、レーザーレンジスキャナ20によって取得される奥行き情報の処理について説明する。図5は走行軌跡データ取得処理の手順である。
コンピュータ40では、レーザーレンジスキャナ20から1周期ごとの奥行き情報(レーザーレンジスキャナ20に対する相対的な方位における周囲の建物等の側面までの距離情報)を継続的に受信する。そして、コンピュータ40は、この奥行き情報を1周期ごとにスキャンライン番号Lnを付して各時間のデータとして記憶していく(ステップS1)。
コンピュータ40では、各スキャンライン番号Lnが付された奥行き情報ごとに、図6のようなレンジ画像を生成する処理を行う(ステップS2)。奥行き情報を平面上にプロットするとレンジ画像が得られる。レンジ画像には、建物の側面Wの形状が点の集合によって表わされる。また、中央部にある点は、レーザーレンジスキャナ20の中心位置を表わしている。これにより、レーザーレンジスキャナ20に対する周囲の建物等の位置が所定時間ごとに特定される。
そして、同図(C)に示すように、線分を抽出した画像の共通部分を重ねあわせる処理が行なわれる(ステップS4)。これは、線分の共通部分を認識して、線分が抽出された画像を縦方向及び横方向に移動させると共に、回転させることにより、直前のスキャンライン番号Lnの線分が抽出された画像に重ね合わせることにより行われる。
このとき、映像生成システムSは移動しているため、レンジ画像を重ね合わせるとレーザーレンジスキャナ20の中心位置は時間とともにずれた位置に現われる。これにより、映像生成システムSの移動した方向ベクトルが算出される。
コンピュータ40は、レンジ画像を重ね合わせる処理を行なうことによって、各スキャンライン番号Lnに対応する時点における映像生成システムSのX、Y座標(座標情報)および画像の回転角度を走行軌跡データとして生成し記憶する(ステップS5)。このようにして、周囲の建物等に対するレーザーレンジスキャナ20の走行軌跡上の位置情報及び進行方向情報(自動車10の正面方向)が得られる。図9に走行軌跡データの例を示す。
また、各スキャンライン番号Lnの奥行き情報から、各時点での走行軌跡T上における建物の側面との距離、道路幅等を求めることができる。
なお、座標情報は、計測開始時の映像生成システムSの位置を原点とした相対的なものとなる。
次に、図10に基づいてビデオカメラ30により取得された画像データから、360°全方向を表示するパノラマ画像Pnを生成する処理について説明する。この処理では、コンピュータ40により、8台のビデオカメラ30で取得した8つの映像を水平方向につなぎ合わせパノラマ画像が生成される。パノラマ画像とは、視点から見た周囲360°の映像を連続的につなぎ合わせたものである。
上述のように隣合うビデオカメラ30による撮像範囲は一部重複していること、及び、各ビデオカメラ30は、撮影の明るさに違いがあることから、各ビデオカメラ30で撮影した映像を単につなげただけでは、不自然な画像となってしまい綺麗なパノラマ画像を生成することができない。このため、パノラマ画像を生成する処理では、重複部分を削除する処理が行われる。
そして、図12に示すように各ビデオカメラ30による画像のうち重複しない画像部分にはマスク処理を行なう(ステップS12)。マスクがかけられる領域は、各画像の中心から所定のピクセル数の幅に設定されている。
そして、図13に示すようにマスクされた部分(マスク部分)に加えて、マスク部分の左右両側の数ピクセルを残して、両端の画像部分を削除して、使用する画像領域を抽出する処理が行われる(ステップS13)。本例では、画像領域を抽出処理で画像の両端から125ピクセルずつの領域を削除する処理が行われる。
このため、図14に示すように、抽出された画像のうち、隣合う画像と重複する両端の部分のヒストグラムが抽出される。一例としてカメラ8,カメラ1の重複する端部のヒストグラムを図14(A),(B)にそれぞれ示す。
そして、各画像から抽出したヒストグラムを平均する処理が行われる。図14(C)に平均化したヒストグラムを示す。そして、平均化したヒストグラムを元の画像にリサンプリングする処理が行われ、抽出された画像は明るさが調整される。
明るさが調節されると、8枚の画像を横方向につなぎ合わせる処理が行われる(ステップS15)。これにより、図15に示すような360°全方向のパノラマ画像Pnが生成される。なお、本例のパノラマ画像Pnは、進行方向(カメラ1の中心方向)を0度として、左右に180度づつの視野範囲の画像が広がっている。
そして、接合されたパノラマ画像Pnは、フレーム番号を付して記憶される(ステップS16)。
このようにして得られたパノラマ画像Pnは、隣合う画像との接合部分において明るさが調整されているため、ユーザーに違和感を生じさせることがない。
コンピュータ40では、すべてのフレーム番号に対して、ステップS11からS15の処理を行ない、パノラマ画像Pnを生成し、記憶部に記憶する。
ウォークスルーアニメーションは、以下の映像生成処理で述べるようにウォークスルーアニメーションの視点、すなわち時間と共に移動するユーザーの視点からの視線方向のパノラマ画像を切り取って合成することにより生成される。
すなわち、コンピュータ40には、ユーザーの視点の座標及び視野角度が入力され、各時間における視点の座標及び視野角度に対応するフレーム番号のパノラマ画像Pnが選択され、画像が合成される。
例えば、走行軌跡上に視点がある場合には、その視点の座標によりスキャンライン番号Ln及びフレーム番号が特定され、そのフレーム番号のパノラマ画像Pnが選択される。そして、その視点からの視線方向の画像、すなわちその視点からの視野角度で決定される範囲の画像部分がパノラマ画像Pnから切取られ、表示画像が生成される。このように生成された表示画像は、直接、コンピュータ40の表示部に表示させることができる。また、生成された表示画像を記憶部に記憶させておくこともできる。
また、視点が走行軌跡外にある場合等の処理については後述する。
次に、交差点右左折映像の生成処理について説明する。
この処理では、図16に示すように、映像生成システムSが交差点を縦方向に直進したときにビデオカメラ30によって得られた映像(パノラマ画像)と横方向に直進して得られた映像(パノラマ画像)から、交差点を曲がるときの映像が合成される。
このとき、縦方向に移動したときの軌跡を走行軌跡T1、横方向に移動したときの軌跡を走行軌跡T2とし、走行軌跡T1,T2は、図16のように交差点内で交差するものとする。
図17は、交差点右左折映像の生成手順を示すものである。
自動車は、走行軌跡T1上を移動し、交差点で左折し、さらに走行軌跡T2上を移動するものとする。
コンピュータ40は、走行軌跡T1,T2におけるパノラマ画像Pn及び走行軌跡データを読み出す(ステップS21)。このとき、走行軌跡T1,T2による走行軌跡データは、同じデータの異なる時間帯のデータであってもよいし、別々のデータではあるが原点位置及び方向を一致させたものであってもよい。
コンピュータ40は、図18(D)に示すように、レーザーレンジスキャナ20によって得られた縦方向の走行軌跡T1と横方向の走行軌跡T2を重ね合わせ、交差点での交点P4を求める。走行軌跡データの走行軌跡T1,T2での座標情報を参照して、交点P4が求められる。
また、コンピュータ40は、交点P4の座標から交点P4に対応するスキャンライン番号を縦方向走行時及び横方向走行時についてそれぞれ算出する。スキャンライン番号とフレーム番号とは、対応付けられているので、得られたスキャンライン番号をもとに、パノラマ画像Pnの縦方向走行時と横方向走行時のフレーム番号それぞれが求められる。
図18(A)のように自動車(ウォークスルーアニメーションの視点)が交差点の手前のP1地点(軌跡T1上)で直進しているとき、視線は矢印の方向つまり前面の直進方向を向いている。このため、この時にウォークスルーアニメーションに使用される表示画像は、走行軌跡T1からのパノラマ画像Pnのうちカメラ1による画像部分が切り取られたものとなる。
この方法によれば、右左折時に、画面が直進時の画面から急に右左折方向の画面に切り替わってしまうことがないので、ユーザーに違和感を与えることがないので好適である。
このように、本例の映像生成システムSによれば、ユーザーに違和感を生じさせることのない自然な右左折映像を含むウォークスルーアニメーションを生成することができる。
次に、任意視点映像生成処理について説明する。コンピュータ40は、生成したパノラマ画像とレーザーレンジスキャナ20による奥行き情報、走行軌跡データをもとに、自動車10の走行した軌跡以外の任意の視点から見える任意視点映像(走行軌跡外映像)を生成する処理を行う。
図19に任意視点映像生成の概念図を示す。図19に示すように、原点L0からの走行軌跡T上を映像生成システムSが移動してレーザーレンジスキャナ20による奥行き情報、ビデオカメラ30による画像データが取得されたものとする。そして、奥行き情報から走行軌跡Tの両側には建物の側面Wが測定される。ここで、走行軌跡T上以外の新たな視点をPとする。
次にそれぞれの対象スキャンライン番号Lnにおける交点L1,L2・・・について、建物の側面Wと視点Pまでの距離、建物の側面Wと走行軌跡T上の点までの距離を求める。
そして求められた2つの距離の比に応じて、各スキャンライン番号に対応する各フレーム番号において走行軌跡Tにおけるパノラマ画像Pnを拡大・縮小する処理が行われる。
最後に生成した画像を再構成し、新たな視点Pの画像が生成される。
図20は、任意視点映像を生成する手順を表している。
視点P(X,Y)において、進行方向を0度として視野角度θ1からθ2の範囲を見た場合に、視野角度θ1からθ2の範囲が視野領域である。
ここで、図21に示すように、交点L1,交点L2は、それぞれ視点Pから視野角度θ1,θ2だけ傾斜した方向へ向けて引いた直線と走行軌跡Tとの交点である。また、原点L0,交点L1,交点L2のそれぞれの座標を(0,0),(Xl1,Yl1),(Xl2,Yl2)とする。
図21に示すように視点P(X,Y)から走行軌跡Tに向かって垂線を引いた交点をL3とする。交点L3の座標は(X2,Y)である。コンピュータ40は、視点Pおよび走行軌跡データからX2を算出し、さらに視点Pと交点L3と間の距離Lx(=X−X2)を求める。
また、交点L3と交点L1との距離Ld1は、Ld1=Lx/tanθ1により算出され、交点L3と交点L2との距離Ld2は、Ld2=Lx/tanθ2により算出される。
さらに、交点L1のY座標(Yl1)は、Yl1=Y−Ld1により算出され、交点L2のY座標(Yl2)は、Yl2=Y−Ld2により算出される。これにより、走行軌跡T上の交点の座標範囲が算出される。
このようにして視野角度θ1からθ2まで、角度毎に対応する走行軌跡T上の交点が求められる。
各視線方向の拡大縮小率は、視点Pから対象物(この場合、建物の側面W)までの各視線方向の距離Dpと走行軌跡T上の点から対象物までの各視線方向の距離Dlとの比Zによって与えられる。
使用する範囲のスキャンライン番号Lnについて、対象物への対象角度θlnに対応する奥行き情報を読み出せば対象物までの距離Dlnが求まる。
しかし走行軌跡データは、スキャンライン番号Lnごとに各レンジ画像を回転させてつなぎ合わせることにより生成されているため、視野角度θ1からθ2までの角度に加えて画像の回転角度θrnを考慮する必要がある(図22参照)。なお、回転角度θrnは、スキャンライン番号Lnに対応する回転角度であって、測定時の進行方向に相当する。
そこで視野角度θ1からθ2までの各角度別に求めた対象スキャンライン番号Lnについて、走行軌跡データを参照して回転角度θrnを考慮すると、対象角度θlnは、θln=θn−θrnとなる。
距離Dpnは、スキャンライン番号Lnに対応して算出された距離Dlnから視点P(X,Y)と座標点(Xln,Yln)までの距離Dplnを引いたものに相当する。すなわち、Dpn=Dln−Dplnである。
そして、距離Dpnは、Dpn=Dln−Dplnによって算出される。
これにより各スキャンライン番号Lnについて、元の画像から新たな視点Pの画像を生成する際の画像の拡大縮小率(比Z)が求められ記憶される。
まず、スキャンライン番号Lnとパノラマ画像Pnのフレーム番号は同期させてあるので、スキャンライン番号Lnが決定されることによりコンピュータ40は使用するパノラマ画像Pnのフレーム番号を特定する。また、スキャンライン番号Lnに対応して、対象角度θlnを算出する。
図23に示すように、パノラマ画像Pnの幅をw、パノラマ画像Pnの中心の角度を0とすると、対象ピクセルラインInは、
In1=(π−θln)×w/2π・・(ピクセルライン始まり)
In2=(π−θln)×w/2π+w/2π・・(ピクセルライン終わり)
で表わされる。すなわち、スキャンライン番号Lnについては、パノラマ画像PnのIn1からIn2までのピクセル幅から構成される画像が使用される画像となる。
距離Dpnと距離Dlnとの距離の比Z、ピクセルラインInを使って画像を再構成する。
図24に示すように、各ピクセルラインInに距離の比Zを掛けることによって、画像が拡大縮小され、視点Pから見たピクセルラインIpnが角度ごとに生成される。ピクセルラインIpnは、走行軌跡外部分画像に相当する。
このようにして生成されたピクセルラインIpnは、比Zに応じてピクセルライン毎に大きさが異なる。そこで、図25に示すように、拡大した場合(比Zが1以上の場合)はもとの画像の縦の長さが基準にされ、もとの画像の縦の長さからはみ出る部分は削除される。なお、図25では理解の容易のため、一部のピクセルラインIpnを離散的に表示している。
一方、縮小した場合(比Zが1未満の場合)はすべてのピクセルラインの中から縦の長さが最小のピクセルラインが検索され、このピクセルラインの縦の長さが基準にされ、この長さからはみ出る部分は削除される。
そしてそれぞれその縦の長さから各ラインの中心ピクセルを割り出し、中心ピクセルを画像の縦方向の中央部に合わせるように各ラインの画像が並べられる。これにより、視点Pから見た画像(走行軌跡外映像)が生成される。
このように、本例の映像生成システムSによれば、走行軌跡T以外からの任意視点でのウォークスルーアニメーションを生成することができる。
そして、これらのデータをもとに、右左折映像生成処理や任意視点映像生成処理によって、リアリティのあるウォークスルーアニメーションを生成することができる。
映像の対象となった交差点は、東西および南北に延びる片道1車線(往復2車線)の道路が約90°に交差する交差点である。
まず、映像生成システムSによって、東西、南北に延びる各道路について、両方向から交差点を直進する映像(計4方向の直進映像)を取得すると共に、奥行き情報を取得した。
ここでは、交差位置での映像のフレーム番号は、北から南への直進映像では開始フレームから129フレーム目、西から東への直進映像では開始フレームから98フレーム目である。
また、北から南への直進映像,西から東への直進映像に基づいて、フレームごとにそれぞれパノラマ画像を生成した。
このうち、フレーム76までの画像は北から南への直進画像そのものである。フレーム77から交差時の1フレーム手前のフレーム128までは、北から南への直進画像の視点をずらして合成したものである。また、図中のフレーム98は、北から南への直進映像から、西から東への直進映像に切り換わったフレームである。これ以降は、西から東への直進映像のフレーム画像が用いられる。
対象となる交差点は、上記左折映像における交差点と同一である。この交差点において、北から南へ向かう直進映像と、東から西へ向かう直進映像を用いて、南北方向の道路を南下し、交差点で右折して東西方向の道路を西へ向かう映像を合成した。
ここでは、交差位置でのフレーム番号は、北から南への直進映像では開始フレームから139フレーム目、西から東への直進映像では開始フレームから119フレーム目である。
取得したデータから生成した右折映像を図30に示す。図30では、生成された右折映像を4フレームごとに表示している。
交差するまでは北から南への直進映像が用いられ、交差後は西から東への直進映像が用いられている。フレーム84までの画像は北から南への直進画像そのものである。フレーム85から交差時の1フレーム手前のフレーム138までは、北から南への直進画像の視点を右方向へ徐々にずらして合成したものである。そして、交差時には西から東への直進映像のフレーム119に切換えられる。これ以降は、西から東への直進映像のフレーム画像が用いられる。
従来は、リアリティのある右左折映像及び直進映像を取得するには、実際に1つの交差点あたり12回(右左折走行8回、直進走行4回)も走行しなければならなかった。しかし、本発明によれば、1つの交差点あたり計4回の直進走行のみで、どの方向の右左折映像も直進映像も取得できる。したがって、本発明によれば1/3の労力で右左折映像及び直進映像を取得することができるので、手間が掛からず、コストを低減することができる。
移動パラメータについては、曲がり始めは右折時と左折時において移動パラメータは同程度である。しかし、左側通行の場合は、中盤以降において右折時の方が左折時よりも大回りとなるので、右折時の方が左折時よりも移動パラメータが大きく設定されている。
上記の右左折映像を合成する時に用いた移動パラメータを使用することにより、他の交差点での右左折映像を合成する時にも適応することができる。特に左折時の場合は、交差点での曲がるルートが道路幅や車線数の違いに関係なくほぼ同じとなるため、移動パラメータを標準化することができる。また、右折時の場合や、交差点での道路の交差角度や車線数の多少に応じて、移動パラメータを適宜に設定することによって、その交差点にあった右左折映像を自動的に生成することができる。
まず、直線道路において映像生成システムSによって直進映像を取得すると共に、奥行き情報を取得した。
図32に走行軌跡画像を示す。これは、取得したデータのうちスキャンライン番号が720から780までの61スキャン分のデータを用いて生成されたものである。図中、走行軌跡はTで表わされている。
図33に各スキャンライン番号における走行軌跡T上の座標点の座標と回転角度θrnを示す。また、取得された映像をもとにパノラマ画像Pnを生成した。
ここでは新たな視点Pの座標として、走行軌跡T上の視点P15(0,25)を中心に左右にX座標を−3.5から+3.5までの範囲で移動させたP11(−3.5,25)、P12(−3,25)、P13(−2,25)、P14(−1,25)、P16(1,25)、P17(2,25)、P18(3,25)、P19(3.5,25)の9点を設定した。
また、図32に示すように各視点では、各視点からの画像の違いを見るために、視野角度θ1を75°,視野角度θ2を30°に固定して設定し、45°の角度範囲の画像を生成した。
視点P11,P12,P13,P14は、走行軌跡T(視点P15)よりもX座標方向左側へそれぞれ3.5,3,2,1だけ移動した点である。また、視点P16,P17,P18,P19は、走行軌跡T(視点P15)よりもX座標方向右側へそれぞれ1,2,3,3.5だけ移動した点である。
視点P15(0,25)から見た画像を図34(A)に示す。この画像は、視野角度θ1=75°,θ2=30°として、走行軌跡T上の視点P15におけるパノラマ画像のうちこれらの角度範囲の画像が切り出されたものである。
また、視点P16,P17から見た画像をそれぞれ図34(B),(C)に示す。視点P18,P19から見た画像をそれぞれ図35(A),(B)に示す。視点P14,P13から見た画像をそれぞれ図36(A),(B)に示す。視点P12,P11から見た画像をそれぞれ図37(A),(B)に示す。
また、視点P16から視点P19への移動は、視野角度の方向に直線的に移動しているのではなく、進行方向に対して90°の方向へ移動している。したがって、各視点からの画像は視点が右側へ移動するにつれて、画像の中心に向かって拡大されていくのではなく、画像が拡大され視野範囲が狭くなると共に、視野範囲は建物の向かって右側方向へと平行移動していく。
本発明の映像生成システムSでは、レーザーレンジスキャナ20を用いることにより、正確な位置情報や移動体軌跡が取得できる。すなわち、映像生成システムSでは、GPSやジャイロ等の他の位置測定装置を用いることがないので構成を簡単にすることができる。
そして、得られた位置情報に基づいて各視点からのパノラマ画像Pnや、視点の移動、交差点での右左折映像、進行方向変更映像等を生成することができる。
11 システムキャリア
12 アングル台
20 レーザーレンジスキャナ
30 ビデオカメラ
31 台座
40 コンピュータ
S 映像生成システム
Claims (8)
- 移動体と、該移動体に配設され該移動体の周方向の映像を撮影して画像データを出力するカメラと、前記移動体に配設され該移動体の周囲の物体との距離を表わす奥行き情報を出力する水平レーザーと、前記画像データ及び前記奥行き情報を処理するデータ処理装置と、を備え、
前記データ処理装置は、
前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する処理と、
前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する処理と、
前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、ウォークスルーアニメーションを生成する処理を行うことを特徴とする映像生成システム。 - 前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡から他方の走行軌跡へ進行方向を変更する映像を生成する交差点右左折映像生成処理を行い、
該交差点右左折映像生成処理では、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とすることを特徴とする請求項1に記載の映像生成システム。 - 前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点における映像を生成する任意視点映像生成処理を行なうことを特徴とする請求項1に記載の映像生成システム。
- 前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点からの所定の視野角度範囲の映像を生成する任意視点映像生成処理処理を行い、
該任意視点映像生成処理では、前記視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、
該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、
前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、
前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、
該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする請求項1に記載の映像生成システム。 - 全方位カメラで撮影位置の全周方向の画像データを取得する工程と、
周囲の物体との距離を測定する水平レーザーで該水平レーザーと周囲の物体との奥行き情報を取得する工程と、
前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する工程と、
前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する工程と、
前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいてウォークスルーアニメーションを生成する工程と、を備えたことを特徴とする映像生成方法。 - 前記ウォークスルーアニメーションを生成する工程では、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とする処理を行なうことを特徴とする請求項5に記載の映像生成方法。
- 前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点における映像を生成する処理を行なうことを特徴とする請求項5に記載の映像生成方法。
- 前記ウォークスルーアニメーションを生成する工程では、
前記走行軌跡外の視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、
該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、
前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、
前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、
該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする請求項5に記載の映像生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004036616A JP2004265396A (ja) | 2003-02-13 | 2004-02-13 | 映像生成システム及び映像生成方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003035776 | 2003-02-13 | ||
JP2004036616A JP2004265396A (ja) | 2003-02-13 | 2004-02-13 | 映像生成システム及び映像生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004265396A true JP2004265396A (ja) | 2004-09-24 |
Family
ID=33133961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004036616A Pending JP2004265396A (ja) | 2003-02-13 | 2004-02-13 | 映像生成システム及び映像生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004265396A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006082773A1 (ja) * | 2005-02-04 | 2006-08-10 | Iwate University | 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム |
JP2009511965A (ja) * | 2005-10-17 | 2009-03-19 | テレ アトラス ノース アメリカ インコーポレイテッド | 強化地図を生成する方法 |
JP2010507127A (ja) * | 2006-10-20 | 2010-03-04 | テレ アトラス ベスローテン フエンノートシャップ | 異なるソースの位置データをマッチングさせるためのコンピュータ装置及び方法 |
JP2011059121A (ja) * | 2010-10-01 | 2011-03-24 | Mitsubishi Electric Corp | 計測台車および基台 |
JP2013090257A (ja) * | 2011-10-21 | 2013-05-13 | Dainippon Printing Co Ltd | 自由視点映像表示装置 |
JP2013161133A (ja) * | 2012-02-01 | 2013-08-19 | Toshiba Plant Systems & Services Corp | 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法 |
JP2015056873A (ja) * | 2013-09-13 | 2015-03-23 | 株式会社ドッドウエル ビー・エム・エス | 映像表示機器及び映像表示方法 |
JP2016134651A (ja) * | 2015-01-15 | 2016-07-25 | 大日本印刷株式会社 | 撮影システム、編集装置、編集方法、及びプログラム |
WO2016157277A1 (ja) * | 2015-03-27 | 2016-10-06 | 株式会社日立製作所 | 走行環境抽象化映像作成方法及び装置 |
JP2017125790A (ja) * | 2016-01-15 | 2017-07-20 | 株式会社Ihi | 計測装置 |
WO2019050038A1 (ja) * | 2017-09-11 | 2019-03-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 画像生成方法および画像生成装置 |
KR20190048953A (ko) * | 2017-10-31 | 2019-05-09 | 현대자동차주식회사 | 차량의 헤딩 추정 장치 및 방법 |
US10510111B2 (en) | 2013-10-25 | 2019-12-17 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
JP2020004121A (ja) * | 2018-06-28 | 2020-01-09 | 大日本印刷株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020521955A (ja) * | 2017-05-15 | 2020-07-27 | アウスター インコーポレイテッド | 色によるパノラマlidar結果の増強 |
JP2020535407A (ja) * | 2017-09-28 | 2020-12-03 | ウェイモ エルエルシー | 同期スピニングlidarおよびローリングシャッターカメラシステム |
JP2021022912A (ja) * | 2019-07-30 | 2021-02-18 | 国立大学法人 東京大学 | 映像合成装置 |
US12266011B1 (en) | 2024-03-01 | 2025-04-01 | Appliance Computing III, Inc. | User interface for image-based rendering of virtual tours |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06124328A (ja) * | 1992-10-13 | 1994-05-06 | G T B:Kk | 画像表示装置 |
JPH09284809A (ja) * | 1996-04-18 | 1997-10-31 | Canon Inc | 画像処理装置及び画像処理方法 |
JPH10214069A (ja) * | 1997-01-29 | 1998-08-11 | Nippon Telegr & Teleph Corp <Ntt> | 映像統合装置 |
JP2000074669A (ja) * | 1998-08-28 | 2000-03-14 | Zenrin Co Ltd | 三次元地図データベースの作成方法及び装置 |
JP2000172337A (ja) * | 1998-12-07 | 2000-06-23 | Mitsubishi Electric Corp | 自律移動ロボット |
JP2001290820A (ja) * | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | 映像収集装置、映像検索装置および映像収集検索システム |
JP2002031528A (ja) * | 2000-07-14 | 2002-01-31 | Asia Air Survey Co Ltd | モービルマッピング用空間情報生成装置 |
JP2002269590A (ja) * | 2001-03-07 | 2002-09-20 | Mixed Reality Systems Laboratory Inc | 画像再生装置及び方法 |
JP2002269591A (ja) * | 2001-03-07 | 2002-09-20 | Mixed Reality Systems Laboratory Inc | 画像再生装置及び画像処理装置及び方法 |
JP2003006680A (ja) * | 2001-06-20 | 2003-01-10 | Zenrin Co Ltd | 3次元電子地図データの生成方法 |
-
2004
- 2004-02-13 JP JP2004036616A patent/JP2004265396A/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06124328A (ja) * | 1992-10-13 | 1994-05-06 | G T B:Kk | 画像表示装置 |
JPH09284809A (ja) * | 1996-04-18 | 1997-10-31 | Canon Inc | 画像処理装置及び画像処理方法 |
JPH10214069A (ja) * | 1997-01-29 | 1998-08-11 | Nippon Telegr & Teleph Corp <Ntt> | 映像統合装置 |
JP2000074669A (ja) * | 1998-08-28 | 2000-03-14 | Zenrin Co Ltd | 三次元地図データベースの作成方法及び装置 |
JP2000172337A (ja) * | 1998-12-07 | 2000-06-23 | Mitsubishi Electric Corp | 自律移動ロボット |
JP2001290820A (ja) * | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | 映像収集装置、映像検索装置および映像収集検索システム |
JP2002031528A (ja) * | 2000-07-14 | 2002-01-31 | Asia Air Survey Co Ltd | モービルマッピング用空間情報生成装置 |
JP2002269590A (ja) * | 2001-03-07 | 2002-09-20 | Mixed Reality Systems Laboratory Inc | 画像再生装置及び方法 |
JP2002269591A (ja) * | 2001-03-07 | 2002-09-20 | Mixed Reality Systems Laboratory Inc | 画像再生装置及び画像処理装置及び方法 |
JP2003006680A (ja) * | 2001-06-20 | 2003-01-10 | Zenrin Co Ltd | 3次元電子地図データの生成方法 |
Non-Patent Citations (1)
Title |
---|
遠藤隆明, 外3名: ""写実的な広域仮想空間構築のための画像補間手法"", 日本バーチャルリアリティ学会論文誌, vol. 第7巻, 第2号, JPN6009018890, 30 June 2002 (2002-06-30), JP, pages 185 - 192, ISSN: 0001304855 * |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006082773A1 (ja) * | 2005-02-04 | 2006-08-10 | Iwate University | 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム |
JP2009511965A (ja) * | 2005-10-17 | 2009-03-19 | テレ アトラス ノース アメリカ インコーポレイテッド | 強化地図を生成する方法 |
US8884962B2 (en) | 2006-10-20 | 2014-11-11 | Tomtom Global Content B.V. | Computer arrangement for and method of matching location data of different sources |
JP2010507127A (ja) * | 2006-10-20 | 2010-03-04 | テレ アトラス ベスローテン フエンノートシャップ | 異なるソースの位置データをマッチングさせるためのコンピュータ装置及び方法 |
JP2011059121A (ja) * | 2010-10-01 | 2011-03-24 | Mitsubishi Electric Corp | 計測台車および基台 |
JP2013090257A (ja) * | 2011-10-21 | 2013-05-13 | Dainippon Printing Co Ltd | 自由視点映像表示装置 |
JP2013161133A (ja) * | 2012-02-01 | 2013-08-19 | Toshiba Plant Systems & Services Corp | 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法 |
JP2015056873A (ja) * | 2013-09-13 | 2015-03-23 | 株式会社ドッドウエル ビー・エム・エス | 映像表示機器及び映像表示方法 |
US10592973B1 (en) | 2013-10-25 | 2020-03-17 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
US11948186B1 (en) | 2013-10-25 | 2024-04-02 | Appliance Computing III, Inc. | User interface for image-based rendering of virtual tours |
US11783409B1 (en) | 2013-10-25 | 2023-10-10 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
US11610256B1 (en) | 2013-10-25 | 2023-03-21 | Appliance Computing III, Inc. | User interface for image-based rendering of virtual tours |
US11449926B1 (en) | 2013-10-25 | 2022-09-20 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
US10510111B2 (en) | 2013-10-25 | 2019-12-17 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
US11062384B1 (en) | 2013-10-25 | 2021-07-13 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
JP2016134651A (ja) * | 2015-01-15 | 2016-07-25 | 大日本印刷株式会社 | 撮影システム、編集装置、編集方法、及びプログラム |
WO2016157277A1 (ja) * | 2015-03-27 | 2016-10-06 | 株式会社日立製作所 | 走行環境抽象化映像作成方法及び装置 |
JP2017125790A (ja) * | 2016-01-15 | 2017-07-20 | 株式会社Ihi | 計測装置 |
JP7534377B2 (ja) | 2017-05-15 | 2024-08-14 | アウスター インコーポレイテッド | 色によるパノラマlidar結果の増強 |
US12061261B2 (en) | 2017-05-15 | 2024-08-13 | Ouster, Inc. | Augmenting panoramic LIDAR results with color |
JP2020521955A (ja) * | 2017-05-15 | 2020-07-27 | アウスター インコーポレイテッド | 色によるパノラマlidar結果の増強 |
JP7189156B2 (ja) | 2017-05-15 | 2022-12-13 | アウスター インコーポレイテッド | 色によるパノラマlidar結果の増強 |
JP2023022237A (ja) * | 2017-05-15 | 2023-02-14 | アウスター インコーポレイテッド | 色によるパノラマlidar結果の増強 |
WO2019050038A1 (ja) * | 2017-09-11 | 2019-03-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 画像生成方法および画像生成装置 |
JPWO2019050038A1 (ja) * | 2017-09-11 | 2020-10-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像生成方法および画像生成装置 |
JP2020535407A (ja) * | 2017-09-28 | 2020-12-03 | ウェイモ エルエルシー | 同期スピニングlidarおよびローリングシャッターカメラシステム |
JP2021105611A (ja) * | 2017-09-28 | 2021-07-26 | ウェイモ エルエルシー | 同期スピニングlidarおよびローリングシャッターカメラシステム |
JP7146004B2 (ja) | 2017-09-28 | 2022-10-03 | ウェイモ エルエルシー | 同期スピニングlidarおよびローリングシャッターカメラシステム |
KR20190048953A (ko) * | 2017-10-31 | 2019-05-09 | 현대자동차주식회사 | 차량의 헤딩 추정 장치 및 방법 |
KR102406515B1 (ko) * | 2017-10-31 | 2022-06-10 | 현대자동차주식회사 | 차량의 헤딩 추정 장치 및 방법 |
JP7059829B2 (ja) | 2018-06-28 | 2022-04-26 | 大日本印刷株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020004121A (ja) * | 2018-06-28 | 2020-01-09 | 大日本印刷株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7480941B2 (ja) | 2019-07-30 | 2024-05-10 | 国立大学法人 東京大学 | 映像合成装置 |
JP2021022912A (ja) * | 2019-07-30 | 2021-02-18 | 国立大学法人 東京大学 | 映像合成装置 |
US12266011B1 (en) | 2024-03-01 | 2025-04-01 | Appliance Computing III, Inc. | User interface for image-based rendering of virtual tours |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4284644B2 (ja) | 3次元モデル構築システム及び3次元モデル構築プログラム | |
US10848732B2 (en) | Free viewpoint movement display device | |
US8531449B2 (en) | System and method for producing multi-angle views of an object-of-interest from images in an image dataset | |
JP5058364B2 (ja) | 俯瞰画像生成装置、俯瞰画像生成装置の俯瞰画像生成方法および俯瞰画像生成プログラム | |
JP5208203B2 (ja) | 死角表示装置 | |
JP3437555B2 (ja) | 特定点検出方法及び装置 | |
US20110211040A1 (en) | System and method for creating interactive panoramic walk-through applications | |
JP2004265396A (ja) | 映像生成システム及び映像生成方法 | |
JP2010533282A (ja) | 多視点パノラマを生成する方法及び装置 | |
Zhu et al. | Monocular 3d vehicle detection using uncalibrated traffic cameras through homography | |
JP2005056295A (ja) | 360度画像変換処理装置 | |
JP6616967B2 (ja) | 地図作成装置、および地図作成方法 | |
CN115641401A (zh) | 一种三维实景模型的构建方法及相关装置 | |
WO2018134897A1 (ja) | 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法 | |
JP2008128827A (ja) | ナビゲーション装置およびナビゲーション方法ならびにそのプログラム | |
JP4272966B2 (ja) | 3dcg合成装置 | |
JP6110780B2 (ja) | 付加情報表示システム | |
CN108447042B (zh) | 城市景观影像数据的融合方法及系统 | |
CN116978010A (zh) | 图像标注方法和装置、存储介质和电子设备 | |
JP4008686B2 (ja) | テクスチャ編集装置、テクスチャ編集システムおよび方法 | |
Zheng et al. | Scanning scene tunnel for city traversing | |
WO2009069165A2 (en) | Transition method between two three-dimensional geo-referenced maps | |
CN114004957B (zh) | 增强现实图片的生成方法、装置、设备和存储介质 | |
Zheng et al. | Scanning and rendering scene tunnels for virtual city traversing | |
JPH1132250A (ja) | 音声案内型景観ラベリング装置およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070122 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070323 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20081118 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20081118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090915 |