[go: up one dir, main page]

JP2004265396A - 映像生成システム及び映像生成方法 - Google Patents

映像生成システム及び映像生成方法 Download PDF

Info

Publication number
JP2004265396A
JP2004265396A JP2004036616A JP2004036616A JP2004265396A JP 2004265396 A JP2004265396 A JP 2004265396A JP 2004036616 A JP2004036616 A JP 2004036616A JP 2004036616 A JP2004036616 A JP 2004036616A JP 2004265396 A JP2004265396 A JP 2004265396A
Authority
JP
Japan
Prior art keywords
image
viewpoint
traveling
locus
intersection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004036616A
Other languages
English (en)
Inventor
Masashi Sasaki
政司 佐々木
Ryosuke Shibazaki
亮介 柴崎
Jun Kumagai
潤 熊谷
Tomoki Fujimoto
知己 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VINGO KK
Original Assignee
VINGO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VINGO KK filed Critical VINGO KK
Priority to JP2004036616A priority Critical patent/JP2004265396A/ja
Publication of JP2004265396A publication Critical patent/JP2004265396A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

【課題】 実写映像をもとに、簡単にリアリティのあるウォークスルーアニメーションの生成を可能とする映像生成システム及び映像生成方法を提供する。
【解決手段】 自動車10と、周方向の映像を撮影して画像データを出力するビデオカメラ30と、奥行き情報を出力するレーザーレンジスキャナ20と、コンピュータ40とを備え、コンピュータ40は、奥行き情報に基づいて所定時間ごとに周囲の物体の位置を特定し、特定された周囲の物体の位置に対して自動車10の走行軌跡Tを特定して走行軌跡T上の自動車10の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する処理と、画像データに基づいて所定時間ごとに走行軌跡T上から見た全周囲方向を表示するパノラマ画像Pnを生成する処理と、奥行き情報,位置情報,進行方向情報及びパノラマ画像に基づいて、ウォークスルーアニメーションを生成する処理を行う。
【選択図】 図2

Description

本発明は映像生成システム及び映像生成方法に係り、特に、実際のリアルさを実現したウォークスルーアニメーションを生成するための、映像生成システム及び映像生成方法に関する。
近年、実際の都市環境をコンピュータ内に仮想的に生成し、この仮想3次元都市空間をナビゲーションシステム、ゲーム、映画などに利用することが行われている。ユーザーは、この仮想3次元都市空間内を仮想的に移動することができ、ウォークスルーアニメーションによってあたかも実際の都市内で移動しているかのような体験をすることができる。
このウォークスルーアニメーションは、道案内や観光案内、美術館案内、不動産販売を始め、様々な分野で利用されている。例えば、観光案内等としては、仮想の3D都市空間である「デジタルシティ」中でバスツアーやドライブ等をウォークスルーアニメーションで体験できる。
また、2次元地図が3次元化され、これが自動車や歩行者等のためのナビゲーションシステムに利用されている。
また、美術館案内としては、ホームページ上において美術館のヴァーチャルツアーを行うサービスが提供されている。このサービスでは、ホームページ内で美術館内の所望の部屋を選択すると、部屋の中心から見た部屋内の360度にわたるパノラマ画像が表示され、ユーザーは各部屋に配置された美術作品を自由に見回すことができる。
また、不動産販売としては、ホームページ上でモデルルームや物件近隣の映像を立体的に観賞できるサービスが提供されている。このサービスでは、自在に画像を動かしてモデルルームにいるかのごとく物件を見学できる。また、最寄り駅から物件までの道程を画面で見ることができる。ユーザーは、このサービスにより物件付近の環境を一覧することが可能で、現地に行かなくとも周囲のイメージをつかむことができる。
上記のような仮想空間やウォークスルーアニメーションを生成するには、大きく2つの手法がある。
一つ目は、モデル・ベースト・レンダリングと呼ばれる手法であり、物体の「立体形状」を入力して(モデリングして)いくものである。具体例には、ウォークスルーアニメーションやVRML、CAD、ゲームなどで3次元的な表現を作り出すために利用されている。
2次元地図データを3次元化する場合には、立体形状を特定するために、実際に地物の高さ情報を取得する必要がある。この技術として、地物の映像を2方向から取得し、この映像及び位置情報から地物の高さを計算する技術が提案されている(例えば、特許文献1参照)。この技術では、効率よく地物の高さ情報を取得できるものの、広大な範囲にある地物について個々に高さ情報を計算するには非常な時間が掛かり、リアリティのある仮想3次元空間を形成するには手間が掛かるという問題があった。
また、上記モデル・ベースト・レンダリングは、非常に専門的な技術を要すると共に、実際の物体の表面形状や反射パラメータ等の光学特性の取得が困難であるという問題がある。すなわち、この手法では、光学特性として簡単な色と反射モデルが使用されることにより、実際の空間に比較して見栄えが乏しいという欠点がある。
これを改善するために、仮想空間内の建物の側面に実際の写真をテクスチャーとして貼る等の手法が提案されている(例えば、特許文献2参照)。しかしこの手法では、テクスチャーの取得に時間や費用が多くかかるといった欠点がある。また、いかに技術が高度になっても、現実世界のリアリティを完全に再現することはできないため、実際にその場所の環境や雰囲気をよく知ることはできない。
二つ目は、イメージ・ベースト・レンダリングという手法である。この手法は、写真や映像など現実世界を撮影した画像を大量に蓄積し、これらの実写画像を様々に加工・処理し再構築することで、撮影点以外の視点での映像をも作り出すという手法である。
つまり、この手法は、モデルを生成せずに、物体やシーンの見え方そのものを入力画像として記録・蓄積しておき、これらを再合成することで新しい画像を生成するものである。この手法では対象物体の形状や反射特性を考慮する必要がないため、モデル化が困難な物体に対しても適用することができ、実際の空間と略同程度のリアリティを得ることができる(例えば、特許文献3参照)。
このようなイメージ・ベースト・レンダリングを用いて広域空間を生成するには、大量の都市空間の実写画像と撮影された位置と方向、さらに実写画像内に映っている物体の撮影地点から奥行き情報が必要となる。
例えば、物体の撮影地点からの奥行き情報を取得するために、ステレオマッチングによる情報取得方法がある。この方法では、まず元となる実写画像を車載型撮影システムにより実際に都市空間を撮影し取得する。さらに奥行き情報を得るために、GPSなどで得た位置・姿勢情報が既知の二画像から、エピポーラ拘束を利用した対応点マッチングを行い、ステレオマッチングの原理を利用して対応点の奥行き値を導出する方法をとる。そして大量の実写画像と奥行き情報をもとに、仮想空間の生成を行う。
或いは、EPI解析により奥行き情報を取得する方法がある。この方法では、同様に車載型撮影システムを使用し、実写画像を取得する。そして、カメラと建物の間の距離である奥行き情報の推定には、EPI(Epipolar Plane Image)画像上の傾きを調べ、物体の奥行き情報を推定する手法を用いている。そして大量の実写画像と奥行き情報をもとに、光線空間という概念を用い、都市空間という広域環境をリアルに構築する。
特開2000−74669号公報(第4頁〜第8頁) 特開2003−6680号公報(第3頁〜第19頁) 特開平10−214069号公報(第4頁〜第10頁)
広域空間を対象とした既存技術では、このように撮影された画像の位置や方向は、GPSなどにより取得されている。しかし、GPSでの測位では、ビルの谷間など正確な位置を受信できない地域が多いという問題がある。
また、奥行き情報の取得には、主に得られた画像を処理することによって奥行き情報の推定が行われている。このような画像処理によって奥行き情報を得るためには、1.振動、ノイズ、光源環境の変化などの影響を受けるため正確な3次元情報を得ることが難しいこと、2.撮影経路は直線である必要性があること、3.カメラの速度が一定という条件があること、など問題が多い。
実際、道路を走って取得された画像データ等から位置や奥行きを推定する処理を行なう場合、様々な環境要因によって正確な位置情報や奥行き情報を得ることはかなり難しいものとなっていた。
また、従来のウォークスルーアニメーションでは、例えば、自動車等が交差点で右左折する場合、表示される映像は、現在走っている道路の映像から、いきなり曲がった後の道路の映像に切り替わっていた。このため、本当に曲がったのか、また右折したのか左折したのかどうかわからないという問題があった。
さらに交差点には、店舗や看板など価値ある情報を持った地物が多く存在しており、映像が急に切り替わるとこれらの情報を十分に把握できない可能性があるという問題があった。
これを解決するために、交差点(例えば十字路)で右左折するときの連続した映像をウォークスルーアニメーションで提供する場合、実際に取得しなければならない映像は、1つの交差点につき右左折×4方向と直進×(上下方向2直線+左右方向2直線)の合計12通り必要となり、非常に非効率的である。
本発明の目的は、実写映像をもとに映像処理によって広域空間を表現するイメージ・ベースト・レンダリングという手法を用いて、簡単にリアリティのあるウォークスルーアニメーションの生成を可能とする映像生成システム及び映像生成方法を提供することにある。
本発明の他の目的は、交差点でのリアルな右左折映像や任意視点からの映像を、従来のように手間をかけることなく生成することが可能な、映像生成システム及び映像生成方法を提供することにある。
前記課題は、本発明の映像生成システムによれば、移動体と、該移動体に配設され該移動体の周方向の映像を撮影して画像データを出力するカメラと、前記移動体に配設され該移動体の周囲の物体との距離を表わす奥行き情報を出力する水平レーザーと、前記画像データ及び前記奥行き情報を処理するデータ処理装置と、を備え、前記データ処理装置は、前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する処理と、前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する処理と、前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、ウォークスルーアニメーションを生成する処理を行うことにより解決される。
このように、本発明の映像生成システムによれば、移動体が移動した走行軌跡上の位置情報を、GPS等の測位機器を用いることなく、水平レーザーによって測定した奥行き情報から特定することができる。水平レーザーによれば、ビル等の谷間の位置においても正確な距離測定が可能である。
また、水平レーザーを用いることにより、測定点から建物等の物体までの奥行き距離を直接的に測定することができ、位置精度が向上する。
そして、本発明では、実際に撮影した映像と奥行き情報とを用いることによって、リアリティのあるウォークスルーアニメーションを生成することが可能となる。
また、前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡から他方の走行軌跡へ進行方向を変更する映像を生成する交差点右左折映像生成処理を行い、該交差点右左折映像生成処理では、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とすることを特徴とする。
このように、本発明では、交差する走行軌跡において、直進映像を取得するだけで、一方の走行軌跡から他方の走行軌跡へ曲がるときの自然なウォークスルーアニメーションを生成することができる。したがって、取得すべき映像が少なくて済むので、手間が掛からず、映像生成の時間やコストを大幅に削減することができる。
また、前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点における映像を生成する任意視点映像生成処理を行なうことを特徴とする。
より詳細には、前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点からの所定の視野角度範囲の映像を生成する任意視点映像生成処理処理を行い、該任意視点映像生成処理では、前記視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、該走行軌跡外部分画像を連結して走行軌跡外映像を生成するように構成することができる。
このように、本発明では、走行軌跡以外の視点からの映像を、走行軌跡からの映像を拡大・縮小および連結することにより生成することができる。これにより、見え方が自然であって、かつ、リアリティのある映像を生成することができる。
本発明の映像生成方法は、全方位カメラで撮影位置の全周方向の画像データを取得する工程と、周囲の物体との距離を測定する水平レーザーで該水平レーザーと周囲の物体との奥行き情報を取得する工程と、前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する工程と、前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する工程と、前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいてウォークスルーアニメーションを生成する工程と、を備えたことを特徴とする。
また、前記ウォークスルーアニメーションを生成する工程では、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とする処理を行なうことを特徴とする。
また、前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点における映像を生成する処理を行なうことを特徴とする。
より詳細には、前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする。
なお、本明細書において、アニメーションとは動画のことであり、より具体的には、実写映像からなる動画により、所定の場所を移動した場合と同じような表示を行なうことを意味するものである。
本発明によれば、車載カメラシステムによって取得した実写映像とレーザーレンジスキャナで取得した奥行き情報を用いることにより、簡単にリアリティのあるウォークスルーアニメーションの生成を可能とする映像生成システム及び映像生成方法を提供することができる。
さらに、交差点でのリアルな右左折映像や任意視点からの映像を、従来のように手間をかけることなく、リアルに再現することが可能となる。
以下、本発明の一実施の形態を図面に基づいて説明する。以下の説明では本発明に関わる映像生成システムや映像生成方法について説明しているが、この説明例において、本発明には、映像生成方法、これに関する映像生成システムに所定処理を行わせるためのプログラム、記憶媒体等も含まれることは勿論である。
図1から図37は、本発明の実施例に係るものであり、図1は映像生成システムの説明図、図2は映像生成システムの構成を表わす説明図、図3はビデオカメラ及びレーザーレンジスキャナの配置を表わす説明図、図4はビデオカメラによる映像重複距離の計算のための説明図である。
図5から図9は奥行き情報の処理に関するものであり、図5は走行軌跡データ取得処理の流れ図、図6はレンジ画像の一例を示す説明図、図7はレンジ画像のデータ処理を説明する説明図、図8は走行軌跡画像の一例を示す説明図、図9は走行軌跡データの一例を示す説明図である。
図10から図15はパノラマ画像生成処理に関するものであり、図10はパノラマ画像生成処理の流れ図、図11は隣合う3台のビデオカメラによる画像の一例を示す説明図、図12はビデオカメラ画像の重複部分を削除する処理を説明する説明図、図13は重複部分を削除したビデオカメラ画像の一例を示す説明図、図14は隣合うビデオカメラ画像の端部の重複部分のヒストグラム、図15は8台のビデオカメラによる画像からパノラマ画像を生成する処理を説明する説明図である。
図16から図18は右左折映像生成処理に関するものであり、図16は交差点における右左折映像を生成する処理の説明図、図17は交差点における右左折映像を生成する処理の流れ図、図18は交差点における左折映像を生成する処理の説明図である。
図19から図25は任意視点映像生成処理に関するものであり、図19は任意視点映像を生成する処理の説明図、図20は任意視点映像を生成する処理の流れ図、図21は任意視点映像を生成する処理の説明図、図22は任意視点映像を生成する処理の説明図、図23はパノラマ画像及びピクセルラインの説明図、図24は視点Pから見たピクセルラインの生成処理を説明する説明図、図25は生成されたピクセルラインの配置を示す説明図である。
図26から図37は具体例に係るものであり、図26は左折映像生成に使用した走行軌跡画像を示す説明図、図27は左折映像の一例を示す説明図、図28はフレームごとの移動パラメータを示す説明図、図29は右折映像生成に使用した走行軌跡画像を示す説明図、図30は右折映像の一例を示す説明図、図31はフレームごとの移動パラメータを示す説明図である。また、図32は任意視点映像生成に使用した走行軌跡画像を示す説明図、図33は任意視点映像生成に使用した走行軌跡データを示す説明図、図34から図37は任意視点の位置と任意視点からの画像を示す説明図である。
本発明の映像生成システムSは、図1に概略示すように、移動体としての自動車10と、この自動車10に載置される水平レーザーとしてのレーザーレンジスキャナ20と、ビデオカメラ30と、データ処理装置としてのコンピュータ40と、から構成されている。映像生成システムSは、自動車10により移動することができる。
ビデオカメラ30およびレーザーレンジスキャナ20は、それぞれコンピュータ40に電気的に接続され、図2に示すように、ビデオカメラ30からは画像データ、レーザーレンジスキャナ20からは周囲の建物等の側面までの奥行き情報がコンピュータ40へ出力されるように構成されている。
図1に示すように、自動車10のルーフには、システムキャリア11が固定され、このシステムキャリア11上に縦30cm、横30cm、高さ60cmのアングル台12が固定されている。そして、このアングル台12の上に、台座31が配設されている。そして、この台座31上には、レーザーレンジスキャナ20およびビデオカメラ30が取り付けられている。アングル台12は、ビデオカメラ30の位置を高くすることにより、システムキャリア11や車体がビデオカメラ30で撮影された映像に写ってしまうことを防ぐために設けられている。
また、微振動や縦揺れを軽減させるために、不図示の防振材がアングル台12と台座31との間に装着されている。本例では、防振材として、GELTEC社製インシュレータMN−5を使用している。この防振材はαゲルでできており、固有振動数が低く設定されているため低周波数域の防振が可能であり、上下左右全方向の防振が期待される。
このように配設されたビデオカメラ30は、地上からの高さがおよそ2.3mとなった。
レーザーレンジスキャナ20は、レーザーを水平方向に出射して映像生成システムSと建物等の対象物と間の奥行き情報(距離情報)を計測する。レーザーレンジスキャナ20としては、例えば、IBEO lasertechnik社製のLD−Aを用いることができる。レーザーレンジスキャナ20を用いることによって、建物などの対象物と撮影位置との距離を直接測定し、奥行き情報を取得することができる。したがって、レーザーレンジスキャナ20によれば、外部要因等に影響されることが少なく、撮影した画像から画像処理によって推定された奥行き情報よりも正確な奥行き情報を取得することができる。
レーザーヘッダはsingle−row方式であり、1秒間で20回転(1回転は300度)するように構成されている。最大計測距離は70mであり、レーザーヘッダの1回転で480のレンジポイントを計測することができる。すなわち、70m先にある対象物を約25cmのポイント間隔で測定することができる。計測誤差は3cmである。
このレーザーレンジスキャナ20により、奥行き情報、すなわち、センサー位置(レーザーレンジスキャナ20本体)と映像生成システムSの周囲にある対象物(建物)との間の距離情報およびこのときのレーザーの照射方位情報を継続的に取得することができる。そして、この奥行き情報から建物の側面形状を取得することが可能となる。
レーザーレンジスキャナ20で取得された奥行き情報は、レーザーヘッダが1回転する毎に1周期のデータとしてコンピュータ40へ出力される。コンピュータ40は、この奥行き情報を受信して、モニター表示したり、記憶部内に保存したりする。
コンピュータ40は、CPU、入力部、出力部、記憶部、表示部等を備えており、必要であれば、通信制御部を備えた構成とされる。
CPUは、所定のプログラムにしたがって、データの表示や保存及び処理を行う。記憶部は、HDD,ROM,RAMから構成されている。ROMには、コンピュータシステムのハードウェア制御のための基本的な各種プログラムが格納されている。RAMは、コンピュータ制御のためのワークエリアとして機能するように構成されている。HDDには、オペレーティングプログラムや、各プログラム等の情報が格納されている。
このコンピュータ40は、後述するようにレーザーレンジスキャナ20やビデオカメラ30からのデータを取得して、各種のデータ処理を行なう。レーザーレンジスキャナ20からの奥行き情報は、時間ごとにスキャンライン番号が付されて記憶部に記憶される。ビデオカメラ30からの画像データは、時間ごとにフレーム番号が付されて記憶される。このスキャンライン番号とフレーム番号とは、所定の対応関係に関係付けられており、これにより奥行き情報と画像データを時間的に同調させている。
本例では、コンピュータ40は自動車10内に搭載される。ただし、コンピュータ40を自動車10とは別の場所に載置しておき、レーザーレンジスキャナ20やビデオカメラ30からのデータを無線や有線でコンピュータ40に出力したり、記憶媒体を介してコンピュータ40に提供するように構成してもよい。
ビデオカメラ30は、全方位カメラシステムを構成し、自動車10の全周囲方向360度にわたって映像を取得し、取得したデジタルデータをコンピュータ40へ出力する。
本例では、ビデオカメラ30としてワイドコンバージョンレンズを備えたデジタルビデオカメラを使用している。また、本例では、360度全方向の映像を取得するために、8台の同じビデオカメラ30を45度ごとに放射状に配置して全方位カメラシステムを構築している。なお、本例では、動画映像を取得することができるビデオカメラ30を撮像手段(カメラ)として用いているが、これに限らず、撮像手段として静止画像を取得することができるカメラを用いてもよい。
ここで、8台のビデオカメラ30は、自動車10の真正面に向けられたものから時計方向にカメラ1,2,・・・8ということとする。
本例のビデオカメラ30の実測値に基づく画角は、縦34度、横46度である。また、ワイドコンバージョンレンズ装着時の画角は、縦46度、横60である。
8台のビデオカメラ30は、図3に示すように、八角形のプレート状の台座31上に放射状に互いに等角度間隔となるよう配設されている。台座31は、一辺55cmの正方形のプレートの4つ角を切り落とした正八角形に形成されている。すなわちビデオカメラ30は、レンズの中心が円の中心Oから円周上に45°ずつ等間隔になるように配置される。このとき、ビデオカメラ30は、円の中心Oからレンズの位置までの半径が最短距離となるように配設されている。中心Oからビデオカメラ30のレンズの位置までの距離は、約30cmである。
また、台座31上には、レーザーレンジスキャナ20が、その中心と中心Oとが一致するように配設されている。
なお、本例では、ビデオカメラ30を8台構成としたが、これに限らず、周囲360°をカバーする映像が得られれば台数には限定されない。
図4に示すように、ビデオカメラ30の水平方向(横方向)の画角をθ、中心Oからビデオカメラのレンズ位置までの距離をr、中心0から隣合う2台のビデオカメラ30の映像が重なる位置までの距離をXとすると、これらの関係は以下のようになる。
x/r=sin(180°−θ/2)/sin((θ/2)−22.5°)
本例のビデオカメラ30の画角(コンバージョンレンズ装着時)は60°、台座31の中心Oからビデオカメラ30のレンズまでの距離は30cmであるから、上式より中心Oから映像が重複する位置までの距離rは約115cmと算出される。
つまり、台座31の中心Oから約115cmの距離で隣合う2台のビデオカメラ30の映像が重複する。よって、本例では、台座31の中心Oから半径115cmの円内の物体は映像には写らないが、中心Oから半径115cmの円外であれば、360°全方向の物体を映像に記録できる。
8台のビデオカメラ30は、マニュアルモードで撮影条件を一定に設定して撮影を行うとよい。本例では、秒間30コマの高密度連続フレーム静止画記録を行った。
また、すべてのビデオカメラ30の明るさの設定は同一に固定した。
(奥行き情報の処理)
次に、レーザーレンジスキャナ20によって取得される奥行き情報の処理について説明する。図5は走行軌跡データ取得処理の手順である。
コンピュータ40では、レーザーレンジスキャナ20から1周期ごとの奥行き情報(レーザーレンジスキャナ20に対する相対的な方位における周囲の建物等の側面までの距離情報)を継続的に受信する。そして、コンピュータ40は、この奥行き情報を1周期ごとにスキャンライン番号Lnを付して各時間のデータとして記憶していく(ステップS1)。
コンピュータ40では、各スキャンライン番号Lnが付された奥行き情報ごとに、図6のようなレンジ画像を生成する処理を行う(ステップS2)。奥行き情報を平面上にプロットするとレンジ画像が得られる。レンジ画像には、建物の側面Wの形状が点の集合によって表わされる。また、中央部にある点は、レーザーレンジスキャナ20の中心位置を表わしている。これにより、レーザーレンジスキャナ20に対する周囲の建物等の位置が所定時間ごとに特定される。
図7(A)は、複数のスキャンライン番号Lnに対応するレンジ画像が重ね合わされたものである。コンピュータ40は、スキャンライン番号Lnごとにレンジ画像から線分を抽出する処理を行う(ステップS3)。この処理により同図(B)の画像が生成される。
そして、同図(C)に示すように、線分を抽出した画像の共通部分を重ねあわせる処理が行なわれる(ステップS4)。これは、線分の共通部分を認識して、線分が抽出された画像を縦方向及び横方向に移動させると共に、回転させることにより、直前のスキャンライン番号Lnの線分が抽出された画像に重ね合わせることにより行われる。
このとき、映像生成システムSは移動しているため、レンジ画像を重ね合わせるとレーザーレンジスキャナ20の中心位置は時間とともにずれた位置に現われる。これにより、映像生成システムSの移動した方向ベクトルが算出される。
このようにして、各スキャンライン番号Lnのレンジ画像を同様の手順で重ね合わせて行くことにより、図8に示すような走行軌跡画像を得ることができる。図中、Tは映像生成システムSが移動した走行軌跡を表わしている。このように、特定された周囲の物体の位置に対する移動体10の移動軌跡を特定することができる。
コンピュータ40は、レンジ画像を重ね合わせる処理を行なうことによって、各スキャンライン番号Lnに対応する時点における映像生成システムSのX、Y座標(座標情報)および画像の回転角度を走行軌跡データとして生成し記憶する(ステップS5)。このようにして、周囲の建物等に対するレーザーレンジスキャナ20の走行軌跡上の位置情報及び進行方向情報(自動車10の正面方向)が得られる。図9に走行軌跡データの例を示す。
また、各スキャンライン番号Lnの奥行き情報から、各時点での走行軌跡T上における建物の側面との距離、道路幅等を求めることができる。
なお、座標情報は、計測開始時の映像生成システムSの位置を原点とした相対的なものとなる。
(パノラマ画像の生成処理)
次に、図10に基づいてビデオカメラ30により取得された画像データから、360°全方向を表示するパノラマ画像Pnを生成する処理について説明する。この処理では、コンピュータ40により、8台のビデオカメラ30で取得した8つの映像を水平方向につなぎ合わせパノラマ画像が生成される。パノラマ画像とは、視点から見た周囲360°の映像を連続的につなぎ合わせたものである。
ビデオカメラ30で撮影された画像は、本例の場合、図11に示されるような640×480ピクセルの画像であり、フレーム番号が付されてコンピュータ40の記憶部に記憶される。なお、図中、カメラ1,カメラ8,カメラ2は、それぞれ自動車10の真正面,左45°,右45°を撮影するビデオカメラ30による画像である。また、図示していないが、本例の場合は、カメラ1〜8の8枚の画像が各フレーム番号に対応して得られている。
上述のように隣合うビデオカメラ30による撮像範囲は一部重複していること、及び、各ビデオカメラ30は、撮影の明るさに違いがあることから、各ビデオカメラ30で撮影した映像を単につなげただけでは、不自然な画像となってしまい綺麗なパノラマ画像を生成することができない。このため、パノラマ画像を生成する処理では、重複部分を削除する処理が行われる。
まず、コンピュータ40は、記憶部からフレーム番号ごとに図11に示すような8枚の画像を読み出す処理を行なう(ステップS11)。
そして、図12に示すように各ビデオカメラ30による画像のうち重複しない画像部分にはマスク処理を行なう(ステップS12)。マスクがかけられる領域は、各画像の中心から所定のピクセル数の幅に設定されている。
そして、図13に示すようにマスクされた部分(マスク部分)に加えて、マスク部分の左右両側の数ピクセルを残して、両端の画像部分を削除して、使用する画像領域を抽出する処理が行われる(ステップS13)。本例では、画像領域を抽出処理で画像の両端から125ピクセルずつの領域を削除する処理が行われる。
次に各ビデオカメラ30の画像の明るさを調節する処理が行なわれる(ステップS14)。
このため、図14に示すように、抽出された画像のうち、隣合う画像と重複する両端の部分のヒストグラムが抽出される。一例としてカメラ8,カメラ1の重複する端部のヒストグラムを図14(A),(B)にそれぞれ示す。
そして、各画像から抽出したヒストグラムを平均する処理が行われる。図14(C)に平均化したヒストグラムを示す。そして、平均化したヒストグラムを元の画像にリサンプリングする処理が行われ、抽出された画像は明るさが調整される。
明るさが調節されると、8枚の画像を横方向につなぎ合わせる処理が行われる(ステップS15)。これにより、図15に示すような360°全方向のパノラマ画像Pnが生成される。なお、本例のパノラマ画像Pnは、進行方向(カメラ1の中心方向)を0度として、左右に180度づつの視野範囲の画像が広がっている。
そして、接合されたパノラマ画像Pnは、フレーム番号を付して記憶される(ステップS16)。
このようにして得られたパノラマ画像Pnは、隣合う画像との接合部分において明るさが調整されているため、ユーザーに違和感を生じさせることがない。
コンピュータ40では、すべてのフレーム番号に対して、ステップS11からS15の処理を行ない、パノラマ画像Pnを生成し、記憶部に記憶する。
以上のようにして生成された走行軌跡データ、パノラマ画像Pn等からウォークスルーアニメーションが生成される。
ウォークスルーアニメーションは、以下の映像生成処理で述べるようにウォークスルーアニメーションの視点、すなわち時間と共に移動するユーザーの視点からの視線方向のパノラマ画像を切り取って合成することにより生成される。
すなわち、コンピュータ40には、ユーザーの視点の座標及び視野角度が入力され、各時間における視点の座標及び視野角度に対応するフレーム番号のパノラマ画像Pnが選択され、画像が合成される。
例えば、走行軌跡上に視点がある場合には、その視点の座標によりスキャンライン番号Ln及びフレーム番号が特定され、そのフレーム番号のパノラマ画像Pnが選択される。そして、その視点からの視線方向の画像、すなわちその視点からの視野角度で決定される範囲の画像部分がパノラマ画像Pnから切取られ、表示画像が生成される。このように生成された表示画像は、直接、コンピュータ40の表示部に表示させることができる。また、生成された表示画像を記憶部に記憶させておくこともできる。
また、視点が走行軌跡外にある場合等の処理については後述する。
(交差点右左折映像生成処理)
次に、交差点右左折映像の生成処理について説明する。
この処理では、図16に示すように、映像生成システムSが交差点を縦方向に直進したときにビデオカメラ30によって得られた映像(パノラマ画像)と横方向に直進して得られた映像(パノラマ画像)から、交差点を曲がるときの映像が合成される。
このとき、縦方向に移動したときの軌跡を走行軌跡T1、横方向に移動したときの軌跡を走行軌跡T2とし、走行軌跡T1,T2は、図16のように交差点内で交差するものとする。
以下に2本の道路が直交する交差点を左折するときの映像を生成する処理を例にとって説明する。
図17は、交差点右左折映像の生成手順を示すものである。
自動車は、走行軌跡T1上を移動し、交差点で左折し、さらに走行軌跡T2上を移動するものとする。
コンピュータ40は、走行軌跡T1,T2におけるパノラマ画像Pn及び走行軌跡データを読み出す(ステップS21)。このとき、走行軌跡T1,T2による走行軌跡データは、同じデータの異なる時間帯のデータであってもよいし、別々のデータではあるが原点位置及び方向を一致させたものであってもよい。
次に、交差時のフレーム番号を決定する処理が行われる(ステップS22)。
コンピュータ40は、図18(D)に示すように、レーザーレンジスキャナ20によって得られた縦方向の走行軌跡T1と横方向の走行軌跡T2を重ね合わせ、交差点での交点P4を求める。走行軌跡データの走行軌跡T1,T2での座標情報を参照して、交点P4が求められる。
また、コンピュータ40は、交点P4の座標から交点P4に対応するスキャンライン番号を縦方向走行時及び横方向走行時についてそれぞれ算出する。スキャンライン番号とフレーム番号とは、対応付けられているので、得られたスキャンライン番号をもとに、パノラマ画像Pnの縦方向走行時と横方向走行時のフレーム番号それぞれが求められる。
次に、パノラマ画像Pnを合成する処理が行われる(ステップS23)。
図18(A)のように自動車(ウォークスルーアニメーションの視点)が交差点の手前のP1地点(軌跡T1上)で直進しているとき、視線は矢印の方向つまり前面の直進方向を向いている。このため、この時にウォークスルーアニメーションに使用される表示画像は、走行軌跡T1からのパノラマ画像Pnのうちカメラ1による画像部分が切り取られたものとなる。
図18(B)のように自動車が交差点に近くなると、左折しているように見えるように、走行軌跡T1からのパノラマ画像Pnのうち視点を所定量だけ左側へ移動させた画像部分が切取られて使用される。具体的には、パノラマ画像Pnを表示画面に対して左から右に移動させていく。言い換えると表示画面を左に移動させる。そして徐々にカメラ1中心の画像から、カメラ1とカメラ8の画像から合成した画像が切り出されて表示される。
図18(C)のように自動車が交差点内に進入していくと、さらに視点を左側へ移動させていく。つまり走行軌跡T1からのパノラマ画像Pnのうち、さらに視点を左側へ移動させた画像部分が切取られて使用される。つまり、表示画面に対して左から右にさらにパノラマ画像Pnを移動させる。言い換えると表示画面をさらに左へ移動させ、カメラ8とカメラ7の画像から合成した画像が切り出されて表示される。このように、交点P4に近づくにつれて表示される画像は、カメラ7を中心とした画像に近づいていくことになる。
図18(D)のように自動車が交点P4では、縦方向走行時(走行軌跡T1)のカメラ7(左90°)の画像と横方向走行時(走行軌跡T2)のカメラ1(前面)の画像は一致する。そこで交点P4に達したとき、縦方向走行によって得られたパノラマ画像Pn(画像中心はカメラ7)は、横方向走行によって得られたパノラマ画像Pn(画像中心はカメラ1)に置き換えられる。このとき、フレーム番号が切り替えられる。これにより、縦方向走行時に得られた画像と、横方向走行時に得られた画像とをユーザーに違和感を与えることなく、切り替えることができる。
最後に、以上の生成した画像がつなぎ合わされて、交差点を左折する映像(ウォークスルーアニメーション)が合成される。これにより、実際に交差点で曲がることなく直進映像を取得するだけで、交差点において4方向から進入した場合の右折・左折動画をそれぞれ作り出すことが可能となる。
この方法によれば、右左折時に、画面が直進時の画面から急に右左折方向の画面に切り替わってしまうことがないので、ユーザーに違和感を与えることがないので好適である。
このように、本例の映像生成システムSによれば、ユーザーに違和感を生じさせることのない自然な右左折映像を含むウォークスルーアニメーションを生成することができる。
また、次述する任意視点映像生成処理を組合せて、設定した移動パラメータにより視点を移動させた画像を生成することができる。視点移動及び進行方向映像は、交差点動画のときと同様に、奥行き情報から移動体の位置、道路幅などを測定し、その位置情報をもとにパノラマ画像を移動、拡大、縮小することによって合成することができる。
(任意視点映像生成処理)
次に、任意視点映像生成処理について説明する。コンピュータ40は、生成したパノラマ画像とレーザーレンジスキャナ20による奥行き情報、走行軌跡データをもとに、自動車10の走行した軌跡以外の任意の視点から見える任意視点映像(走行軌跡外映像)を生成する処理を行う。
図19に任意視点映像生成の概念図を示す。図19に示すように、原点L0からの走行軌跡T上を映像生成システムSが移動してレーザーレンジスキャナ20による奥行き情報、ビデオカメラ30による画像データが取得されたものとする。そして、奥行き情報から走行軌跡Tの両側には建物の側面Wが測定される。ここで、走行軌跡T上以外の新たな視点をPとする。
任意視点映像生成処理の概略は、まず、視点Pからの視線ベクトルV1,V2・・・と同じ方向であって視点Pを向くベクトルをもった走行軌跡T上の範囲を特定し、この範囲のデータを有するスキャンライン番号Lnの範囲を算出する。
次にそれぞれの対象スキャンライン番号Lnにおける交点L1,L2・・・について、建物の側面Wと視点Pまでの距離、建物の側面Wと走行軌跡T上の点までの距離を求める。
そして求められた2つの距離の比に応じて、各スキャンライン番号に対応する各フレーム番号において走行軌跡Tにおけるパノラマ画像Pnを拡大・縮小する処理が行われる。
最後に生成した画像を再構成し、新たな視点Pの画像が生成される。
図20は、任意視点映像を生成する手順を表している。
任意視点映像生成処理では、データ入力処理として、視点Pの座標(X,Y)、対象物の視野領域を決定する視野角度θ1,θ2がコンピュータ40に与えられ、記憶されている走行軌跡データ及びパノラマ画像Pnが読み込まれる(ステップS31)。
次に、対象物の視野領域から視点Pへの延長線と走行軌跡Tとの交点を計算する処理が行われる(ステップS32)。
視点P(X,Y)において、進行方向を0度として視野角度θ1からθ2の範囲を見た場合に、視野角度θ1からθ2の範囲が視野領域である。
ここで、図21に示すように、交点L1,交点L2は、それぞれ視点Pから視野角度θ1,θ2だけ傾斜した方向へ向けて引いた直線と走行軌跡Tとの交点である。また、原点L0,交点L1,交点L2のそれぞれの座標を(0,0),(Xl1,Yl1),(Xl2,Yl2)とする。
図21に示すように視点P(X,Y)から走行軌跡Tに向かって垂線を引いた交点をL3とする。交点L3の座標は(X2,Y)である。コンピュータ40は、視点Pおよび走行軌跡データからX2を算出し、さらに視点Pと交点L3と間の距離Lx(=X−X2)を求める。
また、交点L3と交点L1との距離Ld1は、Ld1=Lx/tanθ1により算出され、交点L3と交点L2との距離Ld2は、Ld2=Lx/tanθ2により算出される。
さらに、交点L1のY座標(Yl1)は、Yl1=Y−Ld1により算出され、交点L2のY座標(Yl2)は、Yl2=Y−Ld2により算出される。これにより、走行軌跡T上の交点の座標範囲が算出される。
このようにして視野角度θ1からθ2まで、角度毎に対応する走行軌跡T上の交点が求められる。
次に、使用すべきデータのスキャンライン番号Lnの範囲を特定する処理が行われる(ステップS33)。ここでは、角度毎に対応する走行軌跡T上のY座標と走行軌跡データのスキャンライン番号Lnに対応するY座標とを照らし合わせる処理が行なわれ、角度毎に最も近いY座標を有するスキャンライン番号Lnが決定される。
次に、視点Pからの画像を得るために、各対象スキャンライン番号Lnに対応する走行軌跡T上の点からの画像を拡大縮小するための拡大縮小率を求める処理が行なわれる(ステップS34)。
各視線方向の拡大縮小率は、視点Pから対象物(この場合、建物の側面W)までの各視線方向の距離Dpと走行軌跡T上の点から対象物までの各視線方向の距離Dlとの比Zによって与えられる。
図22に示すように、対象スキャンライン番号Lnに対応する座標点(Xln,Yln)から対象物までの距離Dlnは、その実測値がレーザーレンジスキャナ20によってすでに取得され、奥行き情報として記憶されている。図中、交点L1,L2に対応するθ1方向,θ2方向の対象物の側面Wの位置をそれぞれW1,W2としている。
使用する範囲のスキャンライン番号Lnについて、対象物への対象角度θlnに対応する奥行き情報を読み出せば対象物までの距離Dlnが求まる。
しかし走行軌跡データは、スキャンライン番号Lnごとに各レンジ画像を回転させてつなぎ合わせることにより生成されているため、視野角度θ1からθ2までの角度に加えて画像の回転角度θrnを考慮する必要がある(図22参照)。なお、回転角度θrnは、スキャンライン番号Lnに対応する回転角度であって、測定時の進行方向に相当する。
そこで視野角度θ1からθ2までの各角度別に求めた対象スキャンライン番号Lnについて、走行軌跡データを参照して回転角度θrnを考慮すると、対象角度θlnは、θln=θn−θrnとなる。
したがって、各スキャンライン番号Lnにおける奥行き情報のうち、角度θlnに対応する距離情報が対象物までの視線方向の距離Dlnに該当する。コンピュータ40は、角度θlnに対応するデータを読み出して、距離Dlnとして記憶する。
また、視点Pから対象物までの視線方向の距離Dpnを算出する処理が行なわれる。
距離Dpnは、スキャンライン番号Lnに対応して算出された距離Dlnから視点P(X,Y)と座標点(Xln,Yln)までの距離Dplnを引いたものに相当する。すなわち、Dpn=Dln−Dplnである。
まず、距離Dplnを算出する処理では、各スキャンライン番号Lnの座標点(Xln,Yln)が走行軌跡データから読み出され、視点P(X,Y)と座標点L(Xln,Yln)との2点間の距離が計算される。すなわち、距離Dplnは、Dpln=sqrt{(X−Xln)+(Y−Yln)}によって算出される。
そして、距離Dpnは、Dpn=Dln−Dplnによって算出される。
視点P(X,Y)から対象物までの視線方向の距離Dpnとスキャンライン番号Lnの座標点から対象物までの距離Dlnとの距離の比Zは、Z=Dpn/Dlnにより算出される。
これにより各スキャンライン番号Lnについて、元の画像から新たな視点Pの画像を生成する際の画像の拡大縮小率(比Z)が求められ記憶される。
次に、使用される画像の領域を決定する処理が行なわれる(ステップS35)。
まず、スキャンライン番号Lnとパノラマ画像Pnのフレーム番号は同期させてあるので、スキャンライン番号Lnが決定されることによりコンピュータ40は使用するパノラマ画像Pnのフレーム番号を特定する。また、スキャンライン番号Lnに対応して、対象角度θlnを算出する。
図23に示すように、パノラマ画像Pnの幅をw、パノラマ画像Pnの中心の角度を0とすると、対象ピクセルラインInは、
In1=(π−θln)×w/2π・・(ピクセルライン始まり)
In2=(π−θln)×w/2π+w/2π・・(ピクセルライン終わり)
で表わされる。すなわち、スキャンライン番号Lnについては、パノラマ画像PnのIn1からIn2までのピクセル幅から構成される画像が使用される画像となる。
次に、画像の再構成処理として、画像の拡大縮小化処理が行なわれる(ステップS36)。
距離Dpnと距離Dlnとの距離の比Z、ピクセルラインInを使って画像を再構成する。
図24に示すように、各ピクセルラインInに距離の比Zを掛けることによって、画像が拡大縮小され、視点Pから見たピクセルラインIpnが角度ごとに生成される。ピクセルラインIpnは、走行軌跡外部分画像に相当する。
さらに、画像の再構成処理として、画像の配置処理が行なわれる(ステップS37)。
このようにして生成されたピクセルラインIpnは、比Zに応じてピクセルライン毎に大きさが異なる。そこで、図25に示すように、拡大した場合(比Zが1以上の場合)はもとの画像の縦の長さが基準にされ、もとの画像の縦の長さからはみ出る部分は削除される。なお、図25では理解の容易のため、一部のピクセルラインIpnを離散的に表示している。
一方、縮小した場合(比Zが1未満の場合)はすべてのピクセルラインの中から縦の長さが最小のピクセルラインが検索され、このピクセルラインの縦の長さが基準にされ、この長さからはみ出る部分は削除される。
そしてそれぞれその縦の長さから各ラインの中心ピクセルを割り出し、中心ピクセルを画像の縦方向の中央部に合わせるように各ラインの画像が並べられる。これにより、視点Pから見た画像(走行軌跡外映像)が生成される。
このように、本例の映像生成システムSによれば、走行軌跡T以外からの任意視点でのウォークスルーアニメーションを生成することができる。
以上のように、本例の映像生成システムSによれば、レーザーレンジスキャナ20から得られた奥行き情報をもとに正確な走行軌跡データ及び位置情報を算出し、ビデオカメラ30から得られた画像データをもとに周囲360°にわたるパノラマ画像Pnを生成することができる。
そして、これらのデータをもとに、右左折映像生成処理や任意視点映像生成処理によって、リアリティのあるウォークスルーアニメーションを生成することができる。
次に、本例のシステムにより生成された走行画像の具体例を示す。まず、交差点での左折映像の具体例を示す。
映像の対象となった交差点は、東西および南北に延びる片道1車線(往復2車線)の道路が約90°に交差する交差点である。
まず、映像生成システムSによって、東西、南北に延びる各道路について、両方向から交差点を直進する映像(計4方向の直進映像)を取得すると共に、奥行き情報を取得した。
これらの映像等のデータに基づき、南北方向の道路を南下し、交差点で左折して東西方向の道路を東へ向かう映像を合成した。このとき用いた映像は、南北方向の道路を北から南へ向かう直進映像と、東西方向の道路を西から東へ向かう直進映像である。
レーザーレンジスキャナ20によって取得された走行軌跡画像を図26に示す。走行軌跡データから、北から南へ直進した時と西から東へ直進した時の交差位置、及び交差した時の映像のフレーム番号が求められる。
ここでは、交差位置での映像のフレーム番号は、北から南への直進映像では開始フレームから129フレーム目、西から東への直進映像では開始フレームから98フレーム目である。
また、北から南への直進映像,西から東への直進映像に基づいて、フレームごとにそれぞれパノラマ画像を生成した。
さらに、これらのデータから左折映像を合成した。図27は、生成された左折映像を4フレームごとに表示したものである。
このうち、フレーム76までの画像は北から南への直進画像そのものである。フレーム77から交差時の1フレーム手前のフレーム128までは、北から南への直進画像の視点をずらして合成したものである。また、図中のフレーム98は、北から南への直進映像から、西から東への直進映像に切り換わったフレームである。これ以降は、西から東への直進映像のフレーム画像が用いられる。
また、交差点付近において実際に映像を取得した軌跡よりも内側(左側)の軌跡を通過するように、視点を左側へ徐々に移動させて左折画像を生成した。視点の移動量を表す移動パラメータの値を図28に示す。
次に、交差点での右折映像の具体例を示す。
対象となる交差点は、上記左折映像における交差点と同一である。この交差点において、北から南へ向かう直進映像と、東から西へ向かう直進映像を用いて、南北方向の道路を南下し、交差点で右折して東西方向の道路を西へ向かう映像を合成した。
レーザーレンジスキャナ20によって取得した走行軌跡画像を図29に示す。この走行軌跡画像に基づいて、北から南へ直進した時と東から西へ直進した時の交差位置と交差した時の映像のフレーム番号が算出される。
ここでは、交差位置でのフレーム番号は、北から南への直進映像では開始フレームから139フレーム目、西から東への直進映像では開始フレームから119フレーム目である。
取得したデータから生成した右折映像を図30に示す。図30では、生成された右折映像を4フレームごとに表示している。
交差するまでは北から南への直進映像が用いられ、交差後は西から東への直進映像が用いられている。フレーム84までの画像は北から南への直進画像そのものである。フレーム85から交差時の1フレーム手前のフレーム138までは、北から南への直進画像の視点を右方向へ徐々にずらして合成したものである。そして、交差時には西から東への直進映像のフレーム119に切換えられる。これ以降は、西から東への直進映像のフレーム画像が用いられる。
また、交差点付近において実際に映像を取得した走行軌跡よりも内側(右側)の走行軌跡を通過するように、視点を右側へ徐々に移動させて右折画像を生成した。その時の移動パラメータの値を図31に示す。
以上のように、パノラマ画像Pnと走行軌跡データをもとに、交差フレーム番号を算出してパノラマ画像Pnを合成することにより交差点での右左折映像を自動的に合成することができる。
従来は、リアリティのある右左折映像及び直進映像を取得するには、実際に1つの交差点あたり12回(右左折走行8回、直進走行4回)も走行しなければならなかった。しかし、本発明によれば、1つの交差点あたり計4回の直進走行のみで、どの方向の右左折映像も直進映像も取得できる。したがって、本発明によれば1/3の労力で右左折映像及び直進映像を取得することができるので、手間が掛からず、コストを低減することができる。
さらに、移動パラメータにより、交差点でのよりリアリティのある右左折映像を得ることができる。
移動パラメータについては、曲がり始めは右折時と左折時において移動パラメータは同程度である。しかし、左側通行の場合は、中盤以降において右折時の方が左折時よりも大回りとなるので、右折時の方が左折時よりも移動パラメータが大きく設定されている。
上記の右左折映像を合成する時に用いた移動パラメータを使用することにより、他の交差点での右左折映像を合成する時にも適応することができる。特に左折時の場合は、交差点での曲がるルートが道路幅や車線数の違いに関係なくほぼ同じとなるため、移動パラメータを標準化することができる。また、右折時の場合や、交差点での道路の交差角度や車線数の多少に応じて、移動パラメータを適宜に設定することによって、その交差点にあった右左折映像を自動的に生成することができる。
次に、任意視点映像の具体例を示す。
まず、直線道路において映像生成システムSによって直進映像を取得すると共に、奥行き情報を取得した。
図32に走行軌跡画像を示す。これは、取得したデータのうちスキャンライン番号が720から780までの61スキャン分のデータを用いて生成されたものである。図中、走行軌跡はTで表わされている。
図33に各スキャンライン番号における走行軌跡T上の座標点の座標と回転角度θrnを示す。また、取得された映像をもとにパノラマ画像Pnを生成した。
このような走行軌跡データとパノラマ画像Pnを使って新たな視点から見た画像を生成する。
ここでは新たな視点Pの座標として、走行軌跡T上の視点P15(0,25)を中心に左右にX座標を−3.5から+3.5までの範囲で移動させたP11(−3.5,25)、P12(−3,25)、P13(−2,25)、P14(−1,25)、P16(1,25)、P17(2,25)、P18(3,25)、P19(3.5,25)の9点を設定した。
また、図32に示すように各視点では、各視点からの画像の違いを見るために、視野角度θ1を75°,視野角度θ2を30°に固定して設定し、45°の角度範囲の画像を生成した。
視点P11,P12,P13,P14は、走行軌跡T(視点P15)よりもX座標方向左側へそれぞれ3.5,3,2,1だけ移動した点である。また、視点P16,P17,P18,P19は、走行軌跡T(視点P15)よりもX座標方向右側へそれぞれ1,2,3,3.5だけ移動した点である。
図34乃至図37に、このような設定のもとに生成された各視点からの画像を示す。これらの図は見易さのため線図で表わしてある。
視点P15(0,25)から見た画像を図34(A)に示す。この画像は、視野角度θ1=75°,θ2=30°として、走行軌跡T上の視点P15におけるパノラマ画像のうちこれらの角度範囲の画像が切り出されたものである。
また、視点P16,P17から見た画像をそれぞれ図34(B),(C)に示す。視点P18,P19から見た画像をそれぞれ図35(A),(B)に示す。視点P14,P13から見た画像をそれぞれ図36(A),(B)に示す。視点P12,P11から見た画像をそれぞれ図37(A),(B)に示す。
走行軌跡T上の視点P15からの画像と各視点からの画像を比較すると、視点P16から視点P19方向へ右側に移動するにつれ、対象物の見える範囲が狭くなってきており、右側の建物の壁に向かって近づいているように見える。
また、視点P16から視点P19への移動は、視野角度の方向に直線的に移動しているのではなく、進行方向に対して90°の方向へ移動している。したがって、各視点からの画像は視点が右側へ移動するにつれて、画像の中心に向かって拡大されていくのではなく、画像が拡大され視野範囲が狭くなると共に、視野範囲は建物の向かって右側方向へと平行移動していく。
一方、走行軌跡T上の視点P15から左側へ移動していくと、視点P11に移動するにつれ、視野範囲が広がっており、建物の壁から遠ざかっているように見える。すなわち、視点P13から視点P19では建物の前にある木は視野範囲に含まれておらず、画像には映っていない。しかし、視点P11及び視点P12では、視野範囲が広がって視野範囲内に木が含まれ、画像に映しだされている。
このようにビデオカメラ30により撮影された画像データをもとに生成されたパノラマ画像Pnと、レーザーレンジスキャナ20により取得された奥行き情報をもとに生成された走行軌跡データを用いて、走行軌跡T以外の任意の視点から見た画像を合成できる。
本発明の映像生成システムSでは、レーザーレンジスキャナ20を用いることにより、正確な位置情報や移動体軌跡が取得できる。すなわち、映像生成システムSでは、GPSやジャイロ等の他の位置測定装置を用いることがないので構成を簡単にすることができる。
そして、得られた位置情報に基づいて各視点からのパノラマ画像Pnや、視点の移動、交差点での右左折映像、進行方向変更映像等を生成することができる。
そして、走行軌跡T以外の走行ルートの座標と視野角度を設定し、画像を生成していくことにより、自由移動が可能であってリアリティのある自然なウォークスルーアニメーションを生成することができる。
映像生成システムの説明図である。 映像生成システムの構成を表わす説明図である。 ビデオカメラ及びレーザーレンジスキャナの配置を表わす説明図である。 ビデオカメラによる映像重複距離の計算のための説明図である。 走行軌跡データ取得処理の流れ図である。 レンジ画像の一例を示す説明図である。 レンジ画像のデータ処理を説明する説明図である。 走行軌跡画像の一例を示す説明図である。 走行軌跡データの一例を示す説明図である。 パノラマ画像生成処理の流れ図である。 隣合う3台のビデオカメラによる画像の一例を示す説明図である。 ビデオカメラ画像の重複部分を削除する処理を説明する説明図である。 重複部分を削除したビデオカメラ画像の一例を示す説明図である。 隣合うビデオカメラ画像の端部の重複部分のヒストグラムである。 8台のビデオカメラによる画像からパノラマ画像を生成する処理を説明する説明図である。 交差点における右左折映像を生成する処理の説明図である。 交差点における右左折映像を生成する処理の流れ図である。 交差点における左折映像を生成する処理の説明図である。 任意視点映像を生成する処理の説明図である。 任意視点映像を生成する処理の流れ図である。 任意視点映像を生成する処理の説明図である。 任意視点映像を生成する処理の説明図である。 パノラマ画像及びピクセルラインの説明図である。 視点Pから見たピクセルラインの生成処理を説明する説明図である。 生成されたピクセルラインの配置を示す説明図である。 左折映像生成に使用した走行軌跡画像を示す説明図である。 左折映像の一例を示す説明図である。 フレームごとの移動パラメータを示す説明図である。 右折映像生成に使用した走行軌跡画像を示す説明図である。 右折映像の一例を示す説明図である。 フレームごとの移動パラメータを示す説明図である。 任意視点映像生成に使用した走行軌跡画像を示す説明図である。 任意視点映像生成に使用した走行軌跡データを示す説明図である。 任意視点の位置と任意視点からの画像を示す説明図である。 任意視点の位置と任意視点からの画像を示す説明図である。 任意視点の位置と任意視点からの画像を示す説明図である。 任意視点の位置と任意視点からの画像を示す説明図である。
符号の説明
10 自動車
11 システムキャリア
12 アングル台
20 レーザーレンジスキャナ
30 ビデオカメラ
31 台座
40 コンピュータ
S 映像生成システム

Claims (8)

  1. 移動体と、該移動体に配設され該移動体の周方向の映像を撮影して画像データを出力するカメラと、前記移動体に配設され該移動体の周囲の物体との距離を表わす奥行き情報を出力する水平レーザーと、前記画像データ及び前記奥行き情報を処理するデータ処理装置と、を備え、
    前記データ処理装置は、
    前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する処理と、
    前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する処理と、
    前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、ウォークスルーアニメーションを生成する処理を行うことを特徴とする映像生成システム。
  2. 前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡から他方の走行軌跡へ進行方向を変更する映像を生成する交差点右左折映像生成処理を行い、
    該交差点右左折映像生成処理では、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とすることを特徴とする請求項1に記載の映像生成システム。
  3. 前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点における映像を生成する任意視点映像生成処理を行なうことを特徴とする請求項1に記載の映像生成システム。
  4. 前記データ処理装置は、前記ウォークスルーアニメーションを生成する処理において、前記走行軌跡外の視点からの所定の視野角度範囲の映像を生成する任意視点映像生成処理処理を行い、
    該任意視点映像生成処理では、前記視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、
    該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、
    前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、
    前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、
    該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする請求項1に記載の映像生成システム。
  5. 全方位カメラで撮影位置の全周方向の画像データを取得する工程と、
    周囲の物体との距離を測定する水平レーザーで該水平レーザーと周囲の物体との奥行き情報を取得する工程と、
    前記奥行き情報に基づいて所定時間ごとに前記移動体に対する周囲の物体の位置を特定し、該特定された周囲の物体の位置に対して前記移動体が移動した走行軌跡を特定して該走行軌跡上の前記移動体の位置を表わす位置情報及び進行方向を表わす進行方向情報を算出する工程と、
    前記画像データに基づいて所定時間ごとに前記走行軌跡上から見た全周囲方向を表示するパノラマ画像を生成する工程と、
    前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいてウォークスルーアニメーションを生成する工程と、を備えたことを特徴とする映像生成方法。
  6. 前記ウォークスルーアニメーションを生成する工程では、互いに交差する走行軌跡における前記奥行き情報,前記位置情報,前記進行方向情報及び前記パノラマ画像に基づいて、一方の走行軌跡における前記ウォークスルーアニメーションの視点が前記走行軌跡の交差する点に近づくにつれて、前記一方の走行軌跡におけるパノラマ画像のうち進行方向から周方向に視線をずらした部分を前記ウォークスルーアニメーションの表示画像とする処理を行なうことを特徴とする請求項5に記載の映像生成方法。
  7. 前記ウォークスルーアニメーションを生成する工程では、前記走行軌跡外の視点における映像を生成する処理を行なうことを特徴とする請求項5に記載の映像生成方法。
  8. 前記ウォークスルーアニメーションを生成する工程では、
    前記走行軌跡外の視点から前記視野角度範囲内の各角度方向に引いた直線と前記走行軌跡とが交差する各交点を特定し、
    該各交点における前記パノラマ画像のうち、前記視点を含む画像部分を切り出し、
    前記各交点から前記各角度方向にある周囲の物体までの距離と前記視点から前記各角度方向にある周囲の物体までの距離とを前記奥行き情報に基づいて算出すると共にこれらの距離の比を算出し、
    前記画像部分を、前記比によって拡大又は縮小して走行軌跡外部分画像を生成し、
    該走行軌跡外部分画像を連結して走行軌跡外映像を生成することを特徴とする請求項5に記載の映像生成方法。
JP2004036616A 2003-02-13 2004-02-13 映像生成システム及び映像生成方法 Pending JP2004265396A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004036616A JP2004265396A (ja) 2003-02-13 2004-02-13 映像生成システム及び映像生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003035776 2003-02-13
JP2004036616A JP2004265396A (ja) 2003-02-13 2004-02-13 映像生成システム及び映像生成方法

Publications (1)

Publication Number Publication Date
JP2004265396A true JP2004265396A (ja) 2004-09-24

Family

ID=33133961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004036616A Pending JP2004265396A (ja) 2003-02-13 2004-02-13 映像生成システム及び映像生成方法

Country Status (1)

Country Link
JP (1) JP2004265396A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006082773A1 (ja) * 2005-02-04 2006-08-10 Iwate University 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム
JP2009511965A (ja) * 2005-10-17 2009-03-19 テレ アトラス ノース アメリカ インコーポレイテッド 強化地図を生成する方法
JP2010507127A (ja) * 2006-10-20 2010-03-04 テレ アトラス ベスローテン フエンノートシャップ 異なるソースの位置データをマッチングさせるためのコンピュータ装置及び方法
JP2011059121A (ja) * 2010-10-01 2011-03-24 Mitsubishi Electric Corp 計測台車および基台
JP2013090257A (ja) * 2011-10-21 2013-05-13 Dainippon Printing Co Ltd 自由視点映像表示装置
JP2013161133A (ja) * 2012-02-01 2013-08-19 Toshiba Plant Systems & Services Corp 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法
JP2015056873A (ja) * 2013-09-13 2015-03-23 株式会社ドッドウエル ビー・エム・エス 映像表示機器及び映像表示方法
JP2016134651A (ja) * 2015-01-15 2016-07-25 大日本印刷株式会社 撮影システム、編集装置、編集方法、及びプログラム
WO2016157277A1 (ja) * 2015-03-27 2016-10-06 株式会社日立製作所 走行環境抽象化映像作成方法及び装置
JP2017125790A (ja) * 2016-01-15 2017-07-20 株式会社Ihi 計測装置
WO2019050038A1 (ja) * 2017-09-11 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像生成方法および画像生成装置
KR20190048953A (ko) * 2017-10-31 2019-05-09 현대자동차주식회사 차량의 헤딩 추정 장치 및 방법
US10510111B2 (en) 2013-10-25 2019-12-17 Appliance Computing III, Inc. Image-based rendering of real spaces
JP2020004121A (ja) * 2018-06-28 2020-01-09 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JP2020521955A (ja) * 2017-05-15 2020-07-27 アウスター インコーポレイテッド 色によるパノラマlidar結果の増強
JP2020535407A (ja) * 2017-09-28 2020-12-03 ウェイモ エルエルシー 同期スピニングlidarおよびローリングシャッターカメラシステム
JP2021022912A (ja) * 2019-07-30 2021-02-18 国立大学法人 東京大学 映像合成装置
US12266011B1 (en) 2024-03-01 2025-04-01 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124328A (ja) * 1992-10-13 1994-05-06 G T B:Kk 画像表示装置
JPH09284809A (ja) * 1996-04-18 1997-10-31 Canon Inc 画像処理装置及び画像処理方法
JPH10214069A (ja) * 1997-01-29 1998-08-11 Nippon Telegr & Teleph Corp <Ntt> 映像統合装置
JP2000074669A (ja) * 1998-08-28 2000-03-14 Zenrin Co Ltd 三次元地図データベースの作成方法及び装置
JP2000172337A (ja) * 1998-12-07 2000-06-23 Mitsubishi Electric Corp 自律移動ロボット
JP2001290820A (ja) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp 映像収集装置、映像検索装置および映像収集検索システム
JP2002031528A (ja) * 2000-07-14 2002-01-31 Asia Air Survey Co Ltd モービルマッピング用空間情報生成装置
JP2002269590A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像再生装置及び方法
JP2002269591A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像再生装置及び画像処理装置及び方法
JP2003006680A (ja) * 2001-06-20 2003-01-10 Zenrin Co Ltd 3次元電子地図データの生成方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124328A (ja) * 1992-10-13 1994-05-06 G T B:Kk 画像表示装置
JPH09284809A (ja) * 1996-04-18 1997-10-31 Canon Inc 画像処理装置及び画像処理方法
JPH10214069A (ja) * 1997-01-29 1998-08-11 Nippon Telegr & Teleph Corp <Ntt> 映像統合装置
JP2000074669A (ja) * 1998-08-28 2000-03-14 Zenrin Co Ltd 三次元地図データベースの作成方法及び装置
JP2000172337A (ja) * 1998-12-07 2000-06-23 Mitsubishi Electric Corp 自律移動ロボット
JP2001290820A (ja) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp 映像収集装置、映像検索装置および映像収集検索システム
JP2002031528A (ja) * 2000-07-14 2002-01-31 Asia Air Survey Co Ltd モービルマッピング用空間情報生成装置
JP2002269590A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像再生装置及び方法
JP2002269591A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像再生装置及び画像処理装置及び方法
JP2003006680A (ja) * 2001-06-20 2003-01-10 Zenrin Co Ltd 3次元電子地図データの生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
遠藤隆明, 外3名: ""写実的な広域仮想空間構築のための画像補間手法"", 日本バーチャルリアリティ学会論文誌, vol. 第7巻, 第2号, JPN6009018890, 30 June 2002 (2002-06-30), JP, pages 185 - 192, ISSN: 0001304855 *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006082773A1 (ja) * 2005-02-04 2006-08-10 Iwate University 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム
JP2009511965A (ja) * 2005-10-17 2009-03-19 テレ アトラス ノース アメリカ インコーポレイテッド 強化地図を生成する方法
US8884962B2 (en) 2006-10-20 2014-11-11 Tomtom Global Content B.V. Computer arrangement for and method of matching location data of different sources
JP2010507127A (ja) * 2006-10-20 2010-03-04 テレ アトラス ベスローテン フエンノートシャップ 異なるソースの位置データをマッチングさせるためのコンピュータ装置及び方法
JP2011059121A (ja) * 2010-10-01 2011-03-24 Mitsubishi Electric Corp 計測台車および基台
JP2013090257A (ja) * 2011-10-21 2013-05-13 Dainippon Printing Co Ltd 自由視点映像表示装置
JP2013161133A (ja) * 2012-02-01 2013-08-19 Toshiba Plant Systems & Services Corp 三次元データ処理装置、三次元データ処理プログラムおよび三次元データ処理方法
JP2015056873A (ja) * 2013-09-13 2015-03-23 株式会社ドッドウエル ビー・エム・エス 映像表示機器及び映像表示方法
US10592973B1 (en) 2013-10-25 2020-03-17 Appliance Computing III, Inc. Image-based rendering of real spaces
US11948186B1 (en) 2013-10-25 2024-04-02 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours
US11783409B1 (en) 2013-10-25 2023-10-10 Appliance Computing III, Inc. Image-based rendering of real spaces
US11610256B1 (en) 2013-10-25 2023-03-21 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours
US11449926B1 (en) 2013-10-25 2022-09-20 Appliance Computing III, Inc. Image-based rendering of real spaces
US10510111B2 (en) 2013-10-25 2019-12-17 Appliance Computing III, Inc. Image-based rendering of real spaces
US11062384B1 (en) 2013-10-25 2021-07-13 Appliance Computing III, Inc. Image-based rendering of real spaces
JP2016134651A (ja) * 2015-01-15 2016-07-25 大日本印刷株式会社 撮影システム、編集装置、編集方法、及びプログラム
WO2016157277A1 (ja) * 2015-03-27 2016-10-06 株式会社日立製作所 走行環境抽象化映像作成方法及び装置
JP2017125790A (ja) * 2016-01-15 2017-07-20 株式会社Ihi 計測装置
JP7534377B2 (ja) 2017-05-15 2024-08-14 アウスター インコーポレイテッド 色によるパノラマlidar結果の増強
US12061261B2 (en) 2017-05-15 2024-08-13 Ouster, Inc. Augmenting panoramic LIDAR results with color
JP2020521955A (ja) * 2017-05-15 2020-07-27 アウスター インコーポレイテッド 色によるパノラマlidar結果の増強
JP7189156B2 (ja) 2017-05-15 2022-12-13 アウスター インコーポレイテッド 色によるパノラマlidar結果の増強
JP2023022237A (ja) * 2017-05-15 2023-02-14 アウスター インコーポレイテッド 色によるパノラマlidar結果の増強
WO2019050038A1 (ja) * 2017-09-11 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像生成方法および画像生成装置
JPWO2019050038A1 (ja) * 2017-09-11 2020-10-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像生成方法および画像生成装置
JP2020535407A (ja) * 2017-09-28 2020-12-03 ウェイモ エルエルシー 同期スピニングlidarおよびローリングシャッターカメラシステム
JP2021105611A (ja) * 2017-09-28 2021-07-26 ウェイモ エルエルシー 同期スピニングlidarおよびローリングシャッターカメラシステム
JP7146004B2 (ja) 2017-09-28 2022-10-03 ウェイモ エルエルシー 同期スピニングlidarおよびローリングシャッターカメラシステム
KR20190048953A (ko) * 2017-10-31 2019-05-09 현대자동차주식회사 차량의 헤딩 추정 장치 및 방법
KR102406515B1 (ko) * 2017-10-31 2022-06-10 현대자동차주식회사 차량의 헤딩 추정 장치 및 방법
JP7059829B2 (ja) 2018-06-28 2022-04-26 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JP2020004121A (ja) * 2018-06-28 2020-01-09 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JP7480941B2 (ja) 2019-07-30 2024-05-10 国立大学法人 東京大学 映像合成装置
JP2021022912A (ja) * 2019-07-30 2021-02-18 国立大学法人 東京大学 映像合成装置
US12266011B1 (en) 2024-03-01 2025-04-01 Appliance Computing III, Inc. User interface for image-based rendering of virtual tours

Similar Documents

Publication Publication Date Title
JP4284644B2 (ja) 3次元モデル構築システム及び3次元モデル構築プログラム
US10848732B2 (en) Free viewpoint movement display device
US8531449B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
JP5058364B2 (ja) 俯瞰画像生成装置、俯瞰画像生成装置の俯瞰画像生成方法および俯瞰画像生成プログラム
JP5208203B2 (ja) 死角表示装置
JP3437555B2 (ja) 特定点検出方法及び装置
US20110211040A1 (en) System and method for creating interactive panoramic walk-through applications
JP2004265396A (ja) 映像生成システム及び映像生成方法
JP2010533282A (ja) 多視点パノラマを生成する方法及び装置
Zhu et al. Monocular 3d vehicle detection using uncalibrated traffic cameras through homography
JP2005056295A (ja) 360度画像変換処理装置
JP6616967B2 (ja) 地図作成装置、および地図作成方法
CN115641401A (zh) 一种三维实景模型的构建方法及相关装置
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
JP2008128827A (ja) ナビゲーション装置およびナビゲーション方法ならびにそのプログラム
JP4272966B2 (ja) 3dcg合成装置
JP6110780B2 (ja) 付加情報表示システム
CN108447042B (zh) 城市景观影像数据的融合方法及系统
CN116978010A (zh) 图像标注方法和装置、存储介质和电子设备
JP4008686B2 (ja) テクスチャ編集装置、テクスチャ編集システムおよび方法
Zheng et al. Scanning scene tunnel for city traversing
WO2009069165A2 (en) Transition method between two three-dimensional geo-referenced maps
CN114004957B (zh) 增强现实图片的生成方法、装置、设备和存储介质
Zheng et al. Scanning and rendering scene tunnels for virtual city traversing
JPH1132250A (ja) 音声案内型景観ラベリング装置およびシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081118

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090915