[go: up one dir, main page]

JP2009237878A - 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム - Google Patents

複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム Download PDF

Info

Publication number
JP2009237878A
JP2009237878A JP2008082886A JP2008082886A JP2009237878A JP 2009237878 A JP2009237878 A JP 2009237878A JP 2008082886 A JP2008082886 A JP 2008082886A JP 2008082886 A JP2008082886 A JP 2008082886A JP 2009237878 A JP2009237878 A JP 2009237878A
Authority
JP
Japan
Prior art keywords
image
video
mark
virtual object
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008082886A
Other languages
English (en)
Other versions
JP2009237878A5 (ja
Inventor
Masahiro Okura
正宏 大倉
Thomas Alt
オルト トーマス
Peter Meier
メイアー ペーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Dai Nippon Printing Co Ltd
Original Assignee
Metaio GmbH
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH, Dai Nippon Printing Co Ltd filed Critical Metaio GmbH
Priority to JP2008082886A priority Critical patent/JP2009237878A/ja
Priority to PCT/EP2009/002236 priority patent/WO2009118184A1/en
Priority to US12/934,875 priority patent/US8614747B2/en
Priority to EP09723819.0A priority patent/EP2279500B1/en
Publication of JP2009237878A publication Critical patent/JP2009237878A/ja
Publication of JP2009237878A5 publication Critical patent/JP2009237878A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】マーカー・トラッキングを用いた強化現実感を実現する際に、撮影する場所や物体等に付されたマーカーが目障りになることを防止する。
【解決手段】現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、カメラ装置は、不可視光の映像が判別可能な現実映像を撮像する撮像手段を備え、映像処理装置は、マークの映像であるマーク映像の、撮像された現実映像中における位置、当該マークの向き、当該マークの撮像手段からの距離、のうち少なくとも一つの状態を判別するマーク判別手段と、撮像された現実映像に重ねる仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、判別された状態に対応させて決定する重畳態様決定手段と、を備える。
【選択図】図1

Description

本発明は、現実世界の映像上に仮想物の映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成し、Augmented Realityを実現する複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラムの技術分野に関する。
現実世界(または、実空間上に存在する物体)の映像に、仮想的な物体(以下、「仮想物」と称する)の映像を重ね合わせることによって、その仮想物があたかも現実世界の中に存在するかのような映像を提供し、現実世界を強化する技術は、Augmented Reality(以下、「AR」または「強化現実感」と称する)と呼ばれている(例えば、特許文献1乃至3)。
かかる強化現実感においては、重ね合わされた映像としての仮想物の位置や向き、撮影するカメラからの距離(見者の視点からの距離)等(以下、「重畳態様」と称する)が不自然にならないよう、重ね合わせる対象となる場所や物体等の位置や向き(姿勢)、カメラからの距離等(以下、単に「状態」と称する)を正確に把握し、この状態に対応させて仮想物の映像の重畳態様を決定する必要がある。
こうした観点から、従来、予め決められた図形等をボードや紙等に印刷したマーカーを、その状態を把握したい場所や物体等に配し、撮影された映像を解析してマーカーの位置や向き、カメラからの距離等を判別することにより、場所や物体等の状態を間接的に把握するマーカー・トラッキングと呼ばれている手法が広く用いられている。
特開2004−213673号公報 特表2004−534963号公報 特表2005−507109号公報
しかしながら、マーカーを配した映像を撮影すると、見者等の立場からすれば本来不必要であるマーカーが、撮影された映像中には当然の如く映ってしまうという問題があった。
また、マーカーが配された場所や物体を、映像としてではなく、肉眼で直接見る場合においても、そのマーカーが目障りとなる。
本発明は、以上の問題に鑑みてなされたものであり、その目的の一例は、撮影する場所や物体等に付されたマーカーが目障りになることを防止することを可能とする複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラムを提供することにある。
上記課題を解決するために、請求項1に記載の発明は、カメラ装置と映像処理装置とを備え、現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する複合映像生成システムであって、現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、前記カメラ装置は、前記不可視光の映像が判別可能な前記現実映像を撮像する撮像手段を備え、前記映像処理装置は、前記マークの映像であるマーク映像の、前記撮像された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別するマーク判別手段と、前記撮像された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定する重畳態様決定手段と、を備えることを特徴とする。
この発明によれば、現実世界の空間上には、不可視光を少なくとも反射または放射するマークが付され、カメラ装置が、不可視光の映像が判別可能な前記現実映像を撮像し、映像処理装置が、マーク映像の、現実映像中における位置、マークの向き、マークの撮像手段からの距離、のうち少なくとも一つの状態を判別し、現実映像に重ねる仮想物映像の重畳態様を、判別された状態に対応させて決定する。
従って、マークは肉眼では直接見ることが出来ないので、マークが付された現実の場所や物体等を直接見たときに目障りとなることを防止することが出来る。
請求項2に記載の発明は、請求項1に記載の複合映像生成システムにおいて、前記カメラ装置の前記撮像手段は、可視光の映像と前記不可視光の映像とが判別可能な前記現実映像を撮像し、前記映像処理装置は、前記決定された重畳態様に基づいて、前記仮想物映像を生成し当該仮想物映像を前記撮像された前記現実映像に重ねて前記複合映像を生成する複合映像生成手段を更に備えることを特徴とする。
この発明によれば、カメラ装置が、可視光の映像と不可視光の映像とが判別可能な現実映像を撮像し、映像処理装置が、決定された重畳態様に基づいて、仮想物映像を生成し当該仮想物映像を現実映像に重ねて複合映像を生成するので、一のカメラ装置でシステムを構成することが可能となり、安価にシステムを構成することが出来る。
請求項3に記載の発明は、請求項2に記載の複合映像生成システムにおいて、前記重畳態様決定手段は、前記仮想物映像を前記撮像された現実映像に重ねることによって前記マーク映像が隠れるように、前記重畳位置を決定することを特徴とする。
この発明によれば、生成された複合画像上においてマークが見えなくなり、複合画像上においてもマークが目障りになることを防止することが出来る。
請求項4に記載の発明は、請求項2に記載の複合映像生成システムにおいて、前記映像処理装置は、前記撮像された現実映像における前記マーク映像が占める領域を特定し、前記領域の外側の映像に基づいて前記領域内における現実世界の映像を補完することによって、当該現実映像中における前記マーク映像を消去するマーク映像消去手段を更に備えることを特徴とする。
この発明によれば、生成された複合画像上においてマークが見えなくなり、複合画像上においてもマークが目障りになることを防止することが出来る。
請求項5に記載の発明は、請求項1に記載の複合映像生成システムにおいて、前記カメラ装置は、可視光及び前記不可視光のうち可視光の映像のみが判別可能な前記現実映像である可視光映像を撮像する可視光カメラ装置と、可視光及び前記不可視光のうち当該不可視光の映像のみが判別可能な前記現実映像である不可視光映像を撮像する不可視光カメラ装置と、を備え、前記映像処理装置の前記マーク判別手段は、前記撮像された不可視光映像に基づいて前記状態を判別し、前記映像処理装置は、前記決定された重畳態様に基づいて、前記仮想物映像を生成し当該仮想物映像を前記撮像された前記可視光映像に重ねて前記複合映像を生成する複合映像生成手段を更に備えることを特徴とする。
この発明によれば、可視光カメラ装置が、可視光及び不可視光のうち可視光の映像のみが判別可能な可視光映像を撮像し、不可視光カメラ装置が、可視光及び不可視光のうち当該不可視光の映像のみが判別可能な不可視光映像を撮像し、映像処理装置が、不可視光映像に基づいて、マーク映像の、現実映像中における位置、マークの向き、マークの撮像手段からの距離、のうち少なくとも一つの状態を判別し、決定された重畳態様に基づいて、仮想物映像を生成し当該仮想物映像を可視光映像に重ねて複合映像を生成する。
従って、マークは肉眼では直接見ることが出来ないので、マークが付された現実の場所や物体等を直接見たときに目障りとなることを防止することが出来るとともに、生成された複合画像上においてマークが見えなくなり、複合画像上においてもマークが目障りになることを防止することが出来る。
請求項6に記載の発明は、現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する複合映像生成システムにおける重畳態様決定方法であって、現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、前記カメラ装置が、前記不可視光の映像が判別可能な前記現実映像を撮像し、前記映像処理装置が、前記マークの映像であるマーク映像の、前記撮像された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別し、前記撮像された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定することを特徴とする。
請求項7に記載の発明は、現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する映像処理装置であって、現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、カメラ装置により撮像された、前記不可視光の映像が判別可能な前記現実映像を取得する取得手段と、前記マークの映像であるマーク映像の、前記取得された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別するマーク判別手段と、前記取得された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定する重畳態様決定手段と、を備えることを特徴とする。
請求項8に記載の発明は、現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する映像処理装置に含まれるコンピュータによって実行される映像処理プログラムであって、現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、前記コンピュータを、カメラ装置により撮像された、前記不可視光の映像が判別可能な前記現実映像を取得する取得手段、前記マークの映像であるマーク映像の、前記取得された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別するマーク判別手段、前記取得された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定する重畳態様決定手段、として機能させることを特徴とする。
本発明によれば、マークは肉眼では直接見ることが出来ないので、マークが付された現実の場所や物体等を直接見たときに目障りとなることを防止することが出来る。
以下、図面を参照して本発明の最良の実施形態について詳細に説明する。なお、以下に説明する実施の形態は、ARシステムに対して本発明を適用した場合の実施形態である。
[1.第1実施形態]
[1.1 ARシステムの構成及び機能概要]
先ず、第1実施形態に係るARシステムS1の構成及び機能概要について、図1を用いて説明する。
図1は、第1実施形態に係るARシステムS1の概要構成の一例を示す図である。
図1に示すように、ARシステムS1は、カメラ装置の一例としての可視光・赤外線カメラ1と、映像処理装置の一例としてのPC(Personal Computer)2と、ディスプレイ3と、を含んで構成されている。
可視光・赤外線カメラ1とPC2とは、ビデオケーブル等によって接続されている。また、PC2とディスプレイ3とは、ディスプレイケーブル等によって接続されている。
このような構成のARシステムS1においては、図1に示すように、現実に存在する空間RS上にマーカーMを配し、このマーカーMを含む映像を可視光・赤外線カメラ1によって撮影し、PC2が、画像解析を行うことによって撮影画像中におけるマーカーMの位置、姿勢、ユーザ視点からの距離等を判別するようになっている。そして、PC2は、この判別結果に基づいて、仮想物の位置、姿勢、ユーザ視点からの距離等を決定し、決定された情報に基づいて仮想物の画像を生成し、これを撮影画像に対して重ね合わせ合成することにより、現実世界を仮想物で強化した画像を生成するようになっている。
マーカーMは、例えば、シールやボード等の表面に、所定の形状の図形等(マークの一例)が赤外線インクを用いて印刷されて、構成されている。この赤外線インクは、例えば、波長0.7〜2.5μm程度の近赤外線(不可視光線の一例)を反射する性質を有している。従って、印刷された図形等(以下、「赤外線マーク」と称する)は、肉眼では確認することは出来ないが、可視光・赤外線カメラ1によって、その映像をとらえることが出来る。
また、マーカーMは、一つのみ配しても良いし、複数配しても良いが、複数配する場合には、どのマーカーであるかを識別可能とするために、形状が互いに異なる赤外線マークが夫々印刷されるようにすることが望ましい。更に、マーカーMは、対象となる場所や物体に対して、その上に置いても良いし、貼り付けても良いし、棒などで立てかけておくようにしても良い。また、マーカーMのシールやボード等自体を人目に触れさせたくない場合には、例えば、対象となる場所や物体に赤外線マークを直接印刷しても良いし、赤外線を反射する塗料で所定の形状に塗装しても良い。
可視光・赤外線カメラ1は、例えば、撮影用レンズ、可視光線から赤外線までの感度分布を有するCCD(Charge Coupled Device Image Sensor)、CCDからの映像信号をデジタル化して、映像信号をビデオケーブルを介して出力するドライバチップ等により構成され、空間RS上の物体等を撮影し、これにより得られた映像信号を、ビデオケーブルを介してPC2に供給するようになっている。
ここで、上記CCDは、マーカーMを撮影可能とするために、赤外線マーカーに印刷された赤外線インクの反射特性に対応した感度を有するように(本実施形態においては、例えば、0.7〜2.5μmの範囲の波長うち何れかの波長の赤外線を少なくとも検出可能なように)構成する必要がある。
ディスプレイ3は、例えば、液晶パネル等により構成されており、PC2からディスプレイケーブルを介して供給された映像信号に対応する映像を画面に表示するようになっている。
[1.2 PC2の構成及び機能]
次に、PC2の構成及び機能について、図2を用いて説明する。
図2は、第1実施形態に係るPC2の概要構成の一例を示す図である。
図2に示すように、PC2は、可視光・赤外線カメラ1からの映像信号が入力される映像入力部21と、生成された画像データに対応する映像信号をディスプレイ3に出力する映像出力部22と、ユーザからの操作指示を受け付け、その指示内容を指示信号としてシステム制御部25に出力する操作部23(例えば、キーボード、マウス等)と、各種プログラム及びデータ等を記憶する記憶手段の一例としての記憶部24(例えば、ハードディスクドライブ等)と、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えるシステム制御部25と、を備え、システム制御部25と各部とは、システムバス26を介して接続されている。
記憶部25には、マーカー形状データ102、仮想物形状データ104等が記憶されている。マーカー形状データ102は、マーカーMに印刷された赤外線マークの形状を示すデータであり、例えば、頂点の位置、線分データ、面データ等によって構成されている。また、仮想物形状データ104は、マーカーMに対応させて画面に表示させる仮想物の形状を示すデータであり、具体的には、例えば、頂点の位置、線分データ、面データ、各面の色彩や光の反射率を示すデータ等によって構成されている。
また、記憶部25には、画像データとしての仮想物の表面に貼り付けられる模様等を表すテクスチャデータ、マーカーMを基準とする座標における仮想物の相対的な座標や姿勢等を示すデータが、必要に応じて記憶されている。
更に、記憶部25には、ARシステム用プログラムが記憶されている。
システム制御部25は、本実施形態において、マーク判別手段、重畳態様決定手段、マーク映像消去手段、複合映像生成手段等の一例を構成している。そして、システム制御部25は、CPUが、ROMや記憶部24に記憶された各種プログラムを読み出し実行することによりPC2の各部を統括制御するとともに、ARシステム用プログラムを読み出し実行することにより上記各手段等として機能するようになっている。
[1.3 ARシステム用プログラムのソフトウエア構成]
次に、ARシステム用プログラムのソフトウエア構成について、図3及び図4を用いて説明する。
図3は、第1実施形態に係るARシステム用プログラムのソフトウエア構成とデータフローとの一例を示す図である。また、図4(a)及び(b)は、AR画像データ105の生成例を示す図である。
図3に示すように、ARシステム用プログラムは、キャプチャプログラム51、トラッキングプログラム52、同期プログラム53及び描画プログラム54を含んで構成されている。
キャプチャプログラム51は、システム制御部25が、映像入力部21によって映像信号から変換された所定フォーマットの撮影画像データ101(現実映像の一例)を、トラッキングプログラム52と同期プログラム53とに分配するためのプログラムである。
トラッキングプログラム52は、システム制御部25を重畳態様決定手段として機能させるためのプログラムである。具体的に、システム制御部25は、マーカー形状データ102を用いて撮影画像データ101を画像解析することによって、この撮影画像データ101からマーカーMの赤外線マークの画像を抽出し、赤外線マークの画像中における座標(重畳位置の一例)、姿勢(例えば、マーカーMを基準とする座標系におけるX軸、Y軸、Z軸の方向)、ユーザ(見者の一例)視点からの距離を判別し、これらの情報をトラッキングデータとして同期プログラム53に供給する。なお、マーカーMの座標、姿勢、ユーザ視点からの距離を、以下、「マーカー状態」と称する(状態の一例)。
同期プログラム53は、システム制御部25が、キャプチャプログラム51から供給された撮影画像データ101のタイムスタンプと、トラッキングプログラム52から供給されたトラッキングデータ103のタイムスタンプ(トラッキングプログラム52において画像解析が行われた撮影画像データのタイムスタンプと同一のタイプスタンプが付加されている)とをチェックし、タイムスタンプが同時刻である撮影画像データ101とトラッキングデータ103とを対応付けて同時に描画プログラム54に供給するためのプログラムである。
描画プログラム54は、システム制御部25を重畳態様決定手段、マーク映像消去手段及び複合映像生成手段として機能させるためのプログラムである。具体的には、ステム制御部25は、撮影画像データ101に重ねて表示させる仮想物画像データとしての仮想物の座標、姿勢(例えば、仮想物を基準とした座標系におけるX軸、Y軸、Z軸の方向)、ユーザ視点からの距離を、トラッキングデータが示すマーカー状態に対応させて決定する。
例えば、システム制御部25は、仮想物がマーカーM上に接するように仮想物の座標を決定したり、マーカーMの法線方向に仮想物としての上方向を合わせるように姿勢を決定したり、ユーザ視点から仮想物までの距離を、ユーザ視点からマーカーMまでの距離としたりする。
このとき、ステム制御部25は、仮想物によってマーカーMを隠すように予め設定されている場合(例えば、マーカーMの座標と同一の座標が、当該仮想物について予め設定されている場合等)には、そのマーカーMを隠すように仮想物の座標(または、姿勢、ユーザ視点からの距離)を決定する。これによって、例えば、図4(a)に示すように、仮想物の画像VOがマーカーMの画像(図1を参照)の上に重ね合わされることとなる。なお、仮想物の座標、姿勢、ユーザ視点からの距離を、以下「重畳態様」と称する。
また、ステム制御部25は、仮想物によってマーカーMを隠すようには設定されていない場合には、画像修復あるいはインペインティングと呼ばれる技術等を用いて、撮影画像データ101によって表示される撮影画像中からマーカーMが視覚的に判別できないようにこのマーカーMの画像を消去する。例えば、もしマーカーMが無かったとすれば、この領域には、マーカーMによって隠されていた場所あるいは物体(の一部または全部)が映るはずである。そうすると、この領域の周囲の画像の等輝度線(輝度が同一である画素を結ぶ線)は、その方向性を維持しながらマーカーMの領域内にまで延長して描かれているものと考えられる。換言すると、マーカーMの領域の周囲にある画像中の場所や物体によって表現されている模様は、そのマーカーMの領域内においても維持されているものと考えられる。
システム制御部25は、こうした方向性を画像解析によって画素毎に判別し、この方向性に従って、マーカーMの領域の周囲にある画素データに基づいてこの領域内を塗りつぶしていく。システム制御部25は、このようにしてマーカーMの領域に映るはずである場所や物体の画像を補完するのである。これによって、例えば、図4(b)に示すように、マーカーMの画像が消去される。なお、図中の破線は、便宜上マーカーMの位置を示すために示したのであり、実際にはこの破線は残らない。
また、システム制御部25は、仮想物形状データ104に基づいて、仮想物画像データを、決定した重畳態様で生成する。そして、システム制御部25は、この仮想物画像データを、決定した位置で撮影画像データ101に重ね合わせ合成し、現実世界と仮想物とが複合したAR画像データ(複合映像野市例)を生成する。このAR画像データは、例えば、動画像の一部を構成するフレームデータとして出力される。
なお、ARシステム用プログラムは、例えば、ネットワークを介してサーバ装置等から取得されるようにしても良いし、CD(Compact Disc)−ROM等の記録媒体に記録されてドライブ装置等から読み込まれるようにしても良い。
[1.4 ARシステムの動作]
次に、ARシステムS1の動作について、図5を用いて説明する。
図5は、第1実施形態に係るPC2のシステム制御部25の処理例を示すフローチャートである。
先ず、ユーザ等の操作によって可視光・赤外線カメラ1が撮影を開始する。可視光・赤外線カメラ1がマーカーMをとらえると、その赤外線マークMの映像を含んだ可視光・赤外線映像を撮影し、映像信号をPC2に出力する。
PC2においては、映像入力部21が、入力された映像信号を撮影画像データ101に変換し、この撮影画像データ101をシステム制御部25に出力する。
そして、システム制御部25は、図5に示すように、映像入力部21から撮影画像データ101が供給された場合には、この撮影画像データ101を解析して、マーク状態を判別し、その結果をトラッキングデータ103として生成する(ステップS1)。
次いで、システム制御部25は、撮影画像データ101とトラッキングデータ103との同期を行う(ステップS2)。具体的に、システム制御部25は、撮影画像データ101の供給とトラッキングデータ103の生成とを監視し、タイムスタンプが同一時刻である撮影画像データ101とトラッキングデータ103が揃ったら、これらのデータを対応付けして、RAMまたは記憶部24に記憶させる。
次いで、システム制御部25は、同期された撮影画像データ101とトラッキングデータ103とを認識すると、このトラッキングデータ103等に基づいて仮想物の重畳態様を決定する(ステップS3)。このとき、システム制御部25は、仮想物でマーカーMを隠す場合には、仮想物でマーカーMが隠れるようこの仮想物の座標等を決定する。
次いで、システム制御部25は、撮影画像データ101に基づいて、決定した重畳態様となる仮想物画像データを生成する(ステップS4)。
次いで、システム制御部25は、仮想物でマーカーMを隠すか否かを判定する(ステップS5)。このとき、システム制御部25は、仮想物でマーカーMを隠す場合には(ステップS5:YES)、ステップS7に移行する。
一方、システム制御部25は、仮想物でマーカーMを隠さない場合には(ステップS5:NO)、上述した方法等を用いて、撮影画像データ101の画像中におけるマーカーMの領域を塗りつぶして、マーカーMを画像から消去し(ステップS6)。ステップS7に移行する。
ステップS7において、システム制御部25は、撮影画像データ101に仮想物画像データを重ね合わせ合成してAR画像データを生成し、このAR画像データをRAMまたは記憶部24に記憶させる(ステップS7)。
生成されたAR画像データは、映像出力部22により映像信号に変換されて、ディスプレイ3に出力される。そして、ディスプレイ3は、供給された映像信号に対応する映像を画面上に表示する。これによって例えば、図4(a)または(b)に示すような映像が画面に表示される。
以上説明したように、本実施形態によれば、所定の波長の赤外線を反射する赤外線マークが印刷されたマーカーMが現実世界の空間上に配置され、可視光・赤外線カメラ1が、光のうち所定の波長の赤外線映像が視覚的に判別可能な映像を撮影して、この映像に対応する映像信号を出力し、PC2のシステム制御部25が、この映像信号に対応する撮影画像データ101中におけるマーカーMの映像の座標、姿勢、ユーザ視点からの距離を判別し、撮影画像データ101中に重ね合わせる仮想物画像データとしての仮想物の座標、姿勢、ユーザ視点からの距離を、判別されたマーカーMの状態に対応させて決定する。
従って、マーカーMに印刷された赤外線マークは、肉眼では直接見ることが出来ないので、マーカーMが配置された場所や物体等を直接見たときに目障りとなることを防止することが出来る。
また、可視光・赤外線カメラ1が、赤外線映像に加えて可視光映像も視覚的に判別可能な映像を撮影し、PC2のシステム制御部25が、決定された重畳態様に基づいて仮想物画像データを生成し、この仮想物画像データを画像データ101に重ね合わせ合成してAR画像データ105を生成するので、一台のカメラでシステムを構成することが可能となり、後述する第2実施形態に係るARシステムS2と比べて、安価にシステムを構成することが出来る。
また、PC2のシステム制御部25が、仮想物の画像でマーカーMの画像が隠れるよう、仮想物の座標等を決定するので、ディスプレイ3の表示画面上において赤外線マークが見えなくなり、画面上においてもマーカーMが目障りになることを防止することが出来る。
また、PC2のシステム制御部25が、撮影画像データ101の画像中においてマーカーMの画像が占める領域を特定し、特定された領域内における現実世界の画像をこの領域の周囲の画像に基づいて補完することによってマーカーMを消去するので、ディスプレイ3の表示画面上において赤外線マークが見えなくなり、画面上においてもマーカーMが目障りになることを防止することが出来る。
[1.5 ARシステムの適用例]
上記ARシステムS1の可視光・赤外線カメラ1及びディスプレイ3を、例えば、赤外線映像を撮影可能なカメラを内蔵するノート型PC(ノートパソコン)、カメラ内蔵の携帯電話機等に適用することが出来る。このとき、マーカー状態の判別、重畳態様の決定、仮想物画像データ及びAR画像データの生成は、ノートパソコンや携帯電話機側で行っても良いし(ノートパソコンや携帯電話機がPC2の構成を含む)、例えば、有線または無線による通信手段を用いて、撮影画像データ等をサーバ装置に転送し、サーバ装置側で処理を行って、生成されたAR画像データをノートパソコンや携帯電話機側に送っても良い(サーバ装置がPC2の構成を含む)。
また、上記ARシステムS1のディスプレイ3をヘッドマウントディスプレイ等に適用することが出来る。この場合において、ヘッドマウントディスプレイのディスプレイ部は、可視光を透過することなく、ヘッドマウントディスプレイを装着したユーザの視界に入るべき現実世界の画像に仮想物の画像を複合させたAR画像を表示させるように構成する。また、この場合において、カメラはユーザの頭部に装着させたりヘッドマウントディスプレイに内蔵させるようにし、且つ、カメラの撮影範囲とユーザの視野範囲とが合うように設定する。
また、これらの場合には、カメラまたはヘッドマウントディスプレイの位置や向きが動的に変化するので、キャリブレーション(カメラまたはヘッドマウントディスプレイのワールド座標系(現実空間の座標系)における座標や向きを動的に検出すること)を行うようにすることが望ましい。
[2.第2実施形態]
次に、第2実施形態について説明する。上記説明した第1実施形態においては、1台のカメラを用いる場合について説明したが、第2実施形態のいては、2台のカメラを用いるようになっている。
[2.1 ARシステムの構成及び機能概要]
先ず、第2実施形態に係るARシステムS2の構成及び機能概要について、図6を用いて説明する。
図6は、第2実施形態に係るARシステムS2の概要構成の一例を示す図であり、同図において、図1と同様の要素については同様の符号を付してある。
図6に示すように、ARシステムS2は、可視光カメラ装置の一例としての通常カメラ1aと、赤外線カメラ装置の一例としての赤外線カメラ1bと、映像処理装置の一例としてのPC(Personal Computer)2と、ディスプレイ3と、を含んで構成されている。
通常カメラ1aとPC2、及び、赤外線カメラ1とPC2とは、夫々ビデオケーブル等によって接続されている。
通常カメラ1aは、例えば、撮影用レンズ、可視光線周波数領域の感度分布を有するCCD、CCDからの映像信号から赤外線周波数成分をカットするフィルタ、赤外線周波数成分がカットされた映像信号をデジタル化して、映像信号をビデオケーブルを介して出力するドライバチップ等により構成され、空間RS上の物体等を撮影し(マーカーMに印刷された赤外線マークは映らない)、これにより得られた映像信号を、ビデオケーブルを介してPC2に供給するようになっている。
赤外線カメラ1bは、例えば、撮影用レンズ、赤外線線周波数領域の感度分布を有するCCD、CCDからの映像信号から可視光線周波数成分をカットするフィルタ、可視光線周波数成分がカットされた映像信号をデジタル化して、映像信号をビデオケーブルを介して出力するドライバチップ、赤外線を撮影対象に照射する赤外線LED(Light-Emitting Diode)等により構成され、空間RS上の物体等を撮影し(マーカーMに印刷された赤外線のみが映る)、これにより得られた映像信号を、ビデオケーブルを介してPC2に供給するようになっている。
この通常カメラ1aと赤外線カメラ1bとは、その撮影角度が互いに合うように夫々配置されている。
なお、PC2とディスプレイ3の基本的な構成は第1実施形態の場合と基本的に同様であるが、PC2の映像入力部21は、通常カメラ1aから供給された映像信号を後述する通常撮影画像データ101aに変換する一方、赤外線カメラ1bから供給された映像信号を後述する赤外線画像データ101bに変換するようになっている。
[2.2 ARシステム用プログラムのソフトウエア構成]
次に、ARシステム用プログラムのソフトウエア構成について、図7を用いて説明する。
図7は、第2実施形態に係るARシステム用プログラムのソフトウエア構成とデータフローとの一例を示す図であり、同図において、図3と同様の要素については同様の符号を付してある。
図7に示すように、ARシステム用プログラムのソフトウエア構成は、第1実施形態に係るARシステム用プログラムのソフトウエア構成と基本的に同様である。
ここで、キャプチャプログラム51は、システム制御部25が、映像入力部21によって映像信号から変換された通常撮影画像データ101a(可視光映像の一例)と赤外線画像データ101b(不可視光映像の一例)とを、トラッキングプログラム52と同期プログラム53とに分配するためのプログラムである。具体的に、システム制御部25は、通常撮影画像データ101aを同期プログラム53に供給する一方、赤外線画像データ101bをトラッキングプログラム52に供給する。
トラッキングプログラム52は、赤外線画像データ101bに基づいて、当該データの画像中におけるマーカーMのマーカー状態を判別し、この情報をトラッキングデータとして同期プログラム53に供給する。
同期プログラム53は、システム制御部25が、キャプチャプログラム51から供給された通常撮影画像データ101aのタイムスタンプと、トラッキングプログラム52から供給されたトラッキングデータ103のタイムスタンプとをチェックし、タイムスタンプが同時刻である通常撮影画像データ101aとトラッキングデータ103とを対応付けて同時に描画プログラム54に供給するためのプログラムである。
描画プログラム54は、ステム制御部25が、通常撮影画像データ101aに重ねて表示させる仮想物画像データとしての仮想物の重畳状態を決定し、この重畳態様に基づいて、仮想物画像データを生成するとともに、この仮想物画像データを、通常撮影画像データ101aに重ね合わせ合成し、AR画像データを生成するためのプログラムである。ここで、通常撮影画像データ101aの画像には、マーカーMの画像が映らないので、描画プログラム54は、マーカーMの画像を仮想物の画像で隠したり、マーカーMの画像を消去するようにはプログラムされていない。
[2.3 ARシステムの動作]
次に、ARシステムS2の動作について、図8を用いて説明する。
図8は、第2実施形態に係るPC2のシステム制御部25の処理例を示すフローチャートである。
先ず、ユーザ等の操作によって通常カメラ1aと赤外線カメラ1bとが撮影を開始する。通常カメラ1aにはマーカーMに印刷された赤外線マークはとらえられず、撮影対象の場所や物体の映像を撮影し、映像信号をPC2に出力する。赤外線カメラ1bは、マーカーMをとらえると、その赤外線マークMの映像のみを含んだ赤外線映像を撮影して映像信号をPC2に出力するが、マーカーMが撮影範囲内に入っていない場合には、何も映っていない赤外線映像を撮影して映像信号をPC2に出力する。
PC2においては、映像入力部21が、通常カメラ1aから入力された映像信号を通常撮影画像データ101aに変換し、赤外線カメラ1bから入力された映像信号を赤外線画像データ101bに変換し、これらのデータをシステム制御部25に出力する。
そして、システム制御部25は、図8に示すように、映像入力部21から赤外線画像データ101bが供給された場合には、この赤外線画像データ101bを解析して、マーク状態を判別し、その結果をトラッキングデータ103として生成する(ステップS11)。
次いで、システム制御部25は、通常撮影画像データ101aとトラッキングデータ103との同期を行う(ステップS12)。
次いで、システム制御部25は、同期された通常撮影画像データ101aとトラッキングデータ103とを認識すると、このトラッキングデータ103等に基づいて仮想物の重畳態様を決定する(ステップS13)。
次いで、システム制御部25は、仮想物形状データ104に基づいて、決定した重畳態様となる仮想物画像データを生成する(ステップS14)。
次いでシステム制御部25は、通常撮影画像データ101aに仮想物画像データを重ね合わせ合成してAR画像データを生成し、このAR画像データをRAMまたは記憶部24に記憶させる(ステップS15)。
生成されたAR画像データは、映像出力部22により映像信号に変換されて、ディスプレイ3に出力される。そして、ディスプレイ3は、供給された映像信号に対応する映像を画面上に表示する。この画面上には、マーカーMは映らない。
以上説明したように、本実施形態によれば、所定の波長の赤外線を反射する赤外線マークが印刷されたマーカーMが現実世界の空間上に配置され、通常カメラ1aが、光のうち可視光のみが判別可能な映像を撮影して、この映像に対応する映像信号を出力し、赤外線カメラ1bが、光のうち赤外線のみが判別可能な映像を撮影して、この映像に対応する映像信号を出力し、PC2のシステム制御部25が、赤外線カメラ1bからの映像信号に対応する通常撮影画像データ101a中におけるマーカーMの映像の座標、姿勢、ユーザ視点からの距離を判別し、赤外線カメラ1bからの映像信号に対応する中に重ね合わせる仮想物画像データとしての仮想物の座標、姿勢、ユーザ視点からの距離を、判別されたマーカーMの状態に対応させて決定し、決定された重畳態様に基づいて仮想物画像データを生成し、この仮想物画像データを通常撮影画像データ101aに重ね合わせ合成してAR画像データ105を生成する。
従って、マーカーMに印刷された赤外線マークは、肉眼では直接見ることが出来ないので、マーカーMが配置された場所や物体等を直接見たときに目障りとなることを防止することが出来るとともに、ディスプレイ3の表示画面上において赤外線マークが見えなくなり、画面上においてもマーカーMが目障りになることを防止することが出来る。
また、通常撮影画像データ101aにはマークMに印刷された赤外線マークは映らないので、仮想物の画像でマーカーMの画像を隠したり、マーカーMの画像を消去する必要が無くなり、仮想物の重畳態様を決定する自由度が向上することが出来たり、AR画像データの画質の劣化を防止することが出来たり、処理を簡素化することが出来る。
また、赤外線画像データ101bには、赤外線マーク以外は映らないので、マーカー状態を容易に判別することが出来る。
なお、上記各実施形態においては、波長0.7〜2.5μm程度の赤外線を反射する赤外線インクでマーカーMに赤外線マークを印刷していたが、例えば、これ以外の波長の赤外線を反射するインクで印刷しても良いし、紫外線を反射するインクで印刷しても良い。つまり、肉眼では認識することが出来ないようなインクで印刷されれば良い。このとき、可視光・赤外線カメラ1や赤外線カメラ1bの感度分布は、インクの反射特性に対応させれば良い。また、赤外線等を反射するインクや塗料を用いる以外にも、例えば、赤外線等を自ら放射するインクや塗料を用いても良い。
また、上記各実施形態においてPC2のシステム制御部25は、マーカー状態として、マーカーMの座標、姿勢、ユーザ視点からの距離を決定していたが、これらのうちの一つまたは二つのみを判別しても良い。
また、上記各実施形態においてPC2のシステム制御部25は、重畳態様として、仮想物の座標、姿勢、ユーザ視点からの距離を決定していたが、これらのうちの一つまたは二つのみを判別しても良い。
また、上記各実施形態においては、ディスプレイ3に動画像をリアルタイムで表示していたが、例えば、PC2のRAMや記憶部24等に記憶しておいて後で表示させても良いし、また、静止画を表示するようにしても良い。また、ディスプレイ3で画像を表示する以外にも、例えば、プリンタ装置にて印刷しても良いし、書き込み可能なDVD(Digital Versatile Disk)等の記録媒体にAR画像データ105を記録しておいて、後でこのデータを利用しても良い。
また、上記各実施形態においては、カメラで撮影された映像をリアルタイムでPC2に出力するようにしていたが、例えば、カメラ側において書き込み可能なDVDやメモリカード等の記録媒体に撮影画像データ等を記録しておき、ドライブ装置を介してPC2に読み込ませるようにしても良い。
第1実施形態に係るARシステムS1の概要構成の一例を示す図である。 第1実施形態に係るPC2の概要構成の一例を示す図である。 第1実施形態に係るARシステム用プログラムのソフトウエア構成とデータフローとの一例を示す図である。 AR画像データ105の生成例を示す図であり、(a)は、仮想物でマーカーMを隠す場合の図であり、(b)は、マーカーMを消去する場合の図である。 第1実施形態に係るPC2のシステム制御部25の処理例を示すフローチャートである。 第2実施形態に係るARシステムS2の概要構成の一例を示す図である。 第2実施形態に係るARシステム用プログラムのソフトウエア構成とデータフローとの一例を示す図である。 第2実施形態に係るPC2のシステム制御部25の処理例を示すフローチャートである。
符号の説明
1 カメラ
1a 通常カメラ
1b 赤外線カメラ
2 PC
3 ディスプレイ
21 映像入力部
22 映像出力部
23 操作部
24 記憶部
25 システム制御部
26 システムバス
51 キャプチャプログラム
52 トラッキングプログラム
53 同期プログラム
54 描画プログラム
M マーカー
RS 現実空間
VO 仮想物
S1、S2 ARシステム

Claims (8)

  1. カメラ装置と映像処理装置とを備え、現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する複合映像生成システムであって、
    現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、
    前記カメラ装置は、
    前記不可視光の映像が判別可能な前記現実映像を撮像する撮像手段を備え、
    前記映像処理装置は、
    前記マークの映像であるマーク映像の、前記撮像された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別するマーク判別手段と、
    前記撮像された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定する重畳態様決定手段と、
    を備えることを特徴とする複合映像生成システム。
  2. 請求項1に記載の複合映像生成システムにおいて、
    前記カメラ装置の前記撮像手段は、
    可視光の映像と前記不可視光の映像とが判別可能な前記現実映像を撮像し、
    前記映像処理装置は、
    前記決定された重畳態様に基づいて、前記仮想物映像を生成し当該仮想物映像を前記撮像された前記現実映像に重ねて前記複合映像を生成する複合映像生成手段を更に備えることを特徴とする複合映像生成システム。
  3. 請求項2に記載の複合映像生成システムにおいて、
    前記重畳態様決定手段は、前記仮想物映像を前記撮像された現実映像に重ねることによって前記マーク映像が隠れるように、前記重畳位置を決定することを特徴とする複合映像生成システム。
  4. 請求項2に記載の複合映像生成システムにおいて、
    前記映像処理装置は、
    前記撮像された現実映像における前記マーク映像が占める領域を特定し、前記領域の外側の映像に基づいて前記領域内における現実世界の映像を補完することによって、当該現実映像中における前記マーク映像を消去するマーク映像消去手段を更に備えることを特徴とする複合映像生成システム。
  5. 請求項1に記載の複合映像生成システムにおいて、
    前記カメラ装置は、
    可視光及び前記不可視光のうち可視光の映像のみが判別可能な前記現実映像である可視光映像を撮像する可視光カメラ装置と、
    可視光及び前記不可視光のうち当該不可視光の映像のみが判別可能な前記現実映像である不可視光映像を撮像する不可視光カメラ装置と、を備え、
    前記映像処理装置の前記マーク判別手段は、前記撮像された不可視光映像に基づいて前記状態を判別し、
    前記映像処理装置は、
    前記決定された重畳態様に基づいて、前記仮想物映像を生成し当該仮想物映像を前記撮像された前記可視光映像に重ねて前記複合映像を生成する複合映像生成手段を更に備えることを特徴とする複合映像生成システム。
  6. 現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する複合映像生成システムにおける重畳態様決定方法であって、
    現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、
    前記カメラ装置が、
    前記不可視光の映像が判別可能な前記現実映像を撮像し、
    前記映像処理装置が、
    前記マークの映像であるマーク映像の、前記撮像された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別し、
    前記撮像された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定することを特徴とする重畳態様決定方法。
  7. 現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する映像処理装置であって、
    現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、
    カメラ装置により撮像された、前記不可視光の映像が判別可能な前記現実映像を取得する取得手段と、
    前記マークの映像であるマーク映像の、前記取得された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別するマーク判別手段と、
    前記取得された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定する重畳態様決定手段と、
    を備えることを特徴とする映像処理装置。
  8. 現実世界の映像である現実映像上に仮想物の映像である仮想物映像を重ねて、現実世界と仮想物とが複合した映像である複合映像を生成する映像処理装置に含まれるコンピュータによって実行される映像処理プログラムであって、
    現実世界の空間上には、光のうち可視光以外の予め定められた波長の光である不可視光を少なくとも反射または放射するマークが付され、
    前記コンピュータを、
    カメラ装置により撮像された、前記不可視光の映像が判別可能な前記現実映像を取得する取得手段、
    前記マークの映像であるマーク映像の、前記取得された現実映像中における位置、当該マークの向き、当該マークの前記撮像手段からの距離、のうち少なくとも一つの状態を判別するマーク判別手段、
    前記取得された現実映像に重ねる前記仮想物映像の当該現実映像中における位置である重畳位置、当該仮想物映像が示す仮想物の向き、当該仮想物映像の見者の視点からの距離、の少なくとも何れか一つである重畳態様を、前記判別された状態に対応させて決定する重畳態様決定手段、
    として機能させることを特徴とする映像処理プログラム。
JP2008082886A 2008-03-27 2008-03-27 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム Pending JP2009237878A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008082886A JP2009237878A (ja) 2008-03-27 2008-03-27 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
PCT/EP2009/002236 WO2009118184A1 (en) 2008-03-27 2009-03-26 Composite image generating system, overlaying condition determining method, image processing apparatus, and image processing program
US12/934,875 US8614747B2 (en) 2008-03-27 2009-03-26 Composite image generating system, overlaying condition determining method, image processing apparatus, and image processing program
EP09723819.0A EP2279500B1 (en) 2008-03-27 2009-03-26 Composite image generating system, overlaying condition determining method, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008082886A JP2009237878A (ja) 2008-03-27 2008-03-27 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム

Publications (2)

Publication Number Publication Date
JP2009237878A true JP2009237878A (ja) 2009-10-15
JP2009237878A5 JP2009237878A5 (ja) 2011-01-06

Family

ID=40718715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008082886A Pending JP2009237878A (ja) 2008-03-27 2008-03-27 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム

Country Status (4)

Country Link
US (1) US8614747B2 (ja)
EP (1) EP2279500B1 (ja)
JP (1) JP2009237878A (ja)
WO (1) WO2009118184A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175668A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
JP2015103157A (ja) * 2013-11-27 2015-06-04 株式会社ニコン 撮像装置
WO2020137487A1 (ja) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド 映像表示システム、映像表示装置、及び映像表示方法
WO2024128166A1 (ja) * 2022-12-16 2024-06-20 株式会社Styly 拡張現実又は複合現実用の建物、拡張現実又は複合現実用の建物の設計方法、拡張現実又は複合現実用の内装、拡張現実又は複合現実用の内装の設計方法、画像制御システム、画像制御プログラム、画像制御プログラムが記録された記憶媒体、及び画像制御方法

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105787764A (zh) 2008-03-05 2016-07-20 电子湾有限公司 用于图像识别服务的方法和设备
US9495386B2 (en) 2008-03-05 2016-11-15 Ebay Inc. Identification of items depicted in images
US8848059B2 (en) * 2009-12-02 2014-09-30 Apple Inc. Systems and methods for receiving infrared data with a camera designed to detect images based on visible light
KR101373285B1 (ko) * 2009-12-08 2014-03-11 한국전자통신연구원 제스쳐 인식 기능을 갖는 휴대 단말기 및 이를 이용한 인터페이스 시스템
US9164577B2 (en) * 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
JP5423406B2 (ja) * 2010-01-08 2014-02-19 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
JP5709906B2 (ja) 2010-02-24 2015-04-30 アイピープレックス ホールディングス コーポレーション 視覚障害者支援用拡張現実パノラマ
US8611594B2 (en) * 2010-09-10 2013-12-17 Apple Inc. Dynamic display of virtual content on several devices using reference tags
US8593535B2 (en) 2010-09-10 2013-11-26 Apple Inc. Relative positioning of devices based on captured images of tags
JP5646263B2 (ja) * 2010-09-27 2014-12-24 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US10127606B2 (en) 2010-10-13 2018-11-13 Ebay Inc. Augmented reality system and method for visualizing an item
JP5480777B2 (ja) * 2010-11-08 2014-04-23 株式会社Nttドコモ オブジェクト表示装置及びオブジェクト表示方法
US9599461B2 (en) 2010-11-16 2017-03-21 Ectoscan Systems, Llc Surface data acquisition, storage, and assessment system
JP5377537B2 (ja) * 2011-02-10 2013-12-25 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP5704963B2 (ja) * 2011-02-25 2015-04-22 任天堂株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
JP5786463B2 (ja) * 2011-06-01 2015-09-30 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US20120320216A1 (en) * 2011-06-14 2012-12-20 Disney Enterprises, Inc. Method and System for Object Recognition, Authentication, and Tracking with Infrared Distortion Caused by Objects for Augmented Reality
US8937628B2 (en) * 2011-06-21 2015-01-20 Siemens Energy, Inc. Mapping of a contour shape to an X and Y coordinate system
US9449342B2 (en) 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
JP5838747B2 (ja) * 2011-11-11 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9020838B2 (en) * 2011-11-30 2015-04-28 Ncr Corporation Augmented reality for assisting consumer transactions
US8917453B2 (en) 2011-12-23 2014-12-23 Microsoft Corporation Reflective array waveguide
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US8810600B2 (en) 2012-01-23 2014-08-19 Microsoft Corporation Wearable display device calibration
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
GB201204129D0 (en) * 2012-03-08 2012-04-25 Supponor Oy Apparatus and method for image content detection and image content replacement system
US9338447B1 (en) * 2012-03-14 2016-05-10 Amazon Technologies, Inc. Calibrating devices by selecting images having a target having fiducial features
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
GB2501929B (en) * 2012-05-11 2015-06-24 Sony Comp Entertainment Europe Apparatus and method for augmented reality
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US20130337922A1 (en) * 2012-06-15 2013-12-19 Digideal Corporation Playing card creation for wagering devices
US10846766B2 (en) 2012-06-29 2020-11-24 Ebay Inc. Contextual menus based on image recognition
US10378877B2 (en) * 2012-11-02 2019-08-13 Sony Corporation Image processing device, image processing method, and program
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9393695B2 (en) * 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US20160283794A1 (en) * 2013-11-12 2016-09-29 Hewlett Packard Enterprise Development Lp Augmented Reality Marker
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9721389B2 (en) * 2014-03-03 2017-08-01 Yahoo! Inc. 3-dimensional augmented reality markers
US9552674B1 (en) * 2014-03-26 2017-01-24 A9.Com, Inc. Advertisement relevance
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US9734634B1 (en) * 2014-09-26 2017-08-15 A9.Com, Inc. Augmented reality product preview
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US10664975B2 (en) * 2014-11-18 2020-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program for generating a virtual image corresponding to a moving target
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
US10336462B2 (en) 2015-03-12 2019-07-02 Vu Systems, LLC Vehicle navigation methods, systems and computer program products
CN104766361B (zh) * 2015-04-29 2018-04-27 腾讯科技(深圳)有限公司 一种残影效果的实现方法,及装置
JP6511980B2 (ja) * 2015-06-19 2019-05-15 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9857040B1 (en) 2015-08-20 2018-01-02 X Development Llc Kinematically linked optical components for light redirection
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
EP3264359B1 (en) 2016-06-28 2025-02-19 Dassault Systèmes A computer-implemented method of calibrating a camera
EP3264360B1 (en) * 2016-06-28 2025-01-22 Dassault Systèmes Dynamical camera calibration
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
CN107423720A (zh) * 2017-08-07 2017-12-01 广州明医医疗科技有限公司 目标跟踪系统和立体显示设备
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
US11232636B2 (en) * 2018-02-08 2022-01-25 Edx Technologies, Inc. Methods, devices, and systems for producing augmented reality
AU2019248023B2 (en) * 2018-04-05 2023-03-16 Efficiency Matrix Pty Ltd Computer implemented structural thermal audit systems and methods
CN108961421A (zh) * 2018-06-27 2018-12-07 深圳中兴网信科技有限公司 虚拟空间的控制方法、控制系统和计算机可读存储介质
WO2020041930A1 (en) * 2018-08-27 2020-03-05 SZ DJI Technology Co., Ltd. Image processing and presentation
CN109285130B (zh) * 2018-09-10 2020-09-22 珠海格力电器股份有限公司 一种景物复现方法、装置、存储介质及终端
US11170532B1 (en) * 2018-11-09 2021-11-09 Ectoscan Systems, Llc Method and apparatus, and analysis for color space determination of surface condition
US11823458B2 (en) * 2020-06-18 2023-11-21 Embedtek, LLC Object detection and tracking system
US11176756B1 (en) 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
US11756225B2 (en) * 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device
USD1029076S1 (en) 2022-03-10 2024-05-28 Campfire 3D, Inc. Augmented reality pack

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2004054890A (ja) * 2002-05-29 2004-02-19 Sony Corp 画像表示装置および方法、送信装置および方法、画像表示システム、記録媒体、並びにプログラム
JP2005351886A (ja) * 2004-05-14 2005-12-22 Canon Inc 位置姿勢計測方法および情報処理装置
JP2007163367A (ja) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> カメラ情報解析装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293147A (ja) * 1996-04-24 1997-11-11 Canon Inc 視線検出を用いた画像処理装置
EP0814344A3 (en) * 1996-06-19 1998-12-30 Matsushita Electric Works, Ltd. Automatic tracking lighting equipment
CN1463374A (zh) 2001-03-30 2003-12-24 皇家菲利浦电子有限公司 用于实景增补的方法、系统和装置
DE10297343T5 (de) 2001-10-22 2005-01-27 University Of Southern California, Los Angeles Erweiterungsfähige Verfolgung durch Linien-Autokalibrierung
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP4063755B2 (ja) * 2003-10-21 2008-03-19 株式会社リコー 画像形成除去システム
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
KR100542370B1 (ko) 2004-07-30 2006-01-11 한양대학교 산학협력단 보이지 않는 마커를 이용하는 비전기반 증강현실 시스템
US7769236B2 (en) * 2005-10-31 2010-08-03 National Research Council Of Canada Marker and method for detecting said marker
US20070145273A1 (en) 2005-12-22 2007-06-28 Chang Edward T High-sensitivity infrared color camera
JP4949806B2 (ja) * 2006-11-10 2012-06-13 オンセミコンダクター・トレーディング・リミテッド 撮像装置及び画像信号処理装置
US20090244097A1 (en) * 2008-03-25 2009-10-01 Leonardo William Estevez System and Method for Providing Augmented Reality
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2004054890A (ja) * 2002-05-29 2004-02-19 Sony Corp 画像表示装置および方法、送信装置および方法、画像表示システム、記録媒体、並びにプログラム
JP2005351886A (ja) * 2004-05-14 2005-12-22 Canon Inc 位置姿勢計測方法および情報処理装置
JP2007163367A (ja) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> カメラ情報解析装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175668A (ja) * 2011-02-24 2012-09-10 Ohbayashi Corp 画像合成方法
JP2015103157A (ja) * 2013-11-27 2015-06-04 株式会社ニコン 撮像装置
WO2020137487A1 (ja) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド 映像表示システム、映像表示装置、及び映像表示方法
JP2020106589A (ja) * 2018-12-26 2020-07-09 株式会社Jvcケンウッド 映像表示システム、映像表示装置、及び映像表示方法
JP7137743B2 (ja) 2018-12-26 2022-09-15 株式会社Jvcケンウッド 映像表示システム、映像表示装置、及び映像表示方法
WO2024128166A1 (ja) * 2022-12-16 2024-06-20 株式会社Styly 拡張現実又は複合現実用の建物、拡張現実又は複合現実用の建物の設計方法、拡張現実又は複合現実用の内装、拡張現実又は複合現実用の内装の設計方法、画像制御システム、画像制御プログラム、画像制御プログラムが記録された記憶媒体、及び画像制御方法
JP2024086350A (ja) * 2022-12-16 2024-06-27 株式会社Styly 拡張現実又は複合現実用の建物、拡張現実又は複合現実用の建物の設計方法、拡張現実又は複合現実用の内装、拡張現実又は複合現実用の内装の設計方法、画像制御システム、画像制御プログラム、画像制御プログラムが記録された記憶媒体、及び画像制御方法
JP7601353B2 (ja) 2022-12-16 2024-12-17 株式会社Styly 画像制御システム、画像制御プログラム、画像制御プログラムが記録された記憶媒体、及び画像制御方法

Also Published As

Publication number Publication date
EP2279500B1 (en) 2018-10-31
EP2279500A1 (en) 2011-02-02
US20110090343A1 (en) 2011-04-21
WO2009118184A8 (en) 2010-10-07
WO2009118184A1 (en) 2009-10-01
US8614747B2 (en) 2013-12-24

Similar Documents

Publication Publication Date Title
JP2009237878A (ja) 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US9959681B2 (en) Augmented reality contents generation and play system and method using the same
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
US10373356B2 (en) Presentation system and display apparatus for use in the presentation system
KR101250619B1 (ko) 가상 사용자 인터페이스를 이용한 증강현실 시스템 및 그 방법
JP5680976B2 (ja) 電子黒板システム及びプログラム
JP4982715B2 (ja) 情報提供方法及び情報提供システム
CN101379455B (zh) 输入装置及其方法
JP5480777B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
US8388146B2 (en) Anamorphic projection device
WO2018101227A1 (ja) 表示制御装置、ヘッドマウントディスプレイ、表示制御装置の制御方法、および制御プログラム
JP4137078B2 (ja) 複合現実感情報生成装置および方法
EP1744280A2 (en) Information processing apparatus and method
JP2004062756A (ja) 情報提示装置および情報処理方法
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
JP2005174021A (ja) 情報提示方法及び装置
JP5152317B2 (ja) プレゼンテーション制御装置及びプログラム
CN113853569A (zh) 头戴式显示器
CN111651031A (zh) 虚拟内容的显示方法、装置、终端设备及存储介质
JP2006236195A (ja) プレゼンテーション制御装置
JP2010272078A (ja) 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法
KR101518696B1 (ko) 증강현실 컨텐츠의 생성 및 재생 시스템과, 이를 이용한 방법
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2021129293A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP2009076983A (ja) 情報処理システム及び情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626