JP2013225245A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2013225245A JP2013225245A JP2012097714A JP2012097714A JP2013225245A JP 2013225245 A JP2013225245 A JP 2013225245A JP 2012097714 A JP2012097714 A JP 2012097714A JP 2012097714 A JP2012097714 A JP 2012097714A JP 2013225245 A JP2013225245 A JP 2013225245A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- unit
- user
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 117
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000003384 imaging method Methods 0.000 claims abstract description 83
- 238000000034 method Methods 0.000 claims description 73
- 230000008569 process Effects 0.000 claims description 42
- 230000009471 action Effects 0.000 claims description 21
- 230000003190 augmentative effect Effects 0.000 claims description 18
- 239000003795 chemical substances by application Substances 0.000 description 60
- 238000010586 diagram Methods 0.000 description 17
- 230000033001 locomotion Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150044281 Arr2 gene Proteins 0.000 description 1
- 101100324465 Caenorhabditis elegans arr-1 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 101150102700 pth2 gene Proteins 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】ARアプリケーションをユーザに提供する際に、環境の認識が不安定となってARアプリケーションの利用に支障が出てしまう事態を回避すること。
【解決手段】撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、を備える画像処理装置を提供する。
【選択図】図5
【解決手段】撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、を備える画像処理装置を提供する。
【選択図】図5
Description
本開示は、画像処理装置、画像処理方法及びプログラムに関する。
近年、実空間に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、アノテーションとも呼ばれ、テキスト、アイコン又はアニメーションなどの様々な形態の仮想的なオブジェクトを用いて可視化され得る。AR空間へのアノテーションの配置は、通常、画像に映る実空間の3次元構造の認識(以下、環境認識という)に基づいて行われる。環境認識のための手法としては、例えば、SLAM(Simultaneous Localization And Mapping)法及びSfM(Structure from Motion)法が知られている。SLAM法の基本的な原理は、下記非特許文献1において説明されている。SLAM法では、入力画像の変化に応じて動的に更新される特徴点のセットを用いて、特徴点の位置の認識と環境内のカメラの位置及び姿勢の認識とが同時に実行される。SfM法では、視点を変えながら撮像される複数の画像に映る特徴点の位置から視差が計算され、計算された視差に基づいて環境が認識される。下記特許文献1は、SLAM法において初期化の際に選択される特徴点の3次元位置をSfM法を用いて認識する手法を開示している。下記特許文献2は、SLAM法を応用して実現され得るARアプリケーションの一例を開示している。
Andrew J.Davison,"Real-Time Simultaneous Localization and Mapping with a Single Camera",Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410
画像内の特徴点群に基づく環境認識技術の精度は、画像内の特徴点の分布に依存する。特徴点の数がより多いほど、認識はより安定的になる。特徴点の数が少な過ぎれば、環境の追跡は実行不可能となり得る。また、画像内の特徴点の数が同じであれば、特徴点の分布の偏りが大きいほど、認識はより不安定になり得る。しかしながら、ARアプリケーションを利用するユーザは、通常、このような環境認識技術の特性についての知識を有しない。よって、ARアプリケーションをユーザに提供する際に、環境認識技術にとって好ましくない方向へユーザが端末(カメラ)を向ける結果として、環境の認識が不安定になり、ARアプリケーションの利用に支障が出る事態に陥り易い。
従って、ARアプリケーションをユーザに提供する際に、上述した事態を回避することのできる仕組みが提供されることが望ましい。
本開示によれば、撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、を備える画像処理装置が提供される。
また、本開示によれば、撮像装置を用いて実空間を撮像することにより生成される入力画像を取得することと、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識処理を実行することと、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供することと、前記認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳することと、を含む画像処理方法が提供される。
また、本開示によれば、画像処理装置を制御するコンピュータを、撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、として機能させるためのプログラムが提供される。
本開示によれば、ARアプリケーションをユーザに提供する際に、環境の認識が不安定となってARアプリケーションの利用に支障が出てしまう事態を回避することができる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
2.一実施形態に係る装置の構成
2−1.ハードウェア構成
2−2.機能構成
2−3.誘導の例
2−4.処理の流れ
3.総括
1.概要
2.一実施形態に係る装置の構成
2−1.ハードウェア構成
2−2.機能構成
2−3.誘導の例
2−4.処理の流れ
3.総括
<1.概要>
まず、図1〜図3を用いて、本開示に係る技術の概要を説明する。
まず、図1〜図3を用いて、本開示に係る技術の概要を説明する。
図1は、一実施形態に係る画像処理装置100の概要について説明するための説明図である。図1を参照すると、ユーザUaが有する画像処理装置100が示されている。画像処理装置100は、実空間10に向けられたレンズを有する撮像部102と、表示部110とを備える。図1の例において、実空間10には、テーブル14を含む様々な実物体(Real Object)が存在している。画像処理装置100の撮像部102は実空間10を撮像し、表示部110は撮像された画像を表示し得る。画像処理装置100は、拡張現実(AR)アプリケーションを動作させる制御部(図示せず)を備え得る。ARアプリケーションは、撮像部102により撮像される画像を入力画像として受け取り、仮想オブジェクトの重畳された画像を表示部110へ出力する。図1の例では、仮想オブジェクトVO1があたかもテーブル14の上に存在するかのように、出力画像Im01において仮想オブジェクトVO1が重畳されている。
図1では、画像処理装置100の一例として携帯端末を示している。しかしながら、画像処理装置100は、かかる例に限定されない。画像処理装置100は、例えば、PC(Personal Computer)、PDA(Personal Digital Assistant)、スマートフォン、ゲーム端末、PND(Portable Navigation Device)、コンテンツプレーヤ又はデジタル家電機器などであってもよい。また、ARアプリケーションは、ユーザにより操作される端末上で動作する代わりに、端末との間で通信可能な他の装置(例えば、アプリケーションサーバ)上で動作してもよい。
ARアプリケーションにおいて仮想オブジェクトを適切に画像に重畳するためには、実空間と端末(特に、撮像部102)との間の相対的な位置及び姿勢を少なくともあるレベルを超える精度で認識することが重要である。そうした環境認識のための技術として、画像内の特徴点群に基づく技術が知られている。例えば、SLAM法では、入力画像の変化に応じて動的に更新される特徴点のセットを用いて、特徴点の位置の認識と環境内のカメラの位置及び姿勢の認識とが同時に実行される。SfM法では、視点を変えながら撮像される複数の画像に映る特徴点の位置から視差が計算され、計算された視差に基づいて環境が認識される。
しかし、画像内の特徴点群に基づく環境認識の精度は、特徴点の分布に依存する。特徴点の数がより多いほど、認識はより安定的になる。特徴点の数が少な過ぎれば、環境の追跡は実行不可能となり、仮想オブジェクトをどこに重畳すべきかを決定することが困難となり得る。また、画像内の特徴点の数が同じであっても、特徴点の分布の偏りが大きければ、認識は不安定となり、仮想オブジェクトが不規則に動いてしまうなどの支障が生じ得る。
図2は、環境認識のために使用される特徴点について説明するための説明図である。図2において、図1に例示した実空間10が再び示されている。図中の星印は、実空間10において特徴点として検出される可能性の高い点を表している。図から理解されるように、領域12a及び12bには、特徴点が存在しない。従って、例えば領域12a又は12bのみが画像全体に映るように入力画像が撮像された場合、環境認識が失敗し、ARアプリケーションが正常に動作しない事態が生じる。
特徴点の分布と環境認識の安定度との関係について、図3を用いてさらに説明する。図3では、抽象化された実空間10が円形枠で、実空間10内の特徴点が星印で示されている。ここで、現在のカメラアングルが円形枠の中央を向いているものとする。この時点で撮像される画像Im10には多数の特徴点が映っており、これら特徴点は画像全体にわたって比較的均一に分布している。よって、画像Im10を用いることにより、比較的安定的に環境を認識することができる。その後、ユーザがカメラアングルを上方へ動かすと、画像Im11が撮像される。ユーザがカメラアングルを下方へ動かすと、画像Im12が撮像される。画像Im11及びIm12の双方においても、複数の特徴点が画像全体にわたって比較的均一に分布している。これに対し、ユーザがカメラアングルを左方へ動かすと、画像Im13が撮像される。画像Im13には特徴点が映らない。この場合、環境認識は失敗し得る。また、ユーザがカメラアングルを右方へ動かすと、画像Im14が撮像される。画像Im14には複数の特徴点が映るが、それら特徴点は画像の上部に偏って分布する。この場合、環境認識は不安定になり得る(画像Im14の例では、ヨー方向のカメラの姿勢(回転角)は十分な精度で決定され得るが、ピッチ方向のカメラの姿勢の十分な精度が得られない)。よって、特徴点群に基づく環境認識技術を採用するARアプリケーションにとっては、ユーザがカメラアングルを左方又は右方へ動かすよりも、ユーザがカメラアングルを上方又は下方へ動かす方が好ましい。
そこで、次節より詳細に説明する実施形態において、ARアプリケーションを利用するユーザを、特徴点群に基づく環境認識が安定化するように誘導するための仕組みを提供する。
<2.一実施形態に係る装置の構成>
本節では、一実施形態に係る画像処理装置100の構成の一例を説明する。ここでは、実空間と端末との間の相対的な位置及び姿勢がSLAM法を利用して認識される例を主に説明する。しかしながら、かかる例に限定されず、以下に説明する実施形態は、特徴点群に基づいて環境を認識する他のいかなる技術と組み合わされてもよい。
本節では、一実施形態に係る画像処理装置100の構成の一例を説明する。ここでは、実空間と端末との間の相対的な位置及び姿勢がSLAM法を利用して認識される例を主に説明する。しかしながら、かかる例に限定されず、以下に説明する実施形態は、特徴点群に基づいて環境を認識する他のいかなる技術と組み合わされてもよい。
[2−1.ハードウェア構成]
図4は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図4を参照すると、画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
図4は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図4を参照すると、画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
(1)撮像部
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される撮像画像は、制御部118による画像処理の入力画像となる。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される撮像画像は、制御部118による画像処理の入力画像となる。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。
(2)センサ部
センサ部104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ部104において得られる測定結果は、環境認識の支援、地理的な位置に特化したデータの取得、又はユーザ入力の検出などの様々な用途のために利用されてよい。なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
センサ部104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ部104において得られる測定結果は、環境認識の支援、地理的な位置に特化したデータの取得、又はユーザ入力の検出などの様々な用途のために利用されてよい。なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
(3)入力部
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
(4)記憶部
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(5)表示部
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成されるARアプリケーションの画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成されるARアプリケーションの画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
(6)通信部
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(7)バス
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
(8)制御部
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
[2−2.機能構成]
図5は、図4に示した画像処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図5を参照すると、画像処理装置100は、画像取得部120、データ取得部125、認識部130、マップデータベース(DB)160、マップ管理部165、アプリケーション部170及び表示制御部180を有する。
図5は、図4に示した画像処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図5を参照すると、画像処理装置100は、画像取得部120、データ取得部125、認識部130、マップデータベース(DB)160、マップ管理部165、アプリケーション部170及び表示制御部180を有する。
(1)画像取得部
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映した画像である。当該入力画像は、典型的には、動画を構成する各フレームである。画像取得部120は、取得した入力画像を、認識部130及び表示制御部180へ出力する。
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映した画像である。当該入力画像は、典型的には、動画を構成する各フレームである。画像取得部120は、取得した入力画像を、認識部130及び表示制御部180へ出力する。
(2)データ取得部
データ取得部125は、認識部130による環境の認識及びアプリケーション部170によるARアプリケーションの提供のために使用されるデータを取得する。例えば、データ取得部125は、センサ部104により生成されるセンサデータ、実物体に関するデータ及び仮想オブジェクトに関するデータなどを取得してよい。
データ取得部125は、認識部130による環境の認識及びアプリケーション部170によるARアプリケーションの提供のために使用されるデータを取得する。例えば、データ取得部125は、センサ部104により生成されるセンサデータ、実物体に関するデータ及び仮想オブジェクトに関するデータなどを取得してよい。
(3)SLAM演算部
認識部130は、画像取得部120により取得される入力画像に映る1つ以上の特徴点の位置に基づいて、実空間と撮像部102との間の相対的な位置及び姿勢を認識する。本実施形態において、認識部130は、SLAM演算部135、物体DB140及び画像認識部145を含む。
認識部130は、画像取得部120により取得される入力画像に映る1つ以上の特徴点の位置に基づいて、実空間と撮像部102との間の相対的な位置及び姿勢を認識する。本実施形態において、認識部130は、SLAM演算部135、物体DB140及び画像認識部145を含む。
SLAM演算部135は、SLAM法に従った演算を行うことにより、単眼カメラからの入力画像に映る実空間の3D構造と、撮像部102の位置及び姿勢とを動的に認識する。
まず、図6を用いて、SLAM演算部135によるSLAM演算処理の全体的な流れについて説明する。次に、図7〜図10を用いて、SLAM演算処理の詳細を説明する。
図6は、SLAM演算部135によるSLAM演算処理の流れの一例を示すフローチャートである。図6において、SLAM演算処理が開始すると、SLAM演算部135は、まず、初期化処理を実行して状態変数を初期化する(ステップS10)。本実施形態において、状態変数とは、カメラの位置及び姿勢(回転角)、当該カメラの移動速度及び角速度、並びに1つ以上の特徴点の位置を要素として含むベクトルである。また、SLAM演算部135には、画像取得部120により取得される入力画像が順次入力される(ステップS20)。ステップS30からステップS50までの処理は、各入力画像について(即ち毎フレーム)繰り返され得る。
ステップS30では、SLAM演算部135は、入力画像に映る特徴点を追跡する。例えば、SLAM演算部135は、予め取得される特徴点ごとのパッチ(Patch)(例えば特徴点を中心とする3×3=9画素の小画像)を新たな入力画像と照合する。そして、SLAM演算部135は、入力画像内のパッチの位置、即ち特徴点の位置を検出する。ここで検出される特徴点の位置は、後の状態変数の更新の際に用いられる。
ステップS40では、SLAM演算部135は、所定の予測モデルに基づいて、例えば1フレーム後の状態変数の予測値を生成する。また、ステップS50では、SLAM演算部135は、ステップS40において生成した状態変数の予測値と、ステップS30において検出した特徴点の位置に応じた観測値とを用いて、状態変数を更新する。SLAM演算部135は、ステップS40及びS50における処理を、拡張カルマンフィルタの原理に基づいて実行する。
このような処理の結果として、毎フレーム更新される状態変数の値が出力される。以下、状態変数の初期化(ステップS10)、特徴点の追跡(ステップS30)、状態変数の予測(ステップS40)、状態変数の更新(ステップS50)の各処理の内容について、より具体的に説明する。
(3−1)状態変数の初期化
SLAM演算部135により使用される状態変数の要素のうち、カメラの位置、姿勢、移動速度及び角速度の初期値は、ゼロ又は他のいかなる値であってもよい。また、入力画像から複数の特徴点が選択される。ここで選択される特徴点は、例えば、画像内で動的に検出される点(例えば、テクスチャのエッジ又はコーナーなど)であってもよく、又は初期化のために予め設定されている既知の点であってもよい。特徴点の3次元位置は、例えば、SfM法などの手法に従って計算されてもよい。SLAM演算部135は、このように初期化される要素を用いて、状態変数を構築する。
SLAM演算部135により使用される状態変数の要素のうち、カメラの位置、姿勢、移動速度及び角速度の初期値は、ゼロ又は他のいかなる値であってもよい。また、入力画像から複数の特徴点が選択される。ここで選択される特徴点は、例えば、画像内で動的に検出される点(例えば、テクスチャのエッジ又はコーナーなど)であってもよく、又は初期化のために予め設定されている既知の点であってもよい。特徴点の3次元位置は、例えば、SfM法などの手法に従って計算されてもよい。SLAM演算部135は、このように初期化される要素を用いて、状態変数を構築する。
(3−2)特徴点の追跡
特徴点の追跡は、実空間内に存在し得る実物体の外観に現れる1つ以上の特徴点についてのパッチデータを用いて行われる。図8には、実物体の2つの例として、タンス(図中左)及びカレンダー(図中右)が示されている。各実物体上には、1つ以上の特徴点(FP)が設定されている。例えば、特徴点FP1はタンスに設定された特徴点であり、特徴点FP1と関連付けてパッチPth1が定義されている。また、特徴点FP2はカレンダーに設定された特徴点であり、特徴点FP2と関連付けてパッチPth2が定義されている。
特徴点の追跡は、実空間内に存在し得る実物体の外観に現れる1つ以上の特徴点についてのパッチデータを用いて行われる。図8には、実物体の2つの例として、タンス(図中左)及びカレンダー(図中右)が示されている。各実物体上には、1つ以上の特徴点(FP)が設定されている。例えば、特徴点FP1はタンスに設定された特徴点であり、特徴点FP1と関連付けてパッチPth1が定義されている。また、特徴点FP2はカレンダーに設定された特徴点であり、特徴点FP2と関連付けてパッチPth2が定義されている。
SLAM演算部135は、初期化処理において選択された特徴点のパッチデータ、又はその後新たに選択される特徴点のパッチデータを、入力画像に含まれる部分画像と照合する。そして、SLAM演算部135は、照合の結果として、入力画像に含まれる特徴点の位置(例えば検出されたパッチの中心画素の位置)を特定する。
SLAM法の特色の1つは、追跡される特徴点が時間を追って動的に変化し得る点である。例えば、図8の例では、時刻T=t−1において、6つの特徴点が入力画像内で検出されている。次に、時刻T=tにおいてカメラの位置又は姿勢が変化すると、時刻T=t−1において入力画像に映っていた6つの特徴点のうち2つのみが入力画像内に映っている。この場合に、SLAM演算部135は、入力画像内で特徴的な画素のパターンを有する位置に新たに特徴点を設定し、その新たな特徴点を後のフレームにおけるSLAM演算処理に用いてよい。例えば、図8の例では、時刻T=tにおいて、4つの新たな特徴点が実物体上に設定されている。かかる特色により、SLAM法では、特徴点の事前設定に要するコストを削減できると共に、追加される多数の特徴点を用いて認識の精度が高められる。
(3−3)状態変数の予測
本実施形態において、SLAM演算部135は、拡張カルマンフィルタを適用すべき状態変数として、次式に示す状態変数Xを用いる。
本実施形態において、SLAM演算部135は、拡張カルマンフィルタを適用すべき状態変数として、次式に示す状態変数Xを用いる。
式(1)における状態変数Xの第1の要素は、次式の通り、実空間内のカメラの3次元位置を表す。
また、状態変数の第2の要素は、カメラの姿勢を表す回転行列に対応する四元数(クォータニオン)を要素として有する4次元ベクトルωである。なお、四元数の変わりにオイラー角を用いてカメラの姿勢が表されてもよい。また、状態変数の第3及び第4の要素は、カメラの移動速度及び角速度をそれぞれ表す。
さらに、状態変数の第5及びそれ以降の要素は、特徴点FPi(i=1…N)の3次元位置piをそれぞれ表す。なお、上述したように、特徴点の数Nは、処理の間変化し得る。
SLAM演算部135は、ステップS10において初期化された状態変数Xの値、又は前フレームにおいて更新された状態変数Xの値に基づいて、最新のフレームについての状態変数の予測値を生成する。状態変数の予測値は、次式に示す多次元正規分布に従った拡張カルマンフィルタの状態方程式に従って生成される。
ここで、Fはシステムの状態遷移に関する予測モデル、aは予測条件である。また、wはガウシアンノイズであり、例えばモデル近似誤差や観測誤差等を含み得る。一般的に、ガウシアンノイズwの平均はゼロとなる。
図9は、本実施形態に係る予測モデルの一例について説明するための説明図である。図9を参照すると、本実施形態に係る予測モデルにおける2つの予測条件が示されている。まず、第1の条件として、特徴点の3次元位置は変化しないものとする。即ち、時刻Tにおける特徴点FP1の3次元位置をpTとすると、次式の関係が成立する。
次に、第2の条件として、カメラの運動は等速運動であるものとする。即ち、時刻T=t−1から時刻T=tにかけてのカメラの速度及び角速度について、次式の関係が成立する。
このような予測モデル及び式(4)に示した状態方程式に基づいて、SLAM演算部135は、最新のフレームについての状態変数の予測値を生成する。
(3−4)状態変数の更新
そして、SLAM演算部135は、観測方程式を用いて、例えば状態変数の予測値から予測される観測情報と、特徴点の追跡結果として得られる実際の観測情報との誤差を評価する。なお、式(8)におけるνがその誤差である。
そして、SLAM演算部135は、観測方程式を用いて、例えば状態変数の予測値から予測される観測情報と、特徴点の追跡結果として得られる実際の観測情報との誤差を評価する。なお、式(8)におけるνがその誤差である。
ここで、Hは観測モデルを表す。例えば、特徴点FPiの撮像面(u−v平面)上の位置を、次式のように定義する。
ここで、カメラの位置x、カメラの姿勢ω、及び特徴点FPiの3次元位置piは、いずれも状態変数Xの要素として与えられる。そうすると、ピンホールカメラモデルに従い、特徴点FPiの撮像面上の位置は次式を用いて導かれる。なお、λは正規化のためのパラメータ、Aはカメラ内部パラメータ行列、Rωは状態変数Xに含まれるカメラの姿勢を表す四元数ωに対応する回転行列である。
従って、式(11)を用いて導かれる予測される観測情報、即ち各特徴点の撮像面上の位置と、図6のステップS30における特徴点の追跡結果との間の誤差を最小にする状態変数Xを探索することにより、尤もらしい最新の状態変数Xを得ることができる。
SLAM演算部135は、このようにSLAM法に従って動的に更新される状態変数Xに含まれる各パラメータの値を、マップ管理部165へ出力し、マップDB160に記憶させる。
(4)物体DB
物体DB140は、実物体の特徴を表す特徴データを予め記憶しているデータベースである。物体DB140により記憶される特徴データは、画像認識部145による画像認識処理において使用される。図10は、特徴データの構成の一例について説明するための説明図である。
物体DB140は、実物体の特徴を表す特徴データを予め記憶しているデータベースである。物体DB140により記憶される特徴データは、画像認識部145による画像認識処理において使用される。図10は、特徴データの構成の一例について説明するための説明図である。
図10を参照すると、実物体RO1についての一例としての特徴データ141が示されている。特徴データ141は、物体ID142a、6方向から撮像した画像データ142b、パッチデータ142c及び3次元形状データ142dを含む。
物体ID142aは、実物体RO1を一意に識別するための識別子である。画像データ142bは、実物体RO1を前・後・左・右・上・下の6方向からそれぞれ撮像した6つの画像データを含む。パッチデータ142cは、実物体に設定される特徴点ごとの、各特徴点を中心とする小画像の集合である。3次元形状データ142dは、実物体RO1のローカル座標系における各特徴点の3次元位置(即ち、実物体RO1内にローカルに定義される原点からの相対的な各特徴点の位置)を表す位置情報を含む。
(5)画像認識部
画像認識部145は、物体DB140により記憶されている上述した特徴データを用いて、入力画像にどの実物体が映っているかを認識する。より具体的には、例えば、画像認識部145は、画像取得部120により取得される入力画像に含まれる部分画像と、特徴データに含まれる各特徴点のパッチとを照合し、入力画像に含まれる特徴点を検出する。画像認識部145は、SLAM演算部135による特徴点の追跡結果を再利用してもよい。次に、画像認識部145は、画像内のある領域に1つの実物体に属する特徴点が高い密度で検出された場合には、当該領域にその実物体が映っていると認識し得る。画像認識部145は、検出された特徴点の間の位置関係と図10に例示した3次元形状データとに基づいて、認識された実物体の位置及び姿勢をさらに認識し得る。画像認識部145により認識される実物体の位置及び姿勢と、SLAM演算部135により認識される撮像部102の位置及び姿勢とに基づいて、SLAM法の初期化後の実物体の位置及び姿勢の追跡が実現される。画像認識部145は、このように追跡される実物体の位置及び姿勢をマップ管理部165へ出力し、マップDB160に記憶させる。
画像認識部145は、物体DB140により記憶されている上述した特徴データを用いて、入力画像にどの実物体が映っているかを認識する。より具体的には、例えば、画像認識部145は、画像取得部120により取得される入力画像に含まれる部分画像と、特徴データに含まれる各特徴点のパッチとを照合し、入力画像に含まれる特徴点を検出する。画像認識部145は、SLAM演算部135による特徴点の追跡結果を再利用してもよい。次に、画像認識部145は、画像内のある領域に1つの実物体に属する特徴点が高い密度で検出された場合には、当該領域にその実物体が映っていると認識し得る。画像認識部145は、検出された特徴点の間の位置関係と図10に例示した3次元形状データとに基づいて、認識された実物体の位置及び姿勢をさらに認識し得る。画像認識部145により認識される実物体の位置及び姿勢と、SLAM演算部135により認識される撮像部102の位置及び姿勢とに基づいて、SLAM法の初期化後の実物体の位置及び姿勢の追跡が実現される。画像認識部145は、このように追跡される実物体の位置及び姿勢をマップ管理部165へ出力し、マップDB160に記憶させる。
(6)マップ管理部
マップDB160は、認識部130による環境認識の結果を記憶するデータベースである。マップDB160は、例えば、SLAM演算部135により認識される撮像部102の位置及び姿勢、並びに画像認識部145により認識される実物体の位置及び姿勢を記憶する。後述するアプリケーション部170及び表示制御部180は、マップDB160により記憶されるこれらデータを用いて、AR空間内の仮想オブジェクトの配置を決定し得る。
マップDB160は、認識部130による環境認識の結果を記憶するデータベースである。マップDB160は、例えば、SLAM演算部135により認識される撮像部102の位置及び姿勢、並びに画像認識部145により認識される実物体の位置及び姿勢を記憶する。後述するアプリケーション部170及び表示制御部180は、マップDB160により記憶されるこれらデータを用いて、AR空間内の仮想オブジェクトの配置を決定し得る。
さらに、マップDB160は、後に説明する特徴点マップを記憶してもよい。特徴点マップは、過去に検出された1つ以上の特徴点の実空間内での位置を示す。特徴点マップは、表示制御部180による誘導制御処理のために使用され得る。
マップ管理部165は、マップDB160により記憶されるデータ並びに当該データの入力及び出力を管理する。例えば、マップ管理部165は、後に説明するように、マップDB160により記憶されるデータに、その登録時刻(生成又は更新の時刻)を示すタイムスタンプを付し、登録時刻から一定の時間が経過したデータを破棄してもよい。
(7)アプリケーション部
アプリケーション部170は、認識部130による環境認識の結果に基づいて、ユーザに拡張現実(AR)アプリケーションを提供する。アプリケーション部170により提供されるARアプリケーションは、娯楽、教育、ビジネス又はソーシャルコミュニケーションなどのいかなる目的を有するアプリケーションであってもよい。アプリケーション部170は、典型的には、その目的に応じて表示すべき仮想オブジェクト(アノテーション)を選択し、選択した仮想オブジェクトをAR空間内に配置する。図1の例では、仮想オブジェクトVO1が、あたかもテーブル14の上に存在するかのように配置されている。画像内で仮想オブジェクトVO1が重畳される2次元位置は、撮像部102とテーブル14との間の相対的な位置関係と、AR空間内の仮想オブジェクトVO1の配置とに基づいて計算され得る。
アプリケーション部170は、認識部130による環境認識の結果に基づいて、ユーザに拡張現実(AR)アプリケーションを提供する。アプリケーション部170により提供されるARアプリケーションは、娯楽、教育、ビジネス又はソーシャルコミュニケーションなどのいかなる目的を有するアプリケーションであってもよい。アプリケーション部170は、典型的には、その目的に応じて表示すべき仮想オブジェクト(アノテーション)を選択し、選択した仮想オブジェクトをAR空間内に配置する。図1の例では、仮想オブジェクトVO1が、あたかもテーブル14の上に存在するかのように配置されている。画像内で仮想オブジェクトVO1が重畳される2次元位置は、撮像部102とテーブル14との間の相対的な位置関係と、AR空間内の仮想オブジェクトVO1の配置とに基づいて計算され得る。
(8)表示制御部
表示制御部180は、表示部110を用いたARアプリケーションの表示を制御する。また、表示制御部180は、認識部130により実行される認識処理が安定化するように、特徴点の分布に従って、画像処理装置100を操作するユーザを誘導する。例えば、表示制御部180は、閾値を上回る数の特徴点が入力画像に継続的に映るように、ユーザを誘導してもよい。また、表示制御部180は、入力画像の一部に特徴点が偏ることを回避するように、ユーザを誘導してもよい。また、表示制御部180は、入力画像に映る特徴点の数がより少ないほど、画像処理装置100がよりゆっくりと操作される(動かされる)ように、ユーザを誘導してもよい。
表示制御部180は、表示部110を用いたARアプリケーションの表示を制御する。また、表示制御部180は、認識部130により実行される認識処理が安定化するように、特徴点の分布に従って、画像処理装置100を操作するユーザを誘導する。例えば、表示制御部180は、閾値を上回る数の特徴点が入力画像に継続的に映るように、ユーザを誘導してもよい。また、表示制御部180は、入力画像の一部に特徴点が偏ることを回避するように、ユーザを誘導してもよい。また、表示制御部180は、入力画像に映る特徴点の数がより少ないほど、画像処理装置100がよりゆっくりと操作される(動かされる)ように、ユーザを誘導してもよい。
図11は、特徴点の分布に従った誘導方向の決定の第1の手法について説明するための説明図である。図11には、図3に例示した画像Im10が拡大されて示されている。画像Im10の上端部、下端部及び右端部の近傍には、ある量を超えるテクスチャが存在する。従って、表示制御部180は、ユーザがカメラアングルを上方、下方又は右方へ動かしたとしても、閾値を上回る数の特徴点が入力画像に継続的に映ると予測することができる。これに対し、画像Im10の左端部の近傍には、テクスチャが存在しない。従って、表示制御部180は、ユーザがカメラアングルを左方へ動かすと、入力画像に映る特徴点の数が減少すると予測することができる。このような予測に基づいて、表示制御部180は、ユーザがカメラアングルを上方、下方又は右方へ動かすように(又はユーザがカメラアングルを左方へ動かさないように)ユーザを誘導してもよい。第1の手法によれば、入力画像のみを用いて誘導が制御される。従って、追加的なメモリリソースを要することなく、少ない開発コストで本開示に係る技術を実現することができる。なお、表示制御部180は、より広い範囲がカメラアングル内に含まれるようにユーザにズームアウトを促すことにより、新たな特徴点の発見の可能性を高めてもよい。
図12は、特徴点の分布に従った誘導方向の決定の第2の手法について説明するための説明図である。図12には、マップDB160により追加的に記憶され得る特徴点マップ162が概略的に示されている。ここでは、説明の簡明さのために2次元的に構成されるマップを示しているが、特徴点マップ162は、3次元的に構成されてもよい。図12を参照すると、特徴点マップ162は、1つ以上の特徴点の位置をX−Y座標系において示している。X−Y平面は、碁盤目状に複数の領域に区分される。各領域は、X方向のラベル「A」〜「E」及びY方向のラベル「1」〜「5」の組合せによって、領域A1、A2などのように識別され得る。図12の例において、領域B4、C2〜C4、D2、D3、E3及びE4については、各領域内で比較的均一に分布する多数の特徴点が存在する。従って、これら領域にカメラが向けられる場合には、閾値を上回る数の特徴点が入力画像に映り、そらら特徴点は画像の一部に偏らない。本明細書では、このような領域を、安定認識領域という。表示制御部180は、このような特徴点マップ162を参照して安定認識領域を判定し、安定認識領域が継続的に撮像されるようにユーザを誘導することにより、認識部130による認識処理を安定化させてもよい。第2の手法によれば、入力画像に映っていない特徴点の存在及びその位置を特徴点マップを用いて判定することが可能となるため、実空間の状況に応じてユーザをより適切に誘導することができる。
表示制御部180は、上述した通り環境認識処理が安定化するようにユーザを誘導する第1の動作モードに加えて、特徴点マップに登録されている特徴点の数を増やすようにユーザを誘導する第2の動作モードで動作可能であってもよい。本明細書では、この第1の動作モードを通常モード、第2の動作モードを探索モードという。探索モードでは、表示制御部180は、安定認識領域よりもむしろ、安定認識領域以外の領域が撮像されるようにユーザを誘導し得る。
特徴点マップ162は、探索済み領域(explored area)と未探索領域(unexplored area)とが識別可能となるように構成されてもよい。探索済み領域とは、過去に既に撮像された領域であり、未探索領域とは、未だ撮像されていない領域である。図12に示した特徴点マップ162の例では、領域A1、A2、B1及びB2が、未探索領域として識別されている。特徴点マップ162内で、未探索領域には特徴点は登録されていない。しかし、これは、未探索領域に特徴点が存在しないことを意味するのではなく、これら領域に特徴点が存在するか否かが知られていないことを意味する。このような未探索領域をユーザに撮像させることにより、表示制御部180は、新たな特徴点を発見し、安定認識領域を広げることができる。
[2−3.誘導の例]
表示制御部180による誘導は、誘導オブジェクトを入力画像に重畳することにより行われる。どのように誘導が行われるかは、誘導オブジェクトの種類に依存する。本項では、誘導オブジェクトの種類として、自律動作型エージェント、仮想標識(virtual indication)、及びユーザ操作型エージェント(あるいはアバター)という3つの種類を例示する。なお、これら誘導オブジェクトは、ARアプリケーションのための仮想オブジェクトと共通化されてもよく、又は誘導のための専用の仮想オブジェクトであってもよい。
表示制御部180による誘導は、誘導オブジェクトを入力画像に重畳することにより行われる。どのように誘導が行われるかは、誘導オブジェクトの種類に依存する。本項では、誘導オブジェクトの種類として、自律動作型エージェント、仮想標識(virtual indication)、及びユーザ操作型エージェント(あるいはアバター)という3つの種類を例示する。なお、これら誘導オブジェクトは、ARアプリケーションのための仮想オブジェクトと共通化されてもよく、又は誘導のための専用の仮想オブジェクトであってもよい。
(1)自律動作型エージェント
自律動作型エージェントは、AR空間内で自律的に動作する仮想オブジェクトである。表示制御部180は、例えば、通常モードにおいて、自律動作型エージェントを、撮像することが推奨される方向へ移動させてもよい。また、表示制御部180は、撮像することが推奨されない方向に向けて撮像部102が操作されようとしている場合に、当該操作を妨げるアクションを自律動作型エージェントに行わせてもよい。また、表示制御部180は、例えば、探索モードにおいて、自律動作型エージェントを、未探索領域へ移動させてもよい。
自律動作型エージェントは、AR空間内で自律的に動作する仮想オブジェクトである。表示制御部180は、例えば、通常モードにおいて、自律動作型エージェントを、撮像することが推奨される方向へ移動させてもよい。また、表示制御部180は、撮像することが推奨されない方向に向けて撮像部102が操作されようとしている場合に、当該操作を妨げるアクションを自律動作型エージェントに行わせてもよい。また、表示制御部180は、例えば、探索モードにおいて、自律動作型エージェントを、未探索領域へ移動させてもよい。
図13は、自律動作型エージェントによる誘導の第1の例について説明するための説明図である。図13を参照すると、実空間20を拡張することにより形成されるAR空間内に、自律動作型エージェントVO2が存在する。実際には、エージェントVO2は、エージェントVO2が存在する場所をカメラで撮像することによって、初めて画面上でユーザにより視認される。ある時刻において、エージェントVO2は、AR空間内の位置P11に位置し、位置P16へ移動しようとしているものとする。ここで、エージェントVO2が位置P11から位置P16へ直線的に移動すると、ユーザがカメラアングル内にエージェントVO2を維持しようとした場合に、特徴点の無い(又は少ない)位置P19の近傍の領域で環境認識処理が失敗する可能性が高い。そこで、表示制御部180は、エージェントVO2を位置P16へ直線的に移動させる代わりに、十分な数の特徴点が存在する位置P12、P13、P14及びP15を辿るルートに沿ってエージェントVO2を移動させる。結果として、ユーザがカメラアングル内にエージェントVO2を維持しようとした場合にも、環境認識処理が失敗することなく、エージェントVO2の位置P16への移動は成功し得る。また、表示制御部180は、位置P13と位置P15との間の、近傍に存在する特徴点の数が減少する区間において、エージェントVO2をゆっくりと移動させる。それにより、特徴点群のうち追跡に失敗する特徴点の割合を抑制し、一時的に減少する特徴点を有効に活用して、環境認識処理の精度の低下を防止することができる。
図14は、自律動作型エージェントによる誘導の第2の例について説明するための説明図である。図14を参照すると、安定認識領域から外れる方向へユーザがカメラアングルを動かそうとしている。表示制御部180は、環境認識処理の結果からこのような操作を認識し、その操作を妨げるアクションをエージェントVO2に行わせる。図14の例では、エージェントVO2は、安定認識領域から外れる方向へ移動することを望まないことを示すメッセージMSGをユーザに伝えている。メッセージMSGは、仮想オブジェクトの1つであってもよく、又は音声メッセージであってもよい。また、ユーザによる操作を妨げるアクションは、図14に例示したようなメッセージの代わりに、エージェントVO2の何らかの表情又はジェスチャなどであってもよい。
図15は、自律動作型エージェントによる誘導の第3の例について説明するための説明図である。上述した第1及び第2の例は、通常モードにおける誘導の例であるのに対し、第3の例は、探索モードにおける誘導の例である。図15を参照すると、図13と同様の実空間20が再び示されており、自律動作型エージェントVO2は位置P11に位置する。探索モードにおいて、表示制御部180は、安定認識領域から外れる位置P19の方向へエージェントVO2を移動させる。ユーザは、カメラアングル内にエージェントVO2を維持しようとするものとする。結果的に、位置P19の近傍の領域に存在する実物体RO2及びRO3が入力画像に映り、これら実物体上の特徴点が新たに発見される。そして、位置P19の近傍の領域は、新たに安定認識領域として識別され得る。
なお、認識される実物体が動物体である場合には、当該動物体が動く結果として、特徴点マップに記憶されている特徴点の情報又は領域の情報が陳腐化する可能性がある。そこで、マップ管理部165は、特徴点マップに各特徴点の位置を登録する際に、各特徴点にタイムスタンプを付す(即ち、登録時刻を特徴点又は領域と関連付けて記憶させる)。そして、マップ管理部165は、登録時刻からの経過時間に応じて、特徴点マップ内のデータを破棄し得る。それにより、陳腐化した情報に基づく誘導を原因として、環境認識処理の安定度が却って低下してしまうことを防止することができる。
(2)仮想標識
仮想標識は、図形、アイコン又はテキストなどの簡易な仮想オブジェクトである。表示制御部180は、例えば、撮像することが推奨されない実空間内の領域をユーザに通知するための仮想標識を、入力画像に重畳してもよい。その代わりに又はそれに加えて、表示制御部180は、入力画像に映る特徴点の数又は偏りに応じたスコアをユーザに通知するための仮想標識を、入力画像に重畳してもよい。
仮想標識は、図形、アイコン又はテキストなどの簡易な仮想オブジェクトである。表示制御部180は、例えば、撮像することが推奨されない実空間内の領域をユーザに通知するための仮想標識を、入力画像に重畳してもよい。その代わりに又はそれに加えて、表示制御部180は、入力画像に映る特徴点の数又は偏りに応じたスコアをユーザに通知するための仮想標識を、入力画像に重畳してもよい。
図16は、仮想標識による誘導の第1の例について説明するための説明図である。図16を参照すると、実空間10を映す画像を表示している画像処理装置100が例示されている。画像処理装置100の画面には、仮想標識V03及びV04が表示されている。仮想標識V03は、安定認識領域とそれ以外の領域との間の境界を示す標識である。仮想標識V04は、安定認識領域以外の領域を示す標識である。このような標識を見ることにより、ユーザは、安定認識領域が入力画像内に継続的に映るように、端末を操作することができる。また、ユーザは、探索モードにおいて、未探索領域を積極的に撮像することにより、安定認識領域を広げることもできる。
図17は、仮想標識による誘導の第2の例について説明するための説明図である。図17の例において、画像処理装置100の画面には、仮想標識V05が透過的に表示されている。仮想標識V05は、一定のサイズの領域ごとに、特徴点の数又は特徴点の分布の偏りに応じたスコアを、領域の明るさ又は色などの属性によって示す標識である。図17の例では、より高い安定度での環境認識が可能な第1の領域、より低い安定度での環境認識が可能な第2の領域、及び環境認識が困難な第3の領域のいずれかに、各領域が仮想標識V05によって色分けされている。このような標識を見ることによっても、ユーザは、安定認識領域が入力画像内に継続的に映るように、端末を操作することができる。
図18は、仮想標識による誘導の第3の例について説明するための説明図である。図18の例において、画像処理装置100の画面には、仮想標識V06が表示されている。仮想標識V06は、画像に映る特徴点の数又は特徴点の分布の偏りに応じたスコアの大きさを示すインジケータである。カメラアングルの変化に応じて、仮想標識V06は、上述したスコアの変化をユーザに通知する。図18の右の例では、スコアが低下したことが仮想標識V06により示されていると共に、環境の認識が失敗する恐れがあることを通知するメッセージV07もまた表示されている。このような標識が表示されることにより、ユーザの操作は間接的に妨げられ、環境認識の失敗又は環境認識処理の安定度の低下が回避される。
(3)ユーザ操作型エージェント
ユーザ操作型エージェントは、AR空間内でユーザにより操作される仮想オブジェクトである。表示制御部180は、例えば、ユーザ操作型エージェントの移動可能領域を撮像することが推奨される領域に制限することにより、ユーザを誘導してもよい。撮像することが推奨される領域とは、通常モードにおいては認識安定領域であってよく、探索モードにおいては認識安定領域及び未探索領域の双方を含み得る。
ユーザ操作型エージェントは、AR空間内でユーザにより操作される仮想オブジェクトである。表示制御部180は、例えば、ユーザ操作型エージェントの移動可能領域を撮像することが推奨される領域に制限することにより、ユーザを誘導してもよい。撮像することが推奨される領域とは、通常モードにおいては認識安定領域であってよく、探索モードにおいては認識安定領域及び未探索領域の双方を含み得る。
図19は、ユーザ操作型エージェントによる誘導の一例について説明するための説明図である。図19を参照すると、実空間10を拡張することにより形成されるAR空間内に、ユーザ操作型エージェントVO8が存在する。エージェントVO8の右下の領域は、特徴点の無い(又は少ない)領域である。ユーザは、例えば画面上でのドラッグ操作によってエージェントVO8を操作する。しかし、図19の状況において、表示制御部180は、ユーザが右下方向(図中の矢印Arr1)へのドラッグを行ったとしても、当該方向へのエージェントVO8の移動を妨げ、例えば右上方向(図中の矢印Arr2)へエージェントVO8を移動させる。このようにユーザ操作型エージェントの移動可能領域が制限されることで、安定認識領域が継続的に撮像されるようにユーザを誘導することができる。
[2−4.処理の流れ]
(1)全体的な流れ
図20は、一実施形態に係る画像処理の全体的な流れの一例を示すフローチャートである。
(1)全体的な流れ
図20は、一実施形態に係る画像処理の全体的な流れの一例を示すフローチャートである。
図20を参照すると、まず、画像取得部120は、実空間を撮像することにより生成される入力画像を取得する(ステップS110)。そして、画像取得部120は、取得した入力画像を、認識部130及び表示制御部180へ出力する。
次に、認識部130は、入力画像に映る1つ以上の特徴点の位置に基づいて環境認識処理を実行し、実空間と撮像装置との間の相対的な位置及び姿勢を認識する(ステップS120)。ここで実行される環境認識処理は、例えば、図6を用いて説明したSLAM演算処理を含み得る。認識部130は、環境認識の結果、即ち、環境内のカメラの位置及び姿勢、特徴点の位置、並びに実物体の位置及び姿勢をマップDB160に記憶させる。
次に、アプリケーション部170は、認識部130による環境認識の結果に基づいて、ARアプリケーションの動作を実行する(ステップS130)。例えば、アプリケーション部170は、アプリケーションの目的に応じて選択される仮想オブジェクトを、入力画像に映るいずれかの実物体と関連付けて、AR空間内に配置する。
次に、表示制御部180は、環境認識処理が安定化するように、誘導制御処理を実行する(ステップS140)。ここで実行される誘導制御処理のより詳細な3つの例を、後にさらに説明する。
そして、表示制御部180は、アプリケーション部170により配置されたARアプリケーションのための仮想オブジェクト、及び誘導オブジェクトを、入力画像に重畳する(ステップS170)。
(2)誘導制御処理の第1の例
図21は、自律動作型エージェントが使用される場合の誘導制御処理の流れの一例を示すフローチャートである。
図21は、自律動作型エージェントが使用される場合の誘導制御処理の流れの一例を示すフローチャートである。
図21を参照すると、まず、表示制御部180は、特徴点の分布をマップDB160から取得する(ステップS141)。その後の処理は、動作モードが通常モード及び探索モードのいずれであるかに応じて分岐する(ステップS142)。動作モードが通常モードであれば、処理はステップS143へ進む。一方、動作モードが探索モードであれば、処理はステップS147へ進む。なお、探索モードは、例えばARアプリケーションの初期化フェーズにおいてAR空間を構築するために選択されてもよく、又はそれ以外のタイミングで選択されてもよい。
通常モードの場合、表示制御部180は、環境認識処理の結果から、端末の動きを推定する(ステップS143)。そして、表示制御部180は、推奨されない領域(例えば、安定認識領域以外の領域)が撮像されようとしているかを判定する(ステップS144)。例えば、表示制御部180は、直近の数フレーム分の端末の動きがさらに継続された場合にカメラアングルが安定認識領域から外れると予測される場合に、推奨されない領域が撮像されようとしていると判定してもよい。推奨されない領域が撮像されようとしていると判定された場合には、処理はステップS145へ進む。一方、そうでない場合には、処理はステップS146へ進む。
ステップS145では、表示制御部180は、ユーザによる操作を妨げるための自律動作型エージェントのアクションを決定する(ステップS145)。ここで決定されるアクションは、例えば、図14を用いて説明したようなアクションであってよい。
ステップS146では、表示制御部180は、特徴点の分布に従って、自律動作型エージェントの動きを決定する(ステップS146)。ここで決定される動きは、例えば、図13を用いて説明したような、安定認識領域を辿る動きであってよい。
ステップS147では、表示制御部180は、探索モードで動作しているため、未探索領域へ向かう自律動作型エージェントの動きを決定する(ステップS147)。
ステップS145、S146又はS147において決定されたエージェントの動き(又はアクション)は、図20に例示したステップS170において画面上で表示され、ユーザにより視認される。
(3)誘導制御処理の第2の例
図22は、仮想標識が使用される場合の誘導制御処理の流れの一例を示すフローチャートである。
図22は、仮想標識が使用される場合の誘導制御処理の流れの一例を示すフローチャートである。
図22を参照すると、まず、表示制御部180は、特徴点の分布をマップDB160から取得する(ステップS151)。その後の処理は、動作モードが通常モード及び探索モードのいずれであるかに応じて分岐する(ステップS152)。動作モードが通常モードであれば、処理はステップS153へ進む。一方、動作モードが探索モードであれば、処理はステップS157へ進む。
通常モードの場合、表示制御部180は、特徴点の分布に従って、1つ以上の仮想標識を生成する(ステップS153)。ここで生成される仮想標識は、例えば、図16〜図18を用いて説明したような標識であってよい。
次に、表示制御部180は、環境認識処理の結果から、端末の動きを推定する(ステップS154)。そして、表示制御部180は、推奨されない領域が撮像されようとしているかを判定する(ステップS155)。推奨されない領域が撮像されようとしていると判定された場合には、表示制御部180は、ユーザに警告するために、仮想標識を追加的に生成し、又はステップS153において生成した仮想標識の属性を変更する(ステップS156)。
ステップS157では、表示制御部180は、探索モードで動作しているため、例えば未探索領域をユーザに通知するための仮想標識を生成する(ステップS157)。
ステップS153、S156又はS157において生成された仮想標識は、図20に例示したステップS170において画面上で表示され、ユーザにより視認される。
(4)誘導制御処理の第3の例
図23は、ユーザ操作型エージェントが使用される場合の誘導制御処理の流れの一例を示すフローチャートである。
図23は、ユーザ操作型エージェントが使用される場合の誘導制御処理の流れの一例を示すフローチャートである。
図23を参照すると、まず、表示制御部180は、特徴点の分布をマップDB160から取得する(ステップS161)。また、表示制御部180は、エージェントを操作するために受け付けられるユーザ入力を取得する(ステップS162)。
その後の処理は、動作モードが通常モード及び探索モードのいずれであるかに応じて分岐する(ステップS163)。動作モードが通常モードであれば、処理はステップS164へ進む。一方、動作モードが探索モードであれば、処理はステップS166へ進む。
通常モードの場合、表示制御部180は、特徴点の分布に従ってAR空間内の移動可能領域を決定する(ステップS164)。そして、表示制御部180は、決定した移動可能領域の範囲内で、ユーザ入力に応じたユーザ操作型エージェントの動きを決定する(ステップS165)。
探索モードの場合、表示制御部180は、移動可能領域による制限を課すことなく、ユーザ入力に応じたユーザ操作型エージェントの動きを決定する(ステップS166)
ステップS165又はS166において決定されたエージェントの動きは、図20に例示したステップS170において画面上で表示され、ユーザにより視認される。
<3.総括>
ここまで、図1〜図22を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、入力画像に映る特徴点の位置に基づいて環境が認識され、当該認識の結果を用いてARアプリケーションが提供される際に、特徴点の分布に従って、環境認識処理が安定化するようにユーザが誘導される。従って、環境の認識が不安定となってARアプリケーションの利用に支障が出てしまう事態を回避することができる。
ここまで、図1〜図22を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、入力画像に映る特徴点の位置に基づいて環境が認識され、当該認識の結果を用いてARアプリケーションが提供される際に、特徴点の分布に従って、環境認識処理が安定化するようにユーザが誘導される。従って、環境の認識が不安定となってARアプリケーションの利用に支障が出てしまう事態を回避することができる。
また、上述した実施形態によれば、例えば、閾値を上回る数の特徴点が入力画像に継続的に映るように、誘導オブジェクトを用いて誘導が行われる。従って、十分な数の特徴点が入力画像内に維持され得ることから、ARアプリケーションが提供されている間、実空間と撮像装置との間の相対的な位置関係を継続的に認識して、アプリケーションの可用性を確保することができる。
また、上述した実施形態によれば、例えば、入力画像の一部に特徴点が偏ることを回避するように、誘導オブジェクトを用いて誘導が行われる。従って、ARアプリケーションが提供されている間、実空間と撮像装置との間の相対的な位置関係を安定的に高い精度で認識して、仮想オブジェクトが不適切な位置又は姿勢で配置されるなどの不具合を防止することができる。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
また、各装置の論理的機能の一部は、当該装置上に実装される代わりに、クラウドコンピューティング環境内に存在する装置上に実装されてもよい。その場合には、論理的機能の間でやり取りされる情報が、図4に例示した通信部112を介して装置間で送信され又は受信され得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、
前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、
を備える画像処理装置。
(2)
前記表示制御部は、閾値を上回る数の特徴点が前記入力画像に継続的に映るように、前記ユーザを前記誘導オブジェクトを用いて誘導する、前記(1)に記載の画像処理装置。
(3)
前記表示制御部は、前記入力画像の一部に特徴点が偏ることを回避するように、前記ユーザを前記誘導オブジェクトを用いて誘導する、前記(2)に記載の画像処理装置。
(4)
前記表示制御部は、前記入力画像に映る特徴点の数がより少ないほど、前記撮像装置がよりゆっくりと操作されるように、前記ユーザを前記誘導オブジェクトを用いて誘導する、前記(2)又は前記(3)に記載の画像処理装置。
(5)
前記誘導オブジェクトは、拡張現実空間内で自律的に動作するエージェントであり、
前記エージェントは、撮像することが推奨される方向へ移動する、
前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記エージェントは、撮像することが推奨されない方向へ前記撮像装置が操作されようとしている場合に、当該操作を妨げるアクションを行う、前記(5)に記載の画像処理装置。
(7)
前記誘導オブジェクトは、撮像することが推奨されない前記実空間内の領域を前記ユーザに通知する標識である、前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(8)
前記誘導オブジェクトは、前記入力画像に映る特徴点の数又は偏りに応じたスコアを前記ユーザに通知する標識である、前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(9)
前記誘導オブジェクトは、拡張現実空間内で前記ユーザにより操作されるエージェントであり、
前記エージェントの移動可能領域は、撮像することが推奨される領域に制限される、
前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(10)
前記画像処理装置は、過去に検出された1つ以上の特徴点の前記実空間内での位置を示す特徴点マップを記憶する記憶部、をさらに備え、
前記表示制御部は、撮像されることにより前記認識処理が安定化する前記実空間内の領域を、前記特徴点マップを用いて判定する、
前記(1)〜(9)のいずれか1項に記載の画像処理装置。
(11)
前記表示制御部は、第1の動作モードにおいて、前記認識処理が安定化するように前記ユーザを前記誘導オブジェクトを用いて誘導し、第2の動作モードにおいて、未知の特徴点が発見されるように前記ユーザを誘導する、前記(1)〜(10)のいずれか1項に記載の画像処理装置。
(12)
前記表示制御部は、前記第2の動作モードにおいて、前記撮像装置により未だ撮像されていない未探索領域が撮像されるように前記ユーザを誘導する、前記(11)に記載の画像処理装置。
(13)
前記誘導オブジェクトが拡張現実空間内で自律的に動作するエージェントである場合に、当該エージェントは、前記第2の動作モードにおいて、前記未探索領域へ移動する、前記(12)に記載の画像処理装置。
(14)
前記記憶部は、前記特徴点マップ内の各特徴点に関するデータの登録時刻を当該データと関連付けて記憶し、
前記画像処理装置は、前記登録時刻からの経過時間に応じて前記データを破棄するマップ管理部、をさらに備える、
前記(10)に記載の画像処理装置。
(15)
前記画像処理装置は、前記撮像装置をさらに備える携帯端末である、
前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(16)
前記画像取得部、前記認識部、前記アプリケーション部及び前記表示制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(15)のいずれか1項に記載の画像処理装置。
(17)
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得することと、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識処理を実行することと、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供することと、
前記認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳することと、
を含む画像処理方法。
(18)
画像処理装置を制御するコンピュータを、
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、
前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、
として機能させるためのプログラム。
(1)
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、
前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、
を備える画像処理装置。
(2)
前記表示制御部は、閾値を上回る数の特徴点が前記入力画像に継続的に映るように、前記ユーザを前記誘導オブジェクトを用いて誘導する、前記(1)に記載の画像処理装置。
(3)
前記表示制御部は、前記入力画像の一部に特徴点が偏ることを回避するように、前記ユーザを前記誘導オブジェクトを用いて誘導する、前記(2)に記載の画像処理装置。
(4)
前記表示制御部は、前記入力画像に映る特徴点の数がより少ないほど、前記撮像装置がよりゆっくりと操作されるように、前記ユーザを前記誘導オブジェクトを用いて誘導する、前記(2)又は前記(3)に記載の画像処理装置。
(5)
前記誘導オブジェクトは、拡張現実空間内で自律的に動作するエージェントであり、
前記エージェントは、撮像することが推奨される方向へ移動する、
前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記エージェントは、撮像することが推奨されない方向へ前記撮像装置が操作されようとしている場合に、当該操作を妨げるアクションを行う、前記(5)に記載の画像処理装置。
(7)
前記誘導オブジェクトは、撮像することが推奨されない前記実空間内の領域を前記ユーザに通知する標識である、前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(8)
前記誘導オブジェクトは、前記入力画像に映る特徴点の数又は偏りに応じたスコアを前記ユーザに通知する標識である、前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(9)
前記誘導オブジェクトは、拡張現実空間内で前記ユーザにより操作されるエージェントであり、
前記エージェントの移動可能領域は、撮像することが推奨される領域に制限される、
前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(10)
前記画像処理装置は、過去に検出された1つ以上の特徴点の前記実空間内での位置を示す特徴点マップを記憶する記憶部、をさらに備え、
前記表示制御部は、撮像されることにより前記認識処理が安定化する前記実空間内の領域を、前記特徴点マップを用いて判定する、
前記(1)〜(9)のいずれか1項に記載の画像処理装置。
(11)
前記表示制御部は、第1の動作モードにおいて、前記認識処理が安定化するように前記ユーザを前記誘導オブジェクトを用いて誘導し、第2の動作モードにおいて、未知の特徴点が発見されるように前記ユーザを誘導する、前記(1)〜(10)のいずれか1項に記載の画像処理装置。
(12)
前記表示制御部は、前記第2の動作モードにおいて、前記撮像装置により未だ撮像されていない未探索領域が撮像されるように前記ユーザを誘導する、前記(11)に記載の画像処理装置。
(13)
前記誘導オブジェクトが拡張現実空間内で自律的に動作するエージェントである場合に、当該エージェントは、前記第2の動作モードにおいて、前記未探索領域へ移動する、前記(12)に記載の画像処理装置。
(14)
前記記憶部は、前記特徴点マップ内の各特徴点に関するデータの登録時刻を当該データと関連付けて記憶し、
前記画像処理装置は、前記登録時刻からの経過時間に応じて前記データを破棄するマップ管理部、をさらに備える、
前記(10)に記載の画像処理装置。
(15)
前記画像処理装置は、前記撮像装置をさらに備える携帯端末である、
前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(16)
前記画像取得部、前記認識部、前記アプリケーション部及び前記表示制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(15)のいずれか1項に記載の画像処理装置。
(17)
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得することと、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識処理を実行することと、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供することと、
前記認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳することと、
を含む画像処理方法。
(18)
画像処理装置を制御するコンピュータを、
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、
前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、
として機能させるためのプログラム。
100 画像処理装置
102 撮像装置
120 画像取得部
130 認識部
162 特徴点マップ
170 アプリケーション部
180 表示制御部
102 撮像装置
120 画像取得部
130 認識部
162 特徴点マップ
170 アプリケーション部
180 表示制御部
Claims (18)
- 撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、
前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、
を備える画像処理装置。 - 前記表示制御部は、閾値を上回る数の特徴点が前記入力画像に継続的に映るように、前記ユーザを前記誘導オブジェクトを用いて誘導する、請求項1に記載の画像処理装置。
- 前記表示制御部は、前記入力画像の一部に特徴点が偏ることを回避するように、前記ユーザを前記誘導オブジェクトを用いて誘導する、請求項2に記載の画像処理装置。
- 前記表示制御部は、前記入力画像に映る特徴点の数がより少ないほど、前記撮像装置がよりゆっくりと操作されるように、前記ユーザを前記誘導オブジェクトを用いて誘導する、請求項2に記載の画像処理装置。
- 前記誘導オブジェクトは、拡張現実空間内で自律的に動作するエージェントであり、
前記エージェントは、撮像することが推奨される方向へ移動する、
請求項2に記載の画像処理装置。 - 前記エージェントは、撮像することが推奨されない方向へ前記撮像装置が操作されようとしている場合に、当該操作を妨げるアクションを行う、請求項5に記載の画像処理装置。
- 前記誘導オブジェクトは、撮像することが推奨されない前記実空間内の領域を前記ユーザに通知する標識である、請求項2に記載の画像処理装置。
- 前記誘導オブジェクトは、前記入力画像に映る特徴点の数又は偏りに応じたスコアを前記ユーザに通知する標識である、請求項2に記載の画像処理装置。
- 前記誘導オブジェクトは、拡張現実空間内で前記ユーザにより操作されるエージェントであり、
前記エージェントの移動可能領域は、撮像することが推奨される領域に制限される、
請求項2に記載の画像処理装置。 - 前記画像処理装置は、過去に検出された1つ以上の特徴点の前記実空間内での位置を示す特徴点マップを記憶する記憶部、をさらに備え、
前記表示制御部は、撮像されることにより前記認識処理が安定化する前記実空間内の領域を、前記特徴点マップを用いて判定する、
請求項1に記載の画像処理装置。 - 前記表示制御部は、第1の動作モードにおいて、前記認識処理が安定化するように前記ユーザを前記誘導オブジェクトを用いて誘導し、第2の動作モードにおいて、未知の特徴点が発見されるように前記ユーザを誘導する、請求項1に記載の画像処理装置。
- 前記表示制御部は、前記第2の動作モードにおいて、前記撮像装置により未だ撮像されていない未探索領域が撮像されるように前記ユーザを誘導する、請求項11に記載の画像処理装置。
- 前記誘導オブジェクトが拡張現実空間内で自律的に動作するエージェントである場合に、当該エージェントは、前記第2の動作モードにおいて、前記未探索領域へ移動する、請求項12に記載の画像処理装置。
- 前記記憶部は、前記特徴点マップ内の各特徴点に関するデータの登録時刻を当該データと関連付けて記憶し、
前記画像処理装置は、前記登録時刻からの経過時間に応じて前記データを破棄するマップ管理部、をさらに備える、
請求項10に記載の画像処理装置。 - 前記画像処理装置は、前記撮像装置をさらに備える携帯端末である、
請求項1に記載の画像処理装置。 - 前記画像取得部、前記認識部、前記アプリケーション部及び前記表示制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、請求項1に記載の画像処理装置。
- 撮像装置を用いて実空間を撮像することにより生成される入力画像を取得することと、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識処理を実行することと、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供することと、
前記認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳することと、
を含む画像処理方法。 - 画像処理装置を制御するコンピュータを、
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、
認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、
前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、
として機能させるためのプログラム。
Priority Applications (14)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012097714A JP2013225245A (ja) | 2012-04-23 | 2012-04-23 | 画像処理装置、画像処理方法及びプログラム |
EP13716450.5A EP2842016A1 (en) | 2012-04-23 | 2013-03-26 | Image processing apparatus, image processing method, and program |
BR112014025859A BR112014025859A8 (pt) | 2012-04-23 | 2013-03-26 | Sistema e métodos de processamento de informação, e, mídia legível |
AU2013254193A AU2013254193A1 (en) | 2012-04-23 | 2013-03-26 | Image processing apparatus, image processing method, and program |
PCT/JP2013/002059 WO2013161182A1 (en) | 2012-04-23 | 2013-03-26 | Image processing apparatus, image processing method, and program |
US14/391,874 US9373196B2 (en) | 2012-04-23 | 2013-03-26 | Image processing apparatus, image processing method, and program |
CN201310130640XA CN103377374A (zh) | 2012-04-23 | 2013-04-16 | 信息处理系统、信息处理方法和程序 |
US15/162,246 US9552677B2 (en) | 2012-04-23 | 2016-05-23 | Image processing apparatus, image processing method, and program |
US15/384,754 US9842435B2 (en) | 2012-04-23 | 2016-12-20 | Image processing to provide stable environment recognition |
US15/816,500 US10950053B2 (en) | 2012-04-23 | 2017-11-17 | Image processing apparatus and image processing method |
US17/181,051 US11468648B2 (en) | 2012-04-23 | 2021-02-22 | Image processing apparatus and image processing method |
US17/823,668 US12347039B2 (en) | 2012-04-23 | 2022-08-31 | Image processing apparatus and image processing method |
US18/825,414 US20240428534A1 (en) | 2012-04-23 | 2024-09-05 | Image processing apparatus and image processing method |
US19/069,511 US20250200913A1 (en) | 2012-04-23 | 2025-03-04 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012097714A JP2013225245A (ja) | 2012-04-23 | 2012-04-23 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013225245A true JP2013225245A (ja) | 2013-10-31 |
Family
ID=48096123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012097714A Pending JP2013225245A (ja) | 2012-04-23 | 2012-04-23 | 画像処理装置、画像処理方法及びプログラム |
Country Status (7)
Country | Link |
---|---|
US (8) | US9373196B2 (ja) |
EP (1) | EP2842016A1 (ja) |
JP (1) | JP2013225245A (ja) |
CN (1) | CN103377374A (ja) |
AU (1) | AU2013254193A1 (ja) |
BR (1) | BR112014025859A8 (ja) |
WO (1) | WO2013161182A1 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015098292A1 (ja) * | 2013-12-25 | 2015-07-02 | ソニー株式会社 | 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム |
US9380179B2 (en) | 2013-11-18 | 2016-06-28 | Konica Minolta, Inc. | AR display device in which an image is overlapped with a reality space, AR display control device, print condition setting system, print system, print setting display method, and non-transitory computer-readable recording medium |
WO2016199605A1 (ja) * | 2015-06-12 | 2016-12-15 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP2016220198A (ja) * | 2015-05-20 | 2016-12-22 | キヤノン株式会社 | 情報処理装置、方法、プログラム |
EP3113110A1 (en) | 2015-06-16 | 2017-01-04 | Fujitsu Limited | Image processing device and image processing method |
JP2017091470A (ja) * | 2015-11-17 | 2017-05-25 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2017119160A1 (ja) * | 2016-01-07 | 2017-07-13 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及びサーバ |
WO2017163384A1 (ja) * | 2016-03-24 | 2017-09-28 | 三菱電機株式会社 | データ処理装置、データ処理方法及びデータ処理プログラム |
WO2019013204A1 (ja) * | 2017-07-14 | 2019-01-17 | キヤノン株式会社 | 情報を提示する情報処理装置、情報処理方法及びプログラム |
JP2020509505A (ja) * | 2017-03-06 | 2020-03-26 | Line株式会社 | 拡張現実を提供するための方法、装置及びコンピュータプログラム |
JP2020057358A (ja) * | 2018-10-01 | 2020-04-09 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ポーズ情報を取得する方法及び装置 |
JP2020201572A (ja) * | 2019-06-06 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2021117543A1 (ja) * | 2019-12-09 | 2021-06-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2021530817A (ja) * | 2018-07-24 | 2021-11-11 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | 画像ディスプレイデバイスの位置特定マップを決定および/または評価するための方法および装置 |
JP2023511332A (ja) * | 2020-01-27 | 2023-03-17 | マジック リープ, インコーポレイテッド | 拡張現実マップキュレーション |
WO2025052902A1 (ja) * | 2023-09-05 | 2025-03-13 | ソニーグループ株式会社 | 画像処理方法、画像処理装置、画像処理システム |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
JP5790692B2 (ja) * | 2013-03-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法および記録媒体 |
CN105408937B (zh) | 2013-05-02 | 2018-02-13 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
CN111985344B (zh) * | 2013-12-17 | 2025-02-07 | 索尼公司 | 信息处理设备和方法以及非易失性计算机可读存储介质 |
JP6234349B2 (ja) * | 2014-09-16 | 2017-11-22 | 株式会社東芝 | 移動体位置推定装置、移動体位置推定方法及び移動体位置推定プログラム |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
WO2016185704A1 (en) * | 2015-05-20 | 2016-11-24 | Canon Kabushiki Kaisha | Information processing apparatus, method, and program |
JP6569452B2 (ja) * | 2015-10-08 | 2019-09-04 | 富士通株式会社 | 画像生成システム、画像生成プログラム及び画像生成方法 |
JP6690277B2 (ja) * | 2016-02-09 | 2020-04-28 | 富士通株式会社 | 画像処理制御方法、画像処理制御プログラムおよび情報処理装置 |
US11477382B2 (en) * | 2016-02-19 | 2022-10-18 | Fotonation Limited | Method of stabilizing a sequence of images |
US10484547B2 (en) * | 2016-11-01 | 2019-11-19 | Disney Enterprises, Inc. | Systems and methods of distributing image effects for user experiences |
CN107274431A (zh) * | 2017-03-07 | 2017-10-20 | 阿里巴巴集团控股有限公司 | 视频内容增强方法及装置 |
CN107085857B (zh) * | 2017-05-25 | 2018-03-09 | 广东电网有限责任公司教育培训评价中心 | 电力电缆定位方法、装置和系统 |
US10841486B2 (en) * | 2017-07-20 | 2020-11-17 | Eclo, Inc. | Augmented reality for three-dimensional model reconstruction |
US20190057180A1 (en) * | 2017-08-18 | 2019-02-21 | International Business Machines Corporation | System and method for design optimization using augmented reality |
CN107918955A (zh) * | 2017-11-15 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 增强现实方法和装置 |
JP7011472B2 (ja) * | 2018-01-15 | 2022-01-26 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
CN110119190A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 定位方法、装置、识别跟踪系统及计算机可读介质 |
CN110120099A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 定位方法、装置、识别跟踪系统及计算机可读介质 |
CA3031276A1 (en) | 2018-02-08 | 2019-08-08 | Ascension Technology Corporation | Compensating for distortion in an electromagnetic tracking system |
GB2571306A (en) * | 2018-02-23 | 2019-08-28 | Sony Interactive Entertainment Europe Ltd | Video recording and playback systems and methods |
US10861186B2 (en) * | 2018-08-28 | 2020-12-08 | Rpx Corporation | Voting space-based loop closure detection |
TWI695966B (zh) * | 2019-01-28 | 2020-06-11 | 林器弘 | 用於移動通訊裝置之室內定位導航系統 |
US11610414B1 (en) * | 2019-03-04 | 2023-03-21 | Apple Inc. | Temporal and geometric consistency in physical setting understanding |
JP2021051497A (ja) | 2019-09-24 | 2021-04-01 | 東芝テック株式会社 | 情報処理装置及びプログラム |
CN110611768B (zh) * | 2019-09-27 | 2021-06-29 | 北京小米移动软件有限公司 | 多重曝光摄影方法及装置 |
CN111160466B (zh) * | 2019-12-30 | 2022-02-22 | 深圳纹通科技有限公司 | 一种基于直方图统计的特征匹配算法 |
JP1673636S (ja) * | 2020-02-17 | 2020-11-30 | ||
US11138802B1 (en) * | 2020-04-06 | 2021-10-05 | Saudi Arabian Oil Company | Geo-augmented field excursion for geological sites |
CN111681283B (zh) * | 2020-05-11 | 2023-04-07 | 哈尔滨工业大学 | 一种基于单目立体视觉的应用于无线充电对位的相对位姿解算方法 |
CN112710325B (zh) * | 2020-12-15 | 2024-08-20 | 北京百度网讯科技有限公司 | 导航引导、实景三维模型建立方法、装置、设备及介质 |
US12070689B2 (en) * | 2021-01-27 | 2024-08-27 | Square Enix Co., Ltd. | Non-transitory computer readable medium including object linking program and object linking system |
CN112819970B (zh) * | 2021-02-19 | 2023-12-26 | 联想(北京)有限公司 | 一种控制方法、装置及电子设备 |
TWI845095B (zh) * | 2022-01-05 | 2024-06-11 | 宏達國際電子股份有限公司 | 追蹤效能呈現方法及主機 |
CN118430334A (zh) * | 2024-07-01 | 2024-08-02 | 广东艾科智泊科技股份有限公司 | 一种基于图像识别定位的停车场寻路方案 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7774158B2 (en) * | 2002-12-17 | 2010-08-10 | Evolution Robotics, Inc. | Systems and methods for landmark generation for visual simultaneous localization and mapping |
JP2006098256A (ja) | 2004-09-30 | 2006-04-13 | Ricoh Co Ltd | 3次元サーフェスモデル作成システム、画像処理システム、プログラム及び情報記録媒体 |
KR101188588B1 (ko) | 2008-03-27 | 2012-10-08 | 주식회사 만도 | 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법 |
JP4985516B2 (ja) | 2008-03-27 | 2012-07-25 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP5728159B2 (ja) | 2010-02-02 | 2015-06-03 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP5812599B2 (ja) | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | 情報処理方法及びその装置 |
KR101669119B1 (ko) * | 2010-12-14 | 2016-10-25 | 삼성전자주식회사 | 다층 증강 현실 시스템 및 방법 |
JP5728372B2 (ja) | 2011-11-30 | 2015-06-03 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
US20130215230A1 (en) * | 2012-02-22 | 2013-08-22 | Matt Miesnieks | Augmented Reality System Using a Portable Device |
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
-
2012
- 2012-04-23 JP JP2012097714A patent/JP2013225245A/ja active Pending
-
2013
- 2013-03-26 WO PCT/JP2013/002059 patent/WO2013161182A1/en active Application Filing
- 2013-03-26 BR BR112014025859A patent/BR112014025859A8/pt not_active IP Right Cessation
- 2013-03-26 AU AU2013254193A patent/AU2013254193A1/en not_active Abandoned
- 2013-03-26 US US14/391,874 patent/US9373196B2/en active Active
- 2013-03-26 EP EP13716450.5A patent/EP2842016A1/en not_active Withdrawn
- 2013-04-16 CN CN201310130640XA patent/CN103377374A/zh active Pending
-
2016
- 2016-05-23 US US15/162,246 patent/US9552677B2/en active Active
- 2016-12-20 US US15/384,754 patent/US9842435B2/en active Active
-
2017
- 2017-11-17 US US15/816,500 patent/US10950053B2/en active Active
-
2021
- 2021-02-22 US US17/181,051 patent/US11468648B2/en active Active
-
2022
- 2022-08-31 US US17/823,668 patent/US12347039B2/en active Active
-
2024
- 2024-09-05 US US18/825,414 patent/US20240428534A1/en active Pending
-
2025
- 2025-03-04 US US19/069,511 patent/US20250200913A1/en active Pending
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9380179B2 (en) | 2013-11-18 | 2016-06-28 | Konica Minolta, Inc. | AR display device in which an image is overlapped with a reality space, AR display control device, print condition setting system, print system, print setting display method, and non-transitory computer-readable recording medium |
US10324523B2 (en) | 2013-12-25 | 2019-06-18 | Sony Corporation | Rendering virtual images based on predicted head posture |
JPWO2015098292A1 (ja) * | 2013-12-25 | 2017-03-23 | ソニー株式会社 | 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム |
WO2015098292A1 (ja) * | 2013-12-25 | 2015-07-02 | ソニー株式会社 | 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム |
JP2016220198A (ja) * | 2015-05-20 | 2016-12-22 | キヤノン株式会社 | 情報処理装置、方法、プログラム |
WO2016199605A1 (ja) * | 2015-06-12 | 2016-12-15 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US10636168B2 (en) | 2015-06-12 | 2020-04-28 | Sony Corporation | Image processing apparatus, method, and program |
EP3113110A1 (en) | 2015-06-16 | 2017-01-04 | Fujitsu Limited | Image processing device and image processing method |
US10102647B2 (en) | 2015-06-16 | 2018-10-16 | Fujitsu Limited | Image processing device, image processing method, and non-transitory computer-readable storage medium that determines camera position based on a comparison of estimated postures |
JP2017091470A (ja) * | 2015-11-17 | 2017-05-25 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2017119160A1 (ja) * | 2016-01-07 | 2017-07-13 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及びサーバ |
WO2017163384A1 (ja) * | 2016-03-24 | 2017-09-28 | 三菱電機株式会社 | データ処理装置、データ処理方法及びデータ処理プログラム |
JPWO2017163384A1 (ja) * | 2016-03-24 | 2018-04-05 | 三菱電機株式会社 | データ処理装置、データ処理方法及びデータ処理プログラム |
JP2020509505A (ja) * | 2017-03-06 | 2020-03-26 | Line株式会社 | 拡張現実を提供するための方法、装置及びコンピュータプログラム |
JP2019020997A (ja) * | 2017-07-14 | 2019-02-07 | キヤノン株式会社 | 情報処理装置及びその制御方法、並びに、プログラム |
WO2019013204A1 (ja) * | 2017-07-14 | 2019-01-17 | キヤノン株式会社 | 情報を提示する情報処理装置、情報処理方法及びプログラム |
US11108964B2 (en) | 2017-07-14 | 2021-08-31 | Canon Kabushiki Kaisha | Information processing apparatus presenting information, information processing method, and storage medium |
US11687151B2 (en) | 2018-07-24 | 2023-06-27 | Magic Leap, Inc. | Methods and apparatuses for determining and/or evaluating localizing maps of image display devices |
JP2021530817A (ja) * | 2018-07-24 | 2021-11-11 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | 画像ディスプレイデバイスの位置特定マップを決定および/または評価するための方法および装置 |
US12079382B2 (en) | 2018-07-24 | 2024-09-03 | Magic Leap, Inc. | Methods and apparatuses for determining and/or evaluating localizing maps of image display devices |
JP7309849B2 (ja) | 2018-07-24 | 2023-07-18 | マジック リープ, インコーポレイテッド | 画像ディスプレイデバイスの位置特定マップを決定および/または評価するための方法および装置 |
JP2020057358A (ja) * | 2018-10-01 | 2020-04-09 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ポーズ情報を取得する方法及び装置 |
CN110992405A (zh) * | 2018-10-01 | 2020-04-10 | 三星电子株式会社 | 用于输出姿态信息的方法和装置 |
JP7365148B2 (ja) | 2018-10-01 | 2023-10-19 | 三星電子株式会社 | ポーズ情報を取得する方法及び装置 |
US11423622B2 (en) | 2019-06-06 | 2022-08-23 | Canon Kabushiki Kaisha | Apparatus for generating feature positions in a virtual world, information processing method, and storage medium |
JP2020201572A (ja) * | 2019-06-06 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7341736B2 (ja) | 2019-06-06 | 2023-09-11 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2021117543A1 (ja) * | 2019-12-09 | 2021-06-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
US12188772B2 (en) | 2019-12-09 | 2025-01-07 | Sony Group Corporation | Information processing apparatus and information processing method for self-position estimation |
JP2023511332A (ja) * | 2020-01-27 | 2023-03-17 | マジック リープ, インコーポレイテッド | 拡張現実マップキュレーション |
JP7490784B2 (ja) | 2020-01-27 | 2024-05-27 | マジック リープ, インコーポレイテッド | 拡張現実マップキュレーション |
WO2025052902A1 (ja) * | 2023-09-05 | 2025-03-13 | ソニーグループ株式会社 | 画像処理方法、画像処理装置、画像処理システム |
Also Published As
Publication number | Publication date |
---|---|
US11468648B2 (en) | 2022-10-11 |
US20220414993A1 (en) | 2022-12-29 |
EP2842016A1 (en) | 2015-03-04 |
US20170103578A1 (en) | 2017-04-13 |
CN103377374A (zh) | 2013-10-30 |
AU2013254193A1 (en) | 2014-07-03 |
US12347039B2 (en) | 2025-07-01 |
US9373196B2 (en) | 2016-06-21 |
US20240428534A1 (en) | 2024-12-26 |
US10950053B2 (en) | 2021-03-16 |
US9552677B2 (en) | 2017-01-24 |
US20210248828A1 (en) | 2021-08-12 |
WO2013161182A1 (en) | 2013-10-31 |
BR112014025859A8 (pt) | 2017-07-25 |
US20180137686A1 (en) | 2018-05-17 |
BR112014025859A2 (ja) | 2017-06-20 |
US20250200913A1 (en) | 2025-06-19 |
US20150077434A1 (en) | 2015-03-19 |
US20160267718A1 (en) | 2016-09-15 |
US9842435B2 (en) | 2017-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12347039B2 (en) | Image processing apparatus and image processing method | |
US11941766B2 (en) | Image processing apparatus, image processing method, and program | |
JP5920352B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US9823821B2 (en) | Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
EP2812770B1 (en) | Image processing device, and computer program product | |
EP2814000B1 (en) | Image processing apparatus, image processing method, and program | |
JP2011095797A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN106484098B (zh) | 用户界面的实时交互操作系统和方法 | |
JP2013164697A (ja) | 画像処理装置、画像処理方法、プログラム及び画像処理システム | |
US20210327160A1 (en) | Authoring device, authoring method, and storage medium storing authoring program | |
JP6172233B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN106125937B (zh) | 一种信息处理方法和处理器 | |
JP5991418B2 (ja) | 画像処理装置、画像処理方法及びプログラム |