JP2015001875A - 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット - Google Patents
画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセットInfo
- Publication number
- JP2015001875A JP2015001875A JP2013126616A JP2013126616A JP2015001875A JP 2015001875 A JP2015001875 A JP 2015001875A JP 2013126616 A JP2013126616 A JP 2013126616A JP 2013126616 A JP2013126616 A JP 2013126616A JP 2015001875 A JP2015001875 A JP 2015001875A
- Authority
- JP
- Japan
- Prior art keywords
- recognition target
- image
- recognition
- primary
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
【課題】処理コストの増加を抑制しつつ、表示可能なARオブジェクトの多様性を高めることのできる仕組みを提供すること。【解決手段】一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、を備える画像処理装置を提供する。【選択図】図7
Description
本開示は、画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセットに関する。
近年注目されている拡張現実(AR:Augmented Reality)技術は、実空間を映す画像に関連付けられるAR空間内に仮想的なオブジェクト(ARオブジェクト)を配置し、配置したARオブジェクトの画像を実空間の画像と共に画面に表示させる。それにより、実空間にそのARオブジェクトがあたかも存在しているかのようなユーザ体験が、画面上で提供される。表示すべきARオブジェクトは、予め固定的に定義され、又は撮像された実オブジェクトの種類に依存して選択される。
一例として、下記特許文献1は、動物を描いた絵本が撮像された場合に、撮像画像に映る動物を模したARオブジェクトをAR空間に配置するARアプリケーションを開示している。このARアプリケーションでは、各ARオブジェクトに対応する動物の既知画像の特徴量が予めデータベースに登録される。そして、撮像画像の特徴量と既知画像の特徴量との照合の結果として、どの動物が撮像画像に映っているか、即ちどの動物のARオブジェクトを表示すべきかが決定される。
表示されるARオブジェクトが多様であればあるほど、ARアプリケーションの魅力は向上するであろう。しかしながら、ARオブジェクトの多様性を高めるために多くの種類の実オブジェクトを認識しなければならないとすれば、照合すべき特徴データが増加し、処理コストが多大となる。そのため、既存の手法では、処理リソースの制約がARオブジェクトの多様性を高めることを妨げていた。
従って、処理コストの増加を抑制しつつ、表示可能なARオブジェクトの多様性を高めることのできる仕組みが提供されることが望ましい。
本開示によれば、一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、を備える画像処理装置が提供される。
また、本開示によれば、一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得することと、前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定することと、設定された当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定することと、を含む画像処理方法が提供される。
また、本開示によれば、画像処理装置を制御するコンピュータを、一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、として機能させるためのプログラムが提供される。
また、本開示によれば、印刷面を有する印刷媒体であって、前記印刷媒体を映す画像に拡張現実空間を関連付けるために使用される、前記印刷面に印刷された一次認識対象と前記拡張現実空間に配置される拡張現実オブジェクトを決定するために使用される、前記印刷面に印刷された二次認識対象又は当該二次認識対象のための編集領域と、を含む印刷媒体が提供される。
また、本開示によれば、上述した印刷媒体を複数含む印刷媒体のセットであって、2つ以上の前記印刷媒体は、共通的な外見を有する前記一次認識対象と、異なる値が符号化された前記二次認識対象と、を含む、印刷媒体のセットが提供される。
本開示に係る技術によれば、処理コストの増加を抑制しつつ、表示可能なARオブジェクトの多様性を高めることができる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
1−1.システムの全体像
1−2.認識対象の例
2.画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
2−3.処理の流れ
3.応用例
3−1.実オブジェクトの例
3−2.HMDの利用
3−3.複数の装置の連携
4.まとめ
1.概要
1−1.システムの全体像
1−2.認識対象の例
2.画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
2−3.処理の流れ
3.応用例
3−1.実オブジェクトの例
3−2.HMDの利用
3−3.複数の装置の連携
4.まとめ
<1.概要>
まず、図1〜図5を用いて、本開示に係る画像処理システムの概要を説明する。
まず、図1〜図5を用いて、本開示に係る画像処理システムの概要を説明する。
[1−1.システムの全体像]
図1は、一実施形態に係る画像処理システムの概要について説明するための説明図である。図1を参照すると、ユーザUaが有する画像処理装置100が示されている。画像処理装置100は、実空間1を撮像するカメラ102と、ディスプレイ110とを備える。図1の例において、実空間1には、テーブル11、コーヒーカップ12、カードセット13及び本14が存在している。画像処理装置100のカメラ102は、このような実空間1を撮像し、実空間1内の実オブジェクトを映す映像を構成する一連の画像を生成する。そして、画像処理装置100は、カメラ102により生成される撮像画像を入力画像として画像処理を行い、出力画像を生成する。本実施形態において、典型的には、出力画像は、入力画像にARオブジェクトを重畳することにより生成される。画像処理装置100のディスプレイ110は、生成された出力画像を順次表示する。なお、図1に示した実空間1は、一例に過ぎない。画像処理装置100は、いかなる実オブジェクトを映した画像を処理してもよい。
図1は、一実施形態に係る画像処理システムの概要について説明するための説明図である。図1を参照すると、ユーザUaが有する画像処理装置100が示されている。画像処理装置100は、実空間1を撮像するカメラ102と、ディスプレイ110とを備える。図1の例において、実空間1には、テーブル11、コーヒーカップ12、カードセット13及び本14が存在している。画像処理装置100のカメラ102は、このような実空間1を撮像し、実空間1内の実オブジェクトを映す映像を構成する一連の画像を生成する。そして、画像処理装置100は、カメラ102により生成される撮像画像を入力画像として画像処理を行い、出力画像を生成する。本実施形態において、典型的には、出力画像は、入力画像にARオブジェクトを重畳することにより生成される。画像処理装置100のディスプレイ110は、生成された出力画像を順次表示する。なお、図1に示した実空間1は、一例に過ぎない。画像処理装置100は、いかなる実オブジェクトを映した画像を処理してもよい。
図1では、画像処理装置100の一例としてスマートフォンを示している。しかしながら、画像処理装置100は、かかる例に限定されない。画像処理装置100は、例えば、タブレットPC(Personal Computer)、ノートPC、携帯型ゲーム端末、PND(Portable Navigation Device)若しくはデジタルカメラなどのモバイルデバイスであってもい。また、画像処理装置100は、HMD(Head Mounted Display)端末などのウェアラブルデバイスであってもよい。
[1−2.認識対象の例]
本開示に係る技術では、ARアプリケーションのために、一次認識対象と二次認識対象とを有する実オブジェクトを映す画像が、入力画像として取得される。一次認識対象は、撮像面に対する実オブジェクトの相対的な配置を計算するために、画像処理装置100により認識される。本明細書において、「配置(arrangement)」との用語は、2次元又は3次元の座標系における、位置(並行移動)、姿勢(回転)及びサイズ(スケーリング)のうち少なくとも1つを含むものとする。AR空間は、一次認識対象についての画像認識に基づいて、入力画像に関連付けて設定される。二次認識対象は、一次認識対象についての画像認識に基づいて画像処理装置100により認識される。AR空間に配置されるARオブジェクトは、認識される二次認識対象に依存して決定される。
本開示に係る技術では、ARアプリケーションのために、一次認識対象と二次認識対象とを有する実オブジェクトを映す画像が、入力画像として取得される。一次認識対象は、撮像面に対する実オブジェクトの相対的な配置を計算するために、画像処理装置100により認識される。本明細書において、「配置(arrangement)」との用語は、2次元又は3次元の座標系における、位置(並行移動)、姿勢(回転)及びサイズ(スケーリング)のうち少なくとも1つを含むものとする。AR空間は、一次認識対象についての画像認識に基づいて、入力画像に関連付けて設定される。二次認識対象は、一次認識対象についての画像認識に基づいて画像処理装置100により認識される。AR空間に配置されるARオブジェクトは、認識される二次認識対象に依存して決定される。
(1)第1の例
図2A及び図2Bは、一次認識対象及び二次認識対象のペアの第1の例について説明するための説明図である。第1の例において、一次認識対象は、マーカの役割を有する絵柄(いわゆる自然マーカ)である。二次認識対象は、可視的なコードである。一次認識対象及び二次認識対象は、実オブジェクトであるカードの印刷面に印刷される。一次認識対象に対する二次認識対象の相対的な配置は、予め固定的に定義される。
図2A及び図2Bは、一次認識対象及び二次認識対象のペアの第1の例について説明するための説明図である。第1の例において、一次認識対象は、マーカの役割を有する絵柄(いわゆる自然マーカ)である。二次認識対象は、可視的なコードである。一次認識対象及び二次認識対象は、実オブジェクトであるカードの印刷面に印刷される。一次認識対象に対する二次認識対象の相対的な配置は、予め固定的に定義される。
図2Aの左には、カードセット13に含まれるカード13aが示されている。カード13aの印刷面には、一次認識対象G1a及び二次認識対象G2aが印刷されている。一次認識対象G1aは、ロボット型のキャラクターの外見を表現する絵柄である。二次認識対象G2aは、3つの矩形のフィールドを有する可視的なコードである。図2Aの例では、3つのフィールドはいずれも空白である。画像処理装置100は、例えば、カード13aを映す入力画像から抽出される複数の特徴点を一次認識対象G1aの既知画像の特徴点セットと照合することにより、入力画像に一次認識対象G1aがどのような配置で映っているかを認識し得る。また、画像処理装置100は、二次認識対象G2aについて認識処理を実行し、二次認識対象G2aのコード値を認識する。そして、画像処理装置100は、認識したコード値に対応するARオブジェクトを、AR空間に配置する。図2Aの例では、キャラクター31aがAR空間に配置すべきARオブジェクトとして決定されている。
図2Bの左には、カードセット13に含まれるカード13bが示されている。カード13bの印刷面には、一次認識対象G1a及び二次認識対象G2bが印刷されている。一次認識対象G1aがカード13aとカード13bとで共通的な外見を有するため、画像処理装置100は、1つの特徴点セットを用いて、入力画像内のカード13aの配置を認識することも、入力画像内のカード13bの配置を認識することもできる。二次認識対象G2bは、図2Aに示した二次認識対象G2aと同様、3つの矩形のフィールドを有する可視的なコードである。図2Bの例では、3つのフィールドのうちの2つが塗りつぶされている。画像処理装置100は、二次認識対象G2bについて認識処理を実行し、二次認識対象G2bのコード値を認識する。そして、画像処理装置100は、認識したコード値に対応するARオブジェクトを、AR空間に配置する。図2Bの例では、キャラクター31bがAR空間に配置すべきARオブジェクトとして決定されている。
(2)第2の例
図3A及び図3Bは、一次認識対象及び二次認識対象のペアの第2の例について説明するための説明図である。第2の例において、一次認識対象は、パターン化された図形(いわゆる人工マーカ)である。二次認識対象は、可視的なコードである。一次認識対象及び二次認識対象は、実オブジェクトである本の印刷面に印刷される。一次認識対象に対する二次認識対象の相対的な配置は、予め固定的に定義される。
図3A及び図3Bは、一次認識対象及び二次認識対象のペアの第2の例について説明するための説明図である。第2の例において、一次認識対象は、パターン化された図形(いわゆる人工マーカ)である。二次認識対象は、可視的なコードである。一次認識対象及び二次認識対象は、実オブジェクトである本の印刷面に印刷される。一次認識対象に対する二次認識対象の相対的な配置は、予め固定的に定義される。
図3Aの左には、本14のページ14aが示されている。ページ14aの印刷面には、一次認識対象G3a及び二次認識対象G4aが印刷されている。一次認識対象G3aは、ライオンを描いた絵柄16aを囲む枠である。二次認識対象G4aは、バーコードである。画像処理装置100は、例えば、一次認識対象G3aについての既知のパターンをページ14aを映す入力画像から検出し、検出したパターンの形状及びサイズから入力画像に一次認識対象G3aがどのような配置で映っているかを認識し得る。また、画像処理装置100は、二次認識対象G4aについて認識処理を実行し(即ち、バーコードを読み取り)、二次認識対象G4aのコード値を認識する。そして、画像処理装置100は、認識したコード値に対応するARオブジェクトを、AR空間に配置する。図3Aの例では、キャラクター32aがAR空間に配置すべきARオブジェクトとして決定されている。
図3Bの左には、本14のページ14bが示されている。ページ14bの印刷面には、一次認識対象G3a及び二次認識対象G4bが印刷されている。一次認識対象G3aがページ14aとページ14bとで共通的な外見を有するため、画像処理装置100は、1つの既知のパターンを用いて、入力画像内のページ14aの配置を認識することも、入力画像内のページ14bの配置を認識することもできる。二次認識対象G4bは、図3Aに示した二次認識対象G4aと同様、バーコードである。画像処理装置100は、二次認識対象G4bについて認識処理を実行し(即ち、バーコードを読み取り)、二次認識対象G4bのコード値を認識する。そして、画像処理装置100は、認識したコード値に対応するARオブジェクトを、AR空間に配置する。図3Bの例では、キャラクター32bがAR空間に配置すべきARオブジェクトとして決定されている。
一次認識対象として使用されるマーカは、図2A〜図3Bに示した例に限定されず、任意の図形、記号、文字列若しくは絵柄、又はそれらの組合せであってよい。一次認識対象として、例えばサイバーコード(登録商標)のような2次元コードが使用されてもよい。
(3)二次認識対象のユーザによる編集
二次認識対象のコードは、ユーザにより編集可能であってもよい。図4Aは、二次認識対象のユーザによる編集の第1の例について説明するための説明図である。図4Aを参照すると、図2Aに例示したカード13aが再び示されている。第1の例において、ユーザUaは、二次認識対象G2aのフィールドをペンで塗りつぶすことにより、二次認識対象G2aのコード値を書き換えている。
二次認識対象のコードは、ユーザにより編集可能であってもよい。図4Aは、二次認識対象のユーザによる編集の第1の例について説明するための説明図である。図4Aを参照すると、図2Aに例示したカード13aが再び示されている。第1の例において、ユーザUaは、二次認識対象G2aのフィールドをペンで塗りつぶすことにより、二次認識対象G2aのコード値を書き換えている。
図4Bは、二次認識対象のユーザによる編集の第2の例について説明するための説明図である。図4Bを参照すると、図2Aに例示したカード13aが再び示されている。第2の例において、ユーザUaは、二次認識対象G2aのフィールドにシール17を貼り付けることにより、二次認識対象G2aのコード値を書き換えている。
図4A及び図4Bの例において、編集後の二次認識対象G2aについて認識処理が実行されると、二次認識対象G2aがどのように編集されたかに依存して異なるコード値が認識される。それに応じて、AR空間に配置されるARオブジェクトも変化し得る。一例として、二次認識対象が3つのフィールドを有し、各フィールドが白色又は黒色を有する場合には、8(=23)通りのARオブジェクトを識別することができる。フィールドの数は、1つ以上のいかなる数であってもよい。これらフィールドは、3種類以上の色を有していてもよい。一方、カード13aの一次認識対象G1aは共通的であるため、画像処理装置100は、入力画像に映るカード13aの配置を計算するために、一次認識対象G1aについての1つの特徴点セットのみを、入力画像から抽出される特徴点と照合すればよい。
(4)複合的な二次認識対象
1つの実オブジェクトは、複数の部分から構成される複合的な二次認識対象を含んでもよい。図5は、複合的な二次認識対象の一例について説明するための説明図である。図5を参照すると、実オブジェクト14cは、一次認識対象G5、二次認識対象G6、及び二次認識対象のための編集領域G7を含む。一次認識対象G5は、人工マーカとしての役割を有する枠である。この枠内には、どのような内容が印刷されてもよい。二次認識対象G6は、特定のコード値が予め符号化されるバーコードである。編集領域G7は、ユーザによる編集に依存して異なるコード値を有し得る。一次認識対象G5に対する二次認識対象G6及び編集領域G7の相対的な配置は、予め定義される。画像処理装置100は、一次認識対象G5についての画像認識に基づいてAR空間を設定し、当該AR空間に配置されるARオブジェクトを、二次認識対象G6から認識されるコード値及び編集後の編集領域G7から認識されるコード値の組合せに依存して決定し得る。
1つの実オブジェクトは、複数の部分から構成される複合的な二次認識対象を含んでもよい。図5は、複合的な二次認識対象の一例について説明するための説明図である。図5を参照すると、実オブジェクト14cは、一次認識対象G5、二次認識対象G6、及び二次認識対象のための編集領域G7を含む。一次認識対象G5は、人工マーカとしての役割を有する枠である。この枠内には、どのような内容が印刷されてもよい。二次認識対象G6は、特定のコード値が予め符号化されるバーコードである。編集領域G7は、ユーザによる編集に依存して異なるコード値を有し得る。一次認識対象G5に対する二次認識対象G6及び編集領域G7の相対的な配置は、予め定義される。画像処理装置100は、一次認識対象G5についての画像認識に基づいてAR空間を設定し、当該AR空間に配置されるARオブジェクトを、二次認識対象G6から認識されるコード値及び編集後の編集領域G7から認識されるコード値の組合せに依存して決定し得る。
本節で説明したような仕組みによれば、AR空間を設定するために要する画像認識の処理コストの増加を抑制しつつ、表示されるARオブジェクトの多様性を高めることができる。次節では、こうした仕組みを実現する画像処理装置100の具体的な構成の例を説明する。
<2.画像処理装置の構成例>
[2−1.ハードウェア構成]
図6は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図6を参照すると、画像処理装置100は、カメラ102、センサ104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112、バス116及びプロセッサ118を備える。
[2−1.ハードウェア構成]
図6は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図6を参照すると、画像処理装置100は、カメラ102、センサ104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112、バス116及びプロセッサ118を備える。
(1)カメラ
カメラ102は、画像を撮像するカメラモジュールである。カメラ102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実オブジェクトを撮像し、撮像画像を生成する。カメラ102により生成される一連の撮像画像は、映像を構成する。
カメラ102は、画像を撮像するカメラモジュールである。カメラ102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実オブジェクトを撮像し、撮像画像を生成する。カメラ102により生成される一連の撮像画像は、映像を構成する。
(2)センサ
センサ104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ104により測定され得る画像処理装置100の位置、姿勢又は動きは、後に説明するカメラの位置及び姿勢の認識の支援、地理的な位置に特化したデータの取得、又はユーザからの指示の認識などの様々な用途のために利用されてよい、なお、センサ104は、画像処理装置100の構成から省略されてもよい。
センサ104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ104により測定され得る画像処理装置100の位置、姿勢又は動きは、後に説明するカメラの位置及び姿勢の認識の支援、地理的な位置に特化したデータの取得、又はユーザからの指示の認識などの様々な用途のために利用されてよい、なお、センサ104は、画像処理装置100の構成から省略されてもよい。
(3)入力インタフェース
入力インタフェース106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力インタフェース106は、例えば、ディスプレイ110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。また、入力インタフェース106は、キーボード、キーパッド、ボタン又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース106は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。
入力インタフェース106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力インタフェース106は、例えば、ディスプレイ110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。また、入力インタフェース106は、キーボード、キーパッド、ボタン又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース106は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。
(4)メモリ
メモリ108は、半導体メモリ又はハードディスクなどの記憶媒体である。メモリ108は、画像処理装置100による処理のためのプログラム及びデータを記憶する。メモリ108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、メモリ108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
メモリ108は、半導体メモリ又はハードディスクなどの記憶媒体である。メモリ108は、画像処理装置100による処理のためのプログラム及びデータを記憶する。メモリ108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、メモリ108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(5)ディスプレイ
ディスプレイ110は、画像を表示する画面を有する表示モジュールである。ディスプレイ110は、例えば、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などであってよい。ディスプレイ110は、例えば、画像処理装置100により生成される、ARオブジェクトの重畳された出力画像を表示する。
ディスプレイ110は、画像を表示する画面を有する表示モジュールである。ディスプレイ110は、例えば、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などであってよい。ディスプレイ110は、例えば、画像処理装置100により生成される、ARオブジェクトの重畳された出力画像を表示する。
(6)通信インタフェース
通信インタフェース112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信インタフェース112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
通信インタフェース112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信インタフェース112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(7)バス
バス116は、カメラ102、センサ104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112及びプロセッサ118を相互に接続する。
バス116は、カメラ102、センサ104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112及びプロセッサ118を相互に接続する。
(8)プロセッサ
プロセッサ118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。プロセッサ118は、メモリ108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
プロセッサ118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。プロセッサ118は、メモリ108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
[2−2.機能構成]
図7は、図6に示した画像処理装置100のメモリ108及びプロセッサ118により実現される論理的機能の構成の一例を示すブロック図である。図7を参照すると、画像処理装置100は、画像取得部140、認識データベース(DB)150、認識部160、オブジェクトDB170及び制御部180を備える。
図7は、図6に示した画像処理装置100のメモリ108及びプロセッサ118により実現される論理的機能の構成の一例を示すブロック図である。図7を参照すると、画像処理装置100は、画像取得部140、認識データベース(DB)150、認識部160、オブジェクトDB170及び制御部180を備える。
(1)画像取得部
画像取得部140は、カメラ102により撮像される画像を入力画像として取得する。入力画像は、典型的には、動画を構成する一連のフレームの各々である。本実施形態において、入力画像は、一次認識対象と二次認識対象とを有する実オブジェクトを映す画像である。そして、画像取得部140は、取得した入力画像を認識部160及び制御部180へ出力する。
画像取得部140は、カメラ102により撮像される画像を入力画像として取得する。入力画像は、典型的には、動画を構成する一連のフレームの各々である。本実施形態において、入力画像は、一次認識対象と二次認識対象とを有する実オブジェクトを映す画像である。そして、画像取得部140は、取得した入力画像を認識部160及び制御部180へ出力する。
(2)認識DB
認識DB150は、後に説明する認識部160により使用される認識辞書データを記憶するデータベースである。認識辞書データは、例えば、1つ以上の一次認識対象の各々についての、一次認識対象の特徴を定義する特徴データを含む。また、認識辞書データは、一次認識対象に対する二次認識対象の相対的な配置を定義する配置データを含む。
認識DB150は、後に説明する認識部160により使用される認識辞書データを記憶するデータベースである。認識辞書データは、例えば、1つ以上の一次認識対象の各々についての、一次認識対象の特徴を定義する特徴データを含む。また、認識辞書データは、一次認識対象に対する二次認識対象の相対的な配置を定義する配置データを含む。
図8Aは、認識DB150により記憶され得る認識辞書データの構成の第1の例を示す説明図である。図8Aを参照すると、認識辞書データ151aは、一次コードID152、特徴データ153及び二次コード配置データ154aを含む。二次コード配置データ154aは、コードタイプ155、位置オフセット156、回転157及びサイズ158を含む。以下、図9を用いて、認識辞書データ151aのデータ項目の意味について説明する。
一次コードID152は、一次認識対象を一意に識別するための識別子である。特徴データ153は、一次認識対象の各々についての既知の特徴を定義する。一次認識対象が図2A及び図2Bに例示したような絵柄である場合、特徴データ153は、当該絵柄の既知画像から予め抽出される特徴量セットを定義し得る。一例として、特徴量セットは、複数の特徴点の各々についての、実オブジェクトの印刷面の2次元座標系における位置座標と、当該特徴点の輝度とを含んでよい。図9を参照すると、2次元座標系Crefにおける、特徴点FP1を含む複数の特徴点の位置が星印で示されている。一次認識対象が図3A及び図3Bに例示したようなパターン化された図形である場合、特徴データ153は、既知のパターンの形状及びサイズを定義し得る。
コードタイプ155は、二次認識対象のタイプを定義する。図9を参照すると、2種類のコードタイプT1及びT2が例示されている。コードタイプT1は、二次認識対象が横に並ぶ3つの矩形のフィールドを有するコードであることを示す。コードタイプT2は、二次認識対象がバーコードであることを示す。これらコードはいずれも、可視的なコードである。位置オフセット156は、一次認識対象の基準位置(例えば、2次元座標系Crefの原点)からの二次認識対象の基準位置のオフセットを定義する。図9の例では、位置オフセット156は、二次認識対象を囲むバウンディングボックスの左上の頂点の位置座標OF1に等しい。回転157は、基準位置を中心とした二次認識対象の回転量(例えば、実オブジェクトの印刷面上での回転量)を定義する。図9の例では、二次認識対象は回転されないため、回転157は省略され得る。サイズ158は、2次元座標系Crefにおける二次認識対象のサイズを定義する。図9の例では、サイズ158は、二次認識対象を囲むバウンディングボックスの幅W1及び高さH1を示し得る。
図8Bは、認識DB150により記憶され得る認識辞書データの構成の第2の例を示す説明図である。図8Bを参照すると、認識辞書データ151bは、一次コードID152、特徴データ153及び二次コード配置データ154bを含む。二次コード配置データ154bは、位置オフセット156のみを含む。例えば二次認識対象のタイプが1種類のみであり、二次認識対象が回転されず、二次認識対象のサイズも固定的である場合には、このように、二次認識対象の相対的な配置を簡略的に定義することができる。
図8Cは、認識DB150により記憶され得る認識辞書データの構成の第3の例を示す説明図である。図8Cを参照すると、認識辞書データ151cは、一次コードID152、特徴データ153及び二次コード配置データ154cを含む。二次コード配置データ154cは、コード数159、並びにコード数159により示される数の配置データのセットを含む。配置データの第1のセットは、コードタイプ155a、位置オフセット156a及びサイズ158aを含む。配置データの第2のセットは、コードタイプ155b、位置オフセット156b及びサイズ158bを含む。図5に例示したような複合的な二次認識対象が利用される場合には、このようなデータフォーマットを用いて、個々の二次認識対象のタイプと配置とを定義することができる。
(3)認識部
認識部160は、一次認識対象についての画像認識を実行することにより、入力画像内での一次認識対象の配置を認識する。認識部160は、例えば、入力画像から抽出される画像特徴量を認識DB150により記憶される既知の特徴量セットと照合することにより、入力画像に映る一次認識対象を認識してもよい。また、認識部160は、入力画像に含まれるパターンを認識DB150により記憶される既知のパターンと照合することにより、入力画像に映る一次認識対象を認識してもよい。さらに、認識部160は、検出した複数の特徴点の間の位置関係、又は検出したパターンの形状及びサイズから、入力画像に一次認識対象がどのような配置で映っているかを認識する。
認識部160は、一次認識対象についての画像認識を実行することにより、入力画像内での一次認識対象の配置を認識する。認識部160は、例えば、入力画像から抽出される画像特徴量を認識DB150により記憶される既知の特徴量セットと照合することにより、入力画像に映る一次認識対象を認識してもよい。また、認識部160は、入力画像に含まれるパターンを認識DB150により記憶される既知のパターンと照合することにより、入力画像に映る一次認識対象を認識してもよい。さらに、認識部160は、検出した複数の特徴点の間の位置関係、又は検出したパターンの形状及びサイズから、入力画像に一次認識対象がどのような配置で映っているかを認識する。
図11Aは、一次認識対象についての認識の一例について説明するための説明図である。図11Aの左には、ユーザUaが画像処理装置100をカード13bにかざしている様子が示されている。画像取得部140は、カード13bを映す入力画像IM11を取得する。入力画像IM11には、斜め上から見た一次認識対象G1aが映っている。認識部160は、例えば、Harris法又はMoravec法などの公知のコーナー検出法に従って、入力画像IM11から特徴点を抽出する(処理P1)。図中の星印は、入力画像IM11から抽出される複数の特徴点を示している。そして、認識部160は、これら特徴点の位置座標を含む特徴量を、認識DB150により予め記憶される一次認識対象G1aの特徴量セットと照合することにより、入力画像IM11に一次認識対象G1aが映っていることを認識する。また、認識部160は、一次認識対象G1aの3次元的な配置を認識する。一例として、認識された3次元的な配置を、撮像面及びその奥行きに対応する3次元のスクリーン座標系CSCにおける同次変換行列WPRで表現され得る(処理P2)。同次変換行列WPRは、実質的に、入力画像を撮像したカメラ102に対する実オブジェクト13bの相対的な配置を示す。認識部160は、このように認識される一次認識対象の識別子(一次コードID)と対応する同次変換行列とを、制御部180へ出力する。
認識部160は、さらに、一次認識対象についての上述した画像認識に基づいて、二次認識対象を認識する。例えば、認識部160は、入力画像から取得される二次認識対象の部分画像について認識処理を実行する。二次認識対象が映っている部分は、一次認識対象についての画像認識の結果、及び上述した配置データを用いて判定され得る。二次認識対象のタイプの候補が2種類以上存在する場合には、認識すべき二次認識対象のタイプもまた上述した配置データにより定義され、その定義を参照することにより実行すべき認識処理が選択され得る。二次認識対象が図2A及び図2Bに例示したような複数のフィールドを有する場合には、認識部160は、各フィールドの輝度又は色などのパラメータを部分画像から読み取り、読取ったパラメータの組合せに対応するコード値を決定する。二次認識対象が図3A及び図3Bに例示したようなバーコードである場合には、認識部160は、一般的なバーコード読み取り処理を実行し、コード値を復号する。
図11Bは、二次認識対象についての認識の一例について説明するための説明図である。図11Bの左には、図11Aを用いて説明した入力画像IM11が再び示されている。この入力画像IM11について、同次変換行列WPRの逆行列WPR −1を用いて逆変換を実行すると、実オブジェクト13bの印刷面が撮像面に正対するように変形された変形画像IM12が生成される(処理P3)。変形画像IM12における二次認識対象G2bの配置は、認識辞書データに含まれる二次コード配置データに従って、一次認識対象G1aの配置から判定される(処理P4)。認識部160は、このように判定される二次認識対象G2bの部分画像について、二次認識対象G2bのタイプに対応する認識処理を実行する。そして、認識部160は、認識処理の結果として認識されたコード値を、制御部180へ出力する。
(4)オブジェクトDB
オブジェクトDB170は、後に説明する制御部180により使用されるオブジェクトデータを記憶するデータベースである。オブジェクトデータは、AR空間に配置される様々なARオブジェクトの各々と二次認識対象の対応するコード値とのマッピングを定義する。オブジェクトデータは、一次認識対象の複数の候補の各々について定義されてもよい。
オブジェクトDB170は、後に説明する制御部180により使用されるオブジェクトデータを記憶するデータベースである。オブジェクトデータは、AR空間に配置される様々なARオブジェクトの各々と二次認識対象の対応するコード値とのマッピングを定義する。オブジェクトデータは、一次認識対象の複数の候補の各々について定義されてもよい。
図10は、オブジェクトDB170により記憶され得るオブジェクトデータの構成の一例を示す説明図である。図10を参照すると、オブジェクトデータ171は、一次コードID172、二次コード値173、オブジェクトID174、位置175、姿勢176及びグラフィックデータ177を含む。一次コードID172は、一次認識対象の複数の候補の各々を識別するための識別子である。二次コード値173は、二次認識対象から認識され得るコード値の候補を示す。オブジェクトID174は、ARオブジェクトを一意に識別するための識別子である。位置175は、AR空間内でARオブジェクトが配置される3次元的な位置を定義する。姿勢176は、AR空間内でARオブジェクトが配置される3次元的な姿勢を定義する。AR空間内のARオブジェクトの位置及び姿勢は、例えば、対応する一次認識対象に対する相対的な関係において定義され得る。グラフィックデータ177は、ARオブジェクトの画像を生成する際に使用されるデータであり、例えばポリゴン、テクスチャ、アニメーション及びその他の表示属性を定義し得る。
(5)制御部
制御部180は、一次認識対象について認識部160により実行される画像認識の結果に基づいて、入力画像に関連付けられるAR空間を設定する。例えば、制御部180は、入力画像内の実オブジェクトの印刷面を、ARオブジェクトの姿勢又は動きの基準として扱われるAR空間の水平面としてもよい。撮像面に対する印刷面の相対的な姿勢は、認識部160から入力される同次変換行列WPRにより表現され得る。また、制御部180は、入力画像内の一次認識対象の位置を、ARオブジェクトが配置されるAR空間の基準位置としてもよい。入力画像内の一次認識対象の位置もまた、同次変換行列WPRにより表現され得る。
制御部180は、一次認識対象について認識部160により実行される画像認識の結果に基づいて、入力画像に関連付けられるAR空間を設定する。例えば、制御部180は、入力画像内の実オブジェクトの印刷面を、ARオブジェクトの姿勢又は動きの基準として扱われるAR空間の水平面としてもよい。撮像面に対する印刷面の相対的な姿勢は、認識部160から入力される同次変換行列WPRにより表現され得る。また、制御部180は、入力画像内の一次認識対象の位置を、ARオブジェクトが配置されるAR空間の基準位置としてもよい。入力画像内の一次認識対象の位置もまた、同次変換行列WPRにより表現され得る。
制御部180は、さらに、AR空間にどのARオブジェクトを配置すべきかを、認識部160により認識される二次認識対象のコード値に依存して決定する。例えば、制御部180は、上述した認識DB150により記憶される配置データを用いて、認識部160により認識された一次認識対象の配置から、同じ実オブジェクト上の認識すべき二次認識対象の配置を判定する。配置データにより二次認識対象のタイプが定義される場合には、制御部180は、当該配置データにより定義される二次認識対象のタイプ(コードタイプ)に基づいて、認識部160に実行させるべき認識処理を選択してもよい。制御部180は、入力画像に映る二次認識対象について、認識部160に認識処理を実行させる。そして、制御部180は、認識処理によって認識された二次認識対象のコード値が認識部160から入力されると、オブジェクトデータ171において当該コード値にマッピングされているARオブジェクトを、AR空間に配置すべきARオブジェクトとして決定する。一次認識対象の複数の候補が存在する場合には、制御部180は、当該複数の候補のうち認識部160により認識された一次認識対象に対応するオブジェクトデータを、ARオブジェクトを決定するために使用し得る。
制御部180は、配置すべきARオブジェクトをオブジェクトデータを参照して決定すると、オブジェクトデータでの定義に従って、AR空間に当該ARオブジェクトを配置する。また、制御部180は、認識部160による画像認識の結果に基づいて、カメラ102の視点から見たARオブジェクトの画像を生成する。そして、制御部180は、ARオブジェクトの画像を入力画像に重畳することにより出力画像を生成し、生成した出力画像をディスプレイ110の画面に表示させる。
図11Cは、ARオブジェクトの決定及び配置の一例について説明するための説明図である。図11Cの左には、図11Bを用いて説明した変形画像IM12が再び示されている。変形画像IM12に映る一次認識対象G1aの一次コードIDは、例えば“PC1”である。変形画像IM12に映る二次認識対象G2bについて認識処理を実行することにより読み取られる二次認識対象G2bのコード値は、例えば“101”である。制御部180は、オブジェクトデータ171の一次コードID“PC1”に対応するサブセットの中の二次コード値“101”を有するレコードを参照することにより、オブジェクトID“AR15”を有するARオブジェクト31bをAR空間に配置することを決定する(処理P5)。また、制御部180は、ARオブジェクト31bを、入力画像内の一次認識対象G1aの位置に、実オブジェクト13bの印刷面に乗っているかのように配置し、配置したARオブジェクト31bの画像を入力画像に重畳する(処理P6)。
制御部180は、例えば、配置データを用いて判定される二次認識対象の配置から、認識すべき当該二次認識対象が入力画像に十分に映っているかを判定してもよい。二次認識対象の主要な部分が入力画像の外側に存在する場合には、制御部180は、二次認識対象が入力画像に十分に映っていないと判定し得る。制御部180は、二次認識対象が入力画像に十分に映っていないと判定される場合に、画角の変更を推奨する表示オブジェクトを画面に表示させてもよい。一例として、図12を参照すると、画像IM21に表示オブジェクトAL1及びAL2が重畳されている。画像IM21には、実オブジェクト13bが映っているものの、実オブジェクト13bの二次認識対象G2bの1つ以上のフィールドが画像IM21の画角の右側に外れている。表示オブジェクトAL1は、ユーザに画角の変更を推奨するメッセージを表示するテキストボックスである。表示オブジェクトAL2は、画角を動かす方向を指し示す三角形のアイコンである。ユーザは、これら表示オブジェクトAL1及びAL2に従って画角を右方向へ動かすことにより(又はズームアウトして画角を拡げることにより)、二次認識対象G2bの全体を撮像し、ARオブジェクトを成功裏に表示させることができる。
また、制御部180は、一次認識対象についての認識ステータス及び二次認識対象についての認識ステータスの少なくとも一方を、ディスプレイ110の画面に表示させてもよい。一例として、図13を参照すると、画像IM22に表示オブジェクトAL3及びAL4が重畳されている。表示オブジェクトAL3は、認識に成功した一次認識対象を囲む枠である。一次認識対象を囲む枠の代わりに(又はそれに加えて)、画像IM22から抽出された特徴点を指し示すアイコンが表示されてもよい。表示オブジェクトAL4は、認識ステータスを示すインジケータである。図13の例では、インジケータは、50%の進行度を示している。これは、一次認識対象についての認識が成功した一方で、二次認識対象についての認識は未だ完了していないことを意味する。ユーザは、このような認識ステータスを見ることにより、ARアプリケーションの状態をリアルタイムで把握することができる。なお、認識ステータスの表示は、ARアプリケーションの視認性を妨げないように、二次認識対象についての認識が完了した後で自動的に非表示化されてもよい。
[2−3.処理の流れ]
図14は、本実施形態に係る画像処理装置100により実行される画像処理の流れの一例を示すフローチャートである。図14に示した処理は、カメラ102により撮像される一連の入力画像の各々について繰り返される。
図14は、本実施形態に係る画像処理装置100により実行される画像処理の流れの一例を示すフローチャートである。図14に示した処理は、カメラ102により撮像される一連の入力画像の各々について繰り返される。
図14を参照すると、まず、画像取得部140は、一次認識対象と二次認識対象とを有する実オブジェクトを映す入力画像を、カメラ102から取得する(ステップS102)。そして、画像取得部140は、取得した入力画像を認識部160及び制御部180へ出力する。
次に、認識部160は、認識DB150により記憶される認識辞書データを用いて、一次認識対象についての画像認識を実行する(ステップS104)。本実施形態において、認識辞書データは、表示される可能性のあるARオブジェクトの数と比較すると、より少ない数の一次認識対象についての特徴データのみを含む。従って、ここで実行される画像認識の処理コストは、低く抑制される。
次に、認識部160は、いずれかの一次認識対象が認識されたか否かを判定する(ステップS106)。一次認識対象が認識されなかった場合には、処理はステップS102へ戻り、次の入力画像が取得される。一次認識対象が認識された場合、認識部160は、カメラ102に対する一次認識対象(あるいは実オブジェクト)の3次元的な配置を表現する変換行列(例えば、同次変換行列)を計算する(ステップS108)。そして、認識部160は、認識した一次認識対象の識別子と計算した変換行列とを、制御部180へ出力する。
制御部180は、認識部160から入力される変換行列の逆行列を用いて、入力画像について逆変換を実行することにより、一次認識対象及び二次認識対象が撮像面に正対するように変形された変形画像を生成する(ステップS110)。次に、制御部180は、認識辞書データに含まれる配置データを用いて、変換画像内の二次認識対象の配置を判定する(ステップS112)。
次に、制御部180は、判定した二次認識対象の配置に基づいて、入力画像に二次認識対象が十分に映っているかを判定する(ステップS114)。ここで、制御部180は、入力画像に二次認識対象が十分に映っていないと判定される場合には、画角の変更を推奨する表示オブジェクトを画面に表示させる(ステップS116)。その後、処理はステップS102へ戻る。一方、制御部180は、入力画像に二次認識対象が十分に映っていると判定される場合には、配置データにより定義される二次認識対象のコードタイプに基づいて、認識部160に実行させるべき認識処理を選択する(ステップS118)。そして、制御部180は、入力画像に映る二次認識対象について、選択した認識処理を認識部160に実行させる(ステップS120)。認識部160は、認識処理の結果として認識されたコード値を、制御部180へ出力する。
次に、制御部180は、認識部160により認識されたコード値(及び一次認識対象の識別子)を用いて、オブジェクトDB170により記憶されるオブジェクトデータを参照することにより、表示すべきARオブジェクトを決定する(ステップS122)。なお、制御部180は、オブジェクトDB170の代わりに、通信インタフェース112を介して接続されるデータサーバ上のオブジェクトデータを参照してもよい。次に、制御部180は、一次認識対象についての画像認識の結果に基づいて、決定したARオブジェクトの画像を生成する(ステップS124)。そして、制御部180は、ARオブジェクトの画像を入力画像に重畳することにより生成される出力画像を、ディスプレイ110の画面に表示させる(ステップS126)。
<3.応用例>
[3−1.実オブジェクトの例]
本開示に係る技術において利用される実オブジェクトは、その表面に認識対象を有するいかなる種類の実オブジェクトであってもよい。例えば、ポスター、広告看板、チラシ、雑誌、新聞紙、書籍及びトレーディングカードなどの様々な印刷媒体を、その印刷面に一次認識対象と二次認識対象又は二次認識対象のための編集領域とを印刷することにより、本開示に係る技術のための実オブジェクトとして利用することができる。印刷面には、ARアプリケーションと連携する撮像装置(例えば、画像処理装置100のカメラ102)を印刷媒体にかざすようにユーザを誘導するガイダンスが印刷されてもよい。
[3−1.実オブジェクトの例]
本開示に係る技術において利用される実オブジェクトは、その表面に認識対象を有するいかなる種類の実オブジェクトであってもよい。例えば、ポスター、広告看板、チラシ、雑誌、新聞紙、書籍及びトレーディングカードなどの様々な印刷媒体を、その印刷面に一次認識対象と二次認識対象又は二次認識対象のための編集領域とを印刷することにより、本開示に係る技術のための実オブジェクトとして利用することができる。印刷面には、ARアプリケーションと連携する撮像装置(例えば、画像処理装置100のカメラ102)を印刷媒体にかざすようにユーザを誘導するガイダンスが印刷されてもよい。
上述した印刷媒体の1つの用途は、カードゲーム用のトレーディングカードである。例えば、複数のカードに共通的な外見を有する一次認識対象(例えば、ゲームキャラクターの絵柄)を印刷し、但しそれらカードに異なるコード値が符号化された二次認識対象を印刷する。一次認識対象は、印刷媒体を映す画像にAR空間を関連付けるために使用される。二次認識対象は、AR空間に配置されるARオブジェクトを決定するために使用される。印刷面における一次認識対象に対する二次認識対象の相対的な配置は、固定的である。カードを購入したユーザは、購入したカードに画像処理装置100のカメラ102をかざす。すると、画面上には、カードに印刷されたキャラクターに対応するARオブジェクトが表示される。ARオブジェクトは、二次認識対象から認識されるコード値に依存して異なる属性を有する。ここでの属性は、ARオブジェクトの外見に関連する属性であってもよく、又はゲームの進行に影響を与えるその他の属性(例えば、キャラクターのレベルなど)であってもよい。このようなトレーディングカードが実現されれば、画像認識の処理コストを増加させることなく、ARオブジェクトの多様性を高めてユーザの購買意欲又は収集意欲を向上させることができる。また、二次認識対象の代わりに二次認識対象の編集領域がカードに印刷される場合には、ユーザは、カードを入手した後に、二次認識対象を編集することにより、表示されるARオブジェクトの属性を変化させることができる。それにより、カードゲームの進行の単調化を防止することができる。トレーディングカードは、1枚ずつユーザに提供されてもよく、又はトレーディングカードのセットとしてユーザに提供されてもよい。
上述した印刷媒体の別の用途は、広告用のポスターである。例えば、複数のポスターに共通的な外見を有する一次認識対象(例えば、商品の写真)を印刷し、但しそれらポスターに異なるコード値が符号化された二次認識対象を印刷する。商店街や駅などの場所でポスターを発見したユーザは、発見したポスターに画像処理装置100のカメラ102をかざす。すると、画面上には、ポスターに印刷された商品に対応するARオブジェクトが表示される。ARオブジェクトは、二次認識対象から認識されるコード値に依存して異なる属性を有する。ポスターの掲示場所ごとにコード値を変更し、その場所に訪れるユーザに適した属性を有するARオブジェクトが提供されてもよい。このような広告用のポスターが実現されれば、画像認識の処理コストを増加させることなく、ARオブジェクトの多様性を高めて商品に対するユーザの興味を喚起することにより、広告効果を向上させることができる。広告用のポスターは、1枚ずつ提供されてもよく、又はポスターのセットとして事業者に提供されてもよい。
トレーディングカード又はその他の用途において、印刷媒体は、印刷面において二次認識対象を覆う位置に形成されるスクラッチ層をさらに備えてもよい。図15は、スクラッチ層を有する印刷媒体の一例について説明するための説明図である。図15を参照すると、一例としてのトレーディングカード15が示されている。トレーディングカード15は、その印刷面に印刷された一次認識対象G7と、印刷面に積層されるスクラッチ層SC1とを有する。スクラッチ層SC1は、二次認識対象を覆う位置に形成されており、ユーザがスクラッチ層SC1を削り取ると、二次認識対象が露出して視認可能となる。例えば、二次認識対象G8aが露出した場合、ARアプリケーションの出力画像には、ARオブジェクト33aが表示される。二次認識対象G8bが露出した場合、ARアプリケーションの出力画像には、ARオブジェクト33bが表示される。二次認識対象G8cが露出した場合、ARアプリケーションの出力画像には、ARオブジェクト33cが表示される。このようなスクラッチ型のトレーディングカードが実現されれば、画像認識の処理コストを増加させることなく、ARオブジェクトに意外性を持たせてユーザの好奇心を刺激することができる。
[3−2.HMDの利用]
上述したように、本開示に係る技術は、HMD端末を用いて実現されてもよい。図16は、画像処理装置の一変形例について説明するための説明図である。図16の例において、画像処理装置200は、ユーザの頭部に装着される眼鏡型のHMD端末である。画像処理装置200は、筐体201、カメラ202、接触面206並びに一対の画面210a及び210bを備える。筐体201は、画面210a及び210bを支持するフレームと、ユーザの側頭部に位置するいわゆるテンプルとを含む。テンプルの内部には、画像処理のためのメモリ及びプロセッサを含むいくつかのモジュールが格納される。それらモジュールは、図7に示した画像処理装置100の様々な論理的機能と同等の機能を有する。カメラ202は、そのレンズの光軸がユーザの視線と略平行になるように配置され、画像を撮像するために用いられる。接触面206は、ユーザによるタッチを検出する面であり、画像処理装置200がユーザ入力を受け付けるために用いられる。画面210a及び210bは、ユーザの左目及び右目の前方にそれぞれ配置される、シースルー型の又は非シースルー型の画面である。
上述したように、本開示に係る技術は、HMD端末を用いて実現されてもよい。図16は、画像処理装置の一変形例について説明するための説明図である。図16の例において、画像処理装置200は、ユーザの頭部に装着される眼鏡型のHMD端末である。画像処理装置200は、筐体201、カメラ202、接触面206並びに一対の画面210a及び210bを備える。筐体201は、画面210a及び210bを支持するフレームと、ユーザの側頭部に位置するいわゆるテンプルとを含む。テンプルの内部には、画像処理のためのメモリ及びプロセッサを含むいくつかのモジュールが格納される。それらモジュールは、図7に示した画像処理装置100の様々な論理的機能と同等の機能を有する。カメラ202は、そのレンズの光軸がユーザの視線と略平行になるように配置され、画像を撮像するために用いられる。接触面206は、ユーザによるタッチを検出する面であり、画像処理装置200がユーザ入力を受け付けるために用いられる。画面210a及び210bは、ユーザの左目及び右目の前方にそれぞれ配置される、シースルー型の又は非シースルー型の画面である。
[3−3.複数の装置の連携]
本開示に係る技術は、複数の装置が互いに連携することにより実現されてもよい。例えば、上述した認識部160及び制御部180の機能の一部は、画像処理装置100又は200とは物理的に異なる装置により実行されてもよい。
本開示に係る技術は、複数の装置が互いに連携することにより実現されてもよい。例えば、上述した認識部160及び制御部180の機能の一部は、画像処理装置100又は200とは物理的に異なる装置により実行されてもよい。
図17は、複数の装置の連携について説明するための説明図である。図17を参照すると、画像処理装置100、及び画像処理装置100と通信するサーバ装置300が示されている。サーバ装置300は、ユーザの近傍に構築されるパーソナルネットワーク若しくはホームネットワーク上に配置されてもよく、又はインターネットなどの遠隔的なネットワーク上に配置されてもよい。画像処理装置100は、例えば入力画像をサーバ装置300へ送信する(SIG1)。サーバ装置300は、図7に示した認識部160及び制御部180の機能を有する装置である。サーバ装置300は、画像処理装置100から受信される入力画像について画像認識を実行し、一次認識対象及び二次認識対象を認識する。また、サーバ装置300は、それら認識の結果に基づいてAR空間に配置すべきARオブジェクトを決定し、決定したARオブジェクトの画像又はグラフィックデータを画像処理装置100へ送信する(SIG2)。画像処理装置100は、サーバ装置300から受信されるデータを用いて、ARオブジェクトの重畳された出力画像を画面に表示させる。かかる構成によれば、画像処理装置100が少ない処理リソースしか有しない場合であっても、ユーザにARアプリケーションを提供することができる。
<4.まとめ>
ここまで、図1〜図17を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、入力画像に映る実オブジェクトの一次認識対象について画像認識が実行され、当該画像認識に基づいてさらに同じ実オブジェクトの二次認識対象が認識される。そして、AR空間は、一次認識対象についての画像認識に基づいて設定される。AR空間に配置されるARオブジェクトは、二次認識対象に依存して決定される。従って、AR空間を設定するための特徴データの照合のような重い処理の処理コストの増加を抑制しつつ、二次認識対象のバリエーションを増やすことにより、表示可能なARオブジェクトの多様性を高めることができる。
ここまで、図1〜図17を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、入力画像に映る実オブジェクトの一次認識対象について画像認識が実行され、当該画像認識に基づいてさらに同じ実オブジェクトの二次認識対象が認識される。そして、AR空間は、一次認識対象についての画像認識に基づいて設定される。AR空間に配置されるARオブジェクトは、二次認識対象に依存して決定される。従って、AR空間を設定するための特徴データの照合のような重い処理の処理コストの増加を抑制しつつ、二次認識対象のバリエーションを増やすことにより、表示可能なARオブジェクトの多様性を高めることができる。
また、上述した実施形態によれば、一次認識対象に対する二次認識対象の相対的な配置は固定的に定義され、一次認識対象の入力画像内での配置から、認識すべき二次認識対象の配置が判定され得る。かかる構成によれば、事前に配置が知られていない二次認識対象を入力画像内で探索する処理は不要である。従って、二次認識対象を認識するための処理コストは、大幅に低減される。
また、上述した実施形態によれば、二次認識対象は、上記配置データに従って取得される部分画像について認識処理を実行することにより認識され得る。従って、例えばバーコード読み取りモジュールのような汎用化された認識モジュールを活用することにより、上述した仕組みを少ない開発コストで実現することができる。二次認識対象のタイプを定義するデータが提供され、当該データを用いて二次認識対象のための認識処理が切り替えられる場合には、ARアプリケーションの用途に応じて二次認識対象の形態を柔軟に選択することが可能となる。それにより、共通的な仕組みで、例えば広告、ゲーム又は教育などの幅広い用途にARアプリケーションを適応させることができる。
また、上述した実施形態によれば、二次認識対象は、ユーザにより編集される可視的なコードを含み、ARオブジェクトは、編集された二次認識対象から読み取られるコードにマッピングされ得る。この場合、ユーザが二次認識対象をどのように編集するかに依存して異なるARオブジェクトを表示することが可能となる。それにより、ARアプリケーションの単調化を防止し、ARアプリケーションに対するユーザの興味を維持することができる。
なお、本明細書において説明した各装置による一連の処理は、典型的には、ソフトウェアを用いて実現される。一連の処理を実現するソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、
を備える画像処理装置。
(2)
前記制御部は、前記一次認識対象に対する前記二次認識対象の相対的な配置を定義する配置データを用いて、前記一次認識対象の前記画像内での配置から、認識すべき前記二次認識対象の配置を判定する、前記(1)に記載の画像処理装置。
(3)
前記制御部は、前記二次認識対象の前記配置から前記二次認識対象が前記画像に十分に映っていないと判定される場合に、画角の変更を推奨する表示オブジェクトを画面に表示させる、前記(2)に記載の画像処理装置。
(4)
前記二次認識対象は、前記二次認識対象の前記配置に従って取得される部分画像について、認識処理を実行することにより認識される、前記(2)又は前記(3)に記載の画像処理装置。
(5)
前記配置データは、前記二次認識対象のタイプをさらに定義し、
前記二次認識対象を認識するための前記認識処理は、前記配置データを用いて判定される前記二次認識対象の前記タイプに基づいて選択される、
前記(4)に記載の画像処理装置。
(6)
前記二次認識対象は、ユーザにより編集される可視的なコードを含み、
前記制御部は、前記拡張現実空間に配置すべき前記拡張現実オブジェクトを、前記二次認識対象の認識されるコードと対応する拡張現実オブジェクトとをマッピングするオブジェクトデータを用いて決定する、
前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記オブジェクトデータは、前記一次認識対象の複数の候補の各々について定義され、
前記制御部は、前記複数の候補のうち認識された前記一次認識対象に対応する前記オブジェクトデータを、前記拡張現実オブジェクトを決定するために使用する、
前記(6)に記載の画像処理装置。
(8)
前記一次認識対象は、既知の画像又はパターンであり、
前記画像処理装置は、1つ以上の既知の画像又はパターンの特徴データに対して前記画像を照合することにより、前記画像認識を実行する認識部、をさらに備える、
前記(1)〜(7)のいずれか1項に記載の画像処理装置。
(9)
前記制御部は、前記一次認識対象についての認識ステータス及び前記二次認識対象についての認識ステータスの少なくとも一方を画面に表示させる、前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
前記配置は、認識対象の位置、姿勢及びサイズのうち少なくとも1つを含む、前記(2)〜(5)のいずれか1項に記載の画像処理装置。
(11)
一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得することと、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定することと、
設定された当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定することと、
を含む画像処理方法。
(12)
画像処理装置を制御するコンピュータを、
一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、
として機能させるためのプログラム。
(13)
印刷面を有する印刷媒体であって、
前記印刷媒体を映す画像に拡張現実空間を関連付けるために使用される、前記印刷面に印刷された一次認識対象と
前記拡張現実空間に配置される拡張現実オブジェクトを決定するために使用される、前記印刷面に印刷された二次認識対象又は当該二次認識対象のための編集領域と、
を含む印刷媒体。
(14)
前記(13)に記載の印刷媒体を複数含む印刷媒体のセットであって、
2つ以上の前記印刷媒体は、共通的な外見を有する前記一次認識対象と、異なる値が符号化された前記二次認識対象と、を含む、
印刷媒体のセット。
(15)
2つ以上の前記印刷媒体の印刷面における前記一次認識対象に対する前記二次認識対象の相対的な配置は、固定的である、前記(14)に記載の印刷媒体のセット。
(16)
前記印刷媒体は、
前記二次認識対象と、
前記印刷面において前記二次認識対象を覆う位置に形成されるスクラッチ層と、
をさらに含む、前記(13)に記載の印刷媒体。
(1)
一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、
を備える画像処理装置。
(2)
前記制御部は、前記一次認識対象に対する前記二次認識対象の相対的な配置を定義する配置データを用いて、前記一次認識対象の前記画像内での配置から、認識すべき前記二次認識対象の配置を判定する、前記(1)に記載の画像処理装置。
(3)
前記制御部は、前記二次認識対象の前記配置から前記二次認識対象が前記画像に十分に映っていないと判定される場合に、画角の変更を推奨する表示オブジェクトを画面に表示させる、前記(2)に記載の画像処理装置。
(4)
前記二次認識対象は、前記二次認識対象の前記配置に従って取得される部分画像について、認識処理を実行することにより認識される、前記(2)又は前記(3)に記載の画像処理装置。
(5)
前記配置データは、前記二次認識対象のタイプをさらに定義し、
前記二次認識対象を認識するための前記認識処理は、前記配置データを用いて判定される前記二次認識対象の前記タイプに基づいて選択される、
前記(4)に記載の画像処理装置。
(6)
前記二次認識対象は、ユーザにより編集される可視的なコードを含み、
前記制御部は、前記拡張現実空間に配置すべき前記拡張現実オブジェクトを、前記二次認識対象の認識されるコードと対応する拡張現実オブジェクトとをマッピングするオブジェクトデータを用いて決定する、
前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記オブジェクトデータは、前記一次認識対象の複数の候補の各々について定義され、
前記制御部は、前記複数の候補のうち認識された前記一次認識対象に対応する前記オブジェクトデータを、前記拡張現実オブジェクトを決定するために使用する、
前記(6)に記載の画像処理装置。
(8)
前記一次認識対象は、既知の画像又はパターンであり、
前記画像処理装置は、1つ以上の既知の画像又はパターンの特徴データに対して前記画像を照合することにより、前記画像認識を実行する認識部、をさらに備える、
前記(1)〜(7)のいずれか1項に記載の画像処理装置。
(9)
前記制御部は、前記一次認識対象についての認識ステータス及び前記二次認識対象についての認識ステータスの少なくとも一方を画面に表示させる、前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
前記配置は、認識対象の位置、姿勢及びサイズのうち少なくとも1つを含む、前記(2)〜(5)のいずれか1項に記載の画像処理装置。
(11)
一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得することと、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定することと、
設定された当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定することと、
を含む画像処理方法。
(12)
画像処理装置を制御するコンピュータを、
一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、
として機能させるためのプログラム。
(13)
印刷面を有する印刷媒体であって、
前記印刷媒体を映す画像に拡張現実空間を関連付けるために使用される、前記印刷面に印刷された一次認識対象と
前記拡張現実空間に配置される拡張現実オブジェクトを決定するために使用される、前記印刷面に印刷された二次認識対象又は当該二次認識対象のための編集領域と、
を含む印刷媒体。
(14)
前記(13)に記載の印刷媒体を複数含む印刷媒体のセットであって、
2つ以上の前記印刷媒体は、共通的な外見を有する前記一次認識対象と、異なる値が符号化された前記二次認識対象と、を含む、
印刷媒体のセット。
(15)
2つ以上の前記印刷媒体の印刷面における前記一次認識対象に対する前記二次認識対象の相対的な配置は、固定的である、前記(14)に記載の印刷媒体のセット。
(16)
前記印刷媒体は、
前記二次認識対象と、
前記印刷面において前記二次認識対象を覆う位置に形成されるスクラッチ層と、
をさらに含む、前記(13)に記載の印刷媒体。
100,200 画像処理装置
120 画像取得部
160 認識部
180 制御部
151 認識辞書データ
153 特徴データ
154a〜c 二次コード配置データ
171 オブジェクトデータ
120 画像取得部
160 認識部
180 制御部
151 認識辞書データ
153 特徴データ
154a〜c 二次コード配置データ
171 オブジェクトデータ
Claims (16)
- 一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、
を備える画像処理装置。 - 前記制御部は、前記一次認識対象に対する前記二次認識対象の相対的な配置を定義する配置データを用いて、前記一次認識対象の前記画像内での配置から、認識すべき前記二次認識対象の配置を判定する、請求項1に記載の画像処理装置。
- 前記制御部は、前記二次認識対象の前記配置から前記二次認識対象が前記画像に十分に映っていないと判定される場合に、画角の変更を推奨する表示オブジェクトを画面に表示させる、請求項2に記載の画像処理装置。
- 前記二次認識対象は、前記二次認識対象の前記配置に従って取得される部分画像について、認識処理を実行することにより認識される、請求項2に記載の画像処理装置。
- 前記配置データは、前記二次認識対象のタイプをさらに定義し、
前記二次認識対象を認識するための前記認識処理は、前記配置データを用いて判定される前記二次認識対象の前記タイプに基づいて選択される、
請求項4に記載の画像処理装置。 - 前記二次認識対象は、ユーザにより編集される可視的なコードを含み、
前記制御部は、前記拡張現実空間に配置すべき前記拡張現実オブジェクトを、前記二次認識対象の認識されるコードと対応する拡張現実オブジェクトとをマッピングするオブジェクトデータを用いて決定する、
請求項1に記載の画像処理装置。 - 前記オブジェクトデータは、前記一次認識対象の複数の候補の各々について定義され、
前記制御部は、前記複数の候補のうち認識された前記一次認識対象に対応する前記オブジェクトデータを、前記拡張現実オブジェクトを決定するために使用する、
請求項6に記載の画像処理装置。 - 前記一次認識対象は、既知の画像又はパターンであり、
前記画像処理装置は、1つ以上の既知の画像又はパターンの特徴データに対して前記画像を照合することにより、前記画像認識を実行する認識部、をさらに備える、
請求項1に記載の画像処理装置。 - 前記制御部は、前記一次認識対象についての認識ステータス及び前記二次認識対象についての認識ステータスの少なくとも一方を画面に表示させる、請求項1に記載の画像処理装置。
- 前記配置は、認識対象の位置、姿勢及びサイズのうち少なくとも1つを含む、請求項2に記載の画像処理装置。
- 一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得することと、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定することと、
設定された当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定することと、
を含む画像処理方法。 - 画像処理装置を制御するコンピュータを、
一次認識対象と二次認識対象とを有する実オブジェクトを映す画像を取得する画像取得部と、
前記画像に関連付けられる拡張現実空間を、前記一次認識対象についての画像認識に基づいて設定し、当該拡張現実空間に配置される拡張現実オブジェクトを、前記一次認識対象についての前記画像認識に基づいて認識される前記二次認識対象に依存して決定する制御部と、
として機能させるためのプログラム。 - 印刷面を有する印刷媒体であって、
前記印刷媒体を映す画像に拡張現実空間を関連付けるために使用される、前記印刷面に印刷された一次認識対象と
前記拡張現実空間に配置される拡張現実オブジェクトを決定するために使用される、前記印刷面に印刷された二次認識対象又は当該二次認識対象のための編集領域と、
を含む印刷媒体。 - 請求項13に記載の印刷媒体を複数含む印刷媒体のセットであって、
2つ以上の前記印刷媒体は、共通的な外見を有する前記一次認識対象と、異なる値が符号化された前記二次認識対象と、を含む、
印刷媒体のセット。 - 2つ以上の前記印刷媒体の印刷面における前記一次認識対象に対する前記二次認識対象の相対的な配置は、固定的である、請求項14に記載の印刷媒体のセット。
- 前記印刷媒体は、
前記二次認識対象と、
前記印刷面において前記二次認識対象を覆う位置に形成されるスクラッチ層と、
をさらに含む、請求項13に記載の印刷媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013126616A JP2015001875A (ja) | 2013-06-17 | 2013-06-17 | 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット |
US14/293,134 US10186084B2 (en) | 2013-06-17 | 2014-06-02 | Image processing to enhance variety of displayable augmented reality objects |
CN201410254909.XA CN104243952B (zh) | 2013-06-17 | 2014-06-10 | 图像处理设备、图像处理方法、程序、印刷介质和印刷介质套件 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013126616A JP2015001875A (ja) | 2013-06-17 | 2013-06-17 | 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015001875A true JP2015001875A (ja) | 2015-01-05 |
Family
ID=52018847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013126616A Pending JP2015001875A (ja) | 2013-06-17 | 2013-06-17 | 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット |
Country Status (3)
Country | Link |
---|---|
US (1) | US10186084B2 (ja) |
JP (1) | JP2015001875A (ja) |
CN (1) | CN104243952B (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167902A (ja) * | 2016-03-17 | 2017-09-21 | 富士電機株式会社 | 作業支援装置、作業支援システムおよび作業支援プログラム |
WO2019009163A1 (ja) * | 2017-07-04 | 2019-01-10 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、プレイヤ側装置、制御方法、及びプログラム |
JP2021174378A (ja) * | 2020-04-28 | 2021-11-01 | 昭和アルミニウム缶株式会社 | 情報処理システム、情報処理装置、プログラム、および容器 |
JP2022091798A (ja) * | 2018-01-24 | 2022-06-21 | アップル インコーポレイテッド | 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
KR102206060B1 (ko) * | 2013-11-19 | 2021-01-21 | 삼성전자주식회사 | 전자 장치의 효과 디스플레이 방법 및 그 전자 장치 |
US11205075B2 (en) * | 2018-01-10 | 2021-12-21 | Quantum Interface, Llc | Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same |
CN106313043B (zh) * | 2015-10-14 | 2019-04-26 | 山东世纪元通智能科技有限公司 | 一种路径点式行走机器人系统的控制方法 |
JP6397143B2 (ja) * | 2015-10-23 | 2018-09-26 | オー チョル ワンOH, Chol Whan | 仮想オブジェクトの衝突チェックによる反応型拡張現実カードゲームのデータ処理方法及び反応型拡張現実カードゲームプレイ装置 |
JP2018005091A (ja) * | 2016-07-06 | 2018-01-11 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
US10489651B2 (en) * | 2017-04-14 | 2019-11-26 | Microsoft Technology Licensing, Llc | Identifying a position of a marker in an environment |
KR101980444B1 (ko) * | 2017-08-30 | 2019-08-28 | 연세대학교 산학협력단 | 증강현실 서버와 시스템 및 그 방법과 이에 관한 기록 매체 |
US10679393B2 (en) | 2018-07-24 | 2020-06-09 | Snap Inc. | Conditional modification of augmented reality object |
CN113597362B (zh) * | 2019-03-25 | 2024-05-24 | Abb瑞士股份有限公司 | 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置 |
DE102019116834B4 (de) * | 2019-06-21 | 2021-01-28 | RE'FLEKT GmbH | Augmentierte Fotoaufnahme |
US10726630B1 (en) * | 2019-06-28 | 2020-07-28 | Capital One Services, Llc | Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality |
JP7359633B2 (ja) * | 2019-10-17 | 2023-10-11 | ファナック株式会社 | ロボットシステム |
US11176752B1 (en) * | 2020-03-31 | 2021-11-16 | Amazon Technologies, Inc. | Visualization of a three-dimensional (3D) model in augmented reality (AR) |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8547401B2 (en) * | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
JP4434890B2 (ja) * | 2004-09-06 | 2010-03-17 | キヤノン株式会社 | 画像合成方法及び装置 |
JP4137078B2 (ja) * | 2005-04-01 | 2008-08-20 | キヤノン株式会社 | 複合現実感情報生成装置および方法 |
GB2470073B (en) * | 2009-05-08 | 2011-08-24 | Sony Comp Entertainment Europe | Entertainment device, system and method |
US20100331043A1 (en) * | 2009-06-23 | 2010-12-30 | K-Nfb Reading Technology, Inc. | Document and image processing |
JP5423406B2 (ja) * | 2010-01-08 | 2014-02-19 | ソニー株式会社 | 情報処理装置、情報処理システム及び情報処理方法 |
KR101082285B1 (ko) * | 2010-01-29 | 2011-11-09 | 주식회사 팬택 | 증강 현실 제공 단말기 및 방법 |
US20110212285A1 (en) * | 2010-03-01 | 2011-09-01 | Ward / Kraft, Inc. | Removable oquaque coating provided on a pressure sensitive piggyback label intermediate configuration and package containing same |
JP4971483B2 (ja) * | 2010-05-14 | 2012-07-11 | 任天堂株式会社 | 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法 |
WO2012007735A2 (en) * | 2010-07-14 | 2012-01-19 | University Court Of The University Of Abertay Dundee | Improvements relating to viewing of real-time, computer-generated environments |
US20120038668A1 (en) * | 2010-08-16 | 2012-02-16 | Lg Electronics Inc. | Method for display information and mobile terminal using the same |
US8860760B2 (en) * | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
JP5216834B2 (ja) * | 2010-11-08 | 2013-06-19 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置及びオブジェクト表示方法 |
US20120154439A1 (en) * | 2010-12-16 | 2012-06-21 | Electronics And Telecommunications Research Institute | Apparatus and method for operating multiple object of augmented reality system |
JP5697487B2 (ja) * | 2011-02-25 | 2015-04-08 | 任天堂株式会社 | 画像処理システム、画像処理方法、画像処理装置、および画像処理用プログラム |
JP5704962B2 (ja) * | 2011-02-25 | 2015-04-22 | 任天堂株式会社 | 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム |
US8817046B2 (en) * | 2011-04-21 | 2014-08-26 | Microsoft Corporation | Color channels and optical markers |
US8872852B2 (en) * | 2011-06-30 | 2014-10-28 | International Business Machines Corporation | Positional context determination with multi marker confidence ranking |
US20150070347A1 (en) * | 2011-08-18 | 2015-03-12 | Layar B.V. | Computer-vision based augmented reality system |
US9418292B2 (en) * | 2011-10-04 | 2016-08-16 | Here Global B.V. | Methods, apparatuses, and computer program products for restricting overlay of an augmentation |
JP5988563B2 (ja) * | 2011-10-25 | 2016-09-07 | キヤノン株式会社 | 画像処理装置と画像処理装置の制御方法およびプログラムと、情報処理装置と情報処理装置の制御方法およびプログラム |
JP5821526B2 (ja) | 2011-10-27 | 2015-11-24 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6021592B2 (ja) * | 2012-11-06 | 2016-11-09 | 任天堂株式会社 | 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法 |
US20140270477A1 (en) * | 2013-03-14 | 2014-09-18 | Jonathan Coon | Systems and methods for displaying a three-dimensional model from a photogrammetric scan |
US9858482B2 (en) * | 2013-05-28 | 2018-01-02 | Ent. Services Development Corporation Lp | Mobile augmented reality for managing enclosed areas |
JP6329343B2 (ja) * | 2013-06-13 | 2018-05-23 | 任天堂株式会社 | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 |
US20150228123A1 (en) * | 2014-02-07 | 2015-08-13 | Datangle, Inc. | Hybrid Method to Identify AR Target Images in Augmented Reality Applications |
JP6326996B2 (ja) * | 2014-06-13 | 2018-05-23 | 富士通株式会社 | 端末装置、情報処理システム、及び表示制御プログラム |
-
2013
- 2013-06-17 JP JP2013126616A patent/JP2015001875A/ja active Pending
-
2014
- 2014-06-02 US US14/293,134 patent/US10186084B2/en active Active
- 2014-06-10 CN CN201410254909.XA patent/CN104243952B/zh active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167902A (ja) * | 2016-03-17 | 2017-09-21 | 富士電機株式会社 | 作業支援装置、作業支援システムおよび作業支援プログラム |
WO2019009163A1 (ja) * | 2017-07-04 | 2019-01-10 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、プレイヤ側装置、制御方法、及びプログラム |
JPWO2019009163A1 (ja) * | 2017-07-04 | 2019-12-26 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、プレイヤ側装置、制御方法、及びプログラム |
US11273374B2 (en) | 2017-07-04 | 2022-03-15 | Sony Interactive Entertainment Inc. | Information processing system, player-side apparatus control method, and program |
JP2022091798A (ja) * | 2018-01-24 | 2022-06-21 | アップル インコーポレイテッド | 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース |
JP7397899B2 (ja) | 2018-01-24 | 2023-12-13 | アップル インコーポレイテッド | 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース |
JP2021174378A (ja) * | 2020-04-28 | 2021-11-01 | 昭和アルミニウム缶株式会社 | 情報処理システム、情報処理装置、プログラム、および容器 |
JP7486342B2 (ja) | 2020-04-28 | 2024-05-17 | アルテミラ株式会社 | 情報処理システム、情報処理装置、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN104243952A (zh) | 2014-12-24 |
US10186084B2 (en) | 2019-01-22 |
US20140368542A1 (en) | 2014-12-18 |
CN104243952B (zh) | 2018-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015001875A (ja) | 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット | |
US20220092830A1 (en) | Image processing apparatus, image processing method, and program | |
Romli et al. | Mobile augmented reality (AR) marker-based for indoor library navigation | |
US9704247B2 (en) | Information processing method and system | |
US10579134B2 (en) | Improving advertisement relevance | |
US10089794B2 (en) | System and method for defining an augmented reality view in a specific location | |
EP2508975B1 (en) | Display control device, display control method, and program | |
CN102708355B (zh) | 信息处理装置、信息处理方法 | |
TW202119362A (zh) | 一種擴增實境資料呈現方法、電子設備及儲存介質 | |
JP4253567B2 (ja) | データオーサリング処理装置 | |
US20100257252A1 (en) | Augmented Reality Cloud Computing | |
CN106355153A (zh) | 一种基于增强现实的虚拟对象显示方法、装置以及系统 | |
JP2013080326A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN109741462A (zh) | 基于ar的展品导赏装置、方法及存储介质 | |
CN112947756B (zh) | 内容导览方法、装置、系统、计算机设备及存储介质 | |
Nóbrega et al. | NARI: Natural augmented reality interface-interaction challenges for ar applications | |
CN113867875A (zh) | 标记对象的编辑及显示方法、装置、设备、存储介质 | |
CN108052579A (zh) | 一种基于ar增强现实技术的电子名片管理系统 | |
JP2014164572A (ja) | 情報処理装置およびプログラム | |
JP5533311B2 (ja) | 展示物用情報提示装置および提示方法 | |
Yee et al. | Car advertisement for android application in augmented reality | |
WO2023215637A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation | |
WO2024039885A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation | |
WO2023205145A1 (en) | Interactive reality computing experience using multi-layer projections to create an illusion of depth | |
WO2024039887A1 (en) | Interactive reality computing experience using optical lenticular multi-perspective simulation |