[go: up one dir, main page]

JP2010026818A - 画像処理プログラム、画像処理装置及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2010026818A
JP2010026818A JP2008187936A JP2008187936A JP2010026818A JP 2010026818 A JP2010026818 A JP 2010026818A JP 2008187936 A JP2008187936 A JP 2008187936A JP 2008187936 A JP2008187936 A JP 2008187936A JP 2010026818 A JP2010026818 A JP 2010026818A
Authority
JP
Japan
Prior art keywords
code
model
drawn
computer
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008187936A
Other languages
English (en)
Inventor
Masahiro Yamauchi
雅浩 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEISHA TOKYO ENTERTAINMENT Inc
Original Assignee
GEISHA TOKYO ENTERTAINMENT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEISHA TOKYO ENTERTAINMENT Inc filed Critical GEISHA TOKYO ENTERTAINMENT Inc
Priority to JP2008187936A priority Critical patent/JP2010026818A/ja
Publication of JP2010026818A publication Critical patent/JP2010026818A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 仮想のキャラクター等を表示して操作する拡張現実型ゲームにおいて、拡張現実におけるキャラクター等の表示パターンのバリエーションを拡大することが可能な画像処理プログラム等を提供する。
【解決手段】 カメラが撮影した画像に含まれる2つの多面体オブジェクトから識別用のコードを識別し、それぞれのコードに対応するキャラクターや道具等のモデルをクライアント端末のディスプレイに表示させる。2つのモデルの位置関係から接触等の状況が生じた際には、モデルの組合せに対応して表示されているモデルの画像に何らかの変化を生じさせる。例えば、ディスプレイに表示されている仮想のキャラクターに仮想の道具を接触させることによって、キャラクターに走る、転ぶなど様々な動作を行わせることが可能になる。
【選択図】 図1

Description

本発明は、キューブ等の多面体オブジェクトを用いてコンピュータのディスプレイに表示されたキャラクター等の画像等を操作するための画像処理プログラム、画像処理装置及び画像処理方法に関するものである。
識別用のカードをカメラに読み取らせ、カードに対応するキャラクター等の画像をカメラによって撮影された映像にディスプレイ上で重ねて表示することによって、実空間に仮想空間が融合された、いわゆる拡張現実(AR)を実現することが可能になっている(例えば、特許文献1参照)。
この技術をカードゲームに適用して、カードゲームで使用するカード上に仮想のキャラクターをディスプレイ(モニタ)上に表示させるとともに、プレイヤーが仮想のキャラクターに接触する動きを行うと、キャラクターに何らかの変化を生じさせる発明が開示されている(例えば、特許文献2参照)。
特開2000−322602号公報 特開2005−230156号公報
特許文献2記載の発明によると、カード上にキャラクターを表示させ、プレイヤーがこれに接触する動きを行うことによってキャラクターに設定されたパラメータを変化させることができるが、カードタイプのオブジェクトはカメラの位置によってはコードを識別するのが困難であることに加えて、カードには表裏両面をあわせても2つの面しか存在していないため、コードによって識別できる情報に制約があり、表示されるキャラクターに、例えば横向きに寝たり斜めに傾いたりといったバリエーションをもたせることが難しいという問題がある。
また、キャラクターに接触するのは実空間にいるプレイヤー自身の動きとなっているために、例えば、様々な仮想の道具を用いてキャラクターに接触したり、そこで用いられる道具によってキャラクターに異なる動きをさせたりといった、仮想空間において表示する対象物や対象物の動きのバリエーションを広げることにも制約がある。
本発明は、このような課題を解決するためになされたものであり、仮想のキャラクター等を表示して操作する拡張現実型ゲームにおいて、2以上のキューブ等の多面体オブジェクトを識別用のオブジェクトとして用いることによって、拡張現実におけるキャラクター等の表示パターンのバリエーションを拡大することが可能な、画像処理プログラム、画像処理装置及び画像処理方法を提供することを目的とするものである。
このような課題を解決する本発明は、カメラと接続されたコンピュータに、前記カメラが撮影した画像ファイルから、第1の多面体オブジェクトの少なくとも1つの面に描かれた第1のコードを識別する第1の識別ステップと、前記第1のコードに対応する第1のモデルの画像ファイルを、多面体オブジェクトの各面に描かれたコードに対応するモデルの画像データを格納するモデル情報格納部から読み出すステップと、前記カメラが撮影した画像ファイルから、第2の多面体オブジェクトの少なくとも1つの面に描かれた第2のコードを識別する第2の識別ステップと、前記第2のコードに対応する第2のモデルの画像データを、前記モデル情報格納部から読み出すステップと、前記モデル情報格納部から読み出した画像データから第1のモデル及び第2のモデルを描画した表示画面を生成する生成ステップと、前記表示画面を前記コンピュータのディスプレイに出力する出力ステップと、前記第1の多面体オブジェクトと前記第2の多面体オブジェクトの位置関係、又は前記表示画面における第1のモデル及び第2のモデルの位置関係を演算して、前記位置関係が所定の条件に合致する場合には、所定の処理を実行するステップと、を実行させること特徴とする画像処理プログラムである。
本発明では、2つの多面体オブジェクトから識別用のコードを読み取り、それぞれのコードに対応するキャラクターや道具等のモデルを表示するとともに、2つのモデルの位置関係から接触等の状況が生じた際には、所定の処理を実行して、表示されているモデルの画像や音声に何らかの変化を生じさせることができる。これによって、例えば、ディスプレイに表示されている仮想のキャラクターに仮想の道具を接触させることによって、キャラクターに様々な動作を行わせたり、キャラクターに声を出させたりといった、表示パターンのバリエーションを拡大することが可能になる。
尚、本発明において用いられる多面体オブジェクトには、一般にはキューブ(立方体)が用いられるが、四面体以上の多面体であれば特に限定されるものではない。また、多面体オブジェクトは多面体のみからなるものに限られず、棒の先端部分に多面体が形成されているオブジェクトなど、いずれかの部分に多面体を含むものであればよい。
また、表示画面に表示されるモデルも特に限定されるものではなく、人形や動物のようなキャラクターの画像であってもよいし、手や指などの体の一部、又は棒やボールなどの道具の画像であってもよい。これらの画像の変化の内容も特に限定されるものではなく、例えば表示されたキャラクターが走る、転ぶ、といった動作を行わせることができる。また、キャラクターに声や音を出させるといった音声処理を行うこととしてもよい。
また、前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面に描かれたコードは非点対称の形状であり、前記コンピュータは、前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記第1のコード又は前記第2のコードの少なくともいずれかの向きを識別し、前記生成ステップにおいて、前記第1のコード又は前記第2のコードについて識別された向きに対応する座標軸を設定して前記第1のモデル又は前記第2のモデルの少なくともいずれかのモデルを描画した表示画面を生成することを特徴とすることもできる。
このように構成することによって、読み取られたコードの向きによってキャラクター等のモデルを描画する向きを設定しておき、多面体オブジェクトのどの面を上面にするかによって、キャラクター等のモデルを真っすぐに立たせたり、横向きや斜め向きに立たせたりすることができるので、表示パターンのバリエーションを拡大することが可能になる。
尚、ここで用いられるコードの形状は非点対称でコードの向きを特定できるものであれば特に限定されるものではなく、文字、符号、漫画のキャラクターや図形、二次元コードなど様々な形状のものを採用することができる。
さらに、本発明は、本発明は、前記コンピュータに、前記第1の多面体オブジェクトの他の面に描かれた第3のコード、又は前記第2の多面体オブジェクトの他の面に描かれた第4のコードの少なくともいずれかのコードを識別するステップと、前記第1のコードと前記第3のコードの位置関係が、前記コンピュータに記憶された前記第1の多面体オブジェクトの各面に描かれたコードの位置関係に一致するか、又は前記第2のコードと前記第4のコードの位置関係が、前記コンピュータに記憶された前記第2の多面体オブジェクトの各面に描かれたコードの位置関係に一致するかの少なくともいずれかの位置関係の一致を判断するステップと、を実行させ、前記コンピュータは、前記位置関係が一致すると判断されることを条件に、前記出力ステップにおいて、前記表示画面を前記コンピュータのディスプレイに出力することを特徴としてもよい。
このように、多面体オブジェクトの2以上の面からコードを読み取り、それぞれのコードの位置関係があらかじめコンピュータに記憶させておいた多面体オブジェクトの各面におけるコードの位置関係と一致するかを判断することによって、多面体オブジェクト上のコードが正確に読み取られたかを確認することが可能になる。尚、それぞれのコードの位置関係は、多面体オブジェクトの各面の位置関係に限られず、それぞれのコードの向きも含めて位置関係を確認することが好ましい。
さらに、本発明は、前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面には、多面体オブジェクトの面に対応する多角形でコードを囲う縁が描かれており、前記コンピュータは、前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記多角形に囲われたコードを前記第1のコード又は前記第2のコードとして識別することを特徴としてもよい。
このように、多面体オブジェクトの各面に描かれたコードを多角形の縁で囲むことによって、カメラが撮影した画像から多面体オブジェクトや識別用のコードがある位置を特定することや、多角形の歪み方から多面体オブジェクトの各面のある位置を識別することが容易になる。
本発明は、本発明にかかる画像処理プログラムを備えた画像処理装置として特定することもできる。
本発明にかかる画像処理装置は、多面体オブジェクトの各面に描かれたコードに対応するモデルの画像データを格納するモデル情報格納手段と、カメラで撮影した画像ファイルから、第1の多面体オブジェクトの少なくとも1つの面に描かれた第1のコードを識別する第1の識別手段と、前記第1のコードに対応する第1のモデルの画像データを、前記モデル情報格納手段から読み出す第1の読出手段と、前記カメラで撮影した画像ファイルから、第2の多面体オブジェクトの少なくとも1つの面に描かれた第2のコードを識別する第2の識別手段と、前記第2のコードに対応する第2のモデルの画像データを、前記モデル情報格納手段から読み出す第2の読出手段と、前記モデル情報格納部から読み出した画像データから第1のモデル及び第2のモデルを描画した表示画面を生成する生成手段と、前記表示画面を前記コンピュータのディスプレイに出力する出力手段と、前記第1の多面体オブジェクトと前記第2の多面体オブジェクトの位置関係、又は前記表示画面における第1のモデル及び第2のモデルの位置関係を演算して、前記位置関係が所定の条件に合致する場合には、所定の処理を実行する手段と、を備えることを特徴とする画像処理装置である。
また、本発明にかかる画像処理装置は、前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面に描かれたコードは非点対称の形状であり、前記第1の識別手段又は前記第2の識別手段の少なくともいずれかの手段は、前記第1のコード又は前記第2のコードの少なくともいずれかの向きを識別し、前記生成手段は、前記第1のコード又は前記第2のコードについて識別された向きに対応する座標軸を設定して前記第1のモデル又は前記第2のモデルの少なくともいずれかのモデルを描画した表示画面を生成することを特徴とすることができる。
さらに、本発明にかかる画像処理装置は、前記第1の多面体オブジェクトの他の面に描かれた第3のコード、又は前記第2の多面体オブジェクトの他の面に描かれた第4のコードの少なくともいずれかのコードを識別する第3の識別手段と、前記第1のコードと前記第3のコードの位置関係が、前記コンピュータに記憶された前記第1の多面体オブジェクトの各面に描かれたコードの位置関係に一致するか、又は前記第2のコードと前記第4のコードの位置関係が、前記コンピュータに記憶された前記第2の多面体オブジェクトの各面に描かれたコードの位置関係に一致するかの少なくともいずれかの位置関係の一致を判断する判断手段と、を備えていて、前記出力手段は、前記判断手段において位置関係が一致すると判断されることを条件に、前記表示画面を前記ディスプレイに出力することを特徴としてもよい。
さらに、本発明にかかる画像処理装置は、前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面には、多面体オブジェクトの面に対応する多角形でコードを囲う縁が描かれており、前記第1の識別手段又は前記第2の識別手段の少なくともいずれかの手段は、前記多角形に囲われたコードを前記第1のコード又は前記第2のコードとして識別することを特徴としてもよい。
本発明は、本発明にかかる画像処理プログラムによって実行される画像処理方法として特定することもできる。
本発明にかかる画像処理方法は、カメラと接続されたコンピュータが、前記カメラが撮影した画像ファイルから、第1の多面体オブジェクトの少なくとも1つの面に描かれた第1のコードを識別する第1の識別ステップと、前記コンピュータが、前記第1のコードに対応する第1のモデルの画像データを、多面体オブジェクトの各面に描かれたコードに対応するモデルの画像データを格納するモデル情報格納部から読み出すステップと、前記コンピュータが、前記カメラが撮影した画像ファイルから、第2の多面体オブジェクトの少なくとも1つの面に描かれた第2のコードを識別する第2の識別ステップと、前記コンピュータが、前記第2のコードに対応する第2のモデルの画像データを、前記モデル情報格納部から読み出すステップと、前記コンピュータが、前記モデル情報格納部から読み出した画像データから第1のモデル及び第2のモデルを描画した表示画面を生成する生成ステップと、前記表示画面を前記コンピュータのディスプレイに出力する出力ステップと、前記コンピュータが、前記第1の多面体オブジェクトと前記第2の多面体オブジェクトの位置関係、又は前記表示画面における第1のモデル及び第2のモデルの位置関係を演算して、前記位置関係が所定の条件に合致する場合には、所定の処理を実行するステップと、を有すること特徴とする画像処理方法である。
また、本発明にかかる画像処理方法は、前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面に描かれたコードは非点対称の形状であり、前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記コンピュータは、前記第1のコード又は前記第2のコードの少なくともいずれかの向きを識別し、前記生成ステップにおいて、前記第1のコード又は前記第2のコードについて識別された向きに対応する座標軸を設定して前記第1のモデル又は前記第2のモデルの少なくともいずれかのモデルを描画した表示画面を生成することを特徴とすることができる。
さらに、本発明にかかる画像処理方法は、前記コンピュータが、前記第1の多面体オブジェクトの他の面に描かれた第3のコード、又は前記第2の多面体オブジェクトの他の面に描かれた第4のコードの少なくともいずれかのコードを識別するステップと、前記コンピュータが、前記第1のコードと前記第3のコードの位置関係が、前記コンピュータに記憶された前記第1の多面体オブジェクトの各面に描かれたコードの位置関係に一致するか、又は前記第2のコードと前記第4のコードの位置関係が、前記コンピュータに記憶された前記第2の多面体オブジェクトの各面に描かれたコードの位置関係に一致するかの少なくともいずれかの位置関係の一致を判断するステップと、を有していて、前記位置関係が一致すると判断されることを条件に、前記出力ステップにおいて、前記コンピュータは、前記表示画面を前記コンピュータのディスプレイに出力することを特徴としてもよい。
さらに、本発明にかかる画像処理方法は、前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面には、多面体オブジェクトの面に対応する多角形でコードを囲う縁が描かれており、前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記コンピュータは、前記多角形に囲われたコードを前記第1のコード又は前記第2のコードとして識別することを特徴としてもよい。
本発明によって、多面体オブジェクトから特定される2以上のモデルを表示し、それらの位置関係によってキャラクター等のモデルに様々な動作を行わせることによって、拡張現実におけるキャラクター等のモデルの表示パターンのバリエーションを拡大することが可能になる。
また、多面体オブジェクトから2以上の面にあるコードを読み取り、その位置関係を確認することによって、識別用のコードを読み取る精度を高めることができる。さらに、識別用のコードを多角形の縁で囲うことによって、多面体オブジェクトや識別用のコードがある位置の特定や、多面体オブジェクトの各面のある位置の識別が容易になる。
本発明を実施するための最良の形態について、図面を用いて、以下に詳細に説明する。尚、以下の説明では、本発明を2つのキューブ(立方体)を用いてキャラクターに様々な動作を行わせるゲームに適用する例について説明するが、この実施例は本発明の実施形態の一例を示したものであって、本発明はかかる実施形態に限定されるものではなく、キューブ以外の他の多面体に適用することも可能である。
図1は、本発明の実施形態の概要を示す図である。図2は、図1の例において、ディスプレイに描画されたキャラクター等の一例を示す図である。図3は、本発明を実施するためのシステム構成を示すブロック図である。図4〜図6は、本発明において用いられるキューブ(多面体ジェクト)を展開した、それぞれ第1〜第3の例を示す図である。図7は、本発明において用いられるモデル情報に含まれるデータの一例を示す図である。図8は、本発明において用いられる動作情報に含まれるデータの一例を示す図である。図9〜図13は、本発明にかかる画像表示プログラムによって描画されたキャラクターの一例を示す、それぞれ第1〜第5の図である。図14は、本発明における多面体オブジェクトに描かれたコードの特定方法の一例を示すである。図15は、本発明にかかる画像表示プログラムの処理フローを示すフローチャートである。図16は、本発明にかかる画像表示プログラムにおけるモデルの特定から描画までの処理フローを示すフローチャートである。
図1は、本発明の実施形態の概要を示す図である。本発明にかかる画像表示プログラムは、パーソナルコンピュータ等のクライアント端末において実行される。クライアント端末にはWebカメラ等のカメラが接続されていて、各面に異なるコードが描かれた多面体オブジェクトを撮影する。
多面体オブジェクトには、キャラクターを識別するために用いられる第1の多面体オブジェクトと、キャラクターに何らかの動作を行わせる突き棒の先に取り付けられた第2の多面体オブジェクトがある。Webカメラでこれらの多面体オブジェクトを撮影すると、クライアント端末のディスプレイには撮影された多面体オブジェクトが表示されるとともに、第1の多面体オブジェクトから読み取られたコードに対応するモデルA(キャラクター)と、第2の多面体オブジェクトから読み取られたコードに対応するモデルa(キャラクターを突く指先)が、実際の空間には存在していないのに図2に示したように重ねて表示される。
ここで、第1の多面体オブジェクトと第2の多面体オブジェクトが所定の距離に近づいて、モデルAとモデルaが仮想空間(画面上)において接触した状態になると、モデルa側の種別に対応して、モデルAのキャラクターが走る、転ぶなどモデルAに様々な動作を行わせたり、モデルAに何らかの声や音を出させたりする。
これらのコードとモデルの対応付けに関する情報や、モデルの干渉によって実行される動作に関する情報は、データベースサーバに格納されている。データベースサーバは、インターネット等のネットワークを通じてクライアント端末と接続され、モデルを描画する際にデータベースサーバにアクセスすることとしてもよいし、データベースサーバからダウンロードした情報をクライアント端末に格納して、随時アップロードすることとしてもよい。又は、データベースサーバの機能をクライアント端末内に持たせて、スタンドアローンでモデルの描画を実行することとしてもよい。
図3は、本発明を実施するためのシステム構成を示している。本発明にかかる画像表示プログラムは、パーソナルコンピュータ等のクライアント端末10に格納されていて、Webカメラ18において撮影した映像を、多面体オブジェクト20及び30のコードを読み取って描画したモデルを重ねて、ディスプレイ17に表示する。
クライアント端末10には、パーソナルコンピュータの他にゲーム専用機等を用いることとしてもよいが、クライアント端末10にはコンピュータプログラムを実行するために必要なCPUとメインメモリ、ハードディスクが備えられている。クライアント端末10で実行されるアプリケーション等のコンピュータプログラムは、ハードディスクから読み出されてメインメモリ等のメモリ領域をワーキングエリアとして機能させながら、CPUで演算処理を実行する。
クライアント端末10に備えられたデータベースサーバ40との通信を行うためのクライアントプログラム11の他に、ディスプレイ17に仮想現実(AR)を表示させるフレームワークを構成する3D描画エンジン13、座標変換エンジン14、コード認識エンジン15及びカメラ制御エンジン16は、いずれも上記のように実行されるプログラムである。
また、クライアント端末10には、モデルの描画とモデルの動作に関する情報を格納するモデル・動作情報格納部12として、ハードディスク等の記憶装置の所定の領域が割り当てられている。ここには、多面体オブジェクトに描かれたコードとこれを読み取った場合に表示するキャラクター等のモデルの対応付けや、モデルを描画する位置、向き、大きさ、モデルを表示するための画像データ、2以上のモデルが干渉した場合に実行する動作などに関する情報が格納されている。
これらの最新情報はデータベースサーバ40のモデル情報格納部42及び動作情報格納部43に格納されていて、クライアントプログラム11とサーバプログラム41が呼応して、モデル・動作情報格納部12の情報がアップデートされるように構成されている。
他の実施形態では、クライアント端末10にはモデル・動作情報格納部12を備えることなく、モデルを描画する際にはクライアントプログラム11により都度データベースサーバ40に問合せを行って、コードとモデルの対応付けに関する情報やモデルの画像データ等を呼び出すよう構成してもよい。さらに他の実施形態では、データベースサーバ40を備えず、クライアント端末10をスタンドアローンで利用して、コードとモデルの対応付けに関する情報やモデルの画像データ等はモデル・動作情報格納部12から読み出したものを用いることとしてもよい。
多面体オブジェクト20には、例えば、図4に示したキューブ(立方体)などのオブジェクトが用いられ、多面体オブジェクトの各面にはそれぞれ異なるコード(ここではA〜F)が描かれている。以下の例では、図4のキューブのCのコードが描かれた面に、人形のキャラクターを表示するよう設定されているものとする。
図5も図4と同じコードが描かれた多面体オブジェクト20の一例を示したものであるが、コードのある位置を認識しやすくするとともに、各面が斜めに撮影されたときの歪みの程度を把握して歪み分を補正して本来の多角形を復元しやすくするために、この例のように、多面体オブジェクトを構成する多面体形状(この例では正方形)の太線の縁でコードの周りを囲うことが好ましい。
図6は、突き棒の先に取り付けられた多面体オブジェクト30の一例を示したものであるが、図5と同様にコード(a〜e)の周りを多面体形状(この例では正方形)の太線の縁で囲うこととしている。尚、突き棒の先に取り付けるために1つの面にはコードが描画されていないが、この例のように、多面体オブジェクトの一部の面にはコードが描かれていないものであってもよい。
図7は、モデル情報格納部42又はモデル・動作情報格納部12に含まれるモデルを描画するために必要なデータの一例を示している。この例では、図4及び5の例に示したキューブにおいて、A〜Fのいずれのコードが識別された場合であっても、同じ人形のキャラクターであるモデルAが描画されるので、モデル・動作情報格納部12からモデルAを描画するための画像データが読み出されて表示される。但し、それぞれどのコードが識別されたかによって、モデルAを描画する位置や向きが異なることになり、読み出した画像データもこれに対応して変形され、ディスプレイ17に出力するために描画されることになる。
例えば、X、Y、Zの3Dの座標軸に対して、Z軸方向を正面にして頭をY軸方向に伸ばして人形のキャラクターであるモデルAを描画することにすると、Aのコードが識別された場合には、Z軸を前方、X軸を右側、Y軸を上方に設定して、図9の例に示したようにモデルAを描画する。図7の例には、このような座標軸の設定に関する情報が含まれている。
ここでのモデルの描画は、クライアント端末10の3D描画エンジン13、座標変換エンジン14、コード認識エンジン15及びカメラ制御エンジン16によって行われる。Webカメラ18で撮影した多面体オブジェクト20を含む画像ファイルを、カメラ制御エンジン16で受け付ける。この画像ファイルをコード認識エンジン15でスキャンして、画像ファイルの中から四辺形(キューブ以外の多面体であれば多面体に対応する多角形)を探す。この際に、図5の例のようにコードを太線の四辺形で囲っておくと、スムーズに四辺形を認識することができる。
四辺形が認識されると、四辺形の内部にあるコードも含めた画像を、元の多面体オブジェクト20のキューブの各面と同一形状の正方形に復元する補正を行う。この際に、正方形に対する四辺形の歪みの角度から、各面がどの位置にあるか、正面に対してどの方向にどれだけ回転されているかを特定することもできる。
続いて、復元された正方形内部にある画像から、モデル・動作情報格納部12に格納されたコードを検索して、その面に描かれているコードを認識するコードマッチングを実行する。図7の例において、Aのコードが識別されたとすると、座標変換エンジン14によってAについて指定された座標軸が設定されて、設定された座標軸上に3D描画エンジン13によってモデルAが描画される。
ここでコード認識エンジン15によってコードを特定する際には、コードの種別だけでなくコードの向きもあわせて識別される。Aのコードが上向きではなく、横向きの状態にあると識別された場合には、図10の例に示したように、モデルAの人形のキャラクターは正面を向いて横に寝た状態で表示される。
図11は、コード認識エンジン15によってBのコードが特定された例を示している。図7の例によると、Bのコードが識別された場合にも描画されるのはモデルAであり、Z軸を左側、X軸を前方、Y軸を上方に設定して、図11の例に示したようにモデルAを描画する。すなわち図10の例から変化させたとすると、キューブの回転にあわせて、90度回転した状態のモデルAが表示されることになる。
また、Bのコードが横向きであると識別された場合には、図12の例に示したように、モデルAの人形のキャラクターは左側面を正面に向けて横に寝た状態で表示される。すなわち図11の例から変化させたとすると、キューブが横に倒されたことによって、そのまま横に寝た状態のモデルAが表示されることになる。
さらに、最初に認識した四辺形を正方形に復元した際に、先に説明したとおり四辺形の歪みの角度から識別されたコードが正面からどれだけ回転されているかが特定された場合には、その回転された度数にあわせて基準となる座標軸も回転させて、回転された座標軸を基準にモデルAを描画する。例えば、図13の例であれば、図9の例から約45度キューブが回転された状態となっているため、モデルAの人形のキャラクターも正面から約45度回転した状態で描画される。
ここで、撮影した画像ファイルからコード認識エンジン15によって2以上のコードが特定される場合もある。図14に示した例では、多面体オブジェクト20のキューブからA、B、Cの3つのコードが特定されているが、例えば以下のように処理することができる。
A、B、Cのコードが特定されたそれぞれの面では、最初に認識された四辺形から正方形への補正を行って、モデル・動作情報格納部12に格納されたコードとのマッチングを行っている。ここで、マッチングの際に補正した画像から認識されるコードと本来のコードの一致度を指数として把握する。図14の例では、A、B、Cのコードそれぞれの一致度が、80%、60%、30%となっている。
このうち、例えば最も一致度の高いコードを採用してモデルAを描画することとしてもよいが、より精度の高い判断を行うためには、一致度が所定の閾値、例えば50%を超えたコードを用いて、キューブ上のコードが正しく認識されているかを確認することとしてもよい。
2以上のコードを用いた際の確認方法は特に限定されるものではないが、簡易な方法としては、所定の閾値を超えたA、Bのコードの位置関係を確認し、これがモデル・動作情報格納部12に格納された情報から把握できる多面体オブジェクト20のキューブ各面に描かれたコードの位置関係と一致するかどうかから、キューブ上のコードが正しく認識されているかを確認することができる。例えば、上向きに表示されているAのコードの左側にBが認識されたとすると、A、Bの本来の位置関係からそのような状態はあり得ないので認識エラーが生じていることになる。
その他の方法としては、例えば、A、Bのそれぞれのコードを対象にモデルAを描画するための座標軸を設定し、それぞれ設定された座標軸が一致するかどうか、厳密に一致しなくても相違が所定の閾値の範囲内に収まっているかどうかから、A、Bのそれぞれのコードが正しく認識されているかを確認することもできる。両者の相違が所定の閾値の範囲内に収まっていると確認された場合には、モデルAを描画する基準となる座標軸は、一致度の高いコードのものを採用することとしてもよいし、2つのコードから設定される座標軸の一致度を考慮した加重平均等から座標軸を設定することとしてもよい。
以上のような方法によって、キューブ上のコードが正しく認識されているかを確認し、正しく認識されていることを条件として描画したモデルAを、3D描画エンジン13によってディスプレイ17に表示させる。
突き棒に取り付けられた多面体オブジェクト30についても、同様に1又は2以上の面に描かれたコードを認識して、人形のキャラクターに何らかの動作を行わせるための指先や棒などのモデルaを描画する。ディスプレイ17には、Webカメラ18が撮影した現実空間には存在しないモデルAとモデルaが3D描画エンジン13によって描画され、これらが描かれた映像が表示される。
ここでモデルAとモデルaを描画する際に、描画されたモデルAとモデルaの距離が所定の範囲、例えば接触する範囲内にあることが確認されると、モデル・動作情報格納部12に格納された動作情報に対応する動作を表示するために、ディスプレイ17に表示されるモデルA又はモデルaの画像データに変更が加えられたり、モデルA又はモデルaが発したように音声が再生されたりする。
図8は、モデル・動作情報格納部12に格納された動作情報に含まれるデータの一例を示したものであるが、2以上のモデルの組み合わせについて、ある動作を実行させるためのモデル間の距離の条件と、その条件に達した場合に人形のキャラクター等に実行させる動作が対応付けられている。このいずれかに該当する状態が生じると、対応する動作を表示させるための画像データがモデル・動作情報格納部12から読み出され、動作に対応する画像が3D描画エンジン13によって描画されてディスプレイ17に表示されたり、対応する音声を再生させるための音声データがモデル・動作情報格納部12から読み出され、音声がスピーカに再生されたりする。
尚、モデル間の距離を測定する方法は、各々のモデルを描画した上で描画されたモデル間の距離を演算することとしてもよいし、Webカメラ18で撮影された画像ファイルで識別された多面体オブジェクト20及び30の距離を演算してモデル間の距離に代用することとしてもよい。
図15及び図16のフローチャートを用いて、本発明にかかる画像表示プログラムの処理フローについて整理する。
図15のフローチャートは、本発明にかかる画像表示プログラムの全体の流れを示している。ゲームが開始されると、Webカメラ等のカメラによって多面体オブジェクトを含む画像の撮影を継続する。カメラが撮影した画像を所定のタイミングでスキャンして(S1)、その中に多面体オブジェクトの面の1つである多角形が存在しているかを、コードの周りを囲って描かれた縁の有無から確認する(S2)。
多角形の縁が存在しない場合は、さらに繰り返しカメラが撮影した画像のスキャンを継続する(S9)。多角形の縁が存在すると、多角形の縁の内部にあるコードも含めてこれを本来の多角形の形状に復元する処理を行い(S3)、多角形の内部にある画像を、コンピュータに格納された多面体オブジェクトに描かれたコードとそのコードから描画するモデルの対応付け等に関するデータとマッチングさせて(S4)、モデルを描画する条件を設定するためのコードを特定する(S5)。コードが特定されない場合には、まだ多面体オブジェクトがカメラの撮影範囲内に存在しないと判断され、さらに繰り返しカメラが撮影した画像のスキャンを継続する(S9)。
コードが特定された場合には、特定されたコードに対応するモデルを描画する(S6)。このコードの特定からモデルの描画までのフローの詳細は、図16のフローチャートの例に示したとおりで、以下のように行われる。
コードマッチングによってコードが特定された場合には、複数のコードが一致する場合には(S52)、それらのコードの位置関係や座標軸の角度等の整合性を確認する(S53)。位置関係の整合性がとれない場合には、認識エラーとしてモデルの描画を行わず、繰り返しカメラが撮影した画像のスキャンを継続する(S9)。
1のコードしか特定できない場合、又は複数のコードが特定されて位置関係等の整合性がとれている場合には、特定されたコードに対応するモデルを描画するモデルとして選択して対応する画像データを読み出し(S61)、そのモデルを描画するための条件をコードから特定する(S62)。特定された条件に従って座標軸を設定し(S63)、読み出した画像データからモデルの描画を実行する(S64)。尚、座標軸に対するモデルの大きさについては、認識された多面体オブジェクトやコードの大きさに対応して決定することとすればよい。
モデルの描画が実行されると、描画された2以上のモデルについて、それらを描画した位置で接触するなど、双方に干渉が生じていないかを確認する(S7)。干渉が生じていなければ、描画したモデルはそのままにして、繰り返しカメラが撮影した画像のスキャンを継続する(S9)。
干渉が生じている場合には、モデルの組合せに対応する動作の画像データを読み出して、少なくともいずれか一方のモデルについての動作を描画する(S08)。ここで行う処理は画像データの描画によってモデルに何らかの動作を行わせる処理に限られず、音声データを再生してモデルが声や音を発するものであってもよい。動作の描画等を行うと、さらに繰り返しカメラが撮影した画像のスキャンを継続する(S9)。
本発明の実施形態の概要を示す図である。 図1の例において、ディスプレイに描画されたキャラクター等の一例を示す図である。 本発明を実施するためのシステム構成を示すブロック図である。 本発明において用いられるキューブ(多面体ジェクト)を展開した第1の例を示す図である。 本発明において用いられるキューブ(多面体ジェクト)を展開した第2の例を示す図である。 本発明において用いられるキューブ(多面体ジェクト)を展開した第3の例を示す図である。 本発明において用いられるモデル情報に含まれるデータの一例を示す図である。 本発明において用いられる動作情報に含まれるデータの一例を示す図である。 本発明にかかる画像表示プログラムによって描画されたキャラクターの一例を示す第1の図である。 本発明にかかる画像表示プログラムによって描画されたキャラクターの一例を示す第2の図である。 本発明にかかる画像表示プログラムによって描画されたキャラクターの一例を示す第3の図である。 本発明にかかる画像表示プログラムによって描画されたキャラクターの一例を示す第4の図である。 本発明にかかる画像表示プログラムによって描画されたキャラクターの一例を示す第5の図である。 本発明における多面体オブジェクトに描かれたコードの特定方法の一例を示すである。 本発明にかかる画像表示プログラムの処理フローを示すフローチャートである。 本発明にかかる画像表示プログラムにおけるモデルの特定から描画までの処理フローを示すフローチャートである。
符号の説明
10 クライアント端末
11 クライアントプログラム
12 モデル・動作情報格納部
13 3D描画エンジン
14 座標変換エンジン
15 コード認識エンジン
16 カメラ制御エンジン
17 ディスプレイ
18 Webカメラ
20 多面体オブジェクト
30 多面体オブジェクト(突き棒)
40 データベースサーバ
41 モデル情報格納部
42 動作情報格納部

Claims (12)

  1. カメラと接続されたコンピュータに、
    前記カメラが撮影した画像ファイルから、第1の多面体オブジェクトの少なくとも1つの面に描かれた第1のコードを識別する第1の識別ステップと、
    前記第1のコードに対応する第1のモデルの画像ファイルを、多面体オブジェクトの各面に描かれたコードに対応するモデルの画像データを格納するモデル情報格納部から読み出すステップと、
    前記カメラが撮影した画像ファイルから、第2の多面体オブジェクトの少なくとも1つの面に描かれた第2のコードを識別する第2の識別ステップと、
    前記第2のコードに対応する第2のモデルの画像データを、前記モデル情報格納部から読み出すステップと、
    前記モデル情報格納部から読み出した画像データから第1のモデル及び第2のモデルを描画した表示画面を生成する生成ステップと、
    前記表示画面を前記コンピュータのディスプレイに出力する出力ステップと、
    前記第1の多面体オブジェクトと前記第2の多面体オブジェクトの位置関係、又は前記表示画面における第1のモデル及び第2のモデルの位置関係を演算して、前記位置関係が所定の条件に合致する場合には、前記表示画面において所定の処理を実行するステップと、
    を実行させること特徴とする画像処理プログラム。
  2. 前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面に描かれたコードは非点対称の形状であり、
    前記コンピュータは、
    前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記第1のコード又は前記第2のコードの少なくともいずれかの向きを識別し、
    前記生成ステップにおいて、前記第1のコード又は前記第2のコードについて識別された向きに対応する座標軸を設定して前記第1のモデル又は前記第2のモデルの少なくともいずれかのモデルを描画した表示画面を生成すること
    を特徴とする請求項1記載の画像処理プログラム。
  3. 前記コンピュータに、
    前記第1の多面体オブジェクトの他の面に描かれた第3のコード、又は前記第2の多面体オブジェクトの他の面に描かれた第4のコードの少なくともいずれかのコードを識別するステップと、
    前記第1のコードと前記第3のコードの位置関係が、前記コンピュータに記憶された前記第1の多面体オブジェクトの各面に描かれたコードの位置関係に一致するか、又は前記第2のコードと前記第4のコードの位置関係が、前記コンピュータに記憶された前記第2の多面体オブジェクトの各面に描かれたコードの位置関係に一致するかの少なくともいずれかの位置関係の一致を判断するステップと、
    を実行させ、前記コンピュータは、
    前記位置関係が一致すると判断されることを条件に、前記出力ステップにおいて、前記表示画面を前記コンピュータのディスプレイに出力すること
    を特徴とする請求項1又は2記載の画像処理プログラム。
  4. 前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面には、多面体オブジェクトの面に対応する多角形でコードを囲う縁が描かれており、
    前記コンピュータは、
    前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記多角形に囲われたコードを前記第1のコード又は前記第2のコードとして識別すること
    を特徴とする請求項1乃至3いずれかに記載の画像処理プログラム。
  5. 多面体オブジェクトの各面に描かれたコードに対応するモデルの画像データを格納するモデル情報格納手段と、
    カメラで撮影した画像ファイルから、第1の多面体オブジェクトの少なくとも1つの面に描かれた第1のコードを識別する第1の識別手段と、
    前記第1のコードに対応する第1のモデルの画像データを、前記モデル情報格納手段から読み出す第1の読出手段と、
    前記カメラで撮影した画像ファイルから、第2の多面体オブジェクトの少なくとも1つの面に描かれた第2のコードを識別する第2の識別手段と、
    前記第2のコードに対応する第2のモデルの画像データを、前記モデル情報格納手段から読み出す第2の読出手段と、
    前記モデル情報格納部から読み出した画像データから第1のモデル及び第2のモデルを描画した表示画面を生成する生成手段と、
    前記表示画面を前記コンピュータのディスプレイに出力する出力手段と、
    前記第1の多面体オブジェクトと前記第2の多面体オブジェクトの位置関係、又は前記表示画面における第1のモデル及び第2のモデルの位置関係を演算して、前記位置関係が所定の条件に合致する場合には、所定の処理を実行する手段と、
    を備えることを特徴とする画像処理装置。
  6. 前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面に描かれたコードは非点対称の形状であり、
    前記第1の識別手段又は前記第2の識別手段の少なくともいずれかの手段は、前記第1のコード又は前記第2のコードの少なくともいずれかの向きを識別し、
    前記生成手段は、前記第1のコード又は前記第2のコードについて識別された向きに対応する座標軸を設定して前記第1のモデル又は前記第2のモデルの少なくともいずれかのモデルを描画した表示画面を生成すること
    を特徴とする請求項5記載の画像処理装置。
  7. 前記第1の多面体オブジェクトの他の面に描かれた第3のコード、又は前記第2の多面体オブジェクトの他の面に描かれた第4のコードの少なくともいずれかのコードを識別する第3の識別手段と、
    前記第1のコードと前記第3のコードの位置関係が、前記コンピュータに記憶された前記第1の多面体オブジェクトの各面に描かれたコードの位置関係に一致するか、又は前記第2のコードと前記第4のコードの位置関係が、前記コンピュータに記憶された前記第2の多面体オブジェクトの各面に描かれたコードの位置関係に一致するかの少なくともいずれかの位置関係の一致を判断する判断手段と、
    を備えていて、
    前記出力手段は、前記判断手段において位置関係が一致すると判断されることを条件に、前記表示画面を前記ディスプレイに出力すること
    を特徴とする請求項5又は6記載の画像処理装置。
  8. 前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面には、多面体オブジェクトの面に対応する多角形でコードを囲う縁が描かれており、
    前記第1の識別手段又は前記第2の識別手段の少なくともいずれかの手段は、前記多角形に囲われたコードを前記第1のコード又は前記第2のコードとして識別すること
    を特徴とする請求項5乃至7いずれかに記載の画像処理装置。
  9. カメラと接続されたコンピュータが、前記カメラが撮影した画像ファイルから、第1の多面体オブジェクトの少なくとも1つの面に描かれた第1のコードを識別する第1の識別ステップと、
    前記コンピュータが、前記第1のコードに対応する第1のモデルの画像データを、多面体オブジェクトの各面に描かれたコードに対応するモデルの画像データを格納するモデル情報格納部から読み出すステップと、
    前記コンピュータが、前記カメラが撮影した画像ファイルから、第2の多面体オブジェクトの少なくとも1つの面に描かれた第2のコードを識別する第2の識別ステップと、
    前記コンピュータが、前記第2のコードに対応する第2のモデルの画像データを、前記モデル情報格納部から読み出すステップと、
    前記コンピュータが、前記モデル情報格納部から読み出した画像データから第1のモデル及び第2のモデルを描画した表示画面を生成する生成ステップと、
    前記表示画面を前記コンピュータのディスプレイに出力する出力ステップと、
    前記コンピュータが、前記第1の多面体オブジェクトと前記第2の多面体オブジェクトの位置関係、又は前記表示画面における第1のモデル及び第2のモデルの位置関係を演算して、前記位置関係が所定の条件に合致する場合には、所定の処理を実行するステップと、
    を有すること特徴とする画像処理方法。
  10. 前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面に描かれたコードは非点対称の形状であり、
    前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記コンピュータは、前記第1のコード又は前記第2のコードの少なくともいずれかの向きを識別し、
    前記生成ステップにおいて、前記第1のコード又は前記第2のコードについて識別された向きに対応する座標軸を設定して前記第1のモデル又は前記第2のモデルの少なくともいずれかのモデルを描画した表示画面を生成すること
    を特徴とする請求項9記載の画像処理方法。
  11. 前記コンピュータが、前記第1の多面体オブジェクトの他の面に描かれた第3のコード、又は前記第2の多面体オブジェクトの他の面に描かれた第4のコードの少なくともいずれかのコードを識別するステップと、
    前記コンピュータが、前記第1のコードと前記第3のコードの位置関係が、前記コンピュータに記憶された前記第1の多面体オブジェクトの各面に描かれたコードの位置関係に一致するか、又は前記第2のコードと前記第4のコードの位置関係が、前記コンピュータに記憶された前記第2の多面体オブジェクトの各面に描かれたコードの位置関係に一致するかの少なくともいずれかの位置関係の一致を判断するステップと、
    を有していて、
    前記位置関係が一致すると判断されることを条件に、前記出力ステップにおいて、前記コンピュータは、前記表示画面を前記コンピュータのディスプレイに出力すること
    を特徴とする請求項9又は10記載の画像処理方法。
  12. 前記第1の多面体オブジェクト、又は前記第2の多面体オブジェクトの少なくともいずれかの多面体オブジェクトの各面には、多面体オブジェクトの面に対応する多角形でコードを囲う縁が描かれており、
    前記第1の識別ステップ又は前記第2の識別ステップの少なくともいずれかのステップにおいて、前記コンピュータは、前記多角形に囲われたコードを前記第1のコード又は前記第2のコードとして識別すること
    を特徴とする請求項9乃至11いずれかに記載の画像処理方法。
JP2008187936A 2008-07-18 2008-07-18 画像処理プログラム、画像処理装置及び画像処理方法 Pending JP2010026818A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008187936A JP2010026818A (ja) 2008-07-18 2008-07-18 画像処理プログラム、画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008187936A JP2010026818A (ja) 2008-07-18 2008-07-18 画像処理プログラム、画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2010026818A true JP2010026818A (ja) 2010-02-04

Family

ID=41732592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008187936A Pending JP2010026818A (ja) 2008-07-18 2008-07-18 画像処理プログラム、画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2010026818A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011099515A1 (ja) 2010-02-09 2011-08-18 株式会社ブリヂストン タイヤ
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
JP2012203786A (ja) * 2011-03-28 2012-10-22 Tomy Co Ltd 情報処理装置および情報処理プログラム
JP2012221249A (ja) * 2011-04-08 2012-11-12 Sony Corp 表示制御装置、表示制御方法、およびプログラム
KR101338043B1 (ko) 2012-03-05 2013-12-09 한국과학기술연구원 실감 인터랙션을 이용한 인지재활 시스템 및 방법
JP2014503923A (ja) * 2011-01-31 2014-02-13 クアルコム,インコーポレイテッド コンテキストアウェアな拡張相互作用
JP2014106692A (ja) * 2012-11-27 2014-06-09 Canon Inc 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP2014206990A (ja) * 2014-06-09 2014-10-30 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法
JP2015177428A (ja) * 2014-03-17 2015-10-05 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9207756B2 (en) 2011-12-30 2015-12-08 Samsung Electronics Co., Ltd. Apparatus and method for controlling 3D image
JP2016131031A (ja) * 2016-02-22 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
JP2016151791A (ja) * 2015-02-16 2016-08-22 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP2016151792A (ja) * 2015-02-16 2016-08-22 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP2016154044A (ja) * 2016-04-28 2016-08-25 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
US9639989B2 (en) 2012-06-29 2017-05-02 Sony Corporation Video processing device, video processing method, and video processing system
JP2019095889A (ja) * 2017-11-20 2019-06-20 東京電力ホールディングス株式会社 拡張現実表示用マーカ
JP2021060789A (ja) * 2019-10-07 2021-04-15 株式会社プレースホルダ 映像処理システム
WO2024108528A1 (zh) * 2022-11-25 2024-05-30 毕振名 物理物体和计算机相结合的显示系统及出题系统

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011099515A1 (ja) 2010-02-09 2011-08-18 株式会社ブリヂストン タイヤ
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP2014503923A (ja) * 2011-01-31 2014-02-13 クアルコム,インコーポレイテッド コンテキストアウェアな拡張相互作用
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム
US9996982B2 (en) 2011-02-15 2018-06-12 Sony Corporation Information processing device, authoring method, and program
JP2012203786A (ja) * 2011-03-28 2012-10-22 Tomy Co Ltd 情報処理装置および情報処理プログラム
JP2012221249A (ja) * 2011-04-08 2012-11-12 Sony Corp 表示制御装置、表示制御方法、およびプログラム
EP2508975B1 (en) * 2011-04-08 2017-08-09 Sony Corporation Display control device, display control method, and program
US9207756B2 (en) 2011-12-30 2015-12-08 Samsung Electronics Co., Ltd. Apparatus and method for controlling 3D image
KR101338043B1 (ko) 2012-03-05 2013-12-09 한국과학기술연구원 실감 인터랙션을 이용한 인지재활 시스템 및 방법
US9639989B2 (en) 2012-06-29 2017-05-02 Sony Corporation Video processing device, video processing method, and video processing system
US9208379B2 (en) 2012-11-27 2015-12-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and storage medium storing program
JP2014106692A (ja) * 2012-11-27 2014-06-09 Canon Inc 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP2015177428A (ja) * 2014-03-17 2015-10-05 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP2014206990A (ja) * 2014-06-09 2014-10-30 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法
WO2016132817A1 (ja) * 2015-02-16 2016-08-25 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
WO2016132822A1 (ja) * 2015-02-16 2016-08-25 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP2016151792A (ja) * 2015-02-16 2016-08-22 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP2016151791A (ja) * 2015-02-16 2016-08-22 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
US20170315364A1 (en) * 2015-02-16 2017-11-02 Fujifilm Corporation Virtual object display device, method, program, and system
US10359916B2 (en) 2015-02-16 2019-07-23 Fujifilm Corporation Virtual object display device, method, program, and system
JP2016131031A (ja) * 2016-02-22 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
JP2016154044A (ja) * 2016-04-28 2016-08-25 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
JP2019095889A (ja) * 2017-11-20 2019-06-20 東京電力ホールディングス株式会社 拡張現実表示用マーカ
JP2021060789A (ja) * 2019-10-07 2021-04-15 株式会社プレースホルダ 映像処理システム
JP7442168B2 (ja) 2019-10-07 2024-03-04 株式会社リトプラ 映像処理システム
WO2024108528A1 (zh) * 2022-11-25 2024-05-30 毕振名 物理物体和计算机相结合的显示系统及出题系统

Similar Documents

Publication Publication Date Title
JP2010026818A (ja) 画像処理プログラム、画像処理装置及び画像処理方法
US9855496B2 (en) Stereo video for gaming
US8395620B2 (en) Method and system for tracking of a subject
JP4851504B2 (ja) デジタル・イメージ・キャプチャを用いて対話型エンタテインメントのためにアセットを生成する方法
JP6314394B2 (ja) 情報処理装置、設定方法、設定プログラム、システムおよび管理装置
US9792731B2 (en) System and method for controlling a display
US10460510B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
US20150002419A1 (en) Recognizing interactions with hot zones
JP7164045B2 (ja) 骨格認識方法、骨格認識プログラムおよび骨格認識システム
JP2006249618A (ja) 仮想試着装置
JP6739847B2 (ja) 画像表示制御装置および画像表示制御用プログラム
CN111739134B (zh) 虚拟角色的模型处理方法、装置及可读存储介质
KR101888491B1 (ko) 가상 공간 이동 장치 및 방법
JP2006314633A (ja) ゲームプログラムおよびゲーム装置
JP5762099B2 (ja) 姿勢認識装置、作業ロボット、姿勢認識方法、プログラム及び記録媒体
US10621788B1 (en) Reconstructing three-dimensional (3D) human body model based on depth points-to-3D human body model surface distance
US10891780B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
JP2006314632A (ja) ゲームプログラムおよびゲーム装置
CN118092647A (zh) 一种基于动态手势识别的三维模型处理方法及装置
US10379620B2 (en) Finger model verification method and information processing apparatus
US20220118358A1 (en) Computer-readable recording medium, and image generation system
CN117940963A (zh) 显示装置、显示装置的控制方法以及程序
CN115317907A (zh) Ar应用中多用户虚拟交互方法、装置及ar设备
JP3589657B2 (ja) 3次元ポリゴン表面模様処理方式
JP2023021806A (ja) 支援システム、支援側装置、支援方法、およびプログラム