[go: up one dir, main page]

JP6256497B2 - 情報処理システム、情報処理装置、制御方法、及びプログラム - Google Patents

情報処理システム、情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP6256497B2
JP6256497B2 JP2016042263A JP2016042263A JP6256497B2 JP 6256497 B2 JP6256497 B2 JP 6256497B2 JP 2016042263 A JP2016042263 A JP 2016042263A JP 2016042263 A JP2016042263 A JP 2016042263A JP 6256497 B2 JP6256497 B2 JP 6256497B2
Authority
JP
Japan
Prior art keywords
product
captured image
marker
user
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016042263A
Other languages
English (en)
Other versions
JP2017157142A (ja
Inventor
真 則枝
真 則枝
誠 吉本
誠 吉本
才田 好則
好則 才田
浩揮 小菅
浩揮 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2016042263A priority Critical patent/JP6256497B2/ja
Priority to US15/276,953 priority patent/US20170255838A1/en
Publication of JP2017157142A publication Critical patent/JP2017157142A/ja
Application granted granted Critical
Publication of JP6256497B2 publication Critical patent/JP6256497B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、情報処理システム、情報処理装置、制御方法、及びプログラムに関する。
商品に関する情報を閲覧するためのシステムが提供されている。特許文献1は商品情報出力装置の発明を開示している。この商品情報出力装置に設けられたカメラでユーザが商品を撮影すると、商品情報出力装置は、カメラによって生成された画像に写っている商品の商品情報を取得して、タッチパネルに表示する。こうすることで、ユーザは商品情報を閲覧することができる。またユーザは、商品情報出力装置に設けられているタッチパネルを操作するか、又は商品情報出力装置に設けられているマイクに対して発話することで、閲覧している商品に関する質問を行うことができる。
特許5220953号
店舗で商品を見ながら前述した商品情報出力装置を利用する場合、ユーザは、商品情報の閲覧や商品に関する質問を行うために、商品情報出力装置を手に持っている必要がある。そのため、少なくともユーザの片手がふさがってしまい、ユーザの行動の自由度が下がってしまう。また、マイクを利用して商品に関する情報の入力を行う方法は、周囲に人がいる状況では利用しづらいことがある。
本発明は、上記課題に鑑みてなされたものである。本発明の目的は、閲覧している商品に関連した入力操作を行うシステムの利便性を高くする技術を提供することである。
本発明の情報処理装置は、(1)撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、(2)前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、(3)撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、を有する。前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出する。前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させる。前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である。
本発明の情報処理システムは、本発明の情報処理装置及び前記表示装置を有する。
本発明の制御方法は、コンピュータによって実行される。当該制御方法は、(1)撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、(2)前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、(3)撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、を有する。前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出する。前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させる。前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、閲覧している商品に関連した入力操作を行うシステムの利便性を高くする技術が提供される。
実施形態1に係る情報処理システムを例示するブロック図である。 情報処理システムを概念的に説明するための図である。 情報処理装置を実現する計算機の構成を例示する図である。 カメラが設けられているヘッドマウントディスプレイを例示する図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 撮像画像の所定領域に写っている商品を例示する図である。 所定領域を表すガイドが表示されている表示装置を例示する図である。 商品情報をテーブル形式で例示する図である。 操作画面のテンプレートを例示する図である。 操作体の位置を定める方法を例示する第1の図である。 操作体の位置を定める方法を例示する第2の図である。 ユーザの指がぶれて写っている撮像画像22を例示する図である。 操作体の位置に基づいて定まる操作を例示する図である。 操作体の動きによって定まる形状を入力する入力操作を認識するケースを例示する図である。 ジェスチャ入力を例示する図である。 操作体の位置や動きが、撮像画像全体における相対的な位置や動きによって表される様子を例示する図である。 実施形態2に係る情報処理システムを例示するブロック図である。 実施形態2の商品認識部によって実行される処理の流れを例示するフローチャートである。 第1マーカとして扱われる画像を表示するデバイスを例示する図である。 商品認識領域を例示する第1の図である。 商品認識領域を例示する第2の図である。 商品認識領域を例示する第3の図である。 商品認識領域を例示する図4の図である。 第1マーカの傾きに合わせて商品認識領域の姿勢が変化する様子を例示する図である。 手が含まれる領域を例示する図である。 実施形態3に係る情報処理システムを例示するブロック図である。 実施形態3の情報処理装置によって実行される処理の流れを例示するフローチャートである。 第2マーカの位置によって位置が定まる操作画面を例示する第1の図である。 第2マーカの位置によって位置が定まる操作画面を例示する第2の図である。 第2マーカの位置によって位置が定まる操作画面を例示する第3の図である。 第2マーカの位置によって位置が定まる操作画面を例示する図4の図である。 実施形態4に係る情報処理システムを例示するブロック図である。 実施形態4の情報処理装置によって実行される処理の流れを例示するフローチャートである。 センサによって振動が検出された際に、デバイスのディスプレイ装置に表示されている画像が変更される様子を例示する図である。 検出対象タイミングを検出対象時間の開始時点とするケースを例示する図である。 検出対象タイミングを検出対象時間の終了時点とするケースを例示する図である。 各実施例に共通する情報処理システムの構成を例示するブロック図である。 各実施例に共通する情報処理システムの利用環境を例示する図である。 実施例1においてディスプレイ装置に表示される操作画面を例示する図である。 オーダー情報をテーブル形式で例示する図である。 実施例2のコンシェルジュサービスを提供するコンシェルジュシステムの構成を例示する図である。 実施例3においてヘッドマウントディスプレイが利用される様子を例示する図である。 ディスプレイ装置に表示される店舗の地図を例示する図である。 実施例4においてディスプレイ装置に表示される操作画面を例示する図である。 売り場担当者へ連絡するための操作画面が表示されたディスプレイ装置を例示する図である。 実施例5においてディスプレイ装置に表示される情報を例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。
[実施形態1]
図1は、実施形態1に係る情報処理システム3000を例示するブロック図である。情報処理システム3000は、表示装置3020及び情報処理装置2000を有する。情報処理装置2000は、商品認識部2020、表示制御部2040、及び操作認識部2060を有する。
商品認識部2020は商品を認識する。表示制御部2040は、商品認識部2020によって認識された商品に関する商品情報を取得する。さらに表示制御部2040は、取得した商品情報を含む操作画面を、表示装置3020に表示させる。操作認識部2060は、カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する。ここで、操作体は、ユーザが操作に利用する任意の物である。例えば操作体は、ユーザの身体の一部(指など)や、ユーザの身体によって保持されている物(ペンなど)である。
図2は、情報処理システム3000を概念的に説明するための図である。図2において、ユーザはヘッドマウントディスプレイ100を装着している。カメラ20は、撮像画像を生成するカメラであり、ヘッドマウントディスプレイ100に設けられている。また、カメラ20はユーザの視界方向を撮影するように設けられている。図2において、表示装置3020は、ヘッドマウントディスプレイ100に設けられているディスプレイ装置102である。
商品認識部2020は、商品10を認識する。その結果、表示制御部2040は、ディスプレイ装置102に操作画面40を表示させる。操作画面40には、商品10の商品情報が含まれている。本例における商品情報は、商品10の商品名及び価格を示している。さらに操作画面40には、商品を購入するか否かを選択するための画像が含まれている。
図2において、操作体はユーザの指30である。ユーザは、指30を、YES の画像に重なる位置に留めている。ここで、本例ではカメラ20によってユーザの視界方向の景色が撮像されるため、指30はカメラ20によって生成される撮像画像に写っている。操作認識部2060は、撮像画像に写っている指30の位置に基づき、YES を選択する入力操作を認識する。これにより、商品10が、購入対象として登録される。
ここで、図2を用いて説明した情報処理装置2000の動作は、情報処理装置2000の理解を容易にするための例示であり、情報処理装置2000の動作は上述の例に限定されるわけではない。情報処理装置2000の動作の詳細やバリエーションについては、以降の記載で説明する。
<作用・効果>
本実施形態の情報処理システム3000によれば、認識された商品に関する商品情報を含む操作画面40が表示装置3020に表示される。さらに、カメラ20によって生成された撮像画像に写っている操作体の位置又は動きに基づいて、操作画面40に対する入力操作が認識される。ユーザは、カメラ20の撮像範囲内で操作体を動かしたり止めたりすることによって、商品に関連した入力操作を行うことができる。よって、タッチパネル等の入力デバイスを用いて入力操作を行わなければならない場合と異なり、ユーザは手に入力デバイスなどを持つ必要がない。よって、閲覧している商品に関連した入力操作を行う際のユーザの行動の自由度が高くなると共に、ユーザが入力操作を容易に行えるようになる。このことから、入力デバイスを介して入力操作を受け付けるシステムと比較し、情報処理システム3000はユーザにとって利便性が高い。
以下、本実施形態の情報処理システム3000について、さらに詳細に説明する。
<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
計算機1000は種々の計算機である。例えば計算機1000は、ヘッドマウントディスプレイ、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
図3は、情報処理装置2000を実現する計算機1000の構成を例示する図である。計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100を有する。バス1020は、プロセッサ1040、メモリ1060、及びストレージ1080が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、ハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ1080は、RAM や ROM などのメモリであってもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。図3において、入出力インタフェース1100にはカメラ20及び表示装置3020が接続されている。カメラ20は、繰り返し撮像を行って、各撮像結果を表す撮像画像を生成する任意のカメラである。なお、カメラ20は、2次元(2D)カメラであってもよいし、3次元(3D)カメラであってもよい。
カメラ20が設けられる位置は任意である。例えばカメラ20は、ユーザが身につけている物に取り付けられる。ユーザが身につけている物とは、例えばヘッドマウントディスプレイや、首から提げている社員証などである。
図4は、カメラ20が設けられているヘッドマウントディスプレイを例示する図である。ヘッドマウントディスプレイ100は、眼鏡型のヘッドマウントディスプレイである。ヘッドマウントディスプレイ100のレンズ部分はディスプレイ装置102となっている。いる。カメラ20は、ディスプレイ装置102の付近に設けられている。こうすることで、カメラ20によって生成される撮像画像に写る景色は、ヘッドマウントディスプレイ100を装着するユーザの視線方向にある景色と同様の景色となる。
カメラ20が設けられる位置は、ユーザが身に付けている物に限定されない。例えば、カメラ20は、ユーザが情報処理装置2000に対する入力操作を行う部屋の壁等に設けられてもよい。後者の場合、カメラ20の撮影範囲(撮影方向やズーム率など)は、リモコンなどによる遠隔操作によって変更できることが好ましい。
また例えば、カメラ20は、ユーザが身につけている物に取り付けられてもよい。ユーザが身につけている物とは、例えばユーザの衣服、ユーザが首から提げている社員証などである。
表示装置3020は、画面を出力する任意の装置である。例えば表示装置3020は、画面を表示するディスプレイ装置である。例えばディスプレイ装置は、前述したヘッドマウントディスプレイ100に設けられているディスプレイ装置102である。また表示装置3020は、プロジェクタなど、画面を投影する装置であってもよい。
ストレージ1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。
計算機1000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、計算機1000は、ストレージ1080を備えていなくてもよい。また、カメラ20を計算機1000に接続する方法は、入出力インタフェース1100を介して接続する方法に限定されない。例えばカメラ20は、ネットワークを介して計算機1000に接続されてもよい。この場合、計算機1000は、ネットワークに接続するためのネットワークインタフェースを有する。
<処理の流れ>
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。商品認識部2020は商品を認識する(S102)。表示制御部2040は、認識された商品の商品情報を取得する(S104)。表示制御部2040は、商品情報を含む操作画面を表示装置3020に表示させる(S106)。情報処理装置2000は、撮像画像を取得する(S108)。操作認識部2060は、撮像画像に写っている操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する(S110)。
なお、情報処理装置2000によって実行される処理の流れは図4に示した流れに限定されない。例えば、撮像画像の取得は、S110よりも前の任意のタイミングで行うことができる。また後述するように、操作画面の表示(S106)に撮像画像を利用する場合、S108はS106よりも前に行われる。
<商品を認識する方法:S102>
商品認識部2020は商品10を認識する(S102)。商品認識部2020が商品10を認識する方法は任意である。以下、商品10を認識する方法を具体的に例示する。
<<撮像画像を利用する方法>>
商品認識部2020は、カメラ20によって生成された撮像画像に写っている商品10を認識する。より具体的には、商品認識部2020は、撮像画像に対してオブジェクト認識を行うことで商品10を認識する。ここで、画像に写っている商品を認識する方法には、既存の種々の技術を利用できる。そのため、商品認識部2020が撮像画像に写っている商品を認識する具体的な方法については省略する。
商品認識部2020は、撮像画像全体を対象として商品10の認識を行ってもよいし、撮像画像内の一部の領域を対象として商品10の認識を行ってもよい。後者の場合、例えば商品認識部2020は、撮像画像の所定位置にある所定領域を対象として商品10の認識を行う。図6は、撮像画像の所定領域に写っている商品10を例示する図である。図6において、この所定領域は、所定領域24である。所定領域24は、その中心位置が撮像画像の中心にあり、幅が所定幅 w であり、高さが所定の高さ h である矩形である。なお、撮像画像22における所定領域24の位置、並びに所定領域24の形状及び大きさを表す情報は、商品認識部2020に予め設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定可能であってもよい。
撮像画像に含まれる所定領域24に写っている商品10の認識を行う場合、表示装置3020には、所定領域24を視覚的に表すガイドが表示されることが好ましい。こうすることでユーザは、どのように商品10を撮像すればその商品10を情報処理装置2000に認識させることができるかを、容易に把握できる。
図7は、所定領域24を表すガイドが表示されている表示装置3020を例示する図である。図7において、表示装置3020はヘッドマウントディスプレイ100に設けられているディスプレイ装置102であり、カメラ20はヘッドマウントディスプレイ100に設けられている。また図7において、所定領域24を視覚的に表すガイドは、ガイド26である。
図7(a)において、商品10は、ユーザの視界(カメラ20の撮像範囲)には入っているものの、ガイド26の外側にある。そのため、撮像画像22において所定領域24の中に商品10が写っておらず、商品10は商品認識部2020によって認識されない。
一方、図7(b)において、商品10はガイド26の内側にある。そのため、撮像画像22において所定領域24の中に商品10が写っており、商品10は商品認識部2020によって認識される。その結果、表示制御部2040はディスプレイ装置102に操作画面40を表示させる。
なお、撮像画像内の一部の領域を対象として商品10の認識を行う方法は、所定位置にある所定領域から商品10を認識する方法に限定されない。その他の方法の一例は、後述の実施形態で述べる。
<<商品10のタグを利用する方法>>
商品認識部2020は、商品10のタグ(商品10に付されたタグ又は商品10に内蔵されたタグ)から読み取られた商品の識別子(以下、商品ID(Identifier))を取得することによって、商品10を認識する。上記タグは、例えば RFID(radio frequency identifier)タグである。
商品認識部2020は、商品10のタグから商品IDを読み取る種々のリーダと通信可能に接続されている。情報処理システム3000のユーザは、このリーダに、商品10のタグから商品IDを読み取らせる。商品認識部2020は、そのリーダから商品IDを取得する。なお、このリーダは、据え置き型のものであってもよいし、携帯型のものであってもよい。後者の場合、例えばユーザは、手に装着可能な(ウェアラブル)なリーダを装着して利用する。
<<商品情報シンボルを利用する方法>>
商品認識部2020は、商品に付された商品情報シンボルから読み取られた商品IDを取得することで、その商品を認識する。商品情報シンボルは、商品を特定する情報を表したシンボルである。ここでシンボルとは、バーコード、2次元コード(QRコード(登録商標)など)、又は文字列シンボルなどである。なお、ここでいう文字列には、数値列も含まれる。より具体的には、商品情報シンボルは、商品IDを含む情報が符号化されたバーコード等、又は商品IDを含む情報を表す文字列シンボルなどである。
商品情報シンボルから商品IDを取得する方法は、商品情報シンボルとして何を用いるかによって異なる。商品情報シンボルがバーコードである場合、例えば商品IDは、バーコードリーダを用いることで、商品10に付されたバーコードから読み取ることができる。この場合、情報処理装置2000は、そのバーコードリーダと通信可能に接続されている。
商品情報シンボルが2次元コードである場合、例えば商品IDは、2次元コードリーダを用いることで、商品10に付された2次元コードから読み取ることができる。この場合、情報処理装置2000は、その2次元コードリーダと通信可能に接続されている。
商品情報シンボルが文字列シンボルである場合、例えば商品IDは、商品10に付された文字列シンボルが写っている画像を解析することによって取得できる。なお、文字列シンボルの解析には、文字列解析に関する様々な既知の技術を用いることができる。
文字列シンボルが写っている画像は、カメラ20によって撮像される前述の撮像画像であってもよいし、その他のカメラによって撮像される画像であってもよい。後者の場合、文字列シンボルを解析する処理は、商品認識部2020によって行われてもよいし、情報処理装置2000以外の装置によって行われてもよい。商品10に付された文字列シンボルの解析が情報処理装置2000以外の装置によって行われる場合、商品認識部2020は、その文字列シンボルの解析を行った装置から、商品10の商品IDを取得する。またこの場合、情報処理装置2000は、商品10に付された文字列シンボルの解析を行う装置と通信可能に接続されている。
商品情報シンボルとして複数の種類のシンボルが用いられうる場合、情報処理装置2000は、これら複数の種類のシンボルそれぞれから商品IDを読み取るためのリーダ等と通信可能に接続されている。例えば、商品情報シンボルとしてバーコード及び2次元コードが用いられる場合、情報処理装置2000は、バーコードリーダ及び2次元コードリーダと通信可能に接続されている。
<商品情報を取得する方法:S104>
表示制御部2040は、商品認識部2020によって認識された商品10の商品情報を取得する(S104)。商品認識部2020が撮像画像に写っている商品10を認識する場合、表示制御部2040は、商品10の画像を用いて、商品10の商品情報を取得する。例えば表示制御部2040は、商品10の特徴量(商品10の形状、色、又は模様などの特徴を表す情報)と商品10の商品情報とを関連付けて記憶している記憶装置やデータベースから、商品情報を取得する。例えば表示制御部2040は、撮像画像から抽出した商品10の特徴量との類似度合いが所定値以上である特徴量と関連付けられている商品情報を取得する。この所定値を表す情報は、表示制御部2040に予め設定されていてもよいし、表示制御部2040からアクセス可能な記憶装置に記憶されていてもよい。
一方、商品認識部2020が商品10の商品IDを取得することで商品10を認識する場合、表示制御部2040は、商品10の商品IDと商品10の商品情報とを関連付けて記憶している記憶装置やデータベースから、商品認識部2020によって認識された商品10の商品IDと関連付けられている商品情報を取得する。
図8は、商品10の特徴量や商品IDに関連付けられた商品情報をテーブル形式で例示する図である。図8に示すテーブルを、商品情報テーブル500と表記する。商品ID502は、商品10の商品IDを示す。特徴量504は、商品10の特徴量を示す。商品情報506は、商品10の商品情報を示す。商品情報506には、商品名508、価格510、及び説明512が含まれる。商品名508は、商品の名前を示す。価格510は、商品の価格を示す。説明512は、商品の使い方や特徴などを示す情報である。なお、商品情報506に含まれる情報は任意であり、図8に示される情報に限定されない。
なお、商品情報を記憶している記憶装置やデータベースは、情報処理装置2000の内部に設けられていてもよいし、情報処理装置2000の外部に設けられていてもよい。
<操作画面40を表示させる方法:S106>
表示制御部2040は、表示装置3020に商品情報を表示させる(S106)。そのために表示制御部2040は、商品認識部2020によって認識された商品10の商品情報に基づいて、操作画面40を生成する。
例えば表示制御部2040は、操作画面40のテンプレートを取得し、そのテンプレートに商品情報を埋め込むことで、操作画面40を生成する。図9は、操作画面40のテンプレートを例示する図である。図9において、操作画面40のテンプレートはテンプレート200である。
テンプレート200には、置換領域202−1及び置換領域202−2が含まれる。テンプレート200において、置換領域202以外の部分は、認識された商品10に依存せずに予め定まっている部分である。一方、置換領域202は、認識された商品10に応じて定まる部分である。
表示制御部2040は、認識された商品10の商品情報に含まれる情報を埋め込むことで、操作画面40を生成する。図9の場合、表示制御部2040は、置換領域202−1に、認識された商品10に対応する商品情報テーブル500の商品名508を埋め込む。また表示制御部2040は、置換領域202−2に、認識された商品10に対応する商品情報テーブル500の価格510を埋め込む。
<撮像画像を取得する方法:S108>
情報処理装置2000は、カメラ20によって生成された撮像画像を取得する(S108)。情報処理装置2000が撮像画像を取得する方法は任意である。例えば情報処理装置2000は、カメラ20から撮像画像を取得する。この場合、情報処理装置2000とカメラ20とは通信可能に接続されている。
また、カメラ20が外部の記憶装置に撮像画像を記憶する場合、情報処理装置2000は、この記憶装置から撮像画像を取得してもよい。この場合、情報処理装置2000は、この記憶装置と通信可能に接続されている。
なお、情報処理装置2000は、カメラ20によって生成される撮像画像の全てを取得してもよいし、一部のみを取得してもよい。後者の場合、例えば情報処理装置2000は、表示装置3020によって操作画面が表示された後に生成された撮像画像のみを取得する。ただしこの場合、商品認識部2020による商品の認識は、商品認識部2020が撮像画像を用いて行う方法以外の方法となる。
<操作体について>
操作認識部2060によって操作体として扱われる物は様々である。例えば操作認識部2060は、ユーザの腕部の一部(指など)や、ユーザの腕部によって保持される物(ペンなど)を操作体として扱う。腕部とは、手及び手から肩にかけての部分を意味する。この場合、ユーザは、カメラ20の撮像範囲内で指やペンなどを動かすことにより、入力操作を行う。
また例えば、操作認識部2060は、物やユーザの身体に付されたマーカを操作体として扱ってもよい。ここにおけるマーカとは、カメラ20によって撮像可能な任意の印である。この場合、ユーザは、カメラ20の撮像範囲内でマーカを動かすことにより、入力操作を行う。
例えばマーカは、ユーザの身体(指など)に付される。また例えば、マーカは、ユーザが保持する物(ペンなど)に付される。また例えば、マーカは、ユーザが身につける物に付される。ユーザに身につけられる物は、例えばユーザの指にはめられる指輪や、任意のウェアラブルデバイスなどである。
操作認識部2060が何を操作体として扱うかを示す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよい。
なお、操作認識部2060が操作体として扱う物は、一種類であってもよいし、複数種類であってもよい。
<操作体の位置を検出する方法:S110>
操作認識部2060は、操作画面に対する入力操作を認識するために、撮像画像に写っている操作体の位置を検出する(S108)。ここで、画像に写っている所定のオブジェクトを検出する技術には、既知の技術を利用できる。そのため、撮像画像から所定の操作体を検出する方法についての具体的な説明は省略する。
操作認識部2060が操作体の位置を定める方法は様々である。例えば操作認識部2060は撮像画像の中から操作体を表す領域を割り出す。そして、操作認識部2060は、割り出した領域に含まれる点を、操作体の位置とする。この際、操作体の位置は、操作体を表す領域に含まれる任意の点でよい。
例えば操作体がユーザの身体の一部やユーザに保持されている物体である場合、操作認識部2060は、操作体を表す領域の重心を算出する。そして、操作認識部2060は、操作体を表す領域に含まれ、なおかつその領域の重心から最も遠い点を、操作体の位置とする。この方法によれば、例えば指先やペン先などが操作体の位置となる。
図10は、操作体の位置を定める方法を例示する第1の図である。図10において、操作体はユーザの手である。まず操作認識部2060は、撮像画像の中からユーザの手を表す領域60を割り出す。次に操作認識部2060は、領域60の重心62を算出する。そして操作認識部2060は、領域60に含まれる点であり、なおかつ重心62から最も遠い点64を、操作体の位置とする。なお、重心62から最も遠い点が領域60の中に複数ある場合、例えば操作認識部2060は、これら複数の点のうち、第1マーカ3040から最も遠い点を操作体の位置とする。
ここで、例えば指の腹で入力操作を行う場合など、指先とは少しずれた場所を操作体の位置として扱うことが好ましい場合もある。そこで操作認識部2060は、操作体の重心から最も遠い点64を算出し、さらにこの点から少しずらした位置(例えば、指の根元へ近づく方向に所定距離ずらした位置)を操作体の位置としてもよい。操作体の重心から最も遠い点64と操作体の位置との位置関係を表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
ただし、操作体の位置は、重心62から最も遠い点又はその点を基準として定まる点に限定されない。例えば、重心62を操作体の位置として扱ってもよい。
操作体が物やユーザの身体に付されたマーカである場合、例えば操作認識部2060は、撮像画像からこのマーカを表す領域を割り出し、その領域の中心位置などを操作体の位置とする。
また、操作認識部2060が、操作体として検出すべき物を表す参照画像を利用して、操作体を検出するとする。この場合、この参照画像において、操作体の位置を予め定義しておいてもよい。操作認識部2060は、撮像画像の中から参照画像と類似する領域を割り出す。そして、操作認識部2060は、その領域において、参照画像において定義されている操作体の位置と対応する点を割り出し、その点を操作体の位置として扱う。
図11は、操作体の位置を定める方法を例示する第2の図である。この例において、操作体はユーザの指である。参照画像120は、ユーザの指の形状などを表す参照画像である。操作体の位置121は、参照画像において予め定義されている、操作体の位置である。
操作認識部2060は、撮像画像22の中から、参照画像120と類似する領域130を割り出す。この領域130はユーザの指を表す。さらに操作認識部2060は、参照画像120を領域130にマッピングした際に操作体の位置121と対応する点131を割り出す。そして、操作認識部2060は点131を操作体の位置として扱う。
操作認識部2060が操作体の位置をどのように定めるかを表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
<操作体の動きを検出する方法:S110>
操作認識部2060は、操作画面に対する入力操作を認識するために、撮像画像に写っている操作体の動きを検出する(S110)。操作認識部2060は、複数の撮像画像を用いて操作体の動きを検出してもよいし、1つの撮像画像を用いて操作体の動きを検出してもよい。前者の場合、例えば操作認識部2060は、それら複数の撮像画像それぞれについて画像解析を行うことで、各撮像画像内の操作体の位置を算出する。そして操作認識部2060は、操作体の位置の変化を表す情報を、操作体の動きを表す情報とする。操作体の位置の変化を表す情報は、例えば操作体の位置を時系列で並べた情報である。
前述したように、操作認識部2060は、1つの撮像画像を用いて操作体の動きを検出してもよい。動いている操作体は、1つの撮像画像にぶれた状態で写ることが多い。そこで操作認識部2060は、その1つの撮像画像にぶれて写っている操作体の画像から、操作体の動きを算出する。
図12は、ユーザの指がぶれて写っている撮像画像22を例示する図である。撮像画像22では、ユーザの指30が、指30−Aから指30−Bへ移動するようにぶれて写っている。操作認識部2060は、指30−Aと指30−Bに共通する特徴点の位置の変化を、操作体の動きとして検出する。例えば操作認識部2060は、指30−Aの指先と指30−Bの指先の位置の変化によって定まる動き50を検出する。
<操作認識部2060によって認識される入力操作:S110>
操作認識部2060は、検出した操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する(S110)。操作認識部2060は、操作体の位置又は動きに基づいて定まる様々な入力操作を認識できる。以下、操作認識部2060によって認識できる種々の入力操作を例示する。
<<操作体の位置に基づいて定まる入力操作>>
操作体の位置に基づいて操作認識部2060が認識する入力操作は様々である。例えば操作認識部2060は、操作体の位置に基づいて、キーを表す画像を選択する入力操作(以下、キー入力操作)を受け付ける。
図13は、操作体の位置に基づいて定まる操作を例示する図である。図13において、操作体は指30である。図13(a)において、指30は「5」のキーの上に位置している。そのため、操作認識部2060は、「5」を入力する入力操作を受け付ける。一方、図13(b)において、指30は「キャンセル」のキーの上に位置している。そのため、操作認識部2060は、「キャンセル」を入力する入力操作を受け付ける。
なお、操作体の位置に基づいて操作認識部2060が認識する入力操作は、操作体の位置によって定まる任意の入力操作でよく、キー入力操作に限定されない。例えば操作認識部2060は、操作体の位置に基づき、表示装置3020に表示された複数の写真の中から1つを選択する入力操作などを受け付けてもよい。
<<操作体の動きに基づいて定まる入力操作>>
操作認識部2060は、1)検出した操作体の動きに基づく形状を入力する入力操作を認識してもよいし、2)検出した操作体の動きに対応する所定の入力操作を認識してもよい。以下、それぞれについて説明する。
<<操作体の動きに基づく形状を入力する入力操作を認識するケース>>
図14は、操作体の動きによって定まる形状を入力する入力操作を認識するケースを例示する図である。図14(a)では、操作認識部2060は、操作体の動き50−Aが表す形状51や、動き50−Bが表す形状52を入力する入力操作を認識する。例えばこの入力操作は、手書き入力を行う入力操作で利用される。
図14(b)では、操作認識部2060は、操作体の動きとは異なる形状ではあるものの、操作体の動きによって形状及び大きさが定まる形状を入力する入力操作を認識する。具体的には、操作認識部2060は、動き50−Cの両端を対角線の両端とする矩形54や、動き50−Cの両端を直径の両端とする円形56を入力する入力操作を認識する。例えばこの入力は、ユーザがある範囲を表す入力(選択操作など)を行う際や、所定の図形の描画を行う際に用いられる。
図14(a)に示した方法と図14(b)で示した方法のどちらを用いるのかを表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
<<操作体の動きに対応する所定の入力操作を認識するケース>>
検出した操作体の動きに対応する所定の入力操作は、例えばジェスチャ入力による入力操作である。図15は、ジェスチャ入力を例示する図である。図15(a)はフリック動作を表し、図15(b)はピンチイン・ピンチアウト動作を表している。なお、矢印は操作体の動きを表している。
操作体の動きと、その動きに対応する所定の入力操作とを関連付ける情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に予め記憶されていてもよいし、ユーザによって設定可能であってもよい。
<操作体の位置や動きの表し方について>
操作認識部2060が認識する操作体の位置や動きの表し方は任意である。例えば操作認識部2060は、操作体の位置や動きを撮像画像全体における相対位置として表す。図16は、操作体の位置や動きが、撮像画像全体における相対的な位置や動きによって表される様子を例示する図である。図16(a)は、操作体の位置を入力操作として認識するケースである。図16(a)において、操作体の位置である座標 (x1, x1) は、撮像画像22の左上端を原点とし、撮像画像22を平面視した場合における右方向を x 軸とし、撮像画像22を平面視した場合における下方向を y 軸とする座標系における座標である。
図16(b)は、操作体の動きを入力操作として認識するケースである。矢印は、操作体の軌跡を表す。図16(b)において、操作体の位置は (x2, y2)、(x3, y3)、(x4, y4) の順に変化している。これらの座標はいずれも、図16(a)で説明した座標系における座標である。操作体の動きは、例えばこれらの座標を時系列で並べた情報によって表される。
なお、上述した操作体の位置や動きを表す方法は、あくまで例示である。操作体の位置や動きを表す方法は、操作体の位置や動きを表すことができる任意の方法でよく、上述した方法には限定されない。
<<操作体を動かす動作が行われた場所の取り扱いについて>>
操作認識部2060は、1)操作体を動かす動作が行われた位置に関係なく、その操作体の動きのみを入力として認識してもよいし、2)操作体の動きと、その操作体を動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、操作体を動かす動作が撮像画像上のどの場所で行われても、同じ操作体の動きは同じ入力を表す。一方後者の場合、操作体を動かす動作が撮像画像上のどの場所で行われたかが意味を持つ。例えばユーザが撮像画像に写っている特定の物を丸で囲む入力を行う場合、丸という形状だけでなく、その丸によって何が囲われたかが意味を持つ。
1)の場合、例えば操作認識部2060は、前述したように操作認識部2060によって検出された操作体の動きで定まる形状や、操作体の動きで定まるジェスチャを、入力として認識する。また例えば、操作認識部2060は、操作体の動きの始点を基準とした操作体の相対座標の遷移を、入力として認識してもよい。
一方2)の場合、操作認識部2060は、操作認識部2060によって検出された撮像画像上の操作体の座標の遷移を入力として認識する。ただし、操作認識部2060は、1)の場合においても、2)の場合と同様に、撮像画像上の操作体の座標の遷移を入力として認識してもよい。
操作認識部2060が1)と2)のどちらの方法で入力を認識するのかは、予め操作認識部2060に設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定可能であってもよい。
<操作体の位置と動きのどちらによって入力操作を認識するか>
操作認識部2060は、操作体の位置又は動きによって入力操作を認識する。ここで、操作体の位置と動きのどちらによって入力操作を認識するかを決定する方法は様々である。例えば、操作体の位置と動きのどちらによって入力操作を認識するかを、予め定めておく。ここで、操作体の位置と動きのどちらによって入力操作を認識するか示す情報は、操作認識部2060に設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
また例えば、操作認識部2060は、操作体の動きの程度によって、操作体の位置と動きのどちらで入力操作を認識するかを決定してもよい。例えば、所定時間内における操作体の移動範囲の大きさが所定値未満である場合、操作認識部2060は操作体の位置によって入力操作を認識する。これにより、例えばユーザが操作体を或る位置に留めることで、その位置を表す入力操作が操作認識部2060によって認識される。この操作は、例えばマウスで或る場所を長押しするようなイメージの操作である。
この場合に操作認識部2060が入力操作として認識する操作体の位置は、この所定時間内における操作体の位置によって定まる。例えば操作認識部2060は、この所定時間内における操作体の位置の内のいずれか1つを操作体の位置とする。また例えば、操作認識部2060は、この所定時間内における操作体の位置から算出される統計値(平均値や最頻値など)を操作体の位置とする。
一方、所定時間内における操作体の移動範囲の大きさが所定値以上である場合、操作認識部2060は、操作体の動きによって入力操作を認識する。
上記所定時間又は所定値を示す情報は、操作認識部2060に設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
[実施形態2]
図17は、実施形態2に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態2の情報処理システム3000は、実施形態1の情報処理システム3000と同様の機能を有する。
情報処理システム3000は第1マーカ3040を有する。第1マーカ3040は、ユーザに身につけられるものか、又はユーザの身体の一部である。第1マーカ3040についての詳細な説明は後述する。
実施形態2の商品認識部2020は、カメラ20によって生成された撮像画像から商品を認識する。その際、商品認識部2020は、撮像画像全体からではなく、撮像画像に含まれる一部の領域から商品を認識する。この「一部の領域」は、撮像画像に写っている第1マーカ3040によって定まる。
具体的にはまず、商品認識部2020は、撮像画像に写っている第1マーカ3040の位置に基づいて定まる商品認識領域を抽出する。そして商品認識部2020は、この商品認識領域に写っている商品を認識する。
<処理の流れ>
図18は、実施形態2の商品認識部2020によって実行される処理の流れを例示するフローチャートである。このフローチャートは、図4のS102において行われる一連の処理の一態様を表す。
商品認識部2020は、撮像画像を取得する(S202)。商品認識部2020は、撮像画像に写っている第1マーカ3040の位置を算出する(S204)。商品認識部2020は、第1マーカ3040の位置に基づいて、撮像画像から商品認識領域を抽出する(S206)。商品認識部2020は、商品認識領域に写っている商品10を認識する(S208)。
<第1マーカ3040について>
第1マーカ3040は、カメラ20によって生成される撮像画像において少なくともその位置が特定できる任意の物である。例えば第1マーカ3040は、3次元の座標系の決定に利用できるマーカである。3次元の座標系の決定に利用できるマーカは、例えば AR(Augmented Reality)マーカである。ただし、3次元の座標系の決定に利用できるマーカは、参照方向によらず、或る基準点からの相互に直交する3つの方向を一定に得ることができるものであればよく、AR マーカには限定されない。また、第1マーカ3040は、撮像画像においてその位置が特定できる物であればよく、必ずしも3次元の座標系の決定に利用できる必要はない。
第1マーカ3040がユーザの身体に身に付けられるものである場合、第1マーカ3040は、ユーザの身体の任意の箇所に取り付けることができる。例えば第1マーカ3040は、ユーザの腕部に身に付けられる。
例えばこの場合、第1マーカ3040は、ユーザの腕部に取り付けられたデバイスのディスプレイ装置に表示される画像である。このデバイスは、ディスプレイ装置上に画像を表示する機能を有する任意の電子機器である。なおこのデバイスは、ユーザの腕に直接取り付けられてもよいし、服の上からユーザの腕に取り付けられてもよい。
図19は、第1マーカ3040として扱われる画像を表示するデバイスを例示する図である。図19において、第1マーカ3040は、デバイス80のタッチパネル82に表示されているマーカ画像84である。マーカ画像84は、予めデバイス80に記憶されている画像であってもよいし、デバイス80の外部にある記憶装置に記憶されている画像であってもよい。後者の場合、デバイス80は、マーカ画像84を記憶装置から取得して表示する。
第1マーカ3040は、上述のようにデバイスに表示されるものに限定されない。また第1マーカ3040は、ユーザの腕部などに直接描画されていてもよいし、ユーザの腕部などにある任意の物に描画されていてもよい。後者の場合、例えば第1マーカ3040は、ユーザの指に取り付けられている指輪、ユーザの手首に取り付けられているリストバンド、又はユーザが着ている服の袖などに描画される。なお、第1マーカ3040は、手で描画されてもよいし、印字されてもよい。
さらに、第1マーカ3040は、光を発する発光デバイス(LED(Light Emitting Diode)など)であってもよい。なお、第1マーカ3040が発光デバイスであり、なおかつ第1マーカ3040に基づいて3次元の座標系が定められる場合、第1マーカ3040は3つ以上の発光デバイスを用いて構成される。商品認識部2020は、撮像画像に写っているこれら3つ以上の発光デバイスそれぞれによって発せられた光の位置を算出する。そして、商品認識部2020は、各発光デバイスの位置に基づいて、3次元の座標系を決定することができる。なお、3点以上の物を用いて3次元の座標系を決定する方法には既知の方法を利用できるため、その具体的な方法の説明は省略する。
さらに第1マーカ3040は、ユーザの身体の特定の部分であってもよい。例えば第1マーカ3040は、ユーザの手の甲などである。
撮像画像から第1マーカ3040を検出するために、商品認識部2020は、第1マーカ3040として扱うものを特定する情報(第1マーカ3040の形状、サイズ、色などについての情報など:以下、マーカ情報)を利用する。マーカ情報は、予め商品認識部2020に設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよい。
<第1マーカ3040の位置を算出する方法:S204>
商品認識部2020は、マーカ情報を用いて撮像画像を画像解析することで、撮像画像に写っている第1マーカ3040を検出する。そして商品認識部2020は、検出した第1マーカ3040の位置を算出する。ここで、画像内から所定の物を検出し、さらにその物の画像内における位置を算出する技術には、既知の様々な技術を利用できる。なお、第1マーカ3040の位置は、操作体の位置と同様に、例えば撮像画像全体における相対位置(座標)で表される。例えば第1マーカ3040の位置は、撮像画像全体における第1マーカ3040の中心位置の座標である。ただし、第1マーカ3040の位置は、第1マーカ3040の中心位置に限定されない。
<商品認識領域を抽出する方法:S206>
商品認識部2020は、算出した撮像画像上の第1マーカ3040の位置に基づいて、撮像画像から商品認識領域を抽出する(S106)。商品認識領域は、第1マーカ3040の位置を基準として定められる任意の領域である。例えば商品認識領域は、第1マーカ3040の位置(例えば中心位置)を中心位置とする所定形状で定まる領域である。この所定形状は、円形や矩形など、任意の形状である。
図20は、商品認識領域70を例示する第1の図である。図20において、商品認識領域70は、マーカ画像84(第1マーカ3040)の中心位置を中心位置とし、幅が所定の長さ w であり、高さが所定の長さ h である矩形である。
ただし、第1マーカ3040の位置によって定まる位置は、商品認識領域70の中心位置に限定されない。例えば、第1マーカ3040の位置によって商品認識領域70の左上端などの位置が定まってもよい。
また例えば商品認識領域70は、第1マーカ3040の位置から所定方向に所定距離離れた場所に中心位置などがある領域であってもよい。図21は、商品認識領域70を例示する第2の図である。図21において、商品認識領域70の中心位置は、第1マーカ3040から矢印72によって定まる方向へ距離 d だけ移動した場所である。
なお図20及び図21において、商品認識領域70は、撮像画像によって表される平面(図16の xy 平面)における所定形状となっている。しかし、商品認識領域70は、撮像画像によって表される平面以外の平面における所定形状であってもよい。
例えば商品認識領域70は、第1マーカ3040によって定まる3次元座標系における平面上の所定形状でもよい。図22は、商品認識領域70を例示する第3の図である。図22の商品認識領域70は、図20の商品認識領域70と同様に、マーカ画像84(第1マーカ3040)の中心位置を中心位置とし、幅が所定の長さ w であり、高さが所定の長さ h である矩形である。ただし図22では、商品認識領域70は、マーカ画像84によって定まる座標系87の xy 平面における矩形である。より具体的には、商品認識領域70は、座標系87の原点を中心位置とし、座標系87の x 軸方向における長さが w であり、座標系87の y 軸方向における長さが h である。
図23は、商品認識領域70を例示する図4の図である。図23の商品認識領域70は、図21の商品認識領域70と同様に、マーカ画像84から矢印72によって定まる方向へ距離 d だけ移動した場所を中心位置とし、幅が所定の長さ w であり、高さが所定の長さ h である矩形である。ただし図23では、矢印72によって表される方向が、座標系87における方向となっている。また商品認識領域70は、座標系87の x 軸方向における長さが w であり、座標系87の y 軸方向における長さが h である。
このように、第1マーカ3040で定まる座標系を利用して商品認識領域70を抽出することにより、第1マーカ3040の姿勢の変化に商品認識領域70の姿勢が追従する。例えば図22の例において、デバイス80が設けられている手首をユーザが捻ると、その捻りにあわせて商品認識領域70の姿勢が変化する。
図24は、第1マーカ3040の傾きに合わせて商品認識領域70の姿勢が変化する様子を例示する図である。図24において、ユーザが手首を捻ることにより、マーカ画像84の姿勢(マーカ画像84によって定まる座標系87)が変化している。さらに、その変化に追従するように、商品認識領域70の姿勢も変化している。
このように、第1マーカ3040の姿勢の変化に合わせて商品認識領域70の姿勢が変化するようにすると、商品認識領域70に含めたい実世界上の物を、第1マーカ3040の姿勢に依らずに商品認識領域70に含めることができるようになる。例えば図23及び図24の例では、商品認識領域70の形状及び大きさ、並びに商品認識領域70の位置を適切に定義することにより、マーカ画像84の姿勢に依らずにユーザの手が商品認識領域70に含まれるようになる。この場合、ユーザは、手に商品10を持つことで、商品10を情報処理装置2000に認識させることができる。よって、ユーザにとって、情報処理装置2000の利用が容易となる。
なお、前述した所定形状を表す情報や、どの場所を第1マーカ3040の中心とするかを表す情報(矢印72の情報など)は、商品認識部2020に予め設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
また、第1マーカ3040に基づいて定まる座標系87を利用する場合、第1マーカ3040は、3次元の座標の決定に用いることができるマーカ(AR マーカなど)である。なお、AR マーカなどを用いて3次元の座標系を決定する技術には既存の種々の技術を利用することができる。
また、商品認識領域70の大きさ(前述した幅 w や高さ h など)は、絶対値(画素数など)で定義されていてもよいし、相対値で定義されていてもよい。後者の場合、例えば商品認識領域70の大きさは、撮像画像の大きさに対する相対値で表される。撮像画像の大きさに対する相対値は、例えば撮像画像の幅又は高さを1とする相対値である。また例えば、商品認識領域70の大きさは、第1マーカ3040の大きさに対する相対値で表されてもよい。第1マーカ3040の大きさに対する相対値は、例えば第1マーカ3040の幅、高さ、対角線又は直径などを1とする相対値である。商品認識領域70の大きさを第1マーカ3040の大きさに対する相対値で定義すると、第1マーカ3040をカメラ20に近づけた場合に商品認識領域70が大きくなり、第1マーカ3040をカメラ20から遠ざけた場合に商品認識領域70が小さくなる。
また商品認識部2020は、第1マーカ3040を境界として定まる所定の領域を商品認識領域70として抽出してもよい。例えば商品認識部2020は、ユーザの手首にデバイス80が設けられている状況において、マーカ画像84(第1マーカ3040)を境界として定まる領域のうち、手が含まれる領域を商品認識領域70として抽出する。
図25は、手が含まれる領域を例示する図である。図25において、商品認識部2020は、マーカ画像84によって定まる座標系87における y 軸を境界として、撮像画像22を2つの領域に分割する。そして、商品認識部2020は、分割された2つの領域のうち、手が含まれる領域(図25では右側の領域)を商品認識領域70として抽出する。
なお、第1マーカ3040を境にした腕と手の位置関係(どちら側が腕で、どちら側が手か)は、第1マーカ3040がどちらの腕部に設けられているかによって異なる。例えば商品認識部2020は、第1マーカ3040がどちらの腕部に設けられているかを示す情報を利用することによって、第1マーカ3040がどちらの腕部に設けられているかを把握する。この情報は、商品認識部2020に予め設定されていてもよいし、商品認識部2020からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
<商品認識領域に写っている商品を認識する方法:S208>
商品認識部2020は、撮像画像から抽出された商品認識領域70に写っている商品10を認識する。ここで、画像の特定の領域に写っているオブジェクトを画像解析によって認識する方法には、既知の種々の技術を利用できる。
<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<作用・効果>
本実施形態によれば、撮像画像の一部の領域である商品認識領域70が抽出され、その商品認識領域70から商品10が認識される。よって、撮像画像全体から商品10を認識する処理を行うケースと比較し、画像処理の対象となるデータのサイズが小さくなる。よって、本実施形態において商品10を認識する処理は、撮像画像全体から商品10を認識する処理に比べて軽量な処理となり、処理に要する時間や計算機資源が削減される。
また本実施形態によれば、撮像画像に写っている第1マーカ3040に基づいて抽出される商品認識領域70から商品10が認識されるため、撮像画像に第1マーカ3040が写っていない時には商品10の認識が行われず、ひいては操作画面40の表示が行われない。よって、ユーザは、表示装置3020に操作画面40を表示させるか否かを、第1マーカ3040をカメラ20の撮像範囲に含めるか否かによって容易に制御できる。
ユーザにとって、操作画面40が常に表示される必要があるとは限らない。例えば表示装置3020がヘッドマウントディスプレイ100のディスプレイ装置102である場合、ユーザは、できる限り視界をクリアにするために、必要な時にだけ操作画面40を表示させたいとも考えられる。本実施形態の情報処理装置2000によれば、ユーザは、表示装置3020に操作画面40を表示させるか否かを、第1マーカ3040をカメラ20の撮像範囲に含めるか否かによって容易に制御できる。より具体的には、カメラ20がヘッドマウントディスプレイ100に設けられている場合、ユーザは、第1マーカ3040を視界に入れることで操作画面40を表示させることができ、第1マーカ3040を視界から外すことで操作画面40を表示させないことができる。このような容易な操作により、必要な時にだけ操作画面40を表示させることができるため、ユーザにとって情報処理システム3000の利便性が向上する。
また、ユーザによる入力操作は操作画面40が表示されている時に行われるため、操作画面40が表示されないとき、即ち第1マーカ3040が撮像画像に写っていない時には、ユーザに入力操作を行う意思がないといえる。本実施形態の情報処理装置2000によれば、第1マーカ3040が撮像画像に写っていない時には商品10の認識が行われず、ひいては操作画面40が表示されないため、操作認識部2060による入力操作の認識も行われない。このように、ユーザに入力操作を行う意思がないときに操作認識部2060による入力操作の認識が行われることが無くなるため、情報処理装置2000の計算機資源が浪費されることを防ぐことができる。
[実施形態3]
図26は、実施形態3に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態3の情報処理システム3000は、実施形態1又は実施形態2の情報処理システム3000と同様の機能を有する。
実施形態3の情報処理システム3000は、第2マーカ3060を有する。第2マーカ3060は、第1マーカ3040と同様に、ユーザに身につけられるものか、又はユーザの身体の一部であるマーカである。
実施形態3の表示制御部2040は、撮像画像に第2マーカ3060が写っている場合に、表示装置3020に操作画面を表示させる。
<処理の流れ>
図27は、実施形態3の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。下記で説明する点を除き、図27のフローチャートは、図4のフローチャートと同様である。
表示制御部2040は、撮像画像から第2マーカ3060を検出する(S302)。撮像画像から第2マーカ3060を検出できた場合(S304:YES)、図27の処理はS108に進む。一方、撮像画像から第2マーカ3060を検出できなかった場合(S304:NO)、図27の処理は終了する。
<第2マーカ3060について>
第2マーカ3060として用いることができるものは、第1マーカ3040として用いることができるものと同様である。
第1マーカ3040と第2マーカ3060は、同一のもので実現されてもよい。例えば情報処理装置2000は、デバイス80に表示されたマーカ画像84を、第1マーカ3040及び第2マーカ3060として扱う。ただし、第1マーカ3040と第2マーカ3060は、互いに異なるもので実現されてもよい。
<第2マーカ3060を検出する方法:S302>
表示制御部2040が撮像画像から第2マーカ3060を検出する方法は、実施形態2の商品認識部2020が撮像画像から第1マーカ3040を検出する方法と同様である。ただし、特に言及する場合を除き、表示制御部2040は、撮像画像に第2マーカ3060が写っていることを把握すればよく、第2マーカ3060の位置を把握する必要はない。
<操作画面の表示:S108>
表示制御部2040は、撮像画像から第2マーカ3060が検出された場合に(S304:YES)、表示制御部2040に操作画面を表示させる(S108)。表示制御部2040に操作画面を表示させる方法は、実施形態1で説明した通りである。
<第2マーカ3060の位置を利用した操作画面40の表示>
本実施形態において、表示制御部2040は、操作画面の表示位置を第2マーカ3060の位置によって決定してもよい。この場合、表示制御部2040は、第2マーカ3060の位置を算出する。なお、第1マーカ3040の位置を算出する方法と同様に、第2マーカ3060の位置を算出する方法には、画像内から検出されたオブジェクトの画像内における位置を算出する既知の様々な技術を利用できる。
第2マーカ3060の位置に基づいて操作画面を表示する位置を決定する方法は様々である。例えば表示制御部2040は、操作画面40の中心位置を、第2マーカ3060の中心位置にする。図28は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する第1の図である。図28において、操作画面40の中心位置は、マーカ画像84(第2マーカ3060)の中心位置である。なお、図28において、操作画面40の形状は、撮像画像22で定まる平面(例えば図16の xy 平面)における矩形である。また、図28では、図を見やすくするため、操作画面40に含まれる情報は省略されている。
また例えば、表示制御部2040は、操作画面40の中心位置を、第2マーカ3060の中心位置から所定方向に所定距離離れた位置としてもよい。図29は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する第2の図である。図29において、操作画面40の中心位置は、マーカ画像84の中心位置から矢印46よって定まる方向へ所定距離 d だけ移動した位置である。図29においても、操作画面40の形状は、撮像画像22で定まる平面(例えば図16の xy 平面)における矩形である。また、図29においても、操作画面40に含まれる情報は省略されている。
ただし、操作画面40の形状は矩形に限定されない。また、操作画面40の形状は、撮像画像22で定まる平面以外の平面における矩形等であってもよい。例えば表示制御部2040は、操作画面40を、第2マーカ3060によって定まる座標系(例えば、マーカ画像84によって定まる座標系87)における平面にマッピングする。
図30は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する第3の図である。図30において、操作画面40の中心位置は、マーカ画像84の中心位置である。また、図30において、操作画面40は、マーカ画像84によって定まる座標系87の xy 平面にマッピングされている。なお、図30においても、操作画面40に含まれる情報は省略されている。
図31は、第2マーカ3060の位置によって位置が定まる操作画面40を例示する図4の図である。図31において、操作画面40の中心位置は、マーカ画像84の中心位置から矢印46よって定まる方向へ所定距離 d だけ移動した位置である。ただし、矢印46は、マーカ画像84によって定まる座標系87における方向を表す。また、操作画面40は、座標系87の xy 平面)にマッピングされている。なお、図31においても、操作画面40に含まれる情報は省略されている。
なお、実施形態3の情報処理装置2000が実施形態2の情報処理装置2000の機能を有し、なおかつ第1マーカ3040と第2マーカ3060に同じもの(例えばマーカ画像84)を利用する場合、商品認識領域70の位置を定める矢印72が示す方向と、操作画面40の位置を定める矢印46が示す方向とは、異なる方向に設定されていることが好ましい。例えば図29と図31の矢印46が示す方向はそれぞれ、図18と図20の矢印72が示す方向と正反対の方向である。このようにすることで、商品認識領域70(ユーザが商品10を位置させる場所)と、操作画面40が表示される場所とが重ならないようにすることができる。つまり、操作画面40が商品10に重ならず、ユーザが商品10と操作画面40の双方を同時に見ることができるようになる。
前述した種々の方法により、第2マーカ3060の位置に基づいて、撮像画像上における操作画面40の位置が定まる。そこで表示制御部2040は、上記決定した撮像画像上の位置に対応する表示装置3020上の位置に操作画面40が表示されるように、表示装置3020に操作画面40を表示させる。その方法には、撮像画像に重畳せずに操作画面40を表示させる方法と、撮像画像に重畳して操作画面40を表示させる方法がある。以下、それぞれについて説明する。
<<撮像画像に重畳させずに操作画面40を表示させる方法>>
ヘッドマウントディスプレイ100を用いて情報処理装置2000が実現され、なおかつヘッドマウントディスプレイ100のディスプレイ装置102が透過型のディスプレイ装置である(ヘッドマウントディスプレイ100が透過型のヘッドマウントディスプレイである)とする。この場合、表示装置3020は、透過型のヘッドマウントディスプレイ100のディスプレイ装置102(レンズ部分)として実現される。またこの場合、撮像画像を生成するカメラ20は、ユーザの目に映る景色と同様の景色を撮像するように設けられる(図2のカメラ20など)。このような透過型のヘッドマウントディスプレイ100を利用する場合、ユーザはディスプレイ装置102の先に見える実物体(実世界の景色)を見ることで周囲の景色を把握でき、なおかつその景色は撮像画像に写る景色と同様の景色となる。そのため、ディスプレイ装置102に撮像画像を表示させる必要がない。
そこで表示制御部2040は、操作画面40を、撮像画像に重畳せずに、表示装置3020に表示させる。具体的には、表示制御部2040は、撮像画像上における操作画面40の位置を、ディスプレイ装置102上の位置に変換し、この変換によって算出されたディスプレイ装置102上の位置に操作画面40を表示させる。
撮像画像上の座標とディスプレイ装置102上の座標との対応関係は、カメラ20に関する各種のパラメタ(画角や焦点距離)や、ディスプレイ装置102とカメラ20との位置関係などに基づいて定めることができる。この対応関係は、これらのパラメタなどを用いて表示制御部2040によって算出されてもよいし、設定値として予め定められていてもよい。
<<撮像画像に重畳させて操作画面40を表示させる方法>>
ユーザが直接周囲の景色を見ることができない場合や、撮像画像に写る景色がユーザの目に映る景色と同様でない場合(カメラ20によってユーザの視界方向が撮像されない場合)、ユーザは、撮像画像を見ながら入力操作を行う。例えばヘッドマウントディスプレイ100を用いて情報処理装置2000が実現され、なおかつヘッドマウントディスプレイ100のディスプレイ装置102が非透過型のディスプレイ装置である(ヘッドマウントディスプレイ100が非透過型のヘッドマウントディスプレイである)とする。この場合、ユーザは、周囲の景色を直接見ることができない。そのためディスプレイ装置102には、ユーザの視界方向を撮像するカメラ20によって生成された撮像画像が表示される。ユーザは、その撮像画像を見ることで周囲の景色を把握する。よって、ユーザは、撮像画像を見ながら入力操作を行うこととなる。
また、カメラ20がユーザの社員証などに設けられる場合には、カメラ20が必ずしもユーザの視界方向を撮像するとは限らない。この場合、ユーザは、カメラ20によって生成された撮像画像を見ながら入力操作を行う。なおこの場合、表示装置3020は、例えばプロジェクタ、据え置き型のディスプレイ装置(PC のディスプレイ装置など)、又は携帯端末のディスプレイ装置などとして実現される。
上述したように、ユーザが撮像画像を見ながら入力操作を行う場合、撮像画像が表示装置3020によって表示される。そこで表示制御部2040は、表示装置3020によって表示される撮像画像に操作画面40を重畳させることで、表示装置3020に操作画面40を表示させる。この場合、表示制御部2040は、前述した種々の方法で定めた撮像画像上における操作画面40の位置(例えば、図28から図31などで示した操作画面40の位置)に、操作画面40を重畳させる。
<第2マーカ3060が撮像画像から検出されない場合:S304:NO>
第2マーカ3060が撮像画像から検出されない場合(S304:NO)、表示制御部2040は、表示装置3020に操作画面を全く表示させなくてもよいし、表示装置3020に操作画面の一部を表示させてもよい。
後者の場合、例えば表示制御部2040は、操作画面の内、ユーザが入力操作のために利用するインタフェース部分(キーボードを表す画像など)については表示装置3020に表示させず、商品情報を表す部分については表示装置3020に表示させる。このようにすることで、ユーザは、第2マーカ3060が撮像画像に写らない場合であっても、商品に関する情報の閲覧をすることができる。
<ハードウエア構成>
実施形態3の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<作用・効果>
本実施形態の情報処理装置2000によれば、第2マーカ3060が撮像画像に写った場合に、操作画面40が表示させる。よって、実施形態2の場合と同様に、ユーザが必要な時にだけ操作画面40を表示させることができるため、ユーザにとって情報処理システム3000の利便性が向上する。また、情報処理装置2000の計算機資源が浪費されることを防ぐことができる。
さらに操作画面40の位置を第2マーカ3060の位置によって定めれば、ユーザにとって自然で見やすい位置に操作画面40が表示されるようにすることができる。例えば、デバイス80に表示されるマーカ画像84を第2マーカ3060として扱い、ユーザが手首にデバイス80を身につけるようにすることで、ユーザの腕部付近に操作画面40が表示されるようにすることができる。こうすることで、ユーザにとって情報処理装置2000の操作性が向上する。
[実施形態4]
図32は、実施形態4に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態4の情報処理システム3000は、実施形態1から実施形態3のいずれかに係る情報処理システム3000と同様の機能を有する。
実施形態4の情報処理システム3000はセンサ3080を有する。センサ3080は、情報処理システム3000のユーザに身に付けられるセンサである。例えばセンサ3080は振動センサである。
本実施形態において、操作体の位置に基づいて入力操作が認識される場合、操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて撮像画像に写っている操作体の位置を算出し、その位置に基づいて入力操作を認識する。また、操作体の動きに基づいて入力操作が認識される場合、操作認識部2060は、センサ3080の検出結果に基づくタイミングを含む時間において撮像画像に写っている操作体の動きを算出し、その算出した動きに基づいて入力操作を認識する。
<処理の流れ>
図33は、実施形態4の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。図33におけるS102からS108の処理は、図5におけるS102からS108の処理と同様である。S402において、情報処理装置2000は、センサ3080の検出結果を把握する。そして、S110において、操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて撮像画像に写っている操作体の位置、又はそのタイミングを含む時間において撮像画像に写っている操作体の動きに基づいて、入力操作を認識する。
<センサ3080について>
センサ3080は、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサである。例えばセンサ3080は、前述した振動センサである。振動センサが設けられる場所は任意である。例えば振動センサは、前述したようにデバイス80の内部に設けられる。また例えば、振動センサは、ユーザの腕や手などに貼られてもよいし、ユーザの衣服(服の袖など)に設けられてもよい。
センサ3080が振動センサである場合、ユーザは、入力操作を行うタイミング又はそれに近いタイミングで、センサ3080が身に付けられている箇所又はその付近に対して振動を加える。例えばユーザは、左の手首に振動センサが内蔵されているデバイス80が身に付けられている状態で、右手を使って左の腕部の任意の箇所に対して振動を加える。その結果、振動センサに対して振動が伝わり、その振動が振動センサによって検出される。
また例えば、ユーザは、入力操作を行うタイミング又はそれに近いタイミングで、センサ3080が身に付けられている部位などを用いて、他の場所に振動を加える。例えばユーザは、右の手首に振動センサが内蔵されているデバイス80が身に付けられている状態で、右手を使って任意の場所(例えば机)に対して振動を加える。その結果、振動センサにも振動が伝わるため、振動センサによる振動の検出が行われる。
なお、センサ3080は、振動センサに限定されない。例えばセンサ3080は、圧力センサや静電容量センサでもよい。圧力センサや静電容量センサが設けられる場所は任意である。例えば圧力センサや静電容量センサは、デバイス80のタッチパネルに設けられる。また例えば、圧力センサや静電容量センサは、ユーザの腕や手などに貼られたり巻き付けられたりするシートなどに設けられてもよい。また例えば、圧力センサや静電容量センサは、ユーザの衣服(服の袖など)に設けられてもよい。
センサ3080が静電容量センサである場合、ユーザは、センサ3080が身に付けられている箇所に触れる。これにより、静電容量センサによって静電容量の変化が検出される。また例えば、センサ3080が圧力センサである場合、ユーザは、センサ3080が身に付けられている箇所に圧力を加える。これにより、圧力センサによって圧力が検出される。
なお、センサ3080による検出を行わせるための動作(振動を加える動作など)は、操作体によって行われてもよいし、操作体以外を用いて行われてもよい。
<センサ3080の検出結果の把握方法:S402>
情報処理装置2000は、センサ3080の検出結果を把握する(S402)。情報処理装置2000がセンサ3080の検出結果を把握する方法は様々である。以下、その方法を例示する。
<<無線通信の利用>>
例えば情報処理装置2000は、センサ3080を内蔵するデバイス80と無線通信を行うことにより、センサの検出結果を示す情報を取得する。この情報を用いて、情報処理装置2000は、センサ3080の検出結果を把握する。
例えばデバイス80は、センサが所定の大きさ以上の振動を検出したタイミングで、情報処理装置2000に対して所定の信号を送信する。この場合、情報処理装置2000は、この所定の信号を受信することにより、「センサ3080によって振動が検出された」というセンサの検出結果を取得することができる。
また例えば、デバイス80は、センサ3080によって所定の大きさ以上の振動が検出された場合に、その振動が検出された時点を示す情報を情報処理装置2000に送信しても良い。
<<デバイス80の外観の変化の検出>>
デバイス80は、センサ3080による振動の検出に応じてデバイス80の外観を変化させてもよい。この場合、情報処理装置2000は、カメラ20によって生成された撮像画像を用いてデバイス80の外観の変化を検出することで、センサ3080の検出結果(センサ3080によって振動が検出されたこと)を把握する。
例えばデバイス80がディスプレイ装置を有する場合、デバイス80は、センサ3080によって所定の大きさ以上の振動が検出されたときに、ディスプレイ装置の表示を変更する。より具体的には、デバイス80は、センサ3080によって所定の大きさ以上の振動が検出されたとき、デバイス80のディスプレイ装置に表示されている画像を変更するか、又は何も表示されていなかったディスプレイ装置に新たに画像を表示する。情報処理装置2000は、カメラ20によって繰り返し生成される撮像画像を解析することで、デバイス80のディスプレイ装置の表示が変更されたことを検出する。これにより、情報処理装置2000は、センサによって振動が検出されたことを把握する。図34は、センサ3080によって振動が検出された際に、デバイス80のディスプレイ装置に表示されている画像が変更される様子を例示する図である。
また例えば、デバイス80は、センサ3080によって振動が検出された場合に、デバイス80のディスプレイ装置のバックライトやデバイス80に設けられた LED(Light Emitting Diode)ライトなどのライトを点灯又は点滅させてもよい。情報処理装置2000は、カメラ20によって繰り返し生成される撮像画像を解析することで、これらのライトの点灯や点滅を検出する。これにより、情報処理装置2000は、センサ3080によって振動が検出されたことを把握する。
このように、センサ3080による振動の検出に応じてデバイス80の外観を変化させることによって情報処理装置2000がその振動の検出を把握すれば、デバイス80と情報処理装置2000との間で無線通信を行う必要がない。そのため、他に無線通信の必要性がない限り、デバイス80や情報処理装置2000は無線通信の機能を有さなくてよい。
情報処理装置2000が振動センサ以外のセンサによる検出結果を把握する方法は、振動センサについて説明した上述の方法と同様である。例えばセンサが圧力センサである場合、デバイス80や情報処理装置2000は、圧力センサが所定の大きさ以上の圧力を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。また例えば、センサが静電容量センサである場合、デバイス80や情報処理装置2000は、静電容量センサが所定の大きさ以上の静電容量の変位を検出したときに、振動センサが所定の大きさ以上の振動を検出したときと同様の処理を行う。
<操作体の位置の算出について>
操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて操作体の検出し、検出した操作体の位置を算出する。以下、「センサ3080の検出結果に基づくタイミング」を検出対象タイミングと表記する。
検出対象タイミングは、センサ3080によって振動などが検出されたタイミング又はこれに近いタイミングである。例えばセンサ3080によって振動などが検出された場合にデバイス80から情報処理装置2000へ所定の信号が送信される場合、検出対象タイミングは、情報処理装置2000がこの所定の信号を受信した時点である。また例えば、センサ3080によって振動などが検出された時点を示す情報がデバイス80から情報処理装置2000へ送信される場合、検出対象タイミングは、この情報によって示される時点である。また例えば、センサ3080によって振動などが検出された場合にデバイス80の外観に所定の変化が加わる場合、検出対象タイミングは、情報処理装置2000によってこの所定の変化が検出された時点である。
また、操作認識部2060は、上述した種々のタイミング(情報処理装置2000がデバイス80から所定の信号を受信した時点など)よりも所定時間前又は後の時点を検出対象タイミングとしてもよい。
操作認識部2060が前述したどの時点を検出対象タイミングとして扱うかを示す情報や、上述の所定時間を示す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよい。
操作認識部2060は、検出対象タイミングにおいてカメラ20によって生成された撮像画像から操作体を検出し、その操作体の位置を算出する。ここで一般に、カメラ20は間欠的に撮像画像を生成するため(例えば 30 fps(フレーム/秒)の頻度)、検出対象タイミングと一致する時点で生成された撮像画像が無い場合もある。この場合、例えば操作認識部2060は、検出対象タイミングの直前又は直後に生成された撮像画像を用いる。
<操作体の動きを算出する方法>
操作認識部2060は、検出対象タイミングを含む時間において操作体を検出し、その操作体の動きを算出する。以下、「検出対象タイミングを含む時間」を検出対象時間と表記する。操作認識部2060は、検出対象時間において生成された撮像画像を用いて操作体の動きを算出する。
操作認識部2060は、検出対象タイミングを用いて検出対象時間の開始時点及び終了時点を決定する。例えば操作認識部2060は、検出対象タイミングを検出対象時間の開始時点とする。図35は、検出対象タイミングを検出対象時間の開始時点とするケースを例示する図である。図35(a)の場合、操作認識部2060は、センサ3080によって振動が検出された時点を検出対象タイミングとしている。図35(b)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間前の時点を検出対象タイミングとしている。図35(c)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間後の時点を検出対象タイミングとしている。
また例えば、操作認識部2060は、検出対象タイミングを検出対象時間の終了時点とする。図36は、検出対象タイミングを検出対象時間の終了時点とするケースを例示する図である。図36(a)の場合、操作認識部2060は、センサ3080によって振動が検出された時点を検出対象タイミングとしている。図36(b)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間前の時点を検出対象タイミングとしている。図36(c)の場合、操作認識部2060は、センサ3080によって振動が検出された時点よりも所定時間後の時点を検出対象タイミングとしている。
操作認識部2060は、検出対象タイミングを1つ又は2つ用いて検出対象時間を定める。検出対象タイミングを1つ用いて検出対象時間を定める場合、例えば操作認識部2060は、図35のいずれかの方法で検出対象時間の開始時点を定め、その時間から所定時間後の時点を検出対象時間の終了時点とする。また例えば、操作認識部2060は、図36のいずれかの方法で検出対象時間の終了時点を定め、その時間から所定時間前の時点を検出対象時間の終了時点とする。
検出対象タイミングを2つ用いて検出対象時間を定める場合、操作認識部2060は、図35のいずれかの方法で検出対象時間の開始時点を定め、なおかつ図36のいずれかの方法で検出対象時間の終了時点を定める。
なお、センサ3080によって振動が検出される時点以前を検出対象時間の開始時点とする場合(図35(a)又は図35(b))や、検出対象タイミングを1つのみ用い、なおかつ図36のように検出対象タイミングによって検出対象時間の終了時点を定める場合、カメラ20は、センサ3080によって振動が検出される前から撮像画像を生成している必要がある。この場合、カメラ20は、センサ3080によって振動が検出される前から撮像を開始する。例えばカメラ20は、ユーザが情報処理装置2000の利用を開始してから終了するまでの間、継続して撮像を行う。また、カメラ20によって生成される撮像画像は、所定期間継続して記憶装置などに記憶される。
一方、センサ3080によって振動が検出された時点よりも後の時点を検出対象時間の開始時点とする場合(図35(c))、カメラ20は、センサ3080によって振動が検出されてから撮像を開始してもよい。この場合、例えばカメラ20は、デバイス80又は情報処理装置2000から、センサ3080によって振動が検出された旨の信号を受信し、その信号を受信したタイミングで撮像を開始する。
ただし、撮像画像を用いて商品10の認識が行われる場合、カメラ20が撮像を開始するタイミングは、商品10の認識に必要なタイミングで開始される。例えばこの場合、カメラ20は、情報処理装置2000を起動してから停止するまでの間、常に撮像画像の生成を行う。
なお、上述した各所定時間を表す情報は、操作認識部2060に予め設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよい。また、検出対象時間の開始時点の決定に用いる所定時間と、検出対象時間の終了時点に用いる所定時間は、同じであってもよいし、異なっていてもよい。
<ハードウエア構成例>
実施形態4の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<作用・効果>
撮像画像に写っている操作体の位置又は動きのみを利用してユーザの入力操作を認識しようとすると、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
本実施形態の情報処理システム3000によれば、ユーザに身につけられているセンサ3080の検出結果に基づくタイミングにおける操作体の位置、又はセンサ3080の検出結果に基づくタイミングを含む時間における操作体の動きを解析することで、入力操作が認識される。そのため、入力操作の際にセンサ3080による検出が行われるようにユーザが入力操作を行えば、上記タイミングに基づく操作体の位置や動きは、ユーザの入力操作を表している蓋然性が高い。そのため、ユーザが意図して行った入力操作が正しく認識されるようになり、ユーザが入力操作を行っていないにもかかわらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにもかかわらず入力操作が認識されなかったりすることを防ぐことができる。
[実施例]
以下、情報処理システム3000について、より具体的な利用方法を例示して説明する。後述する各実施例はあくまで情報処理システム3000の利用方法の一例であり、情報処理システム3000の利用方法は後述の実施例で説明するものに限定されない。
図37は、各実施例に共通する情報処理システム3000の構成を例示するブロック図である。情報処理システム3000は、情報処理装置2000、表示装置3020、第1マーカ3040、第2マーカ3060、及びセンサ3080を有する。
図38は、各実施例に共通する情報処理システム3000の利用環境を例示する図である。各実施例において、情報処理装置2000は、ヘッドマウントディスプレイ100の内部に実装される。ヘッドマウントディスプレイ100は、表示装置3020を実現するためのディスプレイ装置102を有する。また、カメラ20は、ヘッドマウントディスプレイ100に設けられる。
ユーザは、デバイス80を手首に装着する。デバイス80のタッチパネル82には、マーカ画像84が表示される。マーカ画像84は、情報処理装置2000により、第1マーカ3040及び第2マーカ3060の双方として扱われる。つまり、商品認識部2020は、マーカ画像84によって定まる商品認識領域70に含まれる商品10を認識する。また、表示制御部2040は、マーカ画像84が写っている場合に、表示装置3020に操作画面40を表示させる。
表示制御部2040は、マーカ画像84の位置を基準として、操作画面40を表示させる位置を決定する。ここで操作画面40は、入力エリア42及び情報エリア44のいずれか一方、又は入力エリア42及び情報エリア44の双方を含む。入力エリア42は、キーボードやボタンなどの入力インタフェースを含む領域であり、情報エリア44は、入力インタフェースを含まない領域である。
入力エリア42と情報エリア44の表示位置は、マーカ画像84の位置を基準としてそれぞれ定められている。具体的には、入力エリア42の表示位置は、ユーザの腕に重畳される位置として定められている。一方、情報エリア44の表示位置は、ユーザの腕の上方に位置するように情報エリア44を表示させる。
各実施例において、操作体はユーザの指30である。また、デバイス80は、センサ3080を実現するための振動センサ86を有する。操作認識部2060は、振動センサ86による検出結果に基づいて定まる検出対象タイミングにおける指30の位置、又は検出対象時間における指30の動きに基づいて、入力操作を認識する。
例えば、ユーザは、キーボードを表す入力エリア42に含まれる各キーを指30でタップする。振動センサ86によってタップの振動が検出されると、デバイス80から操作認識部2060へ通知が行われる。操作認識部2060は、この通知を受け、振動が検出されたタイミングにおける指30の位置を割り出し、その位置に対応するキーを入力する入力操作を認識する。またユーザは、腕32を指30でタップしてから指30を動かし、その動作を終了するタイミングで再度指30で腕32をタップする。操作認識部2060は、こうすることで、指30の動きを操作認識部2060に認識させる。例えばユーザは、指30の動きにより、手書き入力などを行う。
[[実施例1]]
実施例1は、店舗に来店した顧客によってヘッドマウントディスプレイ100が利用される例である。この店舗では、来店した各顧客に対し、デバイス80及びヘッドマウントディスプレイ100が貸与される。各ヘッドマウントディスプレイ100には、個別のIDが割り振られている。顧客は、デバイス80及びヘッドマウントディスプレイ100を装着して、店舗の商品10を見て回る。
この店舗では、顧客は、購入したい商品を商品カゴに入れて持ち歩く必要がない。代わりに顧客は、ヘッドマウントディスプレイ100を用いて商品10の購入手続きを行う。そのために、店舗には商品10の見本が陳列されている。
まず顧客は、店舗内を歩いて、購入したい商品10を探す。興味が惹かれる商品10を見つけたら、顧客は、その商品10をヘッドマウントディスプレイ100に認識させる。具体的には、顧客は、デバイス80が装着されている方の手で商品10を持ち、その商品10を見る。こうすると、商品認識部2020によって商品10が認識される。また、表示制御部2040により、その商品10の商品情報を含む操作画面40がディスプレイ装置102に表示される。
図39は、実施例1においてディスプレイ装置102に表示される操作画面40を例示する図である。ディスプレイ装置102には、商品10の説明を含む情報エリア44、及び商品10を購入する個数を入力するための入力エリア42が表示されている。入力エリア42は、個数を入力するための数値キー、購入することを決定するためのOKキー、及び購入をキャンセルするためのキャンセルキーを含む。
ユーザは、情報エリア44を見て、商品10の情報(図39では商品名及び価格)を確認する。この商品10を購入したい場合、ユーザは、数値キーを用いて購入したい個数を入力した後、OKキーをタップする。一方、この商品10を購入しない場合、ユーザはキャンセルキーをタップする。
OKキーをタップすると、ヘッドマウントディスプレイ100のIDと対応づけられたオーダー情報にその商品10が追加される。図40は、オーダー情報をテーブル形式で例示する図である。図40に示すテーブルを、オーダー情報テーブル700と表記する。オーダー情報テーブル700は、ヘッドマウントディスプレイ100のID(HMD_ID)と対応付けられている。オーダー情報テーブル700は、商品ID702及び個数704を含む。商品ID702は商品10のIDを示す。個数704は商品10を購入する個数を示す。図39で説明した操作でOKキーをタップすると、オーダー情報テーブル700に新たな行が追加される。
購入したい各商品10について図39で説明した操作を終えると、ユーザは、精算カウンタへ行って精算を行う。精算カウンタにおいて、ユーザは店員にデバイス80及びヘッドマウントディスプレイ100を返却する。そのヘッドマウントディスプレイ100を受け取った店員は、精算カウンタに設けられているコンピュータで、ヘッドマウントディスプレイ100のIDを読み取る。このコンピュータは、ヘッドマウントディスプレイ100のIDに対応付けられているオーダー情報テーブル700を取得して精算金額を算出し、顧客に閲覧可能なディスプレイ装置に精算金額を表示する。ユーザは、その精算金額を支払った後、店員から商品を受け取る。
なお代金の精算は、現金を用いずに行われてもよい。例えばユーザは、ヘッドマウントディスプレイ100を利用してクレジットカードの情報を入力することにより、クレジットカードで代金の精算を行ってもよい。
ヘッドマウントディスプレイ100は、多言語に対応する機能を有することが好適である。ヘッドマウントディスプレイ100が多言語に対応する機能を有する場合、例えばユーザは、ヘッドマウントディスプレイ100を借りる際に、店員に利用したい言語を伝える。ここで、ユーザが利用したい言語が英語であるとする。この場合、店員は、ヘッドマウントディスプレイ100の言語設定を英語に変更した上で、ユーザにヘッドマウントディスプレイ100を貸与する。こうすることで、情報エリア44に表示される情報や、入力エリア42に表示される入力キーの言語が英語表記になる。
このように多言語に対応する機能をヘッドマウントディスプレイ100に備えることで、様々な国の人々がヘッドマウントディスプレイ100を利用しやすくなり、ひいてはこのヘッドマウントディスプレイ100を導入した店舗を利用しやすくなる。なお、ヘッドマウントディスプレイ100の言語設定の変更は、ユーザによって行われてもよい。
[[実施例2]]
実施例2は、インターネットを介したコンシェルジュサービスにおいてヘッドマウントディスプレイ100を利用する例である。ここでいうコンシェルジュサービスとは、商品10に関する要望を顧客から受け付け、その要望に合った商品10をユーザに提供するサービスを意味する。
図41は、実施例2のコンシェルジュサービスを提供するコンシェルジュシステム600の構成を例示する図である。コンシェルジュシステム600は、サーバ610、デバイス80及びヘッドマウントディスプレイ100を含む。なお、コンシェルジュシステム600では、各コンシェルジュスタッフが、デバイス80及びヘッドマウントディスプレイ100の組みを装着する。
顧客端末620は、顧客によって利用される種々の端末(例えば PC)である。顧客端末620は、インターネットを介してサーバ610と接続されている。サーバ610は、顧客端末620からサービス提供の要求を受け付けると、その要求をいずれかのヘッドマウントディスプレイ100に割り当てる。その要求が割り当てられたヘッドマウントディスプレイ100を装着しているコンシェルジュスタッフは、顧客端末620のユーザ(顧客)に対してサービスを提供する。ここで、ヘッドマウントディスプレイ100は、LAN(Local Area Network)を介してサーバ610と接続されている。
コンシェルジュスタッフは、商品10に関する要望を顧客から受け付ける。例えば顧客は、顧客端末620に接続されたマイクを通じて、音声で要望を伝える。顧客の音声は、顧客端末620を介してサーバ610へ送信される。なお、インターネットを介してサーバへ送信された顧客の音声をサービス提供者が聴く方法には、種々の既存の技術を利用できるため、その方法の説明は省略する。
コンシェルジュスタッフは、顧客の要望に合った商品10を見つけ出し、ヘッドマウントディスプレイ100を介してその商品10を見る。こうすることで、商品10の商品情報を含む操作画面40がディスプレイ装置102に表示される。顧客がその商品10を気に入った場合、コンシェルジュスタッフは顧客から購入を希望する個数を聞き、操作画面40に対して個数を入力する入力操作を行う。ここで、コンシェルジュスタッフが装着しているヘッドマウントディスプレイ100のディスプレイ装置102に表示される情報は、例えば図39に示した入力エリア42及び情報エリア44と同様である。
顧客は、商品10に関する情報をコンシェルジュスタッフから音声で伝えられてもよいし、顧客端末620のディスプレイ装置を用いて、商品10に関する情報を閲覧してもよい。後者の場合、例えばサーバ610は、コンシェルジュスタッフが閲覧している情報と同一の情報又はそれに類似する情報を顧客端末620へ提供する。こうすることで、コンシェルジュスタッフが閲覧している情報と同一の情報又はそれに類似する情報が顧客端末620のディスプレイ装置に表示され、顧客はその情報を閲覧することができる。
例えば、サーバ610は、ヘッドマウントディスプレイ100に装着されているカメラ20によって生成される映像を顧客端末620へ送信する。また例えば、サーバ610は、ディスプレイ装置102に写っている映像(カメラ20によって生成される映像に操作画面40が重畳されたもの)を顧客端末620へ送信する。また例えば、サーバ610は、カメラ20によって生成された映像を顧客端末620へ送信せず、操作画面40のみを顧客端末620へ送信してもよい。
なお、顧客端末620へ送信される操作画面40は、コンシェルジュスタッフによって閲覧されている操作画面40と異なるものであってもよい。例えば本実施例の場合、顧客はヘッドマウントディスプレイ100を用いた入力操作を行わないため、入力エリア42を見る必要がない。そこでヘッドマウントディスプレイ100は、ディスプレイ装置102に表示させる操作画面40には入力エリア42及び情報エリア44を含める一方で、サーバ610を介して顧客端末620へ送信する操作画面40には、情報エリア44のみが含まれるようにする。
また、コンシェルジュスタッフが閲覧する商品情報と顧客端末620へ送信される商品情報は、異なっていてもよい。例えばヘッドマウントディスプレイ100は、コンシェルジュスタッフが閲覧する商品情報には、商品の管理のために必要な種々の管理情報を含める一方で、顧客端末620へ送信される商品情報には、そのような管理情報を含めないようにする。
このように、ディスプレイ装置102に表示される操作画面40と顧客端末620に送信される操作画面40をそれぞれ異なるものにする場合、前述した操作画面40のテンプレート200として、ディスプレイ装置102用のテンプレートと顧客端末620用のテンプレートの双方を用意しておく。
[[実施例3]]
実施例3は、自動販売機へ商品を補充する作業においてヘッドマウントディスプレイ100を利用する例である。自動販売機へ商品を補充する作業を行う作業員は、ヘッドマウントディスプレイ100を利用することで、補充する商品10に関する種々の情報を見たり、商品10に関する情報を入力したりする。
例えば作業員は、ヘッドマウントディスプレイ100を用いて、補充した商品10の個数を記録する入力操作を行う。図42は、実施例3においてヘッドマウントディスプレイ100が利用される様子を例示する図である。商品格納庫800は、自動販売機において商品が格納されている格納庫である。なお、図を見やすくするため、図42では、商品格納庫800の一部のみを図示している。
まず作業員は、商品10を補充した後、ヘッドマウントディスプレイ100を介して、商品格納庫800から見えているその商品10を見ることで、ヘッドマウントディスプレイ100に商品10を認識させる。
ここで本実施例では、タッチパネル82が手の甲の側に見えるように、デバイス80が装着されている。また、商品認識領域70は、マーカ画像84の上端に接する矩形である。そこで作業員は、商品格納庫800から見えている商品10の近くにマーカ画像84をかざすことで、商品10が商品認識領域70に含まれるようにする。
商品10がヘッドマウントディスプレイ100に認識されると、操作画面40(入力エリア42及び情報エリア44)がディスプレイ装置102に表示される。作業員は、操作画面40に含まれる数値キーを利用して、補充した個数を入力する入力操作を行う。
なお操作画面40には、作業員が自由に情報を記述できるメモ欄が含まれていてもよい。例えば作業員は、各商品10について、次回の補充時に持ってくるべき商品10の個数を多めにすべきか、又は少なめにすべきかなどの情報を入力する。
本実施例において、ヘッドマウントディスプレイ100は、作業対象の自動販売機を特定し、特定した自動販売機に入れるべき商品10のリストを取得する機能を有していてもよい。自動販売機の特定は、例えば自動販売機に付されているIDを読み取ることで実現される。
例えば、自動販売機に、その自動販売機のIDを符号化したQRコード(登録商標)が付されているとする。この場合、作業員は、ヘッドマウントディスプレイ100を介してそのQRコード(登録商標)を見る。その結果、カメラ20により、そのQRコード(登録商標)が写った撮像画像が生成される。ヘッドマウントディスプレイ100は、その撮像画像を解析することで、自動販売機のIDを認識する。
ヘッドマウントディスプレイ100は、自動販売機のIDと、そのIDで特定される自動販売機に入れるべき商品10のリストとを関連付けたデータベースを検索して、商品10のリストを取得する。この場合、ヘッドマウントディスプレイ100は、そのデータベースと通信可能に接続されている。ただし、自動販売機に入れるべき商品10のリストは、予めヘッドマウントディスプレイ100の内部の記憶装置に記憶されていてもよい。
なお、作業対象の自動販売機の特定は、手動で行われてもよい。この場合、作業員は、ヘッドマウントディスプレイ100に対して、作業対象の自動販売機を選択する入力操作を行う。例えばヘッドマウントディスプレイ100は、作業対象の自動販売機のリストをディスプレイ装置102に表示する。作業員は、そのリストから、これから行う作業の対象である自動販売機を選択する。
ヘッドマウントディスプレイ100は、自動販売機と通信する機能を有していてもよい。この場合、例えば自動販売機は、各商品10について補充すべき個数などを示す情報を、ヘッドマウントディスプレイ100へ送信する。ヘッドマウントディスプレイ100は、その情報をディスプレイ装置102へ表示する。作業員は、その情報を見て、補充すべき商品10の個数を把握することができる。
また自動販売機は、補充された商品10の個数をカウントし、補充された商品10の個数をヘッドマウントディスプレイ100へ通知する機能を有していてもよい。この場合、補充された商品10の個数の記録は、ヘッドマウントディスプレイ100によって自動的に行われる。そのため、作業員は、補充した商品10の個数を入力する入力操作を行う必要がない。
[[実施例4]]
実施例4は、ネットショッピングのサービスを提供するスーパーにおいて、ネットショッピングで注文された商品を店舗の商品棚から収集する作業に、ヘッドマウントディスプレイ100が利用される例である。顧客がネットショッピングで商品を注文すると、注文された商品のリストが店舗のサーバへ送信される。その店舗の店員は、店舗を歩き回り、そのリストに載っている商品を商品棚から収集する。その際、店員は、ヘッドマウントディスプレイ100を装着して収集作業を行う。
店舗サーバは、注文された商品のリスト、及び店舗の地図を取得する。さらに店舗サーバは、商品データベースを検索して、注文された商品のリストに載っている各商品が配置されている店舗上の位置を特定する。各商品の位置は、予め商品データベースに登録しておく。そして店舗サーバは、各商品の位置を示す印が重畳された地図を生成する。
ヘッドマウントディスプレイ100は、店舗サーバから上記地図を取得して、ディスプレイ装置102に表示させる。図43は、ディスプレイ装置102に表示される店舗の地図を例示する図である。図43において、ディスプレイ装置102には地図300が表示されている。地図300には、上記リストに載っている各商品の位置(店員が収集すべき各商品の位置)を示す商品位置302が重畳されている。店員は、この地図300を見ながら商品を収集することで、目的の商品を容易に収集することができる。
店員は、ディスプレイ装置102に表示された地図を見て、収集対象の商品が陳列されている商品棚へ行く。そして店員は、収集対象の商品が見つかったら、ヘッドマウントディスプレイ100を介してその商品を見る。ヘッドマウントディスプレイ100は、その商品の商品情報を含む操作画面40をディスプレイ装置102に表示させる。
図44は、実施例4においてディスプレイ装置102に表示される操作画面40を例示する図である。図44(a)は、店員が手に取った商品10が、収集対象の商品であるケースを例示している。操作画面40には、収集すべき商品10の個数が表示されている。店員は、収集すべき個数をカゴに入れた後、OKボタンをタップする。一方、この商品10の収集を後回しにする場合、店員はキャンセルボタンをタップする。
一方、図44(b)は、店員が手に取った商品10が、収集対象の商品ではないケースを例示している。操作画面40には、手に取った商品が収集対象の商品ではない(注文された商品ではない)ことを通知するメッセージが表示されている。このメッセージを確認したユーザは、OKボタンをタップする。
なお、新人の店員など、店舗に不慣れな店員の場合、ディスプレイ装置102に表示された地図300を見ても、目的の商品を探し出せない場合がありうる。このような場合、ヘッドマウントディスプレイ100は、各売り場の売り場担当者へ連絡する手段を提供してもよい。
図45は、売り場担当者へ連絡するための操作画面40が表示されたディスプレイ装置102を例示する図である。情報エリア44には、売り場担当者の写真が含まれている。入力エリア42には、売り場担当者の名前が示されたボタンが含まれている。店員は、連絡を取りたい売り場担当者の名前が示されたボタンをタップする。これにより、例えば店員とその売り場担当者との間で、音声通話が確立される。この場合、ヘッドマウントディスプレイ100は、音声通話を行う機能を提供する。
[[実施例5]]
実施例5は、店舗における商品の管理にヘッドマウントディスプレイ100が利用されるケースである。ヘッドマウントディスプレイ100は、店員によって装着される。ヘッドマウントディスプレイ100を装着した店員は、例えばヘッドマウントディスプレイ100を用いて商品10の発注業務を行う。
図46は、実施例5においてディスプレイ装置102に表示される情報を例示する図である。ディスプレイ装置102には、商品認識領域70に含まれる商品10に関する情報を含む情報エリア44、及び入力操作のための入力エリア42が表示されている。ここで、情報エリア44には、情報エリア44−1及び情報エリア44−2が含まれる。情報エリア44−1には、認識された商品10の商品名、在庫数、及び発注数を示すテーブルが表示されている。情報エリア44−2には、認識された商品10の画像が大きく表示されている。ここで、情報エリア44−2に表示される商品10の画像は、撮像画像から抽出した商品10の画像を拡大したものであってもよいし、商品データベース(例えば商品情報テーブル500)に登録されている商品10の画像であってもよい。
店員は、情報エリア44に示されている商品10の在庫数などを見て、商品10の発注数を決める。そして店員は、入力エリア42の数値キーを用いて、商品の発注数を入力する。図46では、発注数として「21個」が入力されている。発注数を入力し終えた店員は、OKキーをタップする。こうすることで、商品10の発注が行われる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
以下、参考形態の例を付記する。
1. 表示装置と、
情報処理装置と、を有し、
前記情報処理装置は、
商品を認識する商品認識手段と、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を前記表示装置に表示させる表示制御手段と、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有する情報処理システム。
2. 前記商品認識手段は、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、1.に記載の情報処理システム。
3. ユーザに身につけられるか、又はユーザの身体の一部であるマーカを有し、
前記商品認識手段は、
前記撮像画像から、前記撮像画像に写っている前記マーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識する、2.に記載の情報処理システム。
4. ユーザに身につけられるか、又はユーザの身体の一部であるマーカを有し、
前記表示制御手段は、前記撮像画像に前記マーカが写っている場合に、前記表示装置に前記操作画面を表示させる、1.乃至3.いずれか一つに記載の情報処理システム。
5. 前記表示制御手段は、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、4.に記載の情報処理システム。
6. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、3.乃至5.いずれか一つに記載の情報処理システム。
7. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、1.乃至6.いずれか一つに記載の情報処理システム。
8. ユーザに身に付けられるセンサを有し、
前記操作認識手段は、前記センサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、1.乃至7.いずれか一つに記載の情報処理システム。
9. 商品を認識する商品認識手段と、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御手段と、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有する情報処理装置。
10. 前記商品認識手段は、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、9.に記載の情報処理装置。
11. 前記商品認識手段は、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、10.に記載の情報処理装置。
12. 前記表示制御手段は、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、9.乃至11.いずれか一つに記載の情報処理装置。
13. 前記表示制御手段は、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、12.に記載の情報処理装置。
14. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、11.乃至13.いずれか一つに記載の情報処理装置。
15. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、9.乃至14.いずれか一つに記載の情報処理装置。
16. 前記操作認識手段は、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、9.乃至15.いずれか一つに記載の情報処理装置。
17. コンピュータによって実行される制御方法であって、
商品を認識する商品認識ステップと、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御ステップと、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を有する制御方法。
18. 前記商品認識ステップは、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、17.に記載の制御方法。
19. 前記商品認識ステップは、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、18.に記載の制御方法。
20. 前記表示制御ステップは、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、17.乃至19.いずれか一つに記載の制御方法。
21. 前記表示制御ステップは、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、20.に記載の制御方法。
22. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、19.乃至21.いずれか一つに記載の制御方法。
23. 前記表示制御ステップは、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、17.乃至22.いずれか一つに記載の制御方法。
24. 前記操作認識ステップは、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、17.乃至23.いずれか一つに記載の制御方法。
25. コンピュータに、
商品を認識する商品認識ステップと、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御ステップと、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を実行させるプログラム。
26. 前記商品認識ステップは、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、25.に記載のプログラム。
27. 前記商品認識ステップは、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、26.に記載のプログラム。
28. 前記表示制御ステップは、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、25.乃至27.いずれか一つに記載のプログラム。
29. 前記表示制御ステップは、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、28.に記載のプログラム。
30. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、27.乃至29.いずれか一つに記載のプログラム。
31. 前記表示制御ステップは、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、25.乃至30.いずれか一つに記載のプログラム。
32. 前記操作認識ステップは、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、25.乃至31.いずれか一つに記載のプログラム。
10 商品
20 カメラ
22 撮像画像
24 所定領域
26 ガイド
30 指
32 腕
40 操作画面
42 入力エリア
44 情報エリア
46 矢印
50 動き
51 形状
52 形状
54 矩形
56 円形
60 領域
62 重心
64 点
70 商品認識領域
72 矢印
80 デバイス
82 タッチパネル
84 マーカ画像
86 振動センサ
87 座標系
100 ヘッドマウントディスプレイ
102 ディスプレイ装置
120 参照画像
121 位置
130 領域
131 点
200 テンプレート
202 置換領域
300 地図
302 商品位置
500 商品情報テーブル
502 商品ID
504 特徴量
506 商品情報
508 商品名
510 価格
512 説明
600 コンシェルジュシステム
610 サーバ
620 顧客端末
700 オーダー情報テーブル
702 商品ID
704 個数
800 商品格納庫
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージ
1100 入出力インタフェース
2000 情報処理装置
2020 商品認識部
2020 認識部
2040 表示制御部
2060 操作認識部
3000 情報処理システム
3020 表示装置
3040 第1マーカ
3060 第2マーカ
3080 センサ

Claims (14)

  1. 撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、
    前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、
    撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
    を有し、
    前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
    前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
    前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、情報処理装置。
  2. 前記オブジェクト認識手段は、撮像画像を解析することでその撮像画像に含まれるオブジェクトを認識するか、又はオブジェクトに付されたシンボルからそのオブジェクトの識別子を読み取ることでそのオブジェクトを認識する、請求項1に記載の情報処理装置。
  3. 前記オブジェクト認識手段は、撮像画像に含まれるマーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出する、請求項1又は2に記載の情報処理装置。
  4. 前記表示制御手段は、撮像画像にマーカが含まれる場合に、前記表示装置に前記操作画面を表示させる、請求項1又は2いずれか一項に記載の情報処理装置。
  5. 前記表示制御手段は、撮像画像に含まれる前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、請求項4に記載の情報処理装置。
  6. 前記第1マーカと前記第2マーカは同一のものである請求項乃至いずれか一項に記載の情報処理装置。
  7. 前記表示制御手段は、前記表示装置の表示画面において、前記撮像画像における前記オブジェクト認識領域の位置に対応する前記表示画面上の位置とは異なる位置に、前記操作画面を表示させる、請求項1乃至いずれか一項に記載の情報処理装置。
  8. 前記オブジェクト認識領域は、予め定められた領域である、請求項1乃至いずれか一項に記載の情報処理装置。
  9. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた撮像画像を送信する、請求項1乃至いずれか一項に記載の情報処理装置。
  10. 前記操作認識手段は、ユーザに身につけられるデバイスに備えられたセンサの検出結果に基づいて定まるタイミングにおいて撮像画像に含まれる操作体の位置を検出するか、又は前記タイミングに基づいて定まる時間において撮像画像に含まれる前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、請求項1乃至いずれか一項に記載の情報処理装置。
  11. 前記オブジェクトは商品である、請求項1乃至10いずれか一項に記載の情報処理装置。
  12. 表示装置と、
    情報処理装置と、を有し、
    前記情報処理装置は、
    撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、
    前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、
    撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
    を有し、
    前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
    前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
    前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、情報処理システム。
  13. コンピュータによって実行される制御方法であって、
    撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、
    前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、
    撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
    を有し、
    前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
    前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
    前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、制御方法。
  14. コンピュータに、
    撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、
    前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、
    撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
    を実行させ
    前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
    前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
    前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、プログラム。
JP2016042263A 2016-03-04 2016-03-04 情報処理システム、情報処理装置、制御方法、及びプログラム Active JP6256497B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016042263A JP6256497B2 (ja) 2016-03-04 2016-03-04 情報処理システム、情報処理装置、制御方法、及びプログラム
US15/276,953 US20170255838A1 (en) 2016-03-04 2016-09-27 Information processing apparatus, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016042263A JP6256497B2 (ja) 2016-03-04 2016-03-04 情報処理システム、情報処理装置、制御方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017233579A Division JP6601480B2 (ja) 2017-12-05 2017-12-05 情報処理システム、情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017157142A JP2017157142A (ja) 2017-09-07
JP6256497B2 true JP6256497B2 (ja) 2018-01-10

Family

ID=59722249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016042263A Active JP6256497B2 (ja) 2016-03-04 2016-03-04 情報処理システム、情報処理装置、制御方法、及びプログラム

Country Status (2)

Country Link
US (1) US20170255838A1 (ja)
JP (1) JP6256497B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107615214B (zh) * 2015-05-21 2021-07-13 日本电气株式会社 界面控制系统、界面控制装置、界面控制方法及程序
US20170076428A1 (en) * 2015-09-14 2017-03-16 Canon Kabushiki Kaisha Information processing apparatus
WO2017057106A1 (ja) * 2015-09-28 2017-04-06 日本電気株式会社 入力装置、入力方法、及びプログラム
JP6390799B2 (ja) * 2015-09-28 2018-09-19 日本電気株式会社 入力装置、入力方法、及びプログラム
WO2017145423A1 (ja) * 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US11024064B2 (en) 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
US11417426B2 (en) 2017-02-24 2022-08-16 Masimo Corporation System for displaying medical monitoring data
US11232530B2 (en) * 2017-02-28 2022-01-25 Nec Corporation Inspection assistance device, inspection assistance method, and recording medium
JP6977286B2 (ja) * 2017-03-29 2021-12-08 日本電気株式会社 販売システム、サーバ、販売システムの処理方法、サーバの処理方法及びプログラム
CN110809804B (zh) 2017-05-08 2023-10-27 梅西莫股份有限公司 使用适配器将医疗系统与网络控制器配对的系统
EP3543925A1 (de) * 2018-03-19 2019-09-25 Siemens Aktiengesellschaft Verfahren und vorrichtung zum identifizieren von einem ausgewählten stückgut
JP7214967B2 (ja) * 2018-03-22 2023-01-31 日本電気株式会社 商品情報取得装置、商品情報取得方法、およびプログラム
EP3547246A1 (de) * 2018-03-28 2019-10-02 MULTIVAC Sepp Haggenmüller SE & Co. KG Streckenverfolgung zum verfolgen und/oder überwachen transportierter produkte
JP7242232B2 (ja) * 2018-09-28 2023-03-20 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7258524B2 (ja) * 2018-11-27 2023-04-17 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2020095581A (ja) * 2018-12-14 2020-06-18 株式会社ジンズホールディングス 情報処理方法、情報処理装置、情報処理システム、および店舗
JP6589038B1 (ja) * 2018-12-19 2019-10-09 株式会社メルカリ ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法
EP3974949A4 (en) * 2019-05-22 2022-12-28 Maxell, Ltd. HEAD MOUNT DISPLAY
JP7260517B2 (ja) * 2020-09-16 2023-04-18 ヤフー株式会社 制御プログラム、制御方法、端末装置及びサーバ装置
CN112363621B (zh) * 2020-11-13 2024-05-14 北京达佳互联信息技术有限公司 一种终端控制方法、装置、电子设备及存储介质
JP2024035526A (ja) * 2022-09-02 2024-03-14 キヤノン株式会社 情報処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
CN102859325B (zh) * 2010-04-13 2016-09-14 松下知识产权经营株式会社 显示装置
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
JP5927867B2 (ja) * 2011-11-28 2016-06-01 セイコーエプソン株式会社 表示システム、及び操作入力方法
KR101978205B1 (ko) * 2012-06-07 2019-05-14 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
JP6065553B2 (ja) * 2012-12-03 2017-01-25 ブラザー工業株式会社 制御装置およびコンピュータプログラム
CN105511846B (zh) * 2014-09-24 2018-12-14 联想(北京)有限公司 电子设备和显示控制方法
CN105607253B (zh) * 2014-11-17 2020-05-12 精工爱普生株式会社 头部佩戴型显示装置以及控制方法、显示系统

Also Published As

Publication number Publication date
JP2017157142A (ja) 2017-09-07
US20170255838A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6256497B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
JP6350772B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
CN103176690B (zh) 显示控制设备、显示控制方法和程序
US20140240225A1 (en) Method for touchless control of a device
CN108027656B (zh) 输入设备、输入方法和程序
CN107615214A (zh) 界面控制系统、界面控制装置、界面控制方法及程序
JP6828801B2 (ja) 情報処理装置、情報処理システム、制御方法、及びプログラム
JP2011227649A (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
CN106709714A (zh) 移动支付方法、客户端及系统
US9990665B1 (en) Interfaces for item search
JP7419003B2 (ja) 情報表示装置、情報表示方法及び情報表示システム
JP6601480B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
Rajendran Virtual information kiosk using augmented reality for easy shopping
US10304120B2 (en) Merchandise sales service device based on dynamic scene change, merchandise sales system based on dynamic scene change, method for selling merchandise based on dynamic scene change and non-transitory computer readable storage medium having computer program recorded thereon
US9607418B1 (en) Method of transaction card recognition and interaction
US20150302784A1 (en) Information processing system, control method, and computer-readable medium
CN111386543A (zh) 使用增强现实进行安全交易
JP6590610B2 (ja) 方法、装置及びプログラム
JP7322945B2 (ja) 処理装置、処理方法及びプログラム
JP2016201050A (ja) 情報処理装置、情報処理方法及びプログラム
JP7525831B2 (ja) 非接触型posレジスタ及び非接触型posレジスタ運用方法
TWI471733B (zh) 透過行動運算裝置提供資訊互動之方法與系統
US20220270280A1 (en) System and tools for determining ring size
CN114240444A (zh) 刷脸支付方法、装置和刷脸支付设备

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R150 Certificate of patent or registration of utility model

Ref document number: 6256497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150