JP6256497B2 - 情報処理システム、情報処理装置、制御方法、及びプログラム - Google Patents
情報処理システム、情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6256497B2 JP6256497B2 JP2016042263A JP2016042263A JP6256497B2 JP 6256497 B2 JP6256497 B2 JP 6256497B2 JP 2016042263 A JP2016042263 A JP 2016042263A JP 2016042263 A JP2016042263 A JP 2016042263A JP 6256497 B2 JP6256497 B2 JP 6256497B2
- Authority
- JP
- Japan
- Prior art keywords
- product
- captured image
- marker
- user
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 168
- 238000000034 method Methods 0.000 title claims description 115
- 239000003550 marker Substances 0.000 claims description 236
- 230000033001 locomotion Effects 0.000 claims description 92
- 238000001514 detection method Methods 0.000 claims description 80
- 239000000284 extract Substances 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 53
- 230000006870 function Effects 0.000 description 18
- 230000008859 change Effects 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000005484 gravity Effects 0.000 description 10
- 210000000707 wrist Anatomy 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Position Input By Displaying (AREA)
Description
図1は、実施形態1に係る情報処理システム3000を例示するブロック図である。情報処理システム3000は、表示装置3020及び情報処理装置2000を有する。情報処理装置2000は、商品認識部2020、表示制御部2040、及び操作認識部2060を有する。
本実施形態の情報処理システム3000によれば、認識された商品に関する商品情報を含む操作画面40が表示装置3020に表示される。さらに、カメラ20によって生成された撮像画像に写っている操作体の位置又は動きに基づいて、操作画面40に対する入力操作が認識される。ユーザは、カメラ20の撮像範囲内で操作体を動かしたり止めたりすることによって、商品に関連した入力操作を行うことができる。よって、タッチパネル等の入力デバイスを用いて入力操作を行わなければならない場合と異なり、ユーザは手に入力デバイスなどを持つ必要がない。よって、閲覧している商品に関連した入力操作を行う際のユーザの行動の自由度が高くなると共に、ユーザが入力操作を容易に行えるようになる。このことから、入力デバイスを介して入力操作を受け付けるシステムと比較し、情報処理システム3000はユーザにとって利便性が高い。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。商品認識部2020は商品を認識する(S102)。表示制御部2040は、認識された商品の商品情報を取得する(S104)。表示制御部2040は、商品情報を含む操作画面を表示装置3020に表示させる(S106)。情報処理装置2000は、撮像画像を取得する(S108)。操作認識部2060は、撮像画像に写っている操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する(S110)。
商品認識部2020は商品10を認識する(S102)。商品認識部2020が商品10を認識する方法は任意である。以下、商品10を認識する方法を具体的に例示する。
商品認識部2020は、カメラ20によって生成された撮像画像に写っている商品10を認識する。より具体的には、商品認識部2020は、撮像画像に対してオブジェクト認識を行うことで商品10を認識する。ここで、画像に写っている商品を認識する方法には、既存の種々の技術を利用できる。そのため、商品認識部2020が撮像画像に写っている商品を認識する具体的な方法については省略する。
商品認識部2020は、商品10のタグ(商品10に付されたタグ又は商品10に内蔵されたタグ)から読み取られた商品の識別子(以下、商品ID(Identifier))を取得することによって、商品10を認識する。上記タグは、例えば RFID(radio frequency identifier)タグである。
商品認識部2020は、商品に付された商品情報シンボルから読み取られた商品IDを取得することで、その商品を認識する。商品情報シンボルは、商品を特定する情報を表したシンボルである。ここでシンボルとは、バーコード、2次元コード(QRコード(登録商標)など)、又は文字列シンボルなどである。なお、ここでいう文字列には、数値列も含まれる。より具体的には、商品情報シンボルは、商品IDを含む情報が符号化されたバーコード等、又は商品IDを含む情報を表す文字列シンボルなどである。
表示制御部2040は、商品認識部2020によって認識された商品10の商品情報を取得する(S104)。商品認識部2020が撮像画像に写っている商品10を認識する場合、表示制御部2040は、商品10の画像を用いて、商品10の商品情報を取得する。例えば表示制御部2040は、商品10の特徴量(商品10の形状、色、又は模様などの特徴を表す情報)と商品10の商品情報とを関連付けて記憶している記憶装置やデータベースから、商品情報を取得する。例えば表示制御部2040は、撮像画像から抽出した商品10の特徴量との類似度合いが所定値以上である特徴量と関連付けられている商品情報を取得する。この所定値を表す情報は、表示制御部2040に予め設定されていてもよいし、表示制御部2040からアクセス可能な記憶装置に記憶されていてもよい。
表示制御部2040は、表示装置3020に商品情報を表示させる(S106)。そのために表示制御部2040は、商品認識部2020によって認識された商品10の商品情報に基づいて、操作画面40を生成する。
情報処理装置2000は、カメラ20によって生成された撮像画像を取得する(S108)。情報処理装置2000が撮像画像を取得する方法は任意である。例えば情報処理装置2000は、カメラ20から撮像画像を取得する。この場合、情報処理装置2000とカメラ20とは通信可能に接続されている。
操作認識部2060によって操作体として扱われる物は様々である。例えば操作認識部2060は、ユーザの腕部の一部(指など)や、ユーザの腕部によって保持される物(ペンなど)を操作体として扱う。腕部とは、手及び手から肩にかけての部分を意味する。この場合、ユーザは、カメラ20の撮像範囲内で指やペンなどを動かすことにより、入力操作を行う。
操作認識部2060は、操作画面に対する入力操作を認識するために、撮像画像に写っている操作体の位置を検出する(S108)。ここで、画像に写っている所定のオブジェクトを検出する技術には、既知の技術を利用できる。そのため、撮像画像から所定の操作体を検出する方法についての具体的な説明は省略する。
操作認識部2060は、操作画面に対する入力操作を認識するために、撮像画像に写っている操作体の動きを検出する(S110)。操作認識部2060は、複数の撮像画像を用いて操作体の動きを検出してもよいし、1つの撮像画像を用いて操作体の動きを検出してもよい。前者の場合、例えば操作認識部2060は、それら複数の撮像画像それぞれについて画像解析を行うことで、各撮像画像内の操作体の位置を算出する。そして操作認識部2060は、操作体の位置の変化を表す情報を、操作体の動きを表す情報とする。操作体の位置の変化を表す情報は、例えば操作体の位置を時系列で並べた情報である。
操作認識部2060は、検出した操作体の位置又は動きに基づいて、操作画面に対する入力操作を認識する(S110)。操作認識部2060は、操作体の位置又は動きに基づいて定まる様々な入力操作を認識できる。以下、操作認識部2060によって認識できる種々の入力操作を例示する。
操作体の位置に基づいて操作認識部2060が認識する入力操作は様々である。例えば操作認識部2060は、操作体の位置に基づいて、キーを表す画像を選択する入力操作(以下、キー入力操作)を受け付ける。
操作認識部2060は、1)検出した操作体の動きに基づく形状を入力する入力操作を認識してもよいし、2)検出した操作体の動きに対応する所定の入力操作を認識してもよい。以下、それぞれについて説明する。
図14は、操作体の動きによって定まる形状を入力する入力操作を認識するケースを例示する図である。図14(a)では、操作認識部2060は、操作体の動き50−Aが表す形状51や、動き50−Bが表す形状52を入力する入力操作を認識する。例えばこの入力操作は、手書き入力を行う入力操作で利用される。
検出した操作体の動きに対応する所定の入力操作は、例えばジェスチャ入力による入力操作である。図15は、ジェスチャ入力を例示する図である。図15(a)はフリック動作を表し、図15(b)はピンチイン・ピンチアウト動作を表している。なお、矢印は操作体の動きを表している。
操作認識部2060が認識する操作体の位置や動きの表し方は任意である。例えば操作認識部2060は、操作体の位置や動きを撮像画像全体における相対位置として表す。図16は、操作体の位置や動きが、撮像画像全体における相対的な位置や動きによって表される様子を例示する図である。図16(a)は、操作体の位置を入力操作として認識するケースである。図16(a)において、操作体の位置である座標 (x1, x1) は、撮像画像22の左上端を原点とし、撮像画像22を平面視した場合における右方向を x 軸とし、撮像画像22を平面視した場合における下方向を y 軸とする座標系における座標である。
操作認識部2060は、1)操作体を動かす動作が行われた位置に関係なく、その操作体の動きのみを入力として認識してもよいし、2)操作体の動きと、その操作体を動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、操作体を動かす動作が撮像画像上のどの場所で行われても、同じ操作体の動きは同じ入力を表す。一方後者の場合、操作体を動かす動作が撮像画像上のどの場所で行われたかが意味を持つ。例えばユーザが撮像画像に写っている特定の物を丸で囲む入力を行う場合、丸という形状だけでなく、その丸によって何が囲われたかが意味を持つ。
操作認識部2060は、操作体の位置又は動きによって入力操作を認識する。ここで、操作体の位置と動きのどちらによって入力操作を認識するかを決定する方法は様々である。例えば、操作体の位置と動きのどちらによって入力操作を認識するかを、予め定めておく。ここで、操作体の位置と動きのどちらによって入力操作を認識するか示す情報は、操作認識部2060に設定されていてもよいし、操作認識部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
図17は、実施形態2に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態2の情報処理システム3000は、実施形態1の情報処理システム3000と同様の機能を有する。
図18は、実施形態2の商品認識部2020によって実行される処理の流れを例示するフローチャートである。このフローチャートは、図4のS102において行われる一連の処理の一態様を表す。
第1マーカ3040は、カメラ20によって生成される撮像画像において少なくともその位置が特定できる任意の物である。例えば第1マーカ3040は、3次元の座標系の決定に利用できるマーカである。3次元の座標系の決定に利用できるマーカは、例えば AR(Augmented Reality)マーカである。ただし、3次元の座標系の決定に利用できるマーカは、参照方向によらず、或る基準点からの相互に直交する3つの方向を一定に得ることができるものであればよく、AR マーカには限定されない。また、第1マーカ3040は、撮像画像においてその位置が特定できる物であればよく、必ずしも3次元の座標系の決定に利用できる必要はない。
商品認識部2020は、マーカ情報を用いて撮像画像を画像解析することで、撮像画像に写っている第1マーカ3040を検出する。そして商品認識部2020は、検出した第1マーカ3040の位置を算出する。ここで、画像内から所定の物を検出し、さらにその物の画像内における位置を算出する技術には、既知の様々な技術を利用できる。なお、第1マーカ3040の位置は、操作体の位置と同様に、例えば撮像画像全体における相対位置(座標)で表される。例えば第1マーカ3040の位置は、撮像画像全体における第1マーカ3040の中心位置の座標である。ただし、第1マーカ3040の位置は、第1マーカ3040の中心位置に限定されない。
商品認識部2020は、算出した撮像画像上の第1マーカ3040の位置に基づいて、撮像画像から商品認識領域を抽出する(S106)。商品認識領域は、第1マーカ3040の位置を基準として定められる任意の領域である。例えば商品認識領域は、第1マーカ3040の位置(例えば中心位置)を中心位置とする所定形状で定まる領域である。この所定形状は、円形や矩形など、任意の形状である。
商品認識部2020は、撮像画像から抽出された商品認識領域70に写っている商品10を認識する。ここで、画像の特定の領域に写っているオブジェクトを画像解析によって認識する方法には、既知の種々の技術を利用できる。
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
本実施形態によれば、撮像画像の一部の領域である商品認識領域70が抽出され、その商品認識領域70から商品10が認識される。よって、撮像画像全体から商品10を認識する処理を行うケースと比較し、画像処理の対象となるデータのサイズが小さくなる。よって、本実施形態において商品10を認識する処理は、撮像画像全体から商品10を認識する処理に比べて軽量な処理となり、処理に要する時間や計算機資源が削減される。
図26は、実施形態3に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態3の情報処理システム3000は、実施形態1又は実施形態2の情報処理システム3000と同様の機能を有する。
図27は、実施形態3の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。下記で説明する点を除き、図27のフローチャートは、図4のフローチャートと同様である。
第2マーカ3060として用いることができるものは、第1マーカ3040として用いることができるものと同様である。
表示制御部2040が撮像画像から第2マーカ3060を検出する方法は、実施形態2の商品認識部2020が撮像画像から第1マーカ3040を検出する方法と同様である。ただし、特に言及する場合を除き、表示制御部2040は、撮像画像に第2マーカ3060が写っていることを把握すればよく、第2マーカ3060の位置を把握する必要はない。
表示制御部2040は、撮像画像から第2マーカ3060が検出された場合に(S304:YES)、表示制御部2040に操作画面を表示させる(S108)。表示制御部2040に操作画面を表示させる方法は、実施形態1で説明した通りである。
本実施形態において、表示制御部2040は、操作画面の表示位置を第2マーカ3060の位置によって決定してもよい。この場合、表示制御部2040は、第2マーカ3060の位置を算出する。なお、第1マーカ3040の位置を算出する方法と同様に、第2マーカ3060の位置を算出する方法には、画像内から検出されたオブジェクトの画像内における位置を算出する既知の様々な技術を利用できる。
ヘッドマウントディスプレイ100を用いて情報処理装置2000が実現され、なおかつヘッドマウントディスプレイ100のディスプレイ装置102が透過型のディスプレイ装置である(ヘッドマウントディスプレイ100が透過型のヘッドマウントディスプレイである)とする。この場合、表示装置3020は、透過型のヘッドマウントディスプレイ100のディスプレイ装置102(レンズ部分)として実現される。またこの場合、撮像画像を生成するカメラ20は、ユーザの目に映る景色と同様の景色を撮像するように設けられる(図2のカメラ20など)。このような透過型のヘッドマウントディスプレイ100を利用する場合、ユーザはディスプレイ装置102の先に見える実物体(実世界の景色)を見ることで周囲の景色を把握でき、なおかつその景色は撮像画像に写る景色と同様の景色となる。そのため、ディスプレイ装置102に撮像画像を表示させる必要がない。
ユーザが直接周囲の景色を見ることができない場合や、撮像画像に写る景色がユーザの目に映る景色と同様でない場合(カメラ20によってユーザの視界方向が撮像されない場合)、ユーザは、撮像画像を見ながら入力操作を行う。例えばヘッドマウントディスプレイ100を用いて情報処理装置2000が実現され、なおかつヘッドマウントディスプレイ100のディスプレイ装置102が非透過型のディスプレイ装置である(ヘッドマウントディスプレイ100が非透過型のヘッドマウントディスプレイである)とする。この場合、ユーザは、周囲の景色を直接見ることができない。そのためディスプレイ装置102には、ユーザの視界方向を撮像するカメラ20によって生成された撮像画像が表示される。ユーザは、その撮像画像を見ることで周囲の景色を把握する。よって、ユーザは、撮像画像を見ながら入力操作を行うこととなる。
第2マーカ3060が撮像画像から検出されない場合(S304:NO)、表示制御部2040は、表示装置3020に操作画面を全く表示させなくてもよいし、表示装置3020に操作画面の一部を表示させてもよい。
実施形態3の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
本実施形態の情報処理装置2000によれば、第2マーカ3060が撮像画像に写った場合に、操作画面40が表示させる。よって、実施形態2の場合と同様に、ユーザが必要な時にだけ操作画面40を表示させることができるため、ユーザにとって情報処理システム3000の利便性が向上する。また、情報処理装置2000の計算機資源が浪費されることを防ぐことができる。
図32は、実施形態4に係る情報処理システム3000を例示するブロック図である。下記で説明する点を除き、実施形態4の情報処理システム3000は、実施形態1から実施形態3のいずれかに係る情報処理システム3000と同様の機能を有する。
図33は、実施形態4の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。図33におけるS102からS108の処理は、図5におけるS102からS108の処理と同様である。S402において、情報処理装置2000は、センサ3080の検出結果を把握する。そして、S110において、操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて撮像画像に写っている操作体の位置、又はそのタイミングを含む時間において撮像画像に写っている操作体の動きに基づいて、入力操作を認識する。
センサ3080は、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサである。例えばセンサ3080は、前述した振動センサである。振動センサが設けられる場所は任意である。例えば振動センサは、前述したようにデバイス80の内部に設けられる。また例えば、振動センサは、ユーザの腕や手などに貼られてもよいし、ユーザの衣服(服の袖など)に設けられてもよい。
情報処理装置2000は、センサ3080の検出結果を把握する(S402)。情報処理装置2000がセンサ3080の検出結果を把握する方法は様々である。以下、その方法を例示する。
例えば情報処理装置2000は、センサ3080を内蔵するデバイス80と無線通信を行うことにより、センサの検出結果を示す情報を取得する。この情報を用いて、情報処理装置2000は、センサ3080の検出結果を把握する。
デバイス80は、センサ3080による振動の検出に応じてデバイス80の外観を変化させてもよい。この場合、情報処理装置2000は、カメラ20によって生成された撮像画像を用いてデバイス80の外観の変化を検出することで、センサ3080の検出結果(センサ3080によって振動が検出されたこと)を把握する。
操作認識部2060は、センサ3080の検出結果に基づくタイミングにおいて操作体の検出し、検出した操作体の位置を算出する。以下、「センサ3080の検出結果に基づくタイミング」を検出対象タイミングと表記する。
操作認識部2060は、検出対象タイミングを含む時間において操作体を検出し、その操作体の動きを算出する。以下、「検出対象タイミングを含む時間」を検出対象時間と表記する。操作認識部2060は、検出対象時間において生成された撮像画像を用いて操作体の動きを算出する。
実施形態4の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージ1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
撮像画像に写っている操作体の位置又は動きのみを利用してユーザの入力操作を認識しようとすると、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
以下、情報処理システム3000について、より具体的な利用方法を例示して説明する。後述する各実施例はあくまで情報処理システム3000の利用方法の一例であり、情報処理システム3000の利用方法は後述の実施例で説明するものに限定されない。
実施例1は、店舗に来店した顧客によってヘッドマウントディスプレイ100が利用される例である。この店舗では、来店した各顧客に対し、デバイス80及びヘッドマウントディスプレイ100が貸与される。各ヘッドマウントディスプレイ100には、個別のIDが割り振られている。顧客は、デバイス80及びヘッドマウントディスプレイ100を装着して、店舗の商品10を見て回る。
実施例2は、インターネットを介したコンシェルジュサービスにおいてヘッドマウントディスプレイ100を利用する例である。ここでいうコンシェルジュサービスとは、商品10に関する要望を顧客から受け付け、その要望に合った商品10をユーザに提供するサービスを意味する。
実施例3は、自動販売機へ商品を補充する作業においてヘッドマウントディスプレイ100を利用する例である。自動販売機へ商品を補充する作業を行う作業員は、ヘッドマウントディスプレイ100を利用することで、補充する商品10に関する種々の情報を見たり、商品10に関する情報を入力したりする。
実施例4は、ネットショッピングのサービスを提供するスーパーにおいて、ネットショッピングで注文された商品を店舗の商品棚から収集する作業に、ヘッドマウントディスプレイ100が利用される例である。顧客がネットショッピングで商品を注文すると、注文された商品のリストが店舗のサーバへ送信される。その店舗の店員は、店舗を歩き回り、そのリストに載っている商品を商品棚から収集する。その際、店員は、ヘッドマウントディスプレイ100を装着して収集作業を行う。
実施例5は、店舗における商品の管理にヘッドマウントディスプレイ100が利用されるケースである。ヘッドマウントディスプレイ100は、店員によって装着される。ヘッドマウントディスプレイ100を装着した店員は、例えばヘッドマウントディスプレイ100を用いて商品10の発注業務を行う。
1. 表示装置と、
情報処理装置と、を有し、
前記情報処理装置は、
商品を認識する商品認識手段と、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を前記表示装置に表示させる表示制御手段と、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有する情報処理システム。
2. 前記商品認識手段は、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、1.に記載の情報処理システム。
3. ユーザに身につけられるか、又はユーザの身体の一部であるマーカを有し、
前記商品認識手段は、
前記撮像画像から、前記撮像画像に写っている前記マーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識する、2.に記載の情報処理システム。
4. ユーザに身につけられるか、又はユーザの身体の一部であるマーカを有し、
前記表示制御手段は、前記撮像画像に前記マーカが写っている場合に、前記表示装置に前記操作画面を表示させる、1.乃至3.いずれか一つに記載の情報処理システム。
5. 前記表示制御手段は、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、4.に記載の情報処理システム。
6. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、3.乃至5.いずれか一つに記載の情報処理システム。
7. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、1.乃至6.いずれか一つに記載の情報処理システム。
8. ユーザに身に付けられるセンサを有し、
前記操作認識手段は、前記センサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、1.乃至7.いずれか一つに記載の情報処理システム。
9. 商品を認識する商品認識手段と、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御手段と、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有する情報処理装置。
10. 前記商品認識手段は、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、9.に記載の情報処理装置。
11. 前記商品認識手段は、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、10.に記載の情報処理装置。
12. 前記表示制御手段は、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、9.乃至11.いずれか一つに記載の情報処理装置。
13. 前記表示制御手段は、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、12.に記載の情報処理装置。
14. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、11.乃至13.いずれか一つに記載の情報処理装置。
15. 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、9.乃至14.いずれか一つに記載の情報処理装置。
16. 前記操作認識手段は、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、9.乃至15.いずれか一つに記載の情報処理装置。
17. コンピュータによって実行される制御方法であって、
商品を認識する商品認識ステップと、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御ステップと、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を有する制御方法。
18. 前記商品認識ステップは、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、17.に記載の制御方法。
19. 前記商品認識ステップは、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、18.に記載の制御方法。
20. 前記表示制御ステップは、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、17.乃至19.いずれか一つに記載の制御方法。
21. 前記表示制御ステップは、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、20.に記載の制御方法。
22. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、19.乃至21.いずれか一つに記載の制御方法。
23. 前記表示制御ステップは、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、17.乃至22.いずれか一つに記載の制御方法。
24. 前記操作認識ステップは、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、17.乃至23.いずれか一つに記載の制御方法。
25. コンピュータに、
商品を認識する商品認識ステップと、
前記認識された商品に関する商品情報を取得し、前記取得された商品情報を含む操作画面を表示装置に表示させる表示制御ステップと、
カメラによって生成された撮像画像に写っている操作体の位置又は動きに基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を実行させるプログラム。
26. 前記商品認識ステップは、前記撮像画像を用いて前記撮像画像に写っている商品を認識するか、商品に付された又は内蔵されたタグからその商品の識別子を読み取ることでその商品を認識するか、又は商品に付された商品情報シンボルからその商品の識別子を読み取ることでその商品を認識する、25.に記載のプログラム。
27. 前記商品認識ステップは、
前記撮像画像から、前記撮像画像に写っているマーカの位置に基づいて定まる商品認識領域を抽出し、
前記抽出された商品認識領域に写っている商品を認識し、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、26.に記載のプログラム。
28. 前記表示制御ステップは、前記撮像画像にマーカが写っている場合に、前記表示装置に前記操作画面を表示させ、
前記マーカは、ユーザに身につけられるものか、又はユーザの身体の一部である、25.乃至27.いずれか一つに記載のプログラム。
29. 前記表示制御ステップは、前記撮像画像に写っている前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、28.に記載のプログラム。
30. 前記マーカは、前記ユーザに身につけられているデバイスのディスプレイ装置に表示される画像である、27.乃至29.いずれか一つに記載のプログラム。
31. 前記表示制御ステップは、通信回線を介し、前記操作画面又は前記操作画面を重畳させた前記撮像画像を送信する、25.乃至30.いずれか一つに記載のプログラム。
32. 前記操作認識ステップは、ユーザに身に付けられるセンサの検出結果に基づくタイミングにおいて前記撮像画像に写っている操作体の位置を検出するか、又は前記タイミングを含む時間において前記撮像画像に写っている前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、25.乃至31.いずれか一つに記載のプログラム。
20 カメラ
22 撮像画像
24 所定領域
26 ガイド
30 指
32 腕
40 操作画面
42 入力エリア
44 情報エリア
46 矢印
50 動き
51 形状
52 形状
54 矩形
56 円形
60 領域
62 重心
64 点
70 商品認識領域
72 矢印
80 デバイス
82 タッチパネル
84 マーカ画像
86 振動センサ
87 座標系
100 ヘッドマウントディスプレイ
102 ディスプレイ装置
120 参照画像
121 位置
130 領域
131 点
200 テンプレート
202 置換領域
300 地図
302 商品位置
500 商品情報テーブル
502 商品ID
504 特徴量
506 商品情報
508 商品名
510 価格
512 説明
600 コンシェルジュシステム
610 サーバ
620 顧客端末
700 オーダー情報テーブル
702 商品ID
704 個数
800 商品格納庫
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージ
1100 入出力インタフェース
2000 情報処理装置
2020 商品認識部
2020 認識部
2040 表示制御部
2060 操作認識部
3000 情報処理システム
3020 表示装置
3040 第1マーカ
3060 第2マーカ
3080 センサ
Claims (14)
- 撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有し、
前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、情報処理装置。 - 前記オブジェクト認識手段は、撮像画像を解析することでその撮像画像に含まれるオブジェクトを認識するか、又はオブジェクトに付されたシンボルからそのオブジェクトの識別子を読み取ることでそのオブジェクトを認識する、請求項1に記載の情報処理装置。
- 前記オブジェクト認識手段は、撮像画像に含まれるマーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出する、請求項1又は2に記載の情報処理装置。
- 前記表示制御手段は、撮像画像にマーカが含まれる場合に、前記表示装置に前記操作画面を表示させる、請求項1又は2いずれか一項に記載の情報処理装置。
- 前記表示制御手段は、撮像画像に含まれる前記マーカの位置に基づいて定まる位置に前記操作画面を表示させる、請求項4に記載の情報処理装置。
- 前記第1マーカと前記第2マーカは同一のものである請求項1乃至5いずれか一項に記載の情報処理装置。
- 前記表示制御手段は、前記表示装置の表示画面において、前記撮像画像における前記オブジェクト認識領域の位置に対応する前記表示画面上の位置とは異なる位置に、前記操作画面を表示させる、請求項1乃至6いずれか一項に記載の情報処理装置。
- 前記オブジェクト認識領域は、予め定められた領域である、請求項1乃至7いずれか一項に記載の情報処理装置。
- 前記表示制御手段は、通信回線を介し、前記操作画面又は前記操作画面を重畳させた撮像画像を送信する、請求項1乃至8いずれか一項に記載の情報処理装置。
- 前記操作認識手段は、ユーザに身につけられるデバイスに備えられたセンサの検出結果に基づいて定まるタイミングにおいて撮像画像に含まれる操作体の位置を検出するか、又は前記タイミングに基づいて定まる時間において撮像画像に含まれる前記操作体の動きを検出し、前記検出した位置又は動きに基づいて入力操作を認識する、請求項1乃至9いずれか一項に記載の情報処理装置。
- 前記オブジェクトは商品である、請求項1乃至10いずれか一項に記載の情報処理装置。
- 表示装置と、
情報処理装置と、を有し、
前記情報処理装置は、
撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識手段と、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御手段と、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識手段と、
を有し、
前記オブジェクト認識手段は、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御手段は、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、情報処理システム。 - コンピュータによって実行される制御方法であって、
撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を有し、
前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、制御方法。 - コンピュータに、
撮像画像の一部の領域であるオブジェクト認識領域を抽出し、前記抽出されたオブジェクト認識領域に含まれるオブジェクトを認識するオブジェクト認識ステップと、
前記認識されたオブジェクトに関するオブジェクト情報を取得し、前記取得されたオブジェクト情報とそのオブジェクトに関する操作画面とを表示装置に表示させる表示制御ステップと、
撮像画像に含まれる操作体の位置及び動きの少なくとも一方に基づいて、前記操作画面に対する入力操作を認識する操作認識ステップと、
を実行させ、
前記オブジェクト認識ステップにおいて、撮像画像に含まれる第1マーカの位置に基づいて定まる前記オブジェクト認識領域を撮像画像から抽出し、
前記表示制御ステップにおいて、撮像画像に第2マーカが含まれる場合に、前記表示装置に前記操作画面を表示させ、
前記第1マーカ及び前記第2マーカの少なくとも一方は、ユーザに身につけられているデバイスのディスプレイ装置に表示される画像であるか、前記デバイスに描画、印字、若しくは付されたものであるか、前記ユーザに身につけられているか、又は前記ユーザの身体の一部である、プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042263A JP6256497B2 (ja) | 2016-03-04 | 2016-03-04 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
US15/276,953 US20170255838A1 (en) | 2016-03-04 | 2016-09-27 | Information processing apparatus, control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042263A JP6256497B2 (ja) | 2016-03-04 | 2016-03-04 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017233579A Division JP6601480B2 (ja) | 2017-12-05 | 2017-12-05 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017157142A JP2017157142A (ja) | 2017-09-07 |
JP6256497B2 true JP6256497B2 (ja) | 2018-01-10 |
Family
ID=59722249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016042263A Active JP6256497B2 (ja) | 2016-03-04 | 2016-03-04 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170255838A1 (ja) |
JP (1) | JP6256497B2 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107615214B (zh) * | 2015-05-21 | 2021-07-13 | 日本电气株式会社 | 界面控制系统、界面控制装置、界面控制方法及程序 |
US20170076428A1 (en) * | 2015-09-14 | 2017-03-16 | Canon Kabushiki Kaisha | Information processing apparatus |
WO2017057106A1 (ja) * | 2015-09-28 | 2017-04-06 | 日本電気株式会社 | 入力装置、入力方法、及びプログラム |
JP6390799B2 (ja) * | 2015-09-28 | 2018-09-19 | 日本電気株式会社 | 入力装置、入力方法、及びプログラム |
WO2017145423A1 (ja) * | 2016-02-25 | 2017-08-31 | 日本電気株式会社 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
US11024064B2 (en) | 2017-02-24 | 2021-06-01 | Masimo Corporation | Augmented reality system for displaying patient data |
US11417426B2 (en) | 2017-02-24 | 2022-08-16 | Masimo Corporation | System for displaying medical monitoring data |
US11232530B2 (en) * | 2017-02-28 | 2022-01-25 | Nec Corporation | Inspection assistance device, inspection assistance method, and recording medium |
JP6977286B2 (ja) * | 2017-03-29 | 2021-12-08 | 日本電気株式会社 | 販売システム、サーバ、販売システムの処理方法、サーバの処理方法及びプログラム |
CN110809804B (zh) | 2017-05-08 | 2023-10-27 | 梅西莫股份有限公司 | 使用适配器将医疗系统与网络控制器配对的系统 |
EP3543925A1 (de) * | 2018-03-19 | 2019-09-25 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zum identifizieren von einem ausgewählten stückgut |
JP7214967B2 (ja) * | 2018-03-22 | 2023-01-31 | 日本電気株式会社 | 商品情報取得装置、商品情報取得方法、およびプログラム |
EP3547246A1 (de) * | 2018-03-28 | 2019-10-02 | MULTIVAC Sepp Haggenmüller SE & Co. KG | Streckenverfolgung zum verfolgen und/oder überwachen transportierter produkte |
JP7242232B2 (ja) * | 2018-09-28 | 2023-03-20 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7258524B2 (ja) * | 2018-11-27 | 2023-04-17 | ヤフー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP2020095581A (ja) * | 2018-12-14 | 2020-06-18 | 株式会社ジンズホールディングス | 情報処理方法、情報処理装置、情報処理システム、および店舗 |
JP6589038B1 (ja) * | 2018-12-19 | 2019-10-09 | 株式会社メルカリ | ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法 |
EP3974949A4 (en) * | 2019-05-22 | 2022-12-28 | Maxell, Ltd. | HEAD MOUNT DISPLAY |
JP7260517B2 (ja) * | 2020-09-16 | 2023-04-18 | ヤフー株式会社 | 制御プログラム、制御方法、端末装置及びサーバ装置 |
CN112363621B (zh) * | 2020-11-13 | 2024-05-14 | 北京达佳互联信息技术有限公司 | 一种终端控制方法、装置、电子设备及存储介质 |
JP2024035526A (ja) * | 2022-09-02 | 2024-03-14 | キヤノン株式会社 | 情報処理装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US20040095311A1 (en) * | 2002-11-19 | 2004-05-20 | Motorola, Inc. | Body-centric virtual interactive apparatus and method |
CN102859325B (zh) * | 2010-04-13 | 2016-09-14 | 松下知识产权经营株式会社 | 显示装置 |
US9069164B2 (en) * | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
JP5927867B2 (ja) * | 2011-11-28 | 2016-06-01 | セイコーエプソン株式会社 | 表示システム、及び操作入力方法 |
KR101978205B1 (ko) * | 2012-06-07 | 2019-05-14 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체 |
JP6065553B2 (ja) * | 2012-12-03 | 2017-01-25 | ブラザー工業株式会社 | 制御装置およびコンピュータプログラム |
CN105511846B (zh) * | 2014-09-24 | 2018-12-14 | 联想(北京)有限公司 | 电子设备和显示控制方法 |
CN105607253B (zh) * | 2014-11-17 | 2020-05-12 | 精工爱普生株式会社 | 头部佩戴型显示装置以及控制方法、显示系统 |
-
2016
- 2016-03-04 JP JP2016042263A patent/JP6256497B2/ja active Active
- 2016-09-27 US US15/276,953 patent/US20170255838A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP2017157142A (ja) | 2017-09-07 |
US20170255838A1 (en) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6256497B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
JP6390799B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP6350772B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
CN103176690B (zh) | 显示控制设备、显示控制方法和程序 | |
US20140240225A1 (en) | Method for touchless control of a device | |
CN108027656B (zh) | 输入设备、输入方法和程序 | |
CN107615214A (zh) | 界面控制系统、界面控制装置、界面控制方法及程序 | |
JP6828801B2 (ja) | 情報処理装置、情報処理システム、制御方法、及びプログラム | |
JP2011227649A (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
CN106709714A (zh) | 移动支付方法、客户端及系统 | |
US9990665B1 (en) | Interfaces for item search | |
JP7419003B2 (ja) | 情報表示装置、情報表示方法及び情報表示システム | |
JP6601480B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
Rajendran | Virtual information kiosk using augmented reality for easy shopping | |
US10304120B2 (en) | Merchandise sales service device based on dynamic scene change, merchandise sales system based on dynamic scene change, method for selling merchandise based on dynamic scene change and non-transitory computer readable storage medium having computer program recorded thereon | |
US9607418B1 (en) | Method of transaction card recognition and interaction | |
US20150302784A1 (en) | Information processing system, control method, and computer-readable medium | |
CN111386543A (zh) | 使用增强现实进行安全交易 | |
JP6590610B2 (ja) | 方法、装置及びプログラム | |
JP7322945B2 (ja) | 処理装置、処理方法及びプログラム | |
JP2016201050A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7525831B2 (ja) | 非接触型posレジスタ及び非接触型posレジスタ運用方法 | |
TWI471733B (zh) | 透過行動運算裝置提供資訊互動之方法與系統 | |
US20220270280A1 (en) | System and tools for determining ring size | |
CN114240444A (zh) | 刷脸支付方法、装置和刷脸支付设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6256497 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |