[go: up one dir, main page]

JP5617581B2 - ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体 - Google Patents

ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体 Download PDF

Info

Publication number
JP5617581B2
JP5617581B2 JP2010273691A JP2010273691A JP5617581B2 JP 5617581 B2 JP5617581 B2 JP 5617581B2 JP 2010273691 A JP2010273691 A JP 2010273691A JP 2010273691 A JP2010273691 A JP 2010273691A JP 5617581 B2 JP5617581 B2 JP 5617581B2
Authority
JP
Japan
Prior art keywords
gesture recognition
unit
gesture
temperature
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010273691A
Other languages
English (en)
Other versions
JP2012123617A (ja
Inventor
武 有原
武 有原
雅弘 阿部
雅弘 阿部
木下 政宏
政宏 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2010273691A priority Critical patent/JP5617581B2/ja
Priority to KR1020110118799A priority patent/KR101302910B1/ko
Priority to EP11189599.1A priority patent/EP2463751A3/en
Priority to US13/299,378 priority patent/US20120146903A1/en
Priority to CN201110386488.2A priority patent/CN102591452B/zh
Publication of JP2012123617A publication Critical patent/JP2012123617A/ja
Application granted granted Critical
Publication of JP5617581B2 publication Critical patent/JP5617581B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Vascular Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本発明は、ジェスチャを認識するジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体に関するものである。
従来、携帯電話、PDA(Personal Digital Assistant)、テレビ、録画再生装置、パーソナルコンピュータ、デジタルカメラなどの電子機器に対する入力機能はさまざまな形で実現されてきた。入力機能の実現方法としては、第1に、入力装置(ボタン、タッチパネル)に対象物(手指、タッチペンなど)を接触させて入力を行う方法がある(例えば、特許文献1、2など)。第2に、入力装置(カメラなど)に対象物を認識させて、入力装置あるいは電子機器に非接触で入力を行う方法がある(例えば、特許文献3など)。
第1の接触型の入力実現方法では、確実に、即時に、多様な入力を電子機器に対して行える一方、以下のような不都合な点がある。
画面(タッチパネル)が大きすぎると、対象物(手指など)を画面の端から端まで触れさせることが困難となり、操作性の低下が問題となる。電子機器から離れたところで、画面を閲覧したりして使用しているとき、電子機器に対して操作が必要になったら、電子機器を操作できる場所まで近づかないといけないため不便である。画面に指紋や手の汚れが付着するので、画面の汚れが気になるユーザには不向きな入力方法である。手が濡れていたり、汚れたりしているときは画面に触れず操作できないため不便である。
さらに、プロジェクタ機能を有する電子機器では、電子機器を静置して、スクリーンに表示内容(スライドショーなど)を映写するというユースシーンが想定されるが、スライド(ページ)を繰るなどの操作を行いたいとき画面に触ると、適切なポジションに置いておいた電子機器の位置がずれたりしてスクリーンの映像がぶれて不便である。また、スクリーンのそばでプレゼンテーションを行っているユーザが、電子機器を操作するために移動するのは面倒である。
上述のような不都合が生じる、接触型の入力方法が不向きなユースケースでは、電子機器の入力機能は、特許文献3のような第2の非接触型の入力実現方法が採用されてきた。特許文献3の技術では、カメラで撮像した手の画像データを画像処理して手を認識し、認識した手の動き(ハンドジェスチャ)を検知するジェスチャ認識システムが開示されている。多様なハンドジェスチャを電子機器に認識させることにより、電子機器に接触することなく電子機器に対する操作入力を行うことができる。
特開2009−071708号公報(2009年4月2日公開) 特開2009−168647号公報(2009年7月30日公開) 特開平08−315154号公報(1996年11月29日公開)
しかしながら、非接触型の入力方法を上述の特許文献3の技術で実現すると、以下のような問題が生じる。
例えば、暗所(夜の屋外、プロジェクタ起動中などに照明がおとされている屋内など)では、カメラによる被写体(手)の撮影が困難であり、手と認識できるような画像データが得られない。よって、特許文献3のシステムは、暗所で使用される電子機器の入力装置には適用できないという問題がある。また、特許文献3のシステムでは、カメラによって撮像された画像を扱うため、処理負荷の高い画像処理を行う必要がある。そのため、高機能の情報処理装置が必要になったり、処理時間が長くなったりするという問題がある。さらに、手の形を認識するために、背景画像と手の画像とを区別する処理が行われるが、手と類似するテクスチャが背景画像にも含まれている場合、正確に手の形状(領域)を抽出することができず、ジェスチャの誤認識が起こる可能性が高い。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、使用場所の明るさを問わずに、高速処理かつ高精度の非接触型の入力機能を実現するジェスチャ認識装置、ジェスチャ認識方法、ジェスチャ認識装置の制御プログラム、および、該制御プログラムを記録した記録媒体を提供することにある。
本発明のジェスチャ認識装置は、上記課題を解決するために、複数の赤外線センサが配置されて構成された温度センサと、上記温度センサの赤外線センサそれぞれが検知した温度に基づいて、温度変化が生じた変化領域を、手を示す領域として特定する変化領域特定手段と、上記変化領域特定手段が特定した変化領域の移動軌跡を特定して、手のジェスチャを認識するジェスチャ認識手段とを備えていることを特徴としている。
上記構成によれば、ジェスチャ認識装置において、対象物(手)の動きを検知するための情報は、複数配置された赤外線センサより温度情報として取得される。そして、変化領域特定手段が、温度変化が生じた変化領域を、手を示す領域として特定し、ジェスチャ認識手段が、特定された変化領域の移動軌跡を特定して、手のジェスチャを認識する。
こうして、ジェスチャ認識装置は、データ量が膨大な画像データを扱わずとも、温度情報のみで対象物の動きを分析することができ、ジェスチャを認識することが可能となる。結果として、ジェスチャ認識装置において、処理効率の向上と、処理負荷の低減を実現することができる。つまり、反応速度が速い入力装置を実現することが可能である。
また、本発明のジェスチャ認識装置は、赤外線センサを用いて対象物の表面温度を取得することにより、対象物の温度と周囲の環境温度との違いによって、対象物の動きを検知するものである。したがって、光学系カメラで対象物を撮像してジェスチャを認識する構成では、暗所での使用が制限されるが、本発明のジェスチャ認識装置は、暗所でも制限なく入力装置として機能させることが可能である。
また、光学系カメラを用いたジェスチャ認識では、対象物と背景とのテクスチャに大きな差がない場合に、正確に対象物の位置、形状などを認識できず、ジェスチャの誤認識が増えるという問題がある。一方、本発明のジェスチャ認識装置は、周囲環境温度と異なる表面温度を持つ対象物(手など)を、温度情報に基づいて検知するので、テクスチャの類似による誤認識の問題は起こり得ない。
結果として、本発明のジェスチャ認識装置は、使用場所の明るさを問わずに、高速処理かつ高精度の非接触型の入力機能を実現することが可能になるという効果を奏する。
上記ジェスチャ認識装置は、さらに、上記変化領域特定手段によって特定された変化領域の重心を決定する重心決定手段を備え、上記ジェスチャ認識手段は、上記重心の位置を追跡することにより上記移動軌跡を特定することが好ましい。
これにより、簡素化された処理手順にて変化領域の移動軌跡を特定することが可能となる。
上記ジェスチャ認識装置は、さらに、赤外線センサそれぞれが検知したそれぞれの温度と、所定の基準温度とを比較することにより、赤外線センサごとに温度変化量を算出する変化量算出手段を備え、上記重心決定手段は、赤外線センサごとに得られた上記温度変化量に基づいて、上記変化領域の重心を決定してもよい。
上記構成によれば、上記変化領域の幾何学的形状のみに基づき決定された重心ではなく、温度変化量が考慮されて変化領域の重心が求まる。
このように求められた重心の軌跡を追跡することにより、より正確に実際の手の動きを検知することが可能となり、ジェスチャ認識の精度を向上させることができる。
上記ジェスチャ認識装置は、さらに、上記複数の赤外線センサにおける有効無効の配置パターンを示すマスクを、自装置が接続する電子機器のアプリケーションの種類に関連付けて記憶するマスク記憶部と、上記電子機器が起動中のアプリケーションに関連付けられているマスクを上記マスク記憶部から選択するマスク選択手段とを備え、上記変化領域特定手段は、上記マスク選択手段によって選択されたマスクが有効とする赤外線センサによって検知された温度のみに基づいて変化領域を特定してもよい。
赤外線センサを選択的に用いる構成にすれば、処理すべき情報量を減らして処理速度を早めることができるとともに、特定のジェスチャの認識する場合に、その認識の精度を高めることが可能である。
上記ジェスチャ認識装置は、さらに、上記変化領域特定手段によって特定された変化領域のばらつきを算出するばらつき算出手段を備え、上記ジェスチャ認識手段は、時間の経過に伴う上記ばらつきの増減に基づいて、ジェスチャを認識してもよい。
上記ジェスチャ認識手段は、上記変化領域のばらつきが増加する場合に、両手または指が広がる方向に動いたと認識し、上記変化領域のばらつきが減少する場合に、両手または指が閉じる方向に動いたと認識することができる。
本発明のジェスチャ認識方法は、上記課題を解決するために、複数の赤外線センサが配置されて構成された温度センサから赤外線センサごとの温度を取得する温度取得ステップと、上記温度取得ステップにて取得した、上記赤外線センサそれぞれが検知した温度に基づいて、温度変化が生じた変化領域を、手を示す領域として特定する変化領域特定ステップと、上記変化領域特定ステップにて特定した変化領域の移動軌跡を特定して、手のジェスチャを認識するジェスチャ認識ステップとを含むことを特徴としている。
なお、上記ジェスチャ認識装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記ジェスチャ認識装置をコンピュータにて実現させるジェスチャ認識装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明のジェスチャ認識装置は、複数の赤外線センサが配置されて構成された温度センサと、上記温度センサの赤外線センサそれぞれが検知した温度に基づいて、温度変化が生じた変化領域を、手を示す領域として特定する変化領域特定手段と、上記変化領域特定手段が特定した変化領域の移動軌跡を特定して、手のジェスチャを認識するジェスチャ認識手段とを備えていることを特徴としている。
本発明のジェスチャ認識方法は、複数の赤外線センサが配置されて構成された温度センサから赤外線センサごとの温度を取得する温度取得ステップと、上記温度取得ステップにて取得した、上記赤外線センサそれぞれが検知した温度に基づいて、温度変化が生じた変化領域を、手を示す領域として特定する変化領域特定ステップと、上記変化領域特定ステップにて特定した変化領域の移動軌跡を特定して、手のジェスチャを認識するジェスチャ認識ステップとを含むことを特徴としている。
したがって、使用場所の明るさを問わずに、高速処理かつ高精度の非接触型の入力機能を実現することが可能になるという効果を奏する。
本発明の実施形態におけるジェスチャ認識装置が備えるデータ処理部の要部構成の詳細を示すブロック図である。 本発明の実施形態におけるジェスチャ認識装置が搭載された電子機器(スマートフォン)の外観を示す図である。 上記電子機器に内蔵されるセンサ部の分解斜視図である。 上記センサ部の温度センサチップにおける赤外線検知素子の配置の一例を示す図である。 本発明の実施形態におけるジェスチャ認識装置の要部構成を示すブロック図である。 ジェスチャ認識装置の座標配置部が各センサからの温度をXY座標系にプロットした後の温度情報のデータ構造を模式的に示す図である。 XY座標系にプロットされた温度情報の具体例を示す図である。 各検知タイミングにおける、(1)スマートフォンと手との位置関係と、(2)当該タイミングにおいて検知、取得された温度情報との関係を示す図である。 図8に示すタイミングT〜Tの期間について、ジェスチャ認識装置の変化量算出部によって生成された情報と、重心決定部によって生成された情報の具体例を示す図である。 ジェスチャ認識装置のジェスチャ認識部が重心の移動軌跡を特定した結果の具体例を示す図である。 各検知タイミングにおける、(1)スマートフォンと手との位置関係と、(2)当該タイミングにおいて検知、取得された温度情報との関係を示す図である。 ジェスチャ認識装置のジェスチャパターン記憶部に記憶されるジェスチャパターンの一例を示す図である。 ジェスチャ認識装置が備えるデータ処理部の各部が実行するジェスチャ認識処理の流れを示すフローチャートである。 ジェスチャ認識装置のジェスチャ認識部によって実行されるジェスチャ認識処理の流れを詳細に示すフローチャートである。 ジェスチャ認識装置のマスク記憶部に記憶されるマスクの具体例を示す図である。 ジェスチャ認識装置のマスク記憶部に記憶されるマスクのデータ構造の一例を示す図である。 本発明の他の実施形態における、ジェスチャ認識装置の座標配置部が各センサからの温度をXY座標系にプロットした後の温度情報のデータ構造を模式的に示す図である。 各検知タイミングにおける、(1)両手の位置関係と、(2)当該タイミングにおいて取得された温度情報および変化領域との関係を示す図である。 図18に示すタイミングT、Tのタイミングにおいて、ジェスチャ認識装置の変化量算出部によって生成された情報、重心決定部によって生成された情報、および、ばらつき算出部によって生成された情報の具体例を示す図である。 他の実施形態におけるジェスチャ認識装置のジェスチャパターン記憶部に記憶されるジェスチャパターンの一例を示す図である。 他の実施形態におけるジェスチャ認識装置のジェスチャ認識部によって実行されるジェスチャ認識処理の流れを詳細に示すフローチャートである。
≪実施形態1≫
本発明の実施形態について、図面に基づいて説明すると以下の通りである。以下で説明する実施形態では、一例として、本発明のジェスチャ認識装置をスマートフォンに搭載し、ジェスチャ認識装置がスマートフォンの入力機能を実現する。なお、本発明のジェスチャ認識装置は、スマートフォン以外にも、携帯電話、PDA、携帯型ゲーム機、電子辞書、電子手帳、デジタルカメラ、デジタルビデオカメラ、パーソナルコンピュータ、ノート型パソコン、テレビ、録画生成装置、家庭用ゲーム機などの各種電子機器に搭載することができ、これらの電子機器の入力機能を担うことができる。
〔ジェスチャ認識装置の構成〕
図2は、本発明の実施形態におけるジェスチャ認識装置の外観を示す図である。本実施形態では、本発明のジェスチャ認識装置は、図2に示すとおり、センサ部2を備え、スマートフォン100に内蔵されている。
センサ部2は、検知可能範囲(例えば、図2の破線枠内)にある対象物の温度を検知するものである。
図3は、スマートフォン100に内蔵されるセンサ部2の分解斜視図である。図3に示すとおり、センサ部2は、以下のように構成される。具体的には、基板21上に、信号処理部7と温度センサチップ6とが搭載され、その上に、これらの精密部品を保護するとともにレンズ23を固定するための中ケース22が設けられている。中ケース22の上には、レンズ23が搭載され、これら全体を被覆するように外ケース24が設けられる。
温度センサチップ6は、複数の赤外線検知素子(赤外線センサ)を面上に配置したもので構成されている。各赤外線センサは、赤外線を受け付けたことにより発生する温度上昇に基づいて検知対象物の温度情報を検知する。
図4は、温度センサチップ6における赤外線検知素子の配置の一例を示す図である。温度センサチップ6は、例えば図4に示すように、縦横に4×4個で配置された赤外線センサからなっている。各センサには、例えば、0から15までの番地が割り当てられており、この番地によって各センサの面上の位置関係が把握されている。
このように、番地によって管理された複数のセンサを面上に配置することによって、上記検知可能範囲にある検知対象物の表面温度を2次元で取得することができる。例えば、図2に示すとおり、ユーザの手が検知可能範囲内において移動すれば、手の表面温度を検知するセンサの位置の違いによって、その移動を検知することができる。
次に、上述のように温度センサチップ6から得られた温度情報を用いてジェスチャ認識処理を行うジェスチャ認識装置の機能的構成について説明する。
図5は、本発明の実施形態におけるジェスチャ認識装置1の要部構成を示すブロック図である。図5に示すとおり、ジェスチャ認識装置1は、温度センサチップ6と信号処理部7とを含むセンサ部2と、センサ部2を含む各部を統括制御する入力制御部3と、記憶部4および一時記憶部8と、コネクタ部5とを含む構成となっている。
信号処理部7は、温度センサチップ6の各センサが受け付ける赤外線から得られた赤外線信号を取得し、信号増幅の処理などを行うものである。信号処理部7は、例えば、特定用途向け集積回路(ASIC;Application Specific Integrated Circuit)などで実現される。
本実施形態では、信号処理部7は、信号選択部13と信号増幅部14とを備えている。
信号選択部13は、温度センサチップ6からの赤外線信号を選択的に取得するものである。具体的には、信号選択部13は、入力制御部3の制御にしたがって、特定の番地の赤外線センサからの赤外線信号を選択的に取得することができる。
信号増幅部14は、信号選択部13によって取得された赤外線信号を、入力制御部3においてデジタル処理可能なように増幅し、入力制御部3に供給するものである。
このようにして信号処理部7によって取得され、処理された赤外線信号は、入力制御部3においてデジタル化されて、温度情報として利用される。
入力制御部3は、ジェスチャ認識装置1の各部の動作を統括制御するものであり、マイクロコンピュータなどで実現される。あるいは、入力制御部3の機能は、スマートフォン100本体の主制御部が備える構成であってもよい。この場合、スマートフォン100自体が本発明のジェスチャ認識装置1として機能する。
入力制御部3は、信号処理部7から供給された赤外線信号をアナログ信号からデジタル信号に変換するAD変換部12と、コネクタ部5を介して、スマートフォン100本体の主制御部と通信する通信制御部11と、デジタル化された温度情報を用いてジェスチャ認識処理を実行するデータ処理部10とを備えている。機能ブロックとしてのデータ処理部10の構成と動作については別図を参照しながら後に詳述する。
コネクタ部5は、ジェスチャ認識装置1とスマートフォン100の主制御部とを電気的にかつ通信可能に接続するものである。データ処理部10がジェスチャを認識した結果は、通信制御部11およびコネクタ部5を介して、スマートフォン100本体の主制御部に供給される。反対に、スマートフォン100が現在何のアプリケーションを起動中であるのかなどのスマートフォン100の状態に関する情報は、スマートフォン100の主制御部から供給される。
一時記憶部8は、ジェスチャ認識装置1が実行する各種処理の過程で、演算に使用するデータおよび演算結果等を一時的に記憶するいわゆるワーキングメモリである。
記憶部4は、入力制御部3が実行する(1)制御プログラム、(2)OSプログラム、(3)入力制御部3が、ジェスチャ認識装置1が有する各種機能を実行するためのアプリケーションプログラム、および、(4)該アプリケーションプログラムを実行するときに読み出す各種データを記憶するものである。特に、記憶部4は、ジェスチャ認識装置1がジェスチャ認識処理を実行する際に読み出す各種プログラム、データを記憶する。
このように、ジェスチャ認識装置1において、入力制御部3のデータ処理部10が、温度センサチップ6から取得された温度情報に基づいて、対象物(ユーザの手など)の動きをジェスチャとして認識し、通信制御部11がこの認識結果をスマートフォン100に対する入力として、スマートフォン100本体に供給する。これに応じて、スマートフォン100は、認識されたジェスチャに割り当てられた動作を実行することができる。
すなわち、ジェスチャ認識装置1は、スマートフォン100の非接触型の入力装置として機能することができる。
〔データ処理部の構成〕
図1は、ジェスチャ認識装置1のデータ処理部10の要部構成の詳細を示すブロック図である。
データ処理部10は、機能ブロックとして、少なくとも、温度情報取得部30、座標配置部31、変化量算出部32、および、ジェスチャ認識部34を備える構成となっている。データ処理部10は、さらに、重心決定部33を備えていることが好ましい。また、データ処理部10は、さらに、マスク選択部35、および、ばらつき算出部36を備えていてもよい。
そして、記憶部4は、データ処理部10が識別すべきジェスチャのパターンを記憶するためのジェスチャパターン記憶部40を少なくとも含んでいる。記憶部4は、さらに、マスク記憶部41、および、基準値記憶部42を含んでいてもよい。
上述したデータ処理部10の各機能ブロックは、MPU(micro processing unit)またはCPU(central processing unit)などの中央演算処理装置が、ROM(read only memory)、NVRAM(non-Volatile random access memory)等で実現された記憶装置(記憶部4)に記憶されているプログラムをRAM(random access memory)(一時記憶部8)等に読み出して実行することで実現できる。
温度情報取得部30は、デジタル変換された温度情報d1を、AD変換部12から取得するものである。本実施形態では、温度情報d1は、各センサが検知した温度の値に、0〜15番地までの各センサの番地が対応付けられたデータ構造となっている。本実施形態では、温度情報取得部30は、温度センサチップ6の各センサによってリアルタイムで検知された温度情報d1を、一定時間間隔(例えば、0.5秒ごと)に取得して一時記憶部8に随時格納する。このとき、温度情報取得部30は、検知されたタイミングを識別するタイミング情報T(i=0、1、2、・・・、n)を、取得する温度情報d1に関連付けておく。
座標配置部31は、各センサから取得した温度情報を、各センサの配置に対応するように2次元座標上にプロットするものである。本実施形態では、0番地から15番地までの、4×4=16個のセンサの配置に対応するように、各センサから取得した温度情報を、XY座標系にプロットする。
図6は、座標配置部31が各センサからの温度をXY座標系にプロットした後の温度情報のデータ構造を模式的に示す図である。
例えば、図4に示すとおりに、温度センサチップ6において、0〜15番地の16個の赤外線センサが、縦横4×4個になるように配置されている場合、座標配置部31は、温度センサチップ6の左下端を原点とし、同じく、XY座標系の左下端を原点として、各センサの温度をプロットする。
具体的には、12番地のセンサが検知した温度を、(X,Y)=(1,1)の位置にプロットし、その右隣の13番地のセンサの温度を、(X,Y)=(2,1)の位置にプロットする。座標配置部31は、以降のセンサについても同様に、センサの実際の配置に対応するように、温度をXY座標系にプロットする。最終的に、最右上の3番地のセンサの温度は、(X,Y)=(4,4)の位置にプロットされる。
このようにXY座標系にプロットされた温度情報は、タイミング情報Tと関連付けて一時記憶部8に格納される。図7は、XY座標系にプロットされた温度情報の具体例を示す図である。図7には、タイミングTからTまでの間に取得された温度情報のそれぞれについてXY座標系が作成された例を示している。XY座標系の16個のセルに格納されている二桁の数字は、各センサが検知した温度(ここでは、単位は、℃)を示している。
変化量算出部32は、所定の閾値と、上述のように各センサから取得された実際の温度とを比較して、温度変化あるいは検知対象物(手、指など)の有無を判定するものである。さらに、所定の基準値と実際の温度とを比較して、各センサの検知温度の変化量を算出するものである。
変化量算出部32は、所定の閾値と比較して、各センサの温度が対象物の温度を検知しているのか否かを判断する。例えば、検知対象物としてヒトの手を検知したい場合、ヒトの体温として想定し得る下限値(場合によっては上限値でもよい)を閾値として設定する。ここでは、33℃と設定されているものとする。
変化量算出部32は、各センサの温度を閾値33℃と比較して、33℃以上の温度が検知されたセンサを、手を検知したセンサとして認識する。つまり、手を検知したセンサの位置を確認すれば、それを、そのまま手が存在する位置として扱うことが可能である。
上記閾値は、目的の検知対象物の性質を考慮して、該対象物を特定するために有効な温度が適宜設定されればよい。設定された閾値は、あらかじめ基準値記憶部42に記憶されており、変化量算出部32によって必要に応じて読み出される。
図8は、各検知タイミングにおける、スマートフォン100と手との位置関係と、当該タイミングにおいて検知、取得された温度情報との関係を示す図である。図8に示すとおり、タイミングTにおいて、手がセンサ部2の検知範囲の左端に位置しているとする。この場合、座標配置部31は、図8に示す、タイミングTが関連付けられたXY座標系を生成する。変化量算出部32は、XY座標系の各座標位置に格納されている温度と、閾値33℃とを比較して、閾値以上の温度の座標位置を特定し、これを手の領域として特定する。変化量算出部32は、図8に示す例では、上記手の実際の位置と同様に、XY座標系においても、左端の領域(網点の領域)を、手の領域として特定している。次に、タイミングT2において、手がスマートフォン100(センサ部2)の正面まで移動したとする。この場合、座標配置部31は、タイミングT2が関連付けられたXY座標系を生成する(図8)。そして、変化量算出部32は、XY座標系の全面(網点の領域)を、手の領域として特定する。そして、タイミングT3において、手がさらに移動して、上記検知範囲の右端まで移動したとする。この場合、座標配置部31は、図8に示す、タイミングT3が関連付けられたXY座標系を生成する。変化量算出部32は、閾値33℃以上である右端の領域(網点の領域)を、手の領域として特定する。
さらに、変化量算出部32は、実際に検知された温度と基準値との差分を、変化量ΔTとして算出する。変化量算出部32は、各番地(座標位置)の温度に関して、変化量ΔT(X,Y)をそれぞれ算出する。
ここで、基準値は、上述の対象物を検知するための閾値と同じであってもよいし、対象物が何もないときの環境温度を考慮して適切な値が定められてもよい。本実施形態では、スマートフォン100の周囲の環境温度が25℃であることから、基準値が25℃とあらかじめ定められているものとする。この規定の基準値は、基準値記憶部42に記憶されており、変化量算出部32によって必要に応じて読み出される。
なお、この基準値は、動的に更新される構成であってもよい。例えば、温度センサチップ6によって温度が随時測定され、変化量が大きく変動することなく一定時間経過したとする。このとき、データ処理部10の図示しない平均値算出部が、この期間に測定された温度の平均値を算出し、これを、基準値として基準値記憶部42に格納してもよい。
また、変化量算出部32は、各セルの番地ごとに求めた変化量ΔT(X,Y)をすべて合算して、タイミングTにおけるXY座標系の変化量ΔT(X,Y)の合計(以下、SUM)を求める。具体的には、本実施形態では、変化量算出部32は、次式、
SUM=ΔT(1,1)+ΔT(1,2)+ΔT(1,3)+ΔT(1,4)+ΔT(2,1)+ΔT(2,2)+ΔT(2,3)+ΔT(2,4)+ΔT(3,1)+ΔT(3,2)+ΔT(3,3)+ΔT(3,4)+ΔT(4,1)+ΔT(4,2)+ΔT(4,3)+ΔT(4,4)
を計算する。
これにより、タイミングTにおける、検出範囲(図2の破線枠内)に生じた全体の変化量(SUM)が明らかになる。
変化量算出部32は、上述のように各セルの番地ごとに求めた変化量ΔT(X,Y)およびその合計SUMを、タイミングTに関連付けて、XY座標系にプロットして、一時記憶部8に格納する。
変化量算出部32によって求められた変化量ΔTを参照することにより、どのタイミングでどの位置に温度の変化が見られたのかを把握することができる。また、変化量ΔTおよびSUMは、ジェスチャ認識対象物の有無や、対象物の領域(変化量が大きい領域)の重心の座標位置(Gx,Gy)を判断するために後述の各機能ブロックによって読み出され、用いられる。
さらに、変化量算出部32は、各センサから取得された温度情報に基づいて、いつのタイミングからいつのタイミングまでを、ユーザの操作期間(ユーザがスマートフォン100に対して入力を行おうとして意図的に手を動かしている期間)として認識すればよいのかを判断することが好ましい。
ユーザが操作している期間を判断する方法のいくつかについて具体的に説明すると以下のとおりである。
第1の方法は、基準値記憶部42に記憶されている閾値を用いる方法である。変化量算出部32は、あるタイミングにおけるXY座標系にプロットされた各温度と閾値(例えば、33℃)とを比較して、33℃以上を検出したセンサが2個以上ある場合に、変化あり(操作開始)と判断する。そして、33℃以上を検出したセンサが2個以上ある期間を操作期間として判断することができる。
第2の方法は、検知タイミングごとに求めたXY座標系全体の変化量SUMおよび基準値記憶部42に記憶されている基準値を用いる方法である。変化量算出部32は、基準値をTa℃としたとき、(35℃−Ta℃)×2を変化量の閾値と定め、SUMが、(35℃−Ta℃)×2以上である場合に、変化あり(操作開始)と判断する。そして、SUMが、(35℃−Ta℃)×2以上である期間を操作期間として判断することができる。
上記構成によれば、変化量算出部32によって操作期間と判断された期間の温度情報のみに限定して以降のジェスチャ認識処理をすすめることができ、処理にかける情報量を減らすことによって、ジェスチャ認識装置1の処理効率の向上と、処理負荷の低減を実現することができる。
重心決定部33は、各センサの変化量ΔTおよびSUMに基づいて、XY座標系において変化が認められた領域、具体的には、手が検知されるなどして温度上昇があった変化領域(図8の網点の領域)の重心を決定するものである。重心決定部33は、変化量ΔTおよびSUMを参照しながら、以下の手順にしたがって、変化領域の重心Gの座標(Gx,Gy)を決定する。
重心決定部33は、重心GのX座標(Gx)を求める。Gxは、各座標位置の変化量ΔTに、各座標位置のX座標に応じた係数をかけたものを合計し、これを、上記SUMで割ることによって算出される。具体的には、重心決定部33は、次式、
Gx={(ΔT(1,1)+ΔT(1,2)+ΔT(1,3)+ΔT(1,4))×1+(ΔT(2,1)+ΔT(2,2)+ΔT(2,3)+ΔT(2,4))×2+(ΔT(3,1)+ΔT(3,2)+ΔT(3,3)+ΔT(3,4))×3+(ΔT(4,1)+ΔT(4,2)+ΔT(4,3)+ΔT(4,4))×4}÷SUM
を計算する。
また、重心決定部33は、重心GのY座標(Gy)を求める。Gyは、各座標位置の変化量ΔTに、各座標位置のY座標に応じた係数をかけたものを合計し、これを、上記SUMで割ることによって算出される。具体的には、重心決定部33は、次式、
Gy={(ΔT(1,1)+ΔT(2,1)+ΔT(3,1)+ΔT(4,1))×1+(ΔT(1,2)+ΔT(2,2)+ΔT(3,2)+ΔT(4,2))×2+(ΔT(1,3)+ΔT(2,3)+ΔT(3,3)+ΔT(4,3))×3+(ΔT(1,4)+ΔT(2,4)+ΔT(3,4)+ΔT(4,4))×4}÷SUM
を計算する。
重心決定部33は、上述のようにして求めたタイミングTにおける変化領域の重心Gの座標(Gx,Gy)を、タイミングTに関連付けて一時記憶部8に格納する。重心決定部33は、座標配置部31が生成したXY座標系に、重心G(Gx,Gy)をプロットしてもよい。
図9は、図8に示すタイミングT〜Tの期間について、変化量算出部32によって生成された情報と、重心決定部33によって生成された情報の具体例を示す図である。
変化量算出部32は、タイミングTの温度情報(図8のXY座標系T)を取得し、各センサの温度と基準値25℃との差分を算出して、各センサの変化量ΔTの値をプロットする。このプロットの結果を、図9のXY座標系Tに示す。同様に、図9のXY座標系T、Tは、それぞれ、図8に示すタイミングT、Tの温度情報から、変化量ΔTの値を求めたものを示している。
そして、変化量算出部32は、さらに、図9のXY座標系Tに基づいて、タイミングTにおける全体の変化量SUMを「105」と算出する。同様に、タイミングTにおける全体の変化量SUMを「168」と算出し、タイミングTにおける全体の変化量SUMを「84」と算出する。
続いて、重心決定部33は、上述のようにして求められた各センサの変化量ΔTとSUMとを用いて、変化領域(図8の網点の領域)の重心Gを決定する。図9に示す例では、重心決定部33は、タイミングTにおける重心Gの座標(Gx,Gy)を、(1.8,2.5)と決定し、タイミングTにおける重心Gの座標(Gx,Gy)を、(2.5,2.5)と決定し、タイミングTにおける重心Gの座標(Gx,Gy)を、(3.5,2.5)と決定する。
この重心Gの位置を追尾すれば、対象物(手)がいつのタイミングでどのように動いたのかを後の工程で認識することができる。
以上のように、検知タイミングごとに、変化領域の重心Gの座標を特定することにより、変化領域(手)の移動の軌跡を少ない計算量で求めることが可能となるので、重心決定部33の構成および重心を決定する方法を採用することは、処理効率の向上および処理負荷の低減の観点から好ましい。
なお、対象物(手)のジェスチャを認識するために、手の移動の軌跡を追跡する必要があるが、移動軌跡を追跡する方法として、上述した重心を決定し、重心を追跡する方法は、ほんの一例であり、本発明の構成はこれに限定されない。
ジェスチャ認識部34は、対象物の位置を追跡して、対象物の移動の軌跡に応じて該対象物の動きをジェスチャとして認識するものである。本実施形態では、具体的には、重心決定部33によって決定された対象物の重心の位置を追跡して、重心の軌跡を特定し、特定した重心の軌跡に応じて対象物のジェスチャを識別する。
図10は、ジェスチャ認識部34が重心の軌跡を特定した結果の具体例を示す図である。なお、図10に示した重心の軌跡は、ジェスチャ認識部34が特定する軌跡の一例を説明のために具体的に記載したものであって、実際にはこのような軌跡は、ユーザが目視可能なように提示されるわけではない。
図10に示すとおり、図9に示すタイミングT〜Tのそれぞれの重心を、1つの座標系にプロットすれば、重心の移動の軌跡が明らかになる。
ジェスチャ認識部34は、操作期間の開始タイミングTから、・・・、T、T、T、・・・、そして、操作期間の終了タイミングTまでの重心を追跡し、その動きを認識する。図10に示す例では、T1の位置からT3の位置にかけて、重心が左から右へ移動している。したがって、ジェスチャ認識部34は、「左から右へ移動」というジェスチャが行われたと認識することができる。ジェスチャ認識部34は、重心の軌跡に応じて、「右から左へ移動」、「上から下へ移動」、「下から上へ移動」、「時計回りに移動」、「反時計回りに移動」などの各種ジェスチャを識別することができる。
さらに、本発明のジェスチャ認識装置1によれば、ジェスチャ認識部34は、上述のX軸方向またはY軸方向の動きのみではなく、Z軸方向の動きを検知し、これをジェスチャとして識別することが可能である。
図11は、各検知タイミングにおける、スマートフォン100と手との位置関係と、当該タイミングにおいて検知、取得された温度情報との関係を示す図である。図11に示すとおり、タイミングTにおいて、手がセンサ部2の検知範囲の最も遠くに位置しているとする。この場合、座標配置部31は、図11に示すとおり、タイミングTが関連付けられたXY座標系を生成する。手は、スマートフォン100のセンサ部2からZ軸上の遠い位置にあるため、センサ部2の温度センサチップ6の面において小さく捉えられる。そのため、温度センサチップ6の全面ではなく、局所において変化領域(網掛けの領域)が特定される。
一方、タイミングTにおいて、手が、タイミングTのときよりも、スマートフォン100に近い位置あるとする。この場合、座標配置部31は、図11に示すとおり、タイミングTが関連付けられたXY座標系を生成する。手は、スマートフォン100のセンサ部2からZ軸上の近い位置にあるため、温度センサチップ6の面において大きく捉えられる。図11に示す例では、温度センサチップ6の全面において大きく捉えられる。そのため、温度センサチップ6の全面において変化領域が特定される。
つまり、変化領域の面積が大きい(閾値33℃以上のセンサの数が多い)ほど、対象物がスマートフォン100の近くに位置し、変化領域の面積が小さい(閾値33℃以上のセンサの数が少ない)ほど、対象物がスマートフォン100から遠くに位置していると判断することができる。
したがって、ジェスチャ認識部34は、検知タイミングごとに推移する、変化領域の面積の増減に応じて、対象物のZ軸方向の動きを追跡し、ジェスチャを識別する。具体的には、ジェスチャ認識部34は、変化領域の面積の増減に応じて、「手を近づける」、または、「手を遠ざける」などの各種ジェスチャを識別することができる。
本実施形態では、記憶部4は、ジェスチャパターン記憶部40を備え、ここに、あらかじめ定められたジェスチャのいくつかのパターンを記憶させている。ジェスチャ認識部34は、重心の軌跡、または、変化領域の増減が、ジェスチャパターン記憶部40に記憶されているどのジェスチャパターンに合致するのかを判断して、ジェスチャを識別する。
図12は、ジェスチャパターン記憶部40に記憶されているジェスチャパターンの一例を示す図である。
図12に示すとおり、ジェスチャパターン記憶部40には、ジェスチャ認識部34が認識し得るいくつかのジェスチャパターンが記憶されている。本実施形態では、これらのジェスチャを識別するためのジェスチャIDが、各ジェスチャパターンに対応付けて記憶されている。
例えば、ジェスチャ認識部34は、図10に示す重心の軌跡にしたがって、対象物のジェスチャを「左から右へ移動」であると認識した場合には、「左から右へ移動」のジェスチャを示すジェスチャID「00」を、認識結果d2として、通信制御部11に出力する(図1参照)。
認識結果d2は、コネクタ部5を介してスマートフォン100本体(の主制御部)へ入力される。スマートフォン100の主制御部は、ジェスチャID「00」が入力されたことに応じて、ジェスチャID「00」に割り当てられている動作を実行する。
なお、図12に示すジェスチャのパターンは一例であって、本発明を限定するものではない。本発明のジェスチャ認識部34は、様々な対象物の動きのパターン(例えば、斜め方向の動きなど)を、図12に示すジェスチャ以外のジェスチャとして認識してもよい。
〔ジェスチャ認識処理フロー〕
図13は、本発明のジェスチャ認識装置1が備えるデータ処理部10の各部が実行するジェスチャ認識処理の流れを示すフローチャートである。図14は、ジェスチャ認識部34によって実行されるジェスチャ認識処理の流れを詳細に示すフローチャートである。
本実施形態では、所定期間中の所定の検知タイミング(T、T、T、・・・、T)にて、センサ部2が対象物の温度情報を検知し、随時、データ処理部10に供給している構成を想定している。
まず、所定の検知タイミングに到達したとき、温度情報取得部30は、検知タイミングTを取得する(S101)。そして、取得したタイミングTに関連付けられた温度情報d1を、温度センサチップ6から取得する(S102)。座標配置部31は、取得された温度情報d1に含まれるセンサごとの温度を、各センサの配置と対応するXY座標系にプロットする(S103)。そして、座標配置部31は、S103のようにして生成したデータを、取得したタイミングTに関連付けて一時記憶部8に格納する(S104)。
変化量算出部32は、閾値(例えば、33℃)と、XY座標系の各座標位置にプロットされた温度とを比較して、33℃以上を検知したセンサが2個以上あるか否かを判定する(S105)。2個以上ある場合(S105においてYES)、変化量算出部32は、当該タイミングTにおいて、対象物(手)が検知範囲に存在し、タイミングTの時点はユーザが操作している期間に含まれると判断する。そして、変化量算出部32は、各座標位置の温度の変化量ΔTをそれぞれ算出し、全座標位置の変化量ΔTを合計してSUMを算出する(S106)。続いて、重心決定部33は、変化量ΔTおよびSUMに基づいて、手の温度を検知したセンサの領域、すなわち変化領域における重心Gの座標(Gx,Gy)を決定する(S107)。
重心決定部33は、決定した重心を、S104にて保存されているXY座標系にプロットし、変化量算出部32は、XY座標系に変化量ΔTおよび変化領域をプロットするとともに、SUMを関連付けて一時記憶部8に保存する(S108)。
一方、33℃以上を検知したセンサが2個以上ない場合には(S105においてNO)、変化量算出部32は、当該タイミングTにおいて、対象物(手)が検知範囲に存在しておらず、タイミングTの時点ではユーザは入力操作を行っていないと判断する。そして、S106〜S108の処理を省略する。
データ処理部10は、ジェスチャ認識を行う所定期間が終了していなければ、すなわち、処理されていない温度情報d1がセンサ部2から供給されていれば(S109においてNO)、タイミングTのiを1つインクリメントし(S110)、その次の検知タイミングにおける温度情報d1に関して、S102〜S108の処理を繰り返す。
そして、タイミングTがTに到達し、供給されたすべての温度情報d1について処理が完了すれば(S109においてYES)、続いて、ジェスチャ認識部34は、一時記憶部8に格納されたデータに基づいて、検知された手の動きに対応するジェスチャを認識する(S111)。具体的には、上記所定期間(T〜T)における重心位置を追跡して、あるいは、変化領域の面積の増減に応じて、ジェスチャパターン記憶部40に記憶されているジェスチャパターンの中から、合致するジェスチャを特定する。
ジェスチャ認識部34は、特定したジェスチャを示すジェスチャIDを、認識結果d2として通信制御部11に出力する(S112)。
ジェスチャ認識部34がS111において実行するジェスチャ認識処理の流れを図14を参照しながら詳細に説明すると以下のとおりである。
まず、ジェスチャ認識部34は、検知タイミングTごとに決定された重心座標(Gx,Gy)に基づいて、手の重心の移動軌跡を取得する(S201)。
ここで、重心の移動距離の長さが十分であれば(S202においてYES)、ジェスチャ認識部34は、手がX軸方向またはY軸方向に動いたものと判断し、重心の移動軌跡および移動方向を特定する(S203)。
重心の移動方向が、左右方向(X軸方向)であれば(S204において1)、ジェスチャ認識部34は、移動軌跡に基づいて、手が左から右へ移動したのか否かを判断する(S205)。手が左から右へ移動したと判断した場合(S205においてYES)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「00:左から右へ移動」と認識する(S206)。一方、手が右から左へ移動したと判断した場合(S205においてNO)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「01:右から左へ移動」と認識する(S207)。
あるいは、重心の移動方向が、上下方向(Y軸方向)であれば(S204において2)、ジェスチャ認識部34は、手が上から下へ移動したのか否かを判断する(S208)。手が上から下へ移動したと判断した場合(S208においてYES)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「10:上から下へ移動」と認識する(S209)。一方、手が下から上へ移動したと判断した場合(S208においてNO)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「11:下から上へ移動」と認識する(S210)。
あるいは、重心の移動軌跡が円を描くように回転している場合は(S204において3)、ジェスチャ認識部34は、手が時計回りに移動したのか否かを判断する(S211)。手が時計回りに移動した判断した場合(S211においてYES)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「30:時計回りに移動」と認識する(S212)。一方、手が反時計回りに移動したと判断した場合(S211においてNO)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「31:反時計回りに移動」と認識する(S213)。
一方、S202において、重心の移動距離の長さが十分でなければ(S202においてNO)、ジェスチャ認識部34は、手がX軸方向にも、Y軸方向にも動かなかったと判断する。そして、Z軸方向に動いたか否かを判断するための処理へ移行する。すなわち、ジェスチャ認識部34は、検知タイミングTごとに、変化量算出部32によって特定された変化領域の面積(センサの数)を取得する(S214)。
ジェスチャ認識部34は、時間の経過に伴って、変化領域の面積が増加傾向にあるのか否かを判断する(S215)。面積が増加傾向にある場合(S215においてYES)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「20:手を近づける」と認識する(S216)。一方、面積が減少傾向にある場合(S215においてNO)、ジェスチャ認識部34は、この期間に入力されたジェスチャを「21:手を遠ざける」と認識する(S217)。
なお、図14に示す例では、重心の移動も、面積の増減も無いケースについて説明していないが、このようなケースは、ジェスチャ認識装置1が対象物を誤認識したか、あるいは、対象物の動きが十分でなく、ジェスチャ認識装置1が対象物が静止しているかのように認識してしまったときに起こりうる。そこで、このようなケースでは、ジェスチャ認識装置1は、スマートフォン100を介して、基準値や閾値を変更するようにユーザに促すメッセージを表示したり、ジェスチャ認識に失敗した旨を示すエラー表示を行ったり、ジェスチャの再入力を促すメッセージを表示したりすることが好ましい。
以上、これまで述べたように、本発明のジェスチャ認識装置1は、対象物の温度を検知するセンサ部2と、上述の一連のジェスチャ認識処理を実行するデータ処理部10とを備えていることによって、スマートフォン100の非接触型の入力装置を実現することができる。
上記構成および方法によれば、ジェスチャ認識装置1において、対象物の動きを検知するための情報は、複数配置された赤外線センサより温度情報として取得される。そして、データ処理部10は、データ量が膨大な画像データを扱わずとも、温度情報のみで対象物の動きを分析することができ、ジェスチャを認識することが可能となる。結果として、入力装置としてのジェスチャ認識装置1において、処理効率の向上と、処理負荷の低減を実現することができる。つまり、反応速度が速い入力装置を実現することが可能である。
また、本発明のジェスチャ認識装置1は、赤外線センサを用いて対象物の表面温度を取得することにより、対象物の温度と周囲の環境温度との違いによって、対象物の動きを検知するものである。したがって、光学系カメラで対象物を撮像してジェスチャを認識する構成では、暗所での使用が制限されるが、本発明のジェスチャ認識装置1は、暗所でも制限なく入力装置として機能させることが可能である。
また、光学系カメラを用いたジェスチャ認識では、対象物と背景とのテクスチャに大きな差がない場合に、正確に対象物の位置、形状などを認識できず、ジェスチャの誤認識が増えるという問題がある。一方、本発明のジェスチャ認識装置1は、周囲環境温度と異なる表面温度を持つ対象物(手など)を、温度情報に基づいて検知するので、テクスチャの類似による誤認識の問題は起こり得ない。
本発明のジェスチャ認識装置1を、プロジェクタ機能を有する電子機器の入力装置として用いれば、本発明のジェスチャ認識装置1の利点を最大限に享受することができる。
例えば、電子機器のプロジェクタ機能を使って、電子機器に記憶されている写真などのスライドを、離れた所にあるスクリーンに映写してプレゼンテーションを行うというユースケースが想定される。プロジェクタ機能は、一般に、屋内を暗くして利用されるため、従来の光学系カメラを用いたジェスチャ認識の入力装置を、プレゼンテーション中に機能させることは困難であった。しかし、本発明のジェスチャ認識装置1によれば、暗所でも非接触型の入力装置として機能させることが可能であるため、電子機器から離れた位置でプレゼンを行うユーザも、電子機器に触れることなく、スライドの操作を容易に行うことが可能である。
〔変形例〕
上述の実施形態では、ジェスチャ認識装置1は、温度センサチップ6の全面(すべての赤外線センサ)から取得された温度情報を処理して、ジェスチャを認識していた。本発明のジェスチャ認識装置1は、この構成に限らず、温度センサチップ6に配置されている赤外線センサからの温度情報を部分的に用いてジェスチャ認識を行ってもよい。
赤外線センサを選択的に用いる構成にすれば、処理すべき情報量を減らして処理速度を早めることができるとともに、特定のジェスチャの認識する場合に、その認識の精度を高めることが可能である。
スマートフォン100は、多機能で、様々なアプリケーションを実行するように構成されており、そのアプリケーションに対する指示入力形式は、アプリケーションによって様々である。例えば、書籍閲覧アプリケーションや、スライドショー表示アプリケーションであれば、ページを繰るために左右方向の動きを伴う指示入力が行われるであろうし、Web閲覧アプリケーションであれば、画面をスクロールさせるために、上下方向の動きを伴う指示入力が行われるであろう。また、音楽再生アプリケーションにおいては、ボリュームの調節のために、ダイヤルを多段階的に回す動きの入力が行われると想定される。
そこで、本発明のジェスチャ認識装置1は、スマートフォン100が何のアプリケーションを起動中であるのかに基づいて、認識すべきジェスチャを限定し、その限定されたジェスチャの認識に適したジェスチャ認識処理を効率よく実行することができる。そのための構成として、ジェスチャ認識装置1は以下を備えている。
すなわち、図1に示すとおり、本変形例におけるジェスチャ認識装置1のデータ処理部10は、上述の構成に加えて、さらに、マスク選択部35を備えている。
マスク選択部35は、スマートフォン100本体が起動中のアプリケーションの種類に応じて、認識すべきジェスチャの種類を限定し、その限定されたジェスチャの認識に適したマスクを選択するものである。
本発明におけるマスクとは、温度センサチップ6に配置された赤外線センサのうち、どの赤外線センサからの温度をジェスチャ認識処理に利用するのか、あるいは利用しないのかを示すパターン情報のことである。
マスクは、どのようなジェスチャを認識したいのかに応じて、そのジェスチャを効率よくかつ精度よく認識できるように、あらかじめ設計され、複数種類用意されている。本変形例では、図1に示すとおり、ジェスチャ認識装置1の記憶部4は、マスク記憶部41を備える。マスク記憶部41は、複数種類のマスクを記憶しており、アプリケーションごとに参照すべきマスクが対応付けられている。
図15は、マスクの具体例を示す図である。
図15に示すシーン50のように、手を左右方向に動かすジェスチャに特化すれば、温度センサチップ6における赤外線センサ配置面のうち、左端と右端のセンサでタイミングよく手を検知できればジェスチャを効率よく正確に認識することができる。そこで、左右の動きを認識するための「左右検出用マスク」は、配置面の左端の列および右端の列を有効とし、中央の列を無効とするように設計されている。
図15に示すマスクにおいて、斜線の領域が有効、白地の領域が無効を示している。図4に示す4×4の配置を例に挙げて具体的に説明すると、「左右検出用マスク」は、0、4、8、12番地、および、3、7、11、15番地の赤外線センサからの温度情報だけを利用するように設計されている。
シーン51のように、手を上下方向に動かすジェスチャに特化すれば、上記配置面のうち、上端と下端のセンサでタイミングよく手を検知できればジェスチャを効率よく正確に認識できる。そこで、上下の動きを認識するための「上下検出用マスク」は、配置面の上端の行および下端の行を有効とし、中央の行を無効とするように設計されている。
図15に示すとおり、「上下検出用マスク」は、例えば、0〜3番地、および、12〜15番地の赤外線センサからの温度情報だけを利用するように設計されている。
シーン52のように、手を回す動きのジェスチャに特化すれば、上記配置面のうち、外側のセンサで手を検知すれば、回転のジェスチャを効率よく正確に認識できる。そこで、回転を認識するための「回転検出用マスク」は、例えば、0〜4、7、8、11〜15番地の赤外線センサからの温度情報だけを利用するように設計されている。
このように、シーン(検出したい手の動き)に応じたマスクが、マスク記憶部41に複数種類記憶されている。図16は、マスク記憶部41に記憶されているマスクのデータ構造の一例を示す図である。
図16に示すとおり、マスク記憶部41には、複数種類のマスクが記憶されているとともに、アプリケーションごとに参照すべきマスクの対応付けが記憶されている。
これにより、マスク選択部35は、スマートフォン100が起動中のアプリケーションに応じて、常に、最適なマスクを選択することができる。より詳細には、マスク選択部35は、コネクタ部5および通信制御部11を介して、スマートフォン100の主制御部から、スマートフォン100本体が現在どのアプリケーションを起動中なのかを示す状態情報d3を取得する(図1を参照)。マスク選択部35は、状態情報d3に基づいて起動中のアプリケーションを特定する。そして、マスク選択部35は、マスク記憶部41を参照して、特定したアプリケーションに対応するマスクを選択する。
アプリケーションが特定されれば、そのアプリケーションでは、どのような動きがジェスチャとして入力されるのかが限定される。例えば、Web閲覧アプリケーションでは、上下方向の動きが入力されるし、書籍閲覧アプリケーションでは、左右方向の動きが入力されるし、音楽再生アプリケーションでは、回転の動きが入力される。
例えば、図16に示す例では、TVアプリケーション(TV_Channel)には、左右検出用マスクが対応付けられている。つまり、マスク選択部35は、スマートフォン100がTVアプリケーションを起動中であると判断した場合に、図15に示す左右検出用マスクを選択する。
マスク選択部35が左右検出用マスクを選択すれば、データ処理部10の各部は、左右方向の動きを効率よくかつ正確に認識できるようになる。具体的には、温度情報取得部30は、有効な領域の赤外線センサからのみ温度を取得し、以降の各部もそれぞれの処理を、有効な領域に格納された温度に対してのみ実行する。
TVアプリケーションの利用中は、ユーザは、チャンネル変更のために専ら左右方向のジェスチャを入力するため、左右方向の動きを効率よくかつ正確に認識できるようにすれば、スマートフォン100の操作性を向上させることが可能となる。
なお、アプリケーションとマスクとの対応付けに関して、図16に示す例は、発明を説明するための一例であって、発明の構成を限定する意図はない。アプリケーションに対しては、そのアプリケーションに必要なジェスチャを考慮して、あらかじめ最適なマスクとの対応付けを行っておく。
以上のとおり、マスク選択部35が選択するマスクは、上述の各動きに特化して、それを効率よくかつ精度よくジェスチャ認識するために設計されたマスクである。よって、アプリケーションごとに適したマスクを選択することにより、そのアプリケーションに対して入力される操作ジェスチャを効率よくかつ精度よく認識することが可能となる。
なお、マスク選択部35は、選択したマスクに基づいて、有効なセンサの番地を特定し、有効な番地のセンサからのみ赤外線信号を取得するように信号処理部7の信号選択部13に指示する構成であってもよい。あるいは、マスク選択部35は、有効な番地のセンサからの温度のみを処理するように、データ処理部10の各部に指示する構成であってもよい。
≪実施形態2≫
上述の実施形態では、温度センサチップ6を4×4の赤外線センサを配置した構成とした場合に、そこから得られた4×4の温度情報を処理してジェスチャを認識するジェスチャ認識装置1の構成について説明した。
しかし、本発明のジェスチャ認識装置1の構成は、上記に限定されない。温度センサチップ6の赤外線センサの配置は、如何様にも構成することができる。例えば、正方形に限らず長方形や円形状に赤外線センサを配置することも可能である。また、配置する赤外線センサの数を増やして温度センサチップ6を高解像度にしてもよい。この構成によれば、温度情報を用いるだけで、複数の対象物(例えば、両手の動作)を検知したり、対象物の位置だけでなく形状を精細に検知したりできる。このため、画像処理技術のように演算量が膨大にならずに、より多様なジェスチャを識別することが可能となり、電子機器に対して複雑な操作入力を行うことが可能となる。
以下では、温度センサチップ6は、8×8=64個の赤外線センサが配置されて構成されているものとし、ジェスチャ認識装置1が、64個のセンサの温度を処理して両手によるジェスチャを認識する場合のジェスチャ認識装置1の構成、および、ジェスチャ認識方法について説明する。なお、説明の便宜上、上述の実施形態1にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
〔ジェスチャ認識装置の構成〕
本実施形態におけるジェスチャ認識装置1において、データ処理部10は、図1に示すとおり、さらに、ばらつき算出部36を備える構成である。
ばらつき算出部36は、座標配置部31、変化量算出部32、重心決定部33が生成した各種情報に基づいて、変化領域のばらつきを算出するものである。ばらつき算出部36は、変化領域のX軸方向のばらつき(σx)と、Y軸方向のばらつき(σy)とを算出する。
まず、実施形態1で説明したのと同様の方法で、座標配置部31が、8×8のXY座標系に温度情報をプロットする。図17は、座標配置部31が各センサからの温度をXY座標系にプロットした後の温度情報のデータ構造を模式的に示す図である。
次に、変化量算出部32が、検知タイミングごとに得られたXY座標系の温度情報に基づいて、検知タイミングごとの変化領域を特定する。図18は、各検知タイミングにおける、両手の位置関係と、当該タイミングにおいて取得された温度情報および変化領域との関係を示す図である。
両手が互いに近くにあるタイミングTにおいては、XY座標系Tに示すように、変化領域(網点の領域)は中央にまとまっている。一方、両手が水平方向に離れたタイミングTにおいては、XY座標系Tに示すように、変化領域は、左右方向にばらついている。
続いて、変化量算出部32は、座標位置ごとに変化量ΔTを求め、さらに、SUMを求める。重心決定部33は、変化量ΔTおよびSUMに基づいて、検知タイミングごとに重心Gの座標位置(Gx,Gy)を決定する。図19は、図18に示すタイミングT、Tのタイミングにおいて、変化量算出部32によって生成された情報と、重心決定部33によって生成された情報と、ばらつき算出部36によって生成された情報との具体例を示す図である。
図19に示すとおり、各座標位置の変化量ΔT(X,Y)と、変化量の合計SUMと、変化領域の重心Gの座標位置(Gx,Gy)とが求まると、これらの値に基づいて、ばらつき算出部36は、変化領域のばらつきを算出する。具体的には、ばらつき算出部36は、変化領域のX軸方向のばらつき(σx)と、Y軸方向のばらつき(σy)とを、それぞれ、次式に基づいて算出する。次式とは、すなわち、
σx={(ΔT(1,1)+ΔT(1,2)+ΔT(1,3)+ΔT(1,4)+ΔT(1,5)+ΔT(1,6)+ΔT(1,7)+ΔT(1,8))×(1−Gx)+(ΔT(2,1)+ΔT(2,2)+ΔT(2,3)+ΔT(2,4)+ΔT(2,5)+ΔT(2,6)+ΔT(2,7)+ΔT(2,8))×(2−Gx)+(ΔT(3,1)+ΔT(3,2)+ΔT(3,3)+ΔT(3,4)+ΔT(3,5)+ΔT(3,6)+ΔT(3,7)+ΔT(3,8))×(3−Gx)+(ΔT(4,1)+ΔT(4,2)+ΔT(4,3)+ΔT(4,4)+ΔT(4,5)+ΔT(4,6)+ΔT(4,7)+ΔT(4,8))×(4−Gx)+(ΔT(5,1)+ΔT(5,2)+ΔT(5,3)+ΔT(5,4)+ΔT(5,5)+ΔT(5,6)+ΔT(5,7)+ΔT(5,8))×(5−Gx)+(ΔT(6,1)+ΔT(6,2)+ΔT(6,3)+ΔT(6,4)+ΔT(6,5)+ΔT(6,6)+ΔT(6,7)+ΔT(6,8))×(6−Gx)+(ΔT(7,1)+ΔT(7,2)+ΔT(7,3)+ΔT(7,4)+ΔT(7,5)+ΔT(7,6)+ΔT(7,7)+ΔT(7,8))×(7−Gx)+(ΔT(8,1)+ΔT(8,2)+ΔT(8,3)+ΔT(8,4)+ΔT(8,5)+ΔT(8,6)+ΔT(8,7)+ΔT(8,8))×(8−Gx)}÷SUM
、および、
σy={(ΔT(1,1)+ΔT(2,1)+ΔT(3,1)+ΔT(4,1)+ΔT(5,1)+ΔT(6,1)+ΔT(7,1)+ΔT(8,1))×(1−Gy)+(ΔT(1,2)+ΔT(2,2)+ΔT(3,2)+ΔT(4,2)+ΔT(5,2)+ΔT(6,2)+ΔT(7,2)+ΔT(8,2))×(2−Gy)+(ΔT(1,3)+ΔT(2,3)+ΔT(3,3)+ΔT(4,3)+ΔT(5,3)+ΔT(6,3)+ΔT(7,3)+ΔT(8,3))×(3−Gy)+(ΔT(1,4)+ΔT(2,4)+ΔT(3,4)+ΔT(4,4)+ΔT(5,4)+ΔT(6,4)+ΔT(7,4)+ΔT(8,4))×(4−Gy)+(ΔT(1,5)+ΔT(2,5)+ΔT(3,5)+ΔT(4,5)+ΔT(5,5)+ΔT(6,5)+ΔT(7,5)+ΔT(8,5))×(5−Gy)+(ΔT(1,6)+ΔT(2,6)+ΔT(3,6)+ΔT(4,6)+ΔT(5,6)+ΔT(6,6)+ΔT(7,6)+ΔT(8,6))×(6−Gy)+(ΔT(1,7)+ΔT(2,7)+ΔT(3,7)+ΔT(4,7)+ΔT(5,7)+ΔT(6,7)+ΔT(7,7)+ΔT(8,7))×(7−Gy)+(ΔT(1,8)+ΔT(2,8)+ΔT(3,8)+ΔT(4,8)+ΔT(5,8)+ΔT(6,8)+ΔT(7,8)+ΔT(8,8))×(8−Gy)}÷SUM
である。
図19に示す例では、上述の式にしたがって、ばらつき算出部36は、タイミングTにおけるX軸方向のばらつきσxを、2.394、Y軸方向のばらつきσyを1.222と算出する。また、タイミングTにおけるばらつきσxを、6.125、ばらつきσyを1.018と算出する。
最後に、ジェスチャ認識部34は、ばらつき算出部36が算出した検知タイミングごとのばらつきの推移と、変化領域の面積の推移に基づいて、両手のジェスチャを認識する。実施形態1と同様に、両手のジェスチャパターンも、ジェスチャパターン記憶部40に記憶されている。
図20は、本実施形態におけるジェスチャパターン記憶部40に記憶されているジェスチャパターンの一例を示す図である。
図20に示すとおり、ジェスチャパターン記憶部40には、図12に示すジェスチャパターンに加えて、さらに、ジェスチャ認識部34が認識し得るいくつかの両手のジェスチャパターンが記憶されている。両手を使えば、ユーザは、両手の距離を変える(両手を閉じたり、広げたりする)ことによって、様々な種類のジェスチャを装置に入力することができる。
本実施形態では、ジェスチャ認識部34は、ばらつき算出部36が算出したばらつきを参照して、両手がどの方向で閉じられたり、広げられたりしたのかを識別することができる。
ジェスチャ認識部34は、具体的には、図19の例にあるように、時間の経過に伴って、X軸方向のばらつきの値が増加した場合、両手が水平方向に広げられたと判断する。逆に、ばらつきの値が減少した場合、両手が広げられた状態から、水平方向に閉じられたと判断する。同様に、時間の経過に伴って、Y軸方向のばらつきの値が増加した場合、両手が垂直方向に広げられたと判断する。逆に、ばらつきの値が減少した場合、両手が縦に広げられた状態から、垂直方向に閉じられたと判断する。
また、ジェスチャ認識部34は、X軸方向のばらつきと、Y軸方向のばらつきとがともに、増加した場合には、両手が斜め方向に広げられたか、あるいは、両手間の距離はそのままで両手がZ軸方向にて装置に近づけられた可能性があると判断する。この場合、ジェスチャ認識部34は、さらに、変化領域の面積が増加したか否かによって、斜め方向に広げられたのか、近づけられたのかを判断する。
また、ジェスチャ認識部34は、X軸方向のばらつきと、Y軸方向のばらつきとがともに、減少した場合には、両手が斜め方向に閉じられたか、あるいは、両手間の距離はそのままで両手がZ軸方向にて装置から遠ざけられた可能性があると判断する。この場合、ジェスチャ認識部34は、さらに、変化領域の面積が減少したか否かによって、斜め方向に閉じられたのか、遠ざけられたのかを判断する。
また、ジェスチャ認識部34は、X軸方向のばらつきと、Y軸方向のばらつきとがともに、あまり変化しなかった場合には、両手の距離は変更されず、また、Z軸方向にも動かされていないと判断する。そこで、この場合には、実施形態1の片手のジェスチャ認識手順が適用できるので、図14に示す手順にて、両手がX軸方向またはY軸方向にてどのように動いたのかを判断する。
〔ジェスチャ認識処理フロー〕
図21は、本実施形態のジェスチャ認識部34によって実行されるジェスチャ認識処理の流れを詳細に示すフローチャートである。
まず、図13を参照しながら、本実施形態におけるデータ処理部10の各部が実行するジェスチャ認識処理の流れを説明すると、実施形態1と異なる点は、S107にて、さらに、ばらつき算出部36が、検知タイミングごとに、ばらつきσX、σYを求める点と、S108にて、さらに、タイミングTに関連付けて、ばらつきσX、σYが保存される点である。
本実施形態におけるS111のジェスチャ認識処理について、図21を参照しながら説明する。
ジェスチャ認識部34は、まず、所定期間(タイミングT〜T)のタイミングTごとに、ばらつきσX、σYを取得する(S301)。そして、ばらつきの値が時間の経過とともにどのように変化するのか(増加、減少、または、変化なし)を判断する。
ジェスチャ認識部34は、ばらつきσXに変化がある場合(S302においてNO)、ばらつきσXが、増加傾向にあるのか減少傾向にあるのかを判断する(S303)。
ジェスチャ認識部34は、ばらつきσXが、減少傾向にある場合(S303においてNO)、次に、ばらつきσYが減少傾向にあるのか否かを判断する(S304)。
ばらつきσYが減少傾向にない場合、すなわち、ばらつきσYが増加傾向にあるか、または、変化なしの場合には(S304においてNO)、X軸方向の動きを基準にして、上記所定期間に検知された動きを「03:両手を左右方向に閉じる」ジェスチャとして認識する(S305)。一方、ばらつきσYが減少傾向にある場合、すなわち、ばらつきσX、σYがともに減少傾向にある場合には(S304においてYES)、ジェスチャ認識部34は、タイミングTごとに、変化領域の面積を取得する(S306)。そして、変化領域の面積が、時間の経過とともに減少傾向にあるのか否かを判断する(S307)。面積が減少傾向にない場合、つまり、面積に変化がない場合には(S307においてNO)、上記所定期間に検知された動きを「43:両手を斜め方向に閉じる」ジェスチャとして認識する(S308)。一方、面積が減少傾向にある場合(S307においてYES)、上記所定期間に検知された動きを「21:手を遠ざける」ジェスチャとして認識する(S309)。
一方、ジェスチャ認識部34は、ばらつきσXが、増加傾向にある場合(S303においてYES)、次に、ばらつきσYが増加傾向にあるのか否かを判断する(S310)。
ばらつきσYが増加傾向にない場合、すなわち、ばらつきσYが減少傾向にある、または、変化なしの場合には(S310においてNO)、X軸方向の動きを基準にして、上記所定期間に検知された動きを「02:両手を左右方向に広げる」ジェスチャとして認識する(S311)。一方、ばらつきσYが増加傾向にある場合、すなわち、ばらつきσX、σYがともに増加傾向にある場合には(S310においてYES)、ジェスチャ認識部34は、タイミングTごとに、変化領域の面積を取得する(S312)。そして、変化領域の面積が、時間の経過とともに増加傾向にあるのか否かを判断する(S313)。面積が増加傾向にない場合、つまり、面積に変化がない場合には(S313においてNO)、上記所定期間に検知された動きを「42:両手を斜め方向に広げる」ジェスチャとして認識する(S314)。一方、面積が増加傾向にある場合(S313においてYES)、上記所定期間に検知された動きを「20:手を近づける」ジェスチャとして認識する(S315)。
一方、ジェスチャ認識部34は、S302において、ばらつきσXに増減が認められない場合には(S302においてYES)、次に、ばらつきσYの増減の有無を判断する(S316)。
ジェスチャ認識部34は、ばらつきσYに変化がない場合、すなわち、ばらつきσX、σYともに増減がない場合には(S316においてYES)、図14に示す、重心の軌跡に基づくジェスチャ認識処理を実行してジェスチャを認識する。一方、ジェスチャ認識部34は、ばらつきσYに変化がある場合(S316においてNO)、ばらつきσYが、増加傾向にあるのか減少傾向にあるのかを判断する(S317)。
ジェスチャ認識部34は、ばらつきσYが、減少傾向にある場合(S317においてNO)、上記所定期間に検知された動きを「13:両手を上下方向に閉じる」ジェスチャとして認識する(S318)。一方、ばらつきσYが、増加傾向にある場合(S317においてYES)、ジェスチャ認識部34は、上記所定期間に検知された動きを「12:両手を上下方向に広げる」ジェスチャとして認識する(S319)。
上記構成および方法によれば、実施形態1と比較して、より高解像度の温度情報d1を取得することによって、複数の対象物、あるいは、対象物の形状まで認識することが可能となる。したがって、画像処理技術のように膨大な情報量を扱わなくても、さらに、多種多様な操作入力を行える入力装置を実現することが可能となる。
なお上述の実施形態では、ジェスチャ認識装置1が両手の開閉ジェスチャを認識する構成について説明したが、本発明のジェスチャ認識装置1の構成はこれに限定されない。本発明のジェスチャ認識装置1は、上記手順に基づいて、片手の指の開閉ジェスチャを認識することができる。
〔変形例2〕
上述の各実施形態では、センサ部2とジェスチャ認識装置1(スマートフォン100)とを一体に構成した場合について説明したが、本発明のジェスチャ認識装置1の構成はこれに限定されない。
例えば、センサ部2をジェスチャ認識装置1とは別に遠隔に設置し、適宜の通信手段を用いてセンサ部2の検知信号をジェスチャ認識装置1に取得させる構成も本発明に含まれる。すなわち、ジェスチャ認識装置1は、センサ部2を備えていなくてもよく、この場合には、センサ部2から検知信号を取得する適宜の通信手段を備えていればよい。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
最後に、ジェスチャ認識装置1の各ブロック、特に、データ処理部10の各部は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
すなわち、ジェスチャ認識装置1は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ認識装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ認識装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
また、ジェスチャ認識装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明のジェスチャ認識装置は、スマートフォン、携帯電話、PDA、携帯型ゲーム機、電子辞書、電子手帳、デジタルカメラ、デジタルビデオカメラ、パーソナルコンピュータ、ノート型パソコン、テレビ、録画生成装置、家庭用ゲーム機などの各種電子機器に搭載することができ、これらの電子機器の入力機能を担うことができる。特に、プロジェクタ機能を備えた電子機器の入力装置として、非常に効果的に用いることが可能である。
1 ジェスチャ認識装置
2 センサ部
3 入力制御部
4 記憶部
5 コネクタ部
6 温度センサチップ(温度センサ)
7 信号処理部
8 一時記憶部
10 データ処理部
11 通信制御部
12 AD変換部
13 信号選択部
14 信号増幅部
21 基板
22 中ケース
23 レンズ
24 外ケース
30 温度情報取得部
31 座標配置部
32 変化量算出部(変化領域特定手段/変化量算出手段)
33 重心決定部(重心決定手段)
34 ジェスチャ認識部(ジェスチャ認識手段)
35 マスク選択部(マスク選択手段)
36 ばらつき算出部(ばらつき算出手段)
40 ジェスチャパターン記憶部
41 マスク記憶部
42 基準値記憶部
100 スマートフォン

Claims (8)

  1. 複数の赤外線センサが配置されて構成された温度センサと、
    上記温度センサの赤外線センサそれぞれが検知した温度に基づいて、温度変化が生じた変化領域を、手を示す領域として特定する変化領域特定手段と、
    上記変化領域特定手段が特定した変化領域の移動軌跡を特定して、手のジェスチャを認識するジェスチャ認識手段と
    上記複数の赤外線センサにおける有効無効の配置パターンを示すマスクを、自装置が接続する電子機器のアプリケーションの種類に関連付けて記憶するマスク記憶部と、
    上記電子機器が起動中のアプリケーションに関連付けられているマスクを上記マスク記憶部から選択するマスク選択手段と
    を備え
    上記変化領域特定手段は、
    上記マスク選択手段によって選択されたマスクが有効とする赤外線センサによって検知された温度のみに基づいて変化領域を特定する
    ことを特徴とするジェスチャ認識装置。
  2. 上記変化領域特定手段によって特定された変化領域の重心を決定する重心決定手段を備え、
    上記ジェスチャ認識手段は、上記重心の位置を追跡することにより上記移動軌跡を特定することを特徴とする請求項1に記載のジェスチャ認識装置。
  3. 赤外線センサそれぞれが検知したそれぞれの温度と、所定の基準温度とを比較することにより、赤外線センサごとに温度変化量を算出する変化量算出手段を備え、
    上記重心決定手段は、赤外線センサごとに得られた上記温度変化量に基づいて、上記変化領域の重心を決定することを特徴とする請求項2に記載のジェスチャ認識装置。
  4. 上記変化領域特定手段によって特定された変化領域のばらつきを算出するばらつき算出手段を備え、
    上記ジェスチャ認識手段は、時間の経過に伴う上記ばらつきの増減に基づいて、ジェスチャを認識することを特徴とする請求項1からまでのいずれか1項に記載のジェスチャ認識装置。
  5. 上記ジェスチャ認識手段は、
    上記変化領域のばらつきが増加する場合に、両手または指が広がる方向に動いたと認識し、上記変化領域のばらつきが減少する場合に、両手または指が閉じる方向に動いたと認識することを特徴とする請求項に記載のジェスチャ認識装置。
  6. 複数の赤外線センサが配置されて構成された温度センサから赤外線センサごとの温度を取得する温度取得ステップと、
    上記温度取得ステップにて取得した、上記赤外線センサそれぞれが検知した温度に基づいて、温度変化が生じた変化領域を、手を示す領域として特定する変化領域特定ステップと、
    上記変化領域特定ステップにて特定した変化領域の移動軌跡を特定して、手のジェスチャを認識するジェスチャ認識ステップと
    上記複数の赤外線センサにおける有効無効の配置パターンを示すマスクを自装置が接続する電子機器のアプリケーションの種類に関連付けて記憶するマスク記憶部から、上記電子機器が起動中のアプリケーションに関連付けられているマスクを選択するマスク選択ステップと
    を含み、
    上記変化領域特定ステップでは、上記マスク選択ステップにて選択されたマスクが有効とする赤外線センサによって検知された温度のみに基づいて変化領域を特定する
    ことを特徴とするジェスチャ認識方法。
  7. コンピュータを、請求項1からまでのいずれか1項に記載のジェスチャ認識装置の各手段として機能させるための制御プログラム。
  8. 請求項に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2010273691A 2010-12-08 2010-12-08 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体 Active JP5617581B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010273691A JP5617581B2 (ja) 2010-12-08 2010-12-08 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体
KR1020110118799A KR101302910B1 (ko) 2010-12-08 2011-11-15 제스처 인식 장치, 제스처 인식 방법, 제어 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
EP11189599.1A EP2463751A3 (en) 2010-12-08 2011-11-17 Gesture recognition apparatus, gesture recognition method, control program, and recording medium
US13/299,378 US20120146903A1 (en) 2010-12-08 2011-11-18 Gesture recognition apparatus, gesture recognition method, control program, and recording medium
CN201110386488.2A CN102591452B (zh) 2010-12-08 2011-11-29 姿势识别装置、姿势识别方法、控制程序以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010273691A JP5617581B2 (ja) 2010-12-08 2010-12-08 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体

Publications (2)

Publication Number Publication Date
JP2012123617A JP2012123617A (ja) 2012-06-28
JP5617581B2 true JP5617581B2 (ja) 2014-11-05

Family

ID=45442819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010273691A Active JP5617581B2 (ja) 2010-12-08 2010-12-08 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体

Country Status (5)

Country Link
US (1) US20120146903A1 (ja)
EP (1) EP2463751A3 (ja)
JP (1) JP5617581B2 (ja)
KR (1) KR101302910B1 (ja)
CN (1) CN102591452B (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
JP2013080413A (ja) * 2011-10-05 2013-05-02 Sony Corp 入力装置、入力認識方法
US9587804B2 (en) 2012-05-07 2017-03-07 Chia Ming Chen Light control systems and methods
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
CN103513782A (zh) * 2012-06-20 2014-01-15 鸿富锦精密工业(深圳)有限公司 鼠标
DE102012107739B4 (de) 2012-08-22 2023-11-02 Avago Technologies International Sales Pte. Ltd. Sensorsystem zum Erkennen einer Bewegung einer Infrarotlichtquelle
JP6019947B2 (ja) * 2012-08-31 2016-11-02 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US20140340498A1 (en) * 2012-12-20 2014-11-20 Google Inc. Using distance between objects in touchless gestural interfaces
TWI536259B (zh) * 2012-12-28 2016-06-01 緯創資通股份有限公司 手勢辨識模組及手勢辨識方法
TWI512544B (zh) * 2013-01-07 2015-12-11 Eminent Electronic Technology Corp Ltd 電子裝置的控制方法
US9300645B1 (en) * 2013-03-14 2016-03-29 Ip Holdings, Inc. Mobile IO input and output for smartphones, tablet, and wireless devices including touch screen, voice, pen, and gestures
KR101370263B1 (ko) * 2013-03-15 2014-03-04 전자부품연구원 제스처 기반의 전자기기 리모트 제어 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
DE102014106661B4 (de) 2013-05-24 2023-11-16 Avago Technologies International Sales Pte. Ltd. Schalterbetätigungseinrichtung, mobiles Gerät und Verfahren zum Betätigen eines Schalters durch eine nicht-taktile Translationsgeste
CN103279191B (zh) * 2013-06-18 2016-01-06 北京科技大学 一种基于手势识别技术的3d虚拟交互方法及系统
CN105518576B (zh) * 2013-06-28 2019-04-16 陈家铭 根据手势的控制装置操作
US9717118B2 (en) 2013-07-16 2017-07-25 Chia Ming Chen Light control systems and methods
US9477314B2 (en) * 2013-07-16 2016-10-25 Google Technology Holdings LLC Method and apparatus for selecting between multiple gesture recognition systems
WO2015034453A1 (en) * 2013-09-06 2015-03-12 Latypov Ray Providing a wide angle view image
KR20150028619A (ko) * 2013-09-06 2015-03-16 현대자동차주식회사 오인식 저감형 모션 인식 장치 및 그 방법
CN103472752B (zh) * 2013-09-17 2015-10-28 于金田 一种红外多档位手势识别开关及手势识别方法
CN105027031A (zh) * 2013-12-19 2015-11-04 谷歌公司 使用在无触摸手势界面中的物体之间的距离
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
US9600993B2 (en) * 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
WO2015120913A1 (en) 2014-02-17 2015-08-20 Metaio Gmbh Method and device for detecting a touch between a first object and a second object
GB2524247B (en) * 2014-03-17 2021-04-21 Sony Interactive Entertainment Europe Ltd Control of data processing
EP3146262A4 (en) 2014-04-29 2018-03-14 Chia Ming Chen Light control systems and methods
US9639167B2 (en) 2014-05-30 2017-05-02 Eminent Electronic Technology Corp. Ltd. Control method of electronic apparatus having non-contact gesture sensitive region
JP6401268B2 (ja) * 2014-06-30 2018-10-10 クラリオン株式会社 非接触操作検出装置
US9990043B2 (en) * 2014-07-09 2018-06-05 Atheer Labs, Inc. Gesture recognition systems and devices for low and no light conditions
JP5682899B1 (ja) * 2014-08-04 2015-03-11 求 藤川 撮像装置、撮像装置の制御方法、調整装置、調整装置の制御方法、設定装置、設定装置の制御方法、装置プログラム
CN105571045A (zh) * 2014-10-10 2016-05-11 青岛海尔空调电子有限公司 一种体感识别方法、装置及空调控制器
CN104392204B (zh) * 2014-10-21 2018-03-09 北京智谷睿拓技术服务有限公司 姿态识别方法及姿态识别装置
DE102014116292A1 (de) * 2014-11-07 2016-05-12 Visteon Global Technologies, Inc. System zur Informationsübertragung in einem Kraftfahrzeug
CN104460987B (zh) * 2014-11-07 2019-05-28 惠州Tcl移动通信有限公司 可通过非接触手势操控的电子设备
KR101608906B1 (ko) * 2014-11-17 2016-04-04 구본훈 스마트 레이저 폰 제어 방법
KR101609263B1 (ko) * 2014-12-04 2016-04-05 현대모비스 주식회사 적외선을 이용하여 제스쳐를 인식하기 위한 장치 및 그 방법
US9338627B1 (en) 2015-01-28 2016-05-10 Arati P Singh Portable device for indicating emergency events
JP6519075B2 (ja) 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6603024B2 (ja) 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6561400B2 (ja) * 2015-02-10 2019-08-21 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6534011B2 (ja) 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
WO2016168082A1 (en) * 2015-04-13 2016-10-20 Pi Konrad David Method and system for hand washing compliance
CN107533363B (zh) 2015-04-17 2020-06-30 三菱电机株式会社 手势识别装置、手势识别方法以及信息处理装置
DE102015006613A1 (de) * 2015-05-21 2016-11-24 Audi Ag Bediensystem und Verfahren zum Betreiben eines Bediensystems für ein Kraftfahrzeug
JP6614831B2 (ja) * 2015-07-10 2019-12-04 キヤノン株式会社 情報処理装置、及び、情報処理装置の電力状態を制御する方法
KR102457724B1 (ko) * 2015-09-22 2022-10-24 삼성전자주식회사 영상 처리를 수행하기 위한 방법 및 그 전자 장치
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
CN107199888A (zh) * 2016-03-18 2017-09-26 松下知识产权经营株式会社 姿势输入系统和姿势输入方法
CN105867685A (zh) * 2016-03-28 2016-08-17 乐视控股(北京)有限公司 终端设备的控制方法和装置
US10338686B2 (en) * 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
CN107330351A (zh) * 2016-04-28 2017-11-07 中华映管股份有限公司 姿态行为检测方法
CN105975073B (zh) * 2016-04-29 2019-07-02 广东美的制冷设备有限公司 手势识别方法、手势识别装置和设备
CN106289555B (zh) * 2016-07-22 2018-09-18 京东方科技集团股份有限公司 显示基板
EP3494428A4 (en) 2016-08-02 2020-04-08 Atlas5D, Inc. SYSTEMS AND METHODS FOR IDENTIFYING PEOPLE AND / OR IDENTIFYING AND QUANTIFYING PAIN, FATIGUE, MOOD AND INTENTION WITH PRIVACY PROTECTION
JP2018530016A (ja) * 2016-08-30 2018-10-11 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Vr制御方法、装置及び電子機器、プログラム、及び記録媒体
CN106406640B (zh) * 2016-09-30 2019-07-26 维沃移动通信有限公司 一种触摸操作确定方法及移动终端
CN106527711A (zh) * 2016-11-07 2017-03-22 珠海市魅族科技有限公司 一种虚拟现实设备的控制方法及虚拟现实设备
CN106527712A (zh) * 2016-11-07 2017-03-22 珠海市魅族科技有限公司 一种虚拟现实设备的信息处理方法及虚拟现实设备
CN106775415A (zh) * 2016-12-28 2017-05-31 珠海市魅族科技有限公司 应用程序启动方法及系统
CN106650704B (zh) * 2017-01-10 2020-10-13 广东美的制冷设备有限公司 手势识别模组、手势识别方法、装置和用电设备
US10649555B2 (en) * 2017-09-28 2020-05-12 Htc Corporation Input interface device, control method and non-transitory computer-readable medium
JP7061883B2 (ja) * 2018-01-22 2022-05-02 マクセル株式会社 画像表示装置および画像表示方法
JP2019175414A (ja) * 2018-03-28 2019-10-10 株式会社東海理化電機製作所 ジェスチャ入力装置
WO2019241667A1 (en) * 2018-06-14 2019-12-19 Magic Leap, Inc. Augmented reality deep gesture network
CN109241932B (zh) * 2018-09-21 2021-07-06 长江师范学院 一种基于运动方差图相位特征的热红外人体动作识别方法
US10649539B1 (en) * 2019-03-05 2020-05-12 Motorola Mobility Llc Hand temperature compensation
US11450151B2 (en) * 2019-07-18 2022-09-20 Capital One Services, Llc Detecting attempts to defeat facial recognition
CN115877989A (zh) * 2022-11-14 2023-03-31 北京深光科技有限公司 触控识别方法、装置、电子设备及存储介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164923A (ja) * 1989-11-24 1991-07-16 Nec Corp 座標出力装置
JPH07288875A (ja) * 1994-04-14 1995-10-31 Matsushita Electric Ind Co Ltd 人体動作認識センサ及び非接触型操作装置
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
KR19980037590A (ko) * 1996-11-22 1998-08-05 김영귀 오디오의 기능 스위치 구조
JP2002083302A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
JP2002116859A (ja) * 2000-10-11 2002-04-19 Sony Corp 情報処理装置、命令認識処理方法及びプログラム格納媒体
US8608548B2 (en) * 2002-06-12 2013-12-17 Igt Intelligent wagering token and wagering token tracking techniques
JP2005047331A (ja) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd 制御装置
KR101114553B1 (ko) * 2003-11-18 2012-03-13 소니 주식회사 입력장치 및 입력방법과 전자기기
US7115871B1 (en) * 2005-08-25 2006-10-03 Inet Consulting Limited Company Field coverage configurable passive infrared radiation intrusion detection device
US8610670B2 (en) * 2006-08-31 2013-12-17 Japan Display West Inc. Imaging and display apparatus, information input apparatus, object detection medium, and object detection method
US9317124B2 (en) * 2006-09-28 2016-04-19 Nokia Technologies Oy Command input by hand gestures captured from camera
KR20080098763A (ko) * 2007-05-07 2008-11-12 삼성전자주식회사 사용자의 파지 여부에 따라 적응적으로 동작하는 영상기기및 그의 동작제어방법
JP5104150B2 (ja) 2007-09-14 2012-12-19 オムロン株式会社 検知装置および方法、並びにプログラム
US8416198B2 (en) * 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
TW200930015A (en) * 2007-12-26 2009-07-01 Htc Corp A user interface of portable device and operating method thereof
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
JP2009168647A (ja) 2008-01-17 2009-07-30 Omron Corp タッチセンサおよびタッチセンサの制御方法、並びにプログラム
CN101609362B (zh) * 2008-06-19 2011-07-20 大同股份有限公司 以视讯为基础的游标控制装置及其控制方法
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
TW201020856A (en) * 2008-11-25 2010-06-01 Asustek Comp Inc Electronic device of inputting touch free and input method thereof
JP5177075B2 (ja) * 2009-02-12 2013-04-03 ソニー株式会社 動作認識装置、動作認識方法、プログラム
KR20100095951A (ko) * 2009-02-23 2010-09-01 주식회사 팬택 휴대 전자기기 및 그것의 제어방법
JP5368134B2 (ja) 2009-02-25 2013-12-18 京セラ株式会社 携帯電子機器
US8212788B2 (en) * 2009-05-07 2012-07-03 Microsoft Corporation Touch input to modulate changeable parameter
US8304733B2 (en) * 2009-05-22 2012-11-06 Motorola Mobility Llc Sensing assembly for mobile device
US8669955B2 (en) * 2009-07-30 2014-03-11 Sharp Kabushiki Kaisha Portable display device, method of controlling portable display device, program, and recording medium
US8345022B2 (en) * 2009-12-08 2013-01-01 Getac Technology Corporation Linear compensation method of touch panel

Also Published As

Publication number Publication date
US20120146903A1 (en) 2012-06-14
CN102591452B (zh) 2014-12-31
JP2012123617A (ja) 2012-06-28
KR20120089992A (ko) 2012-08-16
EP2463751A2 (en) 2012-06-13
EP2463751A3 (en) 2014-06-18
CN102591452A (zh) 2012-07-18
KR101302910B1 (ko) 2013-09-06

Similar Documents

Publication Publication Date Title
JP5617581B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体
CN104054043B (zh) 可更换皮肤的触摸设备抓握模式
EP3196752B1 (en) Capacitive touch panel device, corresponding touch input detection method and computer program product
CN203178852U (zh) 保护盖和附件设备
CN102687100B (zh) 用于提供力敏感输入的用户接口方法和系统
KR102206054B1 (ko) 지문 처리 방법 및 그 전자 장치
CN103246412B (zh) 检测触摸的方法
JP5532300B2 (ja) タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
TWI543018B (zh) An input device, an input method, and storage medium
US8269842B2 (en) Camera gestures for user interface control
US20100315348A1 (en) Data entry-enhancing touch screen surface
US8897490B2 (en) Vision-based user interface and related method
WO2006036069A1 (en) Information processing system and method
US9536132B2 (en) Facilitating image capture and image review by visually impaired users
US9348466B2 (en) Touch discrimination using fisheye lens
CN102314301A (zh) 虚拟触控感应系统及方法
US20220019288A1 (en) Information processing apparatus, information processing method, and program
CN105874409A (zh) 信息处理系统、信息处理方法及程序
CN112486394A (zh) 信息处理方法、装置、电子设备及可读存储介质
KR20090116544A (ko) 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
CN104714736A (zh) 一种退出全屏锁定状态的控制方法及终端
KR20140103043A (ko) 전자 장치, 전자 장치를 동작하는 방법 및 컴퓨터 판독 가능한 기록 매체
JP2014056519A (ja) 携帯端末装置、誤操作判定方法、制御プログラムおよび記録媒体
WO2019134606A1 (zh) 终端的控制方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140901

R150 Certificate of patent or registration of utility model

Ref document number: 5617581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04