[go: up one dir, main page]

JP2013134549A - データ入力装置およびデータ入力方法 - Google Patents

データ入力装置およびデータ入力方法 Download PDF

Info

Publication number
JP2013134549A
JP2013134549A JP2011283156A JP2011283156A JP2013134549A JP 2013134549 A JP2013134549 A JP 2013134549A JP 2011283156 A JP2011283156 A JP 2011283156A JP 2011283156 A JP2011283156 A JP 2011283156A JP 2013134549 A JP2013134549 A JP 2013134549A
Authority
JP
Japan
Prior art keywords
distance information
data input
input area
distance
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011283156A
Other languages
English (en)
Inventor
Yasutaka Wakabayashi
保孝 若林
Tomoya Shimura
智哉 紫村
Ko Imai
巧 今井
Daisuke Murayama
大輔 村山
Kenichi Iwauchi
謙一 岩内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011283156A priority Critical patent/JP2013134549A/ja
Publication of JP2013134549A publication Critical patent/JP2013134549A/ja
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作者が様々な姿勢をとっていたり、様々な位置にいたりしても操作可能なデータ入力装置を提供すること。
【解決手段】距離情報を取得する距離情報取得部と、少なくとも距離情報に基づき、操作者の手の動作を検出し、検出した動作を示す情報を出力する動作検出部とを備えたデータ入力装置であって、動作検出部は、略水平な基準入力平面に対する手の動作を検出し、距離情報取得部は、当該データ入力装置の出力に応じた画像が表示される表示装置の表示面と略同一平面上に設置され、距離情報取得部が取得する距離情報は、当該距離情報取得部から、基準入力平面に対して鋭角の角度をなす方向の距離を示すことを特徴とする。
【選択図】図1

Description

本発明は、データ入力装置およびデータ入力方法に関する。
従来、パーソナルコンピュータをはじめとする様々な電子機器の操作には、キーボードやマウスといった物理的な入力装置が使用されてきたが、近年ではこれらの物理的入力装置を使用せずに機器を操作する手法が考案されている。
このような入力装置の一つとして、デジタルビデオカメラにより指先の位置検出を行い、そこを基準として仮想キーボードを設定し、指先の動きに応じて操作者が操作を意図した仮想キーを検出し、その仮想キーに対応するキーコードを発生する入力装置がある(特許文献1参照)。
また、投影面の状況に応じて生成したキーボード像を仮想キーボードとして投影面に投影し、2台以上の画像撮影手段により撮影データを解析することにより、操作者の操作による入力データを生成するデータ入力装置がある(特許文献2参照)。
また、手の領域と背景領域に分割し、様々な手及び指のジェスチャを認識することにより、クリック、選択、実行などの視覚ディスプレイを操作するためのコントロールパラメータを割り当てる視覚ディスプレイのためのバーチャルコントローラがある(特許文献3参照)。
特開2003−288156号公報 特開2008−123316号公報 特表2010−500645号公報
しかしながら、上述のような入力装置においては、操作者の姿勢や位置によっては、手の動作の認識が適切に行えず、機器操作が困難になることがあるというという問題がある。
本発明は、このような事情に鑑みてなされたもので、その目的は、操作者が様々な姿勢をとっていたり、様々な位置にいたりしても操作可能なデータ入力装置およびデータ入力方法を提供することにある。
(1)この発明は上述した課題を解決するためになされたもので、本発明の一態様は、距離情報を取得する距離情報取得部と、少なくとも前記距離情報に基づき、操作者の手の動作を検出し、検出した前記動作を示す情報を出力する動作検出部とを備えたデータ入力装置であって、前記動作検出部は、略水平な基準入力平面に対する手の動作を検出し、前記距離情報取得部は、当該データ入力装置の出力に応じた画像が表示される表示装置の表示面と略同一平面上に設置され、前記距離情報取得部が取得する前記距離情報は、当該距離情報取得部から、前記基準入力平面に対して鋭角の角度をなす方向の距離を示すことを特徴とする。
(2)また、本発明の他の態様は、上述のデータ入力装置であって、前記基準入力平面上に入力領域を設定する入力領域設定部を更に備え、前記動作検出部は、前記入力領域に対する手の動作を検出することを特徴とする。
(3)また、本発明の他の態様は、上述のデータ入力装置であって、前記入力領域設定部は、複数の前記入力領域を設定し、前記動作検出部は、前記複数の入力領域毎に、該入力領域に対する前記手の動作の検出を行うことを特徴とする。
(4)また、本発明の他の態様は、上述のデータ入力装置であって、前記動作検出部は、前記検出した動作を示す情報に加えて、該検出した動作が対象とした前記入力領域を示す情報を出力することを特徴とする。
(5)また、本発明の他の態様は、上述のいずれかのデータ入力装置であって、前記動作検出部は、前記設定した入力領域内に操作者の手があるか否かを検出し、前記検出結果を出力して、操作者に通知させることを特徴とする。
(6)また、本発明の他の態様は 上述のいずれかのデータ入力装置であって、前記入力領域における操作方向を判定する操作方向判定部を更に備え、前記操作方向判定部によって判定された方向に従い、前記動作検出部により検出された動作を判別する事を特徴とする。
(7)また、本発明の他の態様は、上述のいずれかのデータ入力装置であって、前記距離情報取得部は、複数のカメラを備え、前記複数のカメラが出力する画像間の視差を算出し、該視差を表す情報を、前記距離情報とすることを特徴とする。
(8)また、本発明の他の態様は、距離情報を取得する距離情報取得部を備えるデータ入力装置であって、当該データ入力装置の出力に応じた画像が表示される表示装置の表示面と略同一平面上に設置され、前記距離情報は、当該距離情報取得部から、前記基準入力平面に対して鋭角の角度をなす方向の距離を示すデータ入力装置におけるデータ入力方法であって、少なくとも前記距離情報に基づき、操作者の手の動作であって、略水平な基準入力平面に対する動作を検出し、検出した前記動作を示す情報を出力するステップを有することを特徴とする。
この発明によれば、操作者が様々な姿勢をとっていたり、様々な位置にいたりしても操作可能である。
本発明の第1の実施形態に係るテレビ会議システムの構成を示す概略ブロック図である。 本実施形態に係るカメラ配置について説明するための図である。 本実施形態に係る左右カメラ画像の例を示す図である。 本実施形態に係るブロックマッチング処理を説明する図である。 エピポーラ線を説明する図である。 本実施形態に係るウインドウ114を説明する図である。 本実施形態に係るウインドウ115を説明する図である。 本実施形態に係る距離情報の例を示す図である。 本実施形態に係る入力領域の設定方法を説明する図である。 本実施形態に係る入力領域対する動作を説明する図である。 本実施形態に係るカメラ画像と距離情報とを用いた動作検出を説明する図である。 本実施形態に係る操作者の位置の例を示す図である。 本実施形態に係るカメラ画像の別の例を示す図である。 本発明の第2の実施形態に係るタブレット端末の使用環境例を示す図である。 本実施形態に係るタブレット端末の構成を示す概略ブロック図である。 本実施形態に係るタブレット端末に表示するマーカーの例を示す図である。
(第1の実施形態)
本発明の第1の実施形態について、図面を参照しながら説明する。図1は、本発明の実施形態におけるテレビ会議システムの構成を示すブロック図である。図1に示すように、本実施形態におけるテレビ会議システム10は、表示装置101、データ入力装置100、操作者の動作に応じて表示装置101上の表示データを制御する表示制御部107を含んで構成される。本実施形態におけるデータ入力装置100は、表示装置101の上部に左右に並べて配置された2つのカメラ102、103、2つのカメラ画像から距離情報を算出する距離情報算出部104、カメラ画像と距離情報から操作者の動作を検知する領域を特定する入力領域設定部105、カメラ画像と距離情報を元に操作者の動作を検出する動作検出部106を含んで構成される。なお、カメラ102は、左側視点のカメラ(左カメラ)であり、カメラ103は、右側視点のカメラ(右カメラ)である。本実施形態では、カメラ102、103と距離情報算出部104とで、距離情報取得部を構成する。
図1では、会議用の机108があり、その机に向かって会議の参加者であるテレビ会議システム10の操作者111が2名存在する。机108の上面は、略水平であり、基準入力平面である。データ入力装置100は、まず2つのカメラ102、103から机108の机上を含む画像を取得する。この際、2つのカメラ102、103は、それぞれの光軸が平行になるように設置されているのに加え、光軸と基準入力平面との角度が鋭角となるように設置される。図2はこれを示した図であり、図1を横から見た図である。図中にはカメラ103のみが記載されているが、この奥にカメラ102が存在する。図2において、線L1は、カメラ102、103の光軸である。机108は水平に設置されており、その机上面にある基準入力平面は水平面である。このように水平面に対する光軸L1の角度が、鋭角である傾きAとなるようにカメラ102、103を設置している。このように設置する事により、図3に示すように斜め上方から机が存在する領域を撮影する事となる。これにより、図1のように会議の参加者が複数人である場合などでも、カメラ102、103が撮影したカメラ画像内で、各参加者の手が重なってしまうことを防ぐとともに、表示装置101と一体化して設置することも可能になり、テレビ会議システム10の可搬性を損なわないようにすることができる。
また、2つのカメラは表示装置101の表示面と略同一平面上に配置される。ここでの略同一平面とは、表示面に近い位置に設置する事を示しており、例えばアーム等により表示装置101に接続され、表示面より多少の距離をもっていても良い。また、ここでは表示装置101の上側に配置しているが、ディスプレイサイズの大きさや操作者の条件によっては、横など他の場所に設置しても良い。
図3は、カメラ102、103によるカメラ画像の例を示す図である。図3において画像G1は、左カメラであるカメラ102が撮影した画像であり、画像G2は、右カメラであるカメラ103が撮影した画像である。画像G1、G2中には、机108が映っている。画像G1、G2にそれぞれ記載されている黒丸は机の同一部分を示している。画像G1とG2とで視点位置が異なるため、この同一部分は、画像G1とG2とで異なる位置に撮影されている。この机の同一部分同士の横方向における座標の差分dが視差である。視差とは、視点位置の違いにより起こる、2つの画像における各画像内の対応点同士の位置ずれ量を示す。カメラ102、103によって撮影されたカメラ画像は、図1に示した距離情報算出部104へと送られ、距離算出部104はこれらの画像について視差を算出する。
ここで、距離算出部104による視差の算出方法について記載する。視差を算出する方法としては、公知の方法であるステレオマッチングを用いる。また、ステレオマッチングには、SAD(Sum of Absolute Differences)やSSD(Sum of Squared Difference)と呼ばれる手法があり、いずれの方法を用いてもよいが、本実施形態ではSADを用いる。
図4をもちいて、SADによるブロックマッチングを説明する。図4に示す左画像112と右画像113において、エピポーラ線は一致しているものとし、左右画像上の対応点は水平方向に同一ライン上にあるものとして、距離算出部104は対応点探索を行う。エピポーラ線とは、2つのカメラがあった場合に、図5に示すように空間中の特徴点119と、2つのカメラのレンズ中心117、118の3点によってできる平面(エピポーラ平面)120と、それぞれのカメラの画像平面121、122との交線が対応する線であり、図では123、124で示す点線となる。カメラの光軸が平行になるようにカメラを配置する平行配置の場合は、このエピポーラ線123,124は、同じ高さの水平な直線となる。このような場合、2つの画像において1ライン上で対応点探索を行えばよい。本実施形態において、2つのカメラ102、103は平行配置であるので、距離算出部104は、2つの画像で上下方向に同じ位置のライン同士で対応点探索を行えばよいこととなる。
図4に戻って、距離算出部104は、対応点探索を行う際に、左画像112上で視差を算出したい画素を中心に3画素×3画素のサイズを持つウインドウ114を設定する。ウインドウ114は、左画像112の右端からL画素の位置とする。右画像113において、このウインドウ114と同一ライン上で画像右端からL+d2の距離離れた位置のウインドウ115から、画像右端からLの位置にあるウインドウ116まで、1画素ずつウインドウの位置をずらしながら左画像のウインドウ114に対する相関値を計算することにより、対応点を特定する。
図6、図7は、それぞれウインドウ114、115を示しておりX、Xa0などXやXaに数値を付与した記号は、各画素における画素値(ここでは、G(緑)の輝度値)を示している。図6に示すように、ウインドウ114の各画素の画素値は、最上段の左側の画素から順に画素値X、X、X、次に真ん中の段の左側の画素から順に画素値X、X、X、次に最下段の左側の画素から順に画素値X、X、Xである。同様に、図7に示すように、ウインドウ115の各画素の画素値は、最上段の左側の画素から順に画素値Xa0、Xa1、Xa2、次に真ん中の段の左側の画素から順に画素値Xa3、Xa4、Xa5、次に最下段の左側の画素から順に画素値Xa6、Xa7、Xa8である。距離算出部104は、式(1)を用いて、ウインドウ114とウインドウ115の相関値であるSAD値を算出する。
距離算出部104は、ウインドウ114を固定したまま、右画像113上でウインドウ115を、ウインドウ116の位置まで移動させながら、SAD値を算出していく。そして、SAD値が最も小さくなったときのウインドウ115の中心をウインドウ114の中心画素に対する対応点とする。距離算出部104は、この対応点と、ウインドウ114の中心画素との間の距離を算出し、ウインドウ114の中心画素の視差とする。距離算出部104は、このような操作を、左画像112の全ての画素に対して行う事で、左画像112の視差マップを算出する。なお、視差マップとは、画像の各画素に対して視差を算出し、各画素における視差を示す値を画素値としたものである。
なお、ここでは、ウインドウ114、115のウインドウサイズは3画素×3画素としたが、3画素×5画素、5画素×5画素、9画素×9画素などより大きくてもよい。また、ウインドウの重心位置が中央からはずれるが4画素×4画素などの偶数のウインドウでもよく、これらのサイズに限定するものではない。探索範囲であるd2はカメラ基線長や被写体の距離などの条件に従い、自由に設定する事が可能である。また、探索方向もここではウインドウ115からウインドウ116の方向へ探索を行っているが、左画像112を基準に探索している為であり、この方向に限定するものではない。また、図6、図7にてX等の画素値はGの画素値としたが、R(赤)やB(青)など他の色のどれか一つや合計値、あるいは各画素の輝度値、またRGB3色全てを用いてもよく、これに限定されるものではない。
本実施形態における距離情報は、距離算出部104が算出した視差である。視差は、カメラからその光軸方向の距離が近いほど大きく、距離が遠いほど小さくなるため、カメラからの光軸方向の距離に対応した情報である。なお、視差はカメラの基線長などカメラパラメータを元に実際の距離に変換することも可能であり、距離算出部104で実際の距離に変換しても良いが、本実施形態では、距離に変換せず視差をそのまま距離情報として扱う。
左側視点のカメラ102のカメラ画像に対応する視差マップを画像で表した物を図8に示す。図8は、視差マップを示す画像であり、画素値が視差を表す。すなわち、視差が大きいほど画素値が大きくなっており、画像を表示した際の輝度が大きく明るく表示される。図8では、机108の手前が大きな画素値、奥が小さな画素値になっており、手前から奥側に向けて暗くなっている事がわかる。なお、机108の表面は、視差を検出できるように木目などの模様が描かれている方が望ましい。机108の表面が無地であり、SADによる視差算出でSAD値が最小となる対応点が複数検出され視差の検出が困難であるときは、カメラ画像内での机の左右の端について視差を検出し、これらの間を線形補間することで、視差を算出するようにしてもよい。机の左右端は背景がブロック内に映りこむことから、視差の算出が可能である為である。図1の距離算出部104は、左側視点のカメラ102のカメラ画像と、該カメラ画像に対応する視差マップ(距離情報)を入力領域設定部105へ送る。
入力領域設定部105は、テレビ会議システム10の操作者111による入力動作を検知する入力領域を操作者111ごとに設定する。入力領域設定部105は、設定した入力領域までの距離と、カメラ画像中での位置とを示す情報を、入力領域を示す情報として動作検出部106に出力する。以下に説明するように、本実施形態において、入力領域は机108上の矩形の領域であり、入力領域設定部105は、該矩形の領域の各頂点における視差と、カメラ画像中での座標とを、入力領域を示す情報として出力する。また、入力領域設定部105は入力領域を示す情報に加え、距離情報算出部104が出力した距離情報と、カメラ画像とを、そのまま動作検出部106に出力する。
図1に示すように、2名の操作者111がいる場合、操作者111それぞれの前面机108上に入力領域109、110を設定する。入力領域109、110は各操作者111が自由に設定する。テレビ会議システム10起動時に入力領域が未設定の場合は、入力領域設定部105は、表示制御部107を通して表示装置101に入力領域の設定を促す表示を行う。入力領域設定部105は、各操作者111が机108上を指で囲むようにして指定した領域を検出して、該領域を入力領域とする。
図9は、入力領域設定時のカメラ画像の例を示す図である。点線で示した手H1a、H2aが設定する入力領域109、110の開始位置であり、終了位置である手H2a、H2bまで動かしたときの指先が描く軌跡が、入力領域109、110の外縁となる。すなわち、手を動かしていくと、入力領域設定部105は、距離情報算出部104が出力したカメラ画像と距離情報から、時間方向に指先の動きを追従して、指先が描く軌跡を検出する。そして、入力領域設定部105は、該軌跡で囲まれた領域109、110を入力領域として設定する。
入力領域設定部105は、領域の設定入力開始と終了を明確にするために、開始時と終了時に例えば手をひらいて手のひらをカメラ102、103に向かってかざすといった特定の動作をトリガーとして検知するようにしてもよい。例えば、入力領域設定部105は、トリガーとなる動作を検知後、画像と距離情報から机108上に指が触れたことを検知した場合に、そこを入力領域の開始位置とする。そして、指を机上から離した位置までの軌跡を元に入力領域を設定し、終了の動作をトリガーとして入力領域の設定を終了する。これにより、意図しない動作を入力領域設定の動作として誤認識してしまう事を防止し、設定の信頼度を向上する事が出来る。なお、ここでは開始、終了共にトリガーとなる動作を検知する例を示したが、どちらか片方であっても良い。また、特定の動作はここに示した物に限らず、あらかじめ決められた時間(例えば3秒間)手を動かさないことをトリガーとする等の動作であってもよい。操作者111ごとに入力領域の設定を促す表示を行い、順次上記のような方法により設定を行ってもよい。
動作検出部106には、入力領域設定部105から入力領域を示す情報と、左カメラ画像と、距離情報(視差マップ)とが送られてくる。動作検出部106は、これらの情報を元に操作者111の動作を検出する。まず、動作検出部106は、入力領域設定部105で設定した入力領域109、110に操作者111の手があるか否かを判定する。動作検出部106は、入力領域109、あるいは入力領域110内部に手があると判定した場合、その動作を検出し、検出した動作を示す情報を表示制御部107へと送る。
動作検出部106が検出する動作と、検知結果として表示制御部107に出力する情報との組合せとしては、例えば、机108に指を接したままでの入力領域109、110内の移動と、該移動の移動方向および移動量を示すベクトルとがある。また、入力領域109、110内での指による机108上へのタップ(短い時間触れて離す動作)や長押しと、該タップや長押しをした位置を示す座標とがある。また、図10を参照して説明するように、指を机108から離してから一定時間内に戻す動作と、該動作を行った位置を示す座標とがある。また、動作検出部106は、表示制御部107に出力する情報として、いずれの入力領域109、110にて検出した動作であるかを示す情報を含めてもよい。表示制御部107は、該情報に基づき、操作者111毎にポインタを表示するなどの制御を行うことができる。
図10は、動作検出部106が検知する動作の例を説明する図である。図10に示すように操作者111が領域109内において指先を机108に付けたまま、手H1cを記号Aで示す矢印の方向(操作者111から見て右側)に動かしたとする。動作検出部106は、その移動方向、移動量を検知し、その情報を表示制御部107へ送る。表示制御部107はこれに従い表示装置101の画面上に表示するマウスカーソルの位置を、指の移動方向および移動量に応じて動かした位置に変更する。ここでは、画面上で右方向に位置を動かす。また、領域109内で指を動かした後、机108上の特定の位置で指を離して一定時間以内に再度指をつけた場合には、一般的なパーソナルコンピュータにおけるユーザーインターフェースであるマウスでのクリック動作と同様の処理を行ったと認識する。このように動作を検知して、その動作に応じてシステムを制御する事で、ノートパソコンに搭載されているタッチパッドと同等の機能を持つユーザーインターフェースを実現する事が可能となる。
なお、本実施形態では、動作検出部106は、動作の検知に、カメラ画像と距離情報とを用いる。動作検出部106は、まず、カメラ画像中から特定の色の領域を検出することで、手の検出を行う。あらかじめ手として認識する色の範囲を設定しておき、この情報を元に手を検出する。なお、カメラ画像中で、手の検出を行う範囲は、入力領域設定部105が設定した入力領域に応じた範囲としてもよい。図10などでも分かるように、指先が入力領域にあるときは、手は入力領域内または入力領域より上側か操作者側(図10では左側)にある。そこで、動作検出部106は、手の検出を行う範囲を、入力領域を上側と操作者側とに所定の幅だけ広げた範囲とする。
次に、動作検出部106は、手として検出した領域に対応する、距離情報中の領域を抽出する。そして、動作検出部106は、この抽出した領域が示す各画素における距離に、該画素における机108の距離との差が、予め決められた閾値以下のものがあるか否かを判定する。閾値以下のものがあると判定したときは、指先が机108に接していると判定する。なお、各画素における机108の距離は、入力領域設定部105が出力した入力領域までの距離と、カメラ画像中での位置とを示す情報に基づき算出する。
なお、ここでは色に基づき手を検出するとしたが、形状情報を使用して検出しても良い。形状情報を利用する場合には、あらかじめ様々な形の手の形状をデータベース化して保持しておき、このデータベースと照合すると共に色情報と合わせて判定するなどの方法がある。また、入力領域設定時などに予め手の色を認識し、該色に基づき検出するようにしても良い。これにより個人差や照明環境に左右されることなく、手の認識精度を向上する事が可能である。
このようにカメラ画像と距離情報とを用いることで、カメラ画像のみでは困難な細かい動作の認識をする事ができる。例えば、図11に示すように、手の位置が、手H1dから手H1eへと、Bの方向に移動したとする。カメラ画像G1からは机108上をなぞりながら奥に向かって指を動かしたのか、それとも机108から指を離して上方向に指を上げたのか、という判断は困難である。しかし、この際に、距離情報G2、すなわち視差を参照すると、手H1dと手H1eでは視差(距離)が変化していない。これは、カメラ102、103から手までの距離があまり変化していないことを示している。したがって、後者の指を机から離した動作である事がわかる。
また、入力領域設定部105により複数の入力領域109、110を設定した場合、動作検出部106は複数人による複数の動作を検知する必要がある。この際にも距離情報を利用する事により、入力領域110内に操作者111の実際に手があるのか、それともカメラ画像の見かけ上、手前にいる人物の手が奥側の領域110内に入ったように見えるだけで、領域110を入力領域としている操作者111は実際には何も入力していないのか、といった細かい判別が可能となり、複数人でも誤動作を防止しながら操作する事が可能となる。
また、操作者111毎に入力領域を設定する事で複数人での操作を実現すると共に、領域外での操作は検知しないため、会議中メモを取ったり資料を取ったりといった動作を行ってもそれを画面の操作とは区別する事が可能となり、より柔軟な使用が可能となる。机には触れずに入力領域上を手が移動した場合も、画像だけで判別すると入力として検知されてしまうが、距離情報から机に触れていない事がわかる為、誤動作の防止が出来る。
なお、本実施形態では指の動きを検知し、囲んだ領域を入力領域として設定したが、実際に指で囲んだり、本などの物を置き、置いた部分の机上の領域を入力領域としたり、本そのものを入力領域とするといった設定方法でも良い。また、操作者の手を認識する事で大体の操作者の位置を把握し、その位置に応じて机上のあらかじめ決まった面積の領域を入力領域として自動で設定しても良い。また、顔認識技術を応用し、操作者の顔を認識する事で操作者の位置をより正確に認識して、入力領域の自動設定の精度を向上しても良い。
また、自動で設定した領域がどの位置なのかを操作者に認識させる為に、入力領域設定部105が出力した入力領域を示す情報に基づき、表示制御部107が、左カメラ102、あるいは右カメラ102の映像に入力領域を示すマーカー等を重畳した画像を表示装置101に表示させても良い。これにより、自動で領域を設定する場合にも、操作者が入力領域を把握する事が可能となる。また、入力領域の設定開始、終了の動作は手のひらをかざすとしたが、これに限定されるものではなく例えば手を握る、あるいはカメラ102、103の前で手を横方向に動かすなどその他の動作であってよい。
また、距離算出部104では左カメラ画像を基準として視差情報を算出するとしたため、左カメラ画像と、それに対応する視差マップとを入力領域設定部105以降に送っているが、右カメラ画像を合わせて送っても良い。また、右カメラ画像を基準にして視差を算出し、右カメラ画像と、それに対応する視差マップとを送っても良い。
また、ここでは操作者111は図1に示す位置に居るとしたが、図12に示す操作者125のように、操作者が表示装置101に対して正面に居る場合もある。図12に示す操作者125と、操作者125が設定した入力領域126の位置を考慮すると、操作者の向きに応じて、検知した動作に対応する表示制御部107への動作を切替える必要がある。例えば、図13に示した左カメラ画像のように、入力領域109でBの方向に手を動かした場合と、入力領域126でCの方向に手を動かした場合では、方向はBもCも同じである。しかし、操作者の位置に従い動作を変える必要があり、例えば表示装置101上のポインタを動かす場合、入力領域109におけるB方向では画面上の左右方向の移動、入力領域126におけるC方向では上下方向の移動として検知する必要がある。
そのため、各入力領域毎に、入力領域における操作方向と画面上の操作方向とを対応づける操作方向判定部を備える事で、様々な位置の操作者に対応する事が可能となる。対応付けの方法としては、ここで示した図13ではカメラ画像上に人が映っていないが、人が映っている場合には入力領域設定部105または動作検出部106において顔認証技術を応用し、操作者の居る向きを特定して入力領域毎に対応付けを切替える方法がある。また、入力領域設定部105による入力領域設定時に、入力領域における操作方向と画面上の操作方向との対応付けを特定する機能を追加しても良い。例えば、左から右に操作する場合の動作を指示する表示を出し、このときの指の動きを検知して操作方向の対応付けを特定する方法がある。また、入力領域設定時の開始位置を必ず入力領域の左下から開始する、といった制限を加える事でも操作方向の対応付けの特定が可能となる。動作検出部106は、このように設定された入力領域における操作方向と画面上の操作方向とを対応づけに基づき、検出した動作の向きを、画面上の操作方向に変換する。そして、動作検出部106は、検出された動作を示す情報として、この変換された情報を表示制御部107に出力する。
(第2の実施形態)
本発明の第2の実施形態について、図面を参照しながら説明する。図14は、本実施形態におけるデータ入力装置を備えたタブレット端末200の使用環境を示す図である。図15は、本実施形態におけるタブレット端末200の構成を示すブロック図である。なお、同図において、図1の各部と同様の部分には、同一の符号(107)を付し、説明を省略する。
図14において、タブレット端末200は、赤外線による距離画像センサ201と、画像を始めとする各種情報を表示すると同時に、画面上をタッチする事で入力操作を受け付けるタッチパネルを供えた表示部202を備えている。タブレット端末とは、様々な形態のものがあるが、一般的にはキーボードを備えずタッチパネル上を指やペンでなぞるといった動作によって操作する携帯端末を指す事が多い。ここでのタブレット端末200も同様の端末である。内部には図示しないCPUやメモリといった処理装置を備えている。
図14は、机203上にタブレット端末200を置いた使用環境を示している。机203の上面が基準入力平面である。図中204、205は、後述する入力領域設定部206によって設定される入力領域を示している。タブレット端末200は図に示すように机203に配置できる為の支えとなる構成部品を備えている。このように配置した際に、タブレット端末200の操作は、タッチパネルを使用した操作ではなく、本実施形態によるデータ入力方法を使用した操作となる。
図15は、タブレット端末200の構成を示す概略ブロック図である。タブレット端末200は、データ入力装置210、表示制御部107、表示部202を含んで構成される。データ入力装置210は、距離画像センサ201と、操作者の動作を検知する領域を特定する入力領域設定部206、画像と距離情報を元に操作者の動作を検出する動作検出部207を夫君で構成される。なお、表示制御部107は図1の表示制御部107と同様であるが、表示装置101ではなく、表示部202に画像を表示させる。距離画像センサ201からの出力を用いた後段の各部(入力領域設定部206、動作検出部207)は、タブレット端末200が備えるCPUが、メモリに記憶されたプログラムを実行することで実現する。
距離画像センサ201は、距離情報である距離画像と通常の画像の両方を取得する。距離画像センサ201は、例えば、赤外線発光部と撮像素子を備え、被写体に向けて一定間隔で赤外線を発光する。この赤外光の反射光を撮像素子で捕らえ、照射光と反射光の位相差から近赤外光の飛行時間を求める。飛行時間は距離に比例するので、この飛行時間を距離に変換し、画像として出力する物である。また、距離画像センサ201は、同時に、被写体を撮像して、撮像画像も出力する。
入力領域設定部206は、距離画像センサ201から距離画像と撮影画像とを受け取り、表示制御部107を通して表示部202に入力領域の設定を促す表示を行う。入力領域設定部206は、図1の入力領域設定部105と同様にして、入力領域を設定する。ただし、入力領域設定部206は、対象とする操作者を1人とし、該一人の操作者に対して複数の入力領域を設定する。ここでは、入力領域設定部206は、一人の操作者に対して2つの入力領域の設定を行うよう、予め設定されており、第1の入力領域204、第2の入力領域205の順に設定し、これら第1の入力領域204および第2の入力領域205を示す情報を出力する。
動作検出部207には、入力領域設定部206によって設定された2つの入力領域204、205を示す情報と、距離画像と、撮影画像とが入力される。動作検出部207は、図1の動作検出部106と同様にして手の動きを検出する。ただし、図14に示した第1の入力領域204と第2の入力領域205では、それぞれ異なる機能を持つ。第1の入力領域204での操作は、表示部202に表示されるポインタの位置を操作する機能を持ち、第2の領域205での操作は、表示されているポインタ位置にあるものを選択・決定したりする機能を持つ。そのため、入力領域204では机203上をなぞるように動かされる指の動きを検知しポインタを動かす方向を決め、入力領域205では指を机203から離したりつけたりする動作を検出し、そのポインタ位置で決定・選択動作を行ったかどうかを判別する。
動作検出部207は、これらの動作の検出結果を表示制御部107へと送り、表示制御部107は、これらに基づき、ポインタを移動して表示部202に表示させたり、表示部202に表示させる画面を遷移させたりする。このように入力領域毎に検知する動作とそれに応じた機能を変えることにより、誤動作を防止し、より操作者の意図を正確に反映した操作が可能となる。
また、動作検出部207は、入力領域204、205内に手が入った場合に、そのことを示すマーカーを画面上に表示するよう表示制御部107に指示する。表示制御部107は手が入力領域204、205内にあるという情報を受け取った際には図16に示すように、表示部202の画面左上に情報提示部であるマーカー208を表示する。マーカー208はここでは丸印である。本実施形態では、設定した入力領域を目視で確認できない。しかし、このように、入力領域204、205内に手があるかどうかを操作者に通知する手段を備えることにより、入力領域から手がはずれ意図どおりに操作できなくなることを防止する事が可能となる。
なお、ここでは情報提示部は丸印のマーカーとしたが、丸印である必要はなく、文字や他の図形でもよく、表示位置も右上や下など異なる位置であっても良い。マーカーに限らずLED等を用いた専用の通知領域をタブレット端末200に設けても良く、音声で通知するようにしても良い。
また、入力領域の端に近い部分に手がある場合には、表示するマーカーの色を変えるようにしても良い。これにより、設定した入力領域のどのあたりに手があるのかを操作者は判断する事が可能となる。
ここでは、入力領域を複数設けた例を示したが、必ずしも複数設ける必要はなく、複数の領域に分けた機能を1つの領域で出来るように構成しても良い。この際、両手で操作するような複雑な操作を入力として受け付ける場合にも、距離情報を用いる事で手の重なりなどを判別する事が可能となり精度良く検出する事が出来る。1つの領域に限らず、3つ以上の領域を設定し、領域ごとに機能を分けるようにしても良い。
また、複数領域を設けた際の領域毎の機能については、ここで示した機能のみに限定されるものではない。また、入力領域204と205において、異なる動作を検知するように記載しているが、それぞれ同様の動作で異なる機能を実現するようにしても良い。例えば、入力領域204で左右方向に動かすと、表示制御部107は、ポインタが左右に動くように表示部2020を制御する。また、入力領域205で左右方向に指を動かすと、表示制御部107は、表示内容が左方向で拡大、右方向で縮小といった動作をするように表示部2020を制御するようにしてもよい。これにより、手を動かして行う動作の数を少なくしながら、様々な機能を実現できるようにする事ができ、操作者は多くの動作を覚える必要がなくなり操作しやすいという効果がある。
また、これまでの実施形態においては2眼カメラを用いた距離情報の取得、距離画像センサによる距離情報の取得を示したが、被写体にスリット光を連続的に照射する光切断法を利用するなど、他の手段により距離情報を取得しても良い。
また、図1におけるデータ入力装置100、表示制御部107、図15におけるデータ入力装置210、表示制御部107の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、各部を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
10…テレビ会議システム
100…データ入力装置
101…表示装置
102…左カメラ
103…右カメラ
104…距離情報算出部
105…入力領域設定部
106…動作検出部
107…表示制御部
108…机
109、110…入力領域
111…操作者
200…タブレット端末
201…距離画像センサ
202…表示部
203…机
204…第1の入力領域
205…第2の入力領域
206…入力領域設定部
207…動作検出部

Claims (8)

  1. 距離情報を取得する距離情報取得部と、
    少なくとも前記距離情報に基づき、操作者の手の動作を検出し、検出した前記動作を示す情報を出力する動作検出部と
    を備えたデータ入力装置であって、
    前記動作検出部は、略水平な基準入力平面に対する手の動作を検出し、
    前記距離情報取得部は、当該データ入力装置の出力に応じた画像が表示される表示装置の表示面と略同一平面上に設置され、
    前記距離情報取得部が取得する前記距離情報は、当該距離情報取得部から、前記基準入力平面に対して鋭角の角度をなす方向の距離を示すこと
    を特徴とするデータ入力装置。
  2. 前記基準入力平面上に入力領域を設定する入力領域設定部を更に備え、
    前記動作検出部は、前記入力領域に対する手の動作を検出すること
    を特徴とする請求項1に記載のデータ入力装置。
  3. 前記入力領域設定部は、複数の前記入力領域を設定し、
    前記動作検出部は、前記複数の入力領域毎に、該入力領域に対する前記手の動作の検出を行うこと
    を特徴とする請求項2に記載のデータ入力装置。
  4. 前記動作検出部は、前記検出した動作を示す情報に加えて、該検出した動作が対象とした前記入力領域を示す情報を出力すること
    を特徴とする請求項3に記載のデータ入力装置。
  5. 前記動作検出部は、前記設定した入力領域内に操作者の手があるか否かを検出し、前記検出結果を出力して、操作者に通知させること
    を特徴とする請求項1から請求項4のいずれかの項に記載のデータ入力装置。
  6. 前記入力領域における操作方向を判定する操作方向判定部を更に備え、
    前記操作方向判定部によって判定された方向に従い、前記動作検出部により検出された動作を判別する事
    を特徴とする請求項1から5のいずれかの項に記載のデータ入力装置。
  7. 前記距離情報取得部は、複数のカメラを備え、前記複数のカメラが出力する画像間の視差を算出し、該視差を表す情報を、前記距離情報とすることを特徴とする請求項1から請求項6のいずれかの項に記載のデータ入力装置。
  8. 距離情報を取得する距離情報取得部を備えるデータ入力装置であって、当該データ入力装置の出力に応じた画像が表示される表示装置の表示面と略同一平面上に設置され、前記距離情報は、当該距離情報取得部から、前記基準入力平面に対して鋭角の角度をなす方向の距離を示すデータ入力装置におけるデータ入力方法であって、
    少なくとも前記距離情報に基づき、操作者の手の動作であって、略水平な基準入力平面に対する動作を検出し、検出した前記動作を示す情報を出力するステップ
    を有することを特徴とするデータ入力方法。
JP2011283156A 2011-12-26 2011-12-26 データ入力装置およびデータ入力方法 Pending JP2013134549A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011283156A JP2013134549A (ja) 2011-12-26 2011-12-26 データ入力装置およびデータ入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011283156A JP2013134549A (ja) 2011-12-26 2011-12-26 データ入力装置およびデータ入力方法

Publications (1)

Publication Number Publication Date
JP2013134549A true JP2013134549A (ja) 2013-07-08

Family

ID=48911215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011283156A Pending JP2013134549A (ja) 2011-12-26 2011-12-26 データ入力装置およびデータ入力方法

Country Status (1)

Country Link
JP (1) JP2013134549A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046833A (ja) * 2013-08-29 2015-03-12 沖電気工業株式会社 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2016018458A (ja) * 2014-07-09 2016-02-01 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2016534421A (ja) * 2013-10-14 2016-11-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ジェスチャ制御デバイス、方法、システム及び格納媒体

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350591A (ja) * 2000-06-06 2001-12-21 Assist Computer Systems:Kk 撮影画像データ入力・解析システム
JP2005267034A (ja) * 2004-03-17 2005-09-29 Brother Ind Ltd 画像入力装置
JP2006202016A (ja) * 2005-01-20 2006-08-03 Nippon Telegr & Teleph Corp <Ntt> 会議情報共有支援装置及び方法及びプログラム
JP2007128288A (ja) * 2005-11-04 2007-05-24 Fuji Xerox Co Ltd 情報表示システム
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置
JP2010081466A (ja) * 2008-09-29 2010-04-08 Hitachi Ltd 操作制御装置及び操作表示方法
JP2011039844A (ja) * 2009-08-12 2011-02-24 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2011253255A (ja) * 2010-05-31 2011-12-15 Canon Inc 情報処理装置およびその動作方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350591A (ja) * 2000-06-06 2001-12-21 Assist Computer Systems:Kk 撮影画像データ入力・解析システム
JP2005267034A (ja) * 2004-03-17 2005-09-29 Brother Ind Ltd 画像入力装置
JP2006202016A (ja) * 2005-01-20 2006-08-03 Nippon Telegr & Teleph Corp <Ntt> 会議情報共有支援装置及び方法及びプログラム
JP2007128288A (ja) * 2005-11-04 2007-05-24 Fuji Xerox Co Ltd 情報表示システム
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置
JP2010081466A (ja) * 2008-09-29 2010-04-08 Hitachi Ltd 操作制御装置及び操作表示方法
JP2011039844A (ja) * 2009-08-12 2011-02-24 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2011253255A (ja) * 2010-05-31 2011-12-15 Canon Inc 情報処理装置およびその動作方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046833A (ja) * 2013-08-29 2015-03-12 沖電気工業株式会社 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2016534421A (ja) * 2013-10-14 2016-11-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ジェスチャ制御デバイス、方法、システム及び格納媒体
JP2016018458A (ja) * 2014-07-09 2016-02-01 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体

Similar Documents

Publication Publication Date Title
US9927881B2 (en) Hand tracker for device with display
CN107003716B (zh) 投射型影像显示装置以及影像显示方法
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
TWI559174B (zh) 以手勢爲基礎之三維影像操控技術
US9544556B2 (en) Projection control apparatus and projection control method
JP2004246578A (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2017199289A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US11049306B2 (en) Display apparatus and method for generating and rendering composite images
JP2012238293A (ja) 入力装置
JP6452369B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
KR101426378B1 (ko) 깊이 정보를 이용한 프레젠테이션 이벤트 처리 장치 및 방법
TWI499938B (zh) 觸控系統
JP6000553B2 (ja) 情報処理装置及びその制御方法
JP2013134549A (ja) データ入力装置およびデータ入力方法
US20220308746A1 (en) Display apparatus, display system, and display method
TWI394063B (zh) 應用影像辨識之指令輸入系統以及方法
WO2018042923A1 (ja) 情報処理システム、情報処理方法、およびプログラム
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
US10175825B2 (en) Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
JP2013257830A (ja) 情報処理装置
KR102163825B1 (ko) 사용자 장치의 사용자 인터페이스 구현 방법 및 이러한 방법을 수행하는 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141001

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160419