[go: up one dir, main page]

JP2014149640A - ジェスチャ操作装置及びジェスチャ操作プログラム - Google Patents

ジェスチャ操作装置及びジェスチャ操作プログラム Download PDF

Info

Publication number
JP2014149640A
JP2014149640A JP2013017555A JP2013017555A JP2014149640A JP 2014149640 A JP2014149640 A JP 2014149640A JP 2013017555 A JP2013017555 A JP 2013017555A JP 2013017555 A JP2013017555 A JP 2013017555A JP 2014149640 A JP2014149640 A JP 2014149640A
Authority
JP
Japan
Prior art keywords
gesture operation
gesture
detection
occupant
operation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013017555A
Other languages
English (en)
Inventor
Shuichi Takeuchi
修一 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2013017555A priority Critical patent/JP2014149640A/ja
Publication of JP2014149640A publication Critical patent/JP2014149640A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作対象を注視することなく、ちら見程度で操作することが可能なジェスチャ操作装置及びジェスチャ操作プログラムを提供することを目的とする。
【解決手段】視線検出用カメラ14の撮影結果から乗員の目の位置及び視線を検出する視線検出用ECU20と、ジェスチャ操作検出用カメラ14の撮影結果から乗員の手の位置及びジェスチャ操作を検出するジェスチャ操作検出用ECU16と、予め定めた複数の操作対象機器22A、22Bの中から視線検出用ECU20によって検出された乗員の目の位置、及びジェスチャ操作検出用ECU16によって検出された乗員の手の位置に基づいて操作対象機器22を決定し、ジェスチャ操作検出用ECU16によって検出されたジェスチャ操作に対応する予め定めた操作を行うように、決定した操作対象機器を制御するジェスチャ操作ECU12と、を備える。
【選択図】図2

Description

本発明は、ジェスチャによって種々の機器(例えば、車載器)を操作するジェスチャ操作装置及びジェスチャ操作プログラムに関する。
ジェスチャによって操作を行う技術としては、例えば、特許文献1に記載の技術が提案されている。
特許文献1には、ステレオカメラによりユーザの画像を撮像するユーザ撮像手段と、ユーザのジェスチャを検出するジェスチャ検出手段と、選択ジェスチャであるか、操作ジェスチャであるかを判別するジェスチャ判別手段と、ユーザの視線の方向に制御機器があるか否かを判別する視線方向判別手段と、選択ジェスチャで選択された制御機器とユーザの視線の方向にある制御機器とが一致する場合に制御機器を選択する制御機器選択手段と、選択された制御機器に対して、操作ジェスチャに応じた操作を実行する制御機器操作手段とを備えた制御機器操作ジェスチャ認識装置(PC)が提案されている。
特開2009−37434号公報
しかしながら、特許文献1に記載の技術では、操作対象機器の選択についてもジェスチャで行う必要があり、操作するために覚えるジェスチャの数も多くなるため、改善の余地がある。
さらに、特許文献1に記載の技術では、ジェスチャ操作するために操作対象を注視する必要があるため、車載機器へ適用するためには、脇見運転となるため改善の余地がある。
本発明は、上記事実を考慮して成されたもので、操作対象を注視することなく、ちら見程度で操作することが可能なジェスチャ操作装置及びジェスチャ操作プログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載のジェスチャ操作装置は、乗員を撮影する撮影手段と、前記撮影手段の撮影結果から乗員の目の位置を検出する第1検出手段と、前記撮影手段の撮影結果から乗員の手の位置及びジェスチャ操作を検出する第2検出手段と、予め定めた複数の操作対象機器の中から第1検出手段によって検出された乗員の目の位置、及び第2検出手段によって検出された乗員の手の位置に基づいて操作対象機器を決定し、前記第2検出手段によって検出されたジェスチャ操作に対応する予め定めた操作を行うように、決定した操作対象機器を制御する制御手段と、を備えている。
請求項1に記載の発明によれば、撮影手段では、カメラ等により乗員が撮影され、第1検出手段では、撮影手段の撮影結果から乗員の目の位置が検出され、第2検出手段では、撮影手段の撮影結果から乗員の手の位置及びジェスチャ操作が検出される。なお、撮影手段は、第1検出手段によって乗員の目の位置を検出するための撮影を行う撮影手段と、第2検出手段によって乗員の手の位置及びジェスチャ操作を検出するための撮影を行う撮影手段とをそれぞれ備えるようにしてもよい。
また、制御手段では、予め定めた操作対象機器の中から第1検出手段によって検出された乗員の目の位置、及び第2検出手段によって検出された乗員の手の位置に基づいて操作対象機器が決定される。例えば、請求項3に記載の発明のように、乗員の目の位置と手の位置とを結ぶ線分の延長線上に存在する機器を操作対象機器として決定するようにしてもよい。
そして、第2検出手段によって検出されたジェスチャ操作に対応する予め定めた操作を行うように、決定した操作対象機器が制御される制御手段によって制御される。
すなわち、乗員は、操作対象機器をちら見して、操作対象機器方向に向かってジェスチャ操作するだけで、制御手段が、操作対象機器を決定してジェスチャ操作に対応する操作を行うように、操作対象機器を制御するので、操作対象を注視することなく、ちら見程度でジェスチャ操作によって操作対象機器を操作することができる。
例えば、請求項2に記載の発明のように、第1検出手段が、撮影手段の撮影結果から乗員の視線を更に検出して、制御手段が、予め定めた複数の操作対象機器の中から第1検出手段によって検出した視線の先に存在する操作対象機器候補を抽出する抽出手段を含み、抽出手段によって抽出された操作対象機器候補の中から、第1検出手段によって検出された乗員の目の位置、及び第2検出手段によって検出された乗員の手の位置に基づいて操作対象機器を決定するようにしてもよい。これにより、操作対象機器を容易に特定することが可能となる。
また、請求項4に記載の発明のように、制御手段によって決定した操作対象機器を表す情報を報知する報知手段を更に備えるようにしてもよい。これによって、制御手段によって決定した操作対象機器が適正か否かを報知手段によって確認することができる。
なお、本発明は、請求項5に記載の発明のように、コンピュータを、請求項1〜4の何れか1項に記載のジェスチャ操作装置の前記第1検出手段、前記第2検出手段、及び前記制御手段として機能させるためのジェスチャ操作プログラムとしてもよい。
以上説明したように本発明によれば、操作対象を注視することなく、ちら見程度で操作することが可能なジェスチャ操作装置及びジェスチャ操作プログラムを提供することができる、という効果がある。
本発明の第1実施形態に係るジェスチャ操作装置の概略を示す図である。 本発明の第1実施形態に係るジェスチャ操作装置の構成を示すブロック図である。 (A)はちら見による操作対象機器の抽出を説明するための図であり、(B)は目の位置と手の位置の延長線上にある操作対象機器の一例を示す図である。 本発明の第1実施形態に係るジェスチャ操作装置におけるジェスチャ操作ECUのROMに記憶されたジェスチャ操作プログラムを実行することによって行われる処理の流れの一例を示すフローチャートである。 本発明の第2実施形態に係るジェスチャ操作装置の構成を示すブロック図である。 報知機器(ヘッドアップディスプレイ及び光源)を示す図である。 本発明の第2実施形態に係るジェスチャ操作装置におけるジェスチャ操作ECUのROMに記憶されたジェスチャ操作プログラムを実行することによって行われる処理の流れの一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。
(第1実施形態)
図1は、本発明の第1実施形態に係るジェスチャ操作装置の概略を示す図であり、図2は、本発明の第1実施形態に係るジェスチャ操作装置の構成を示すブロック図である。
本実施形態に係るジェスチャ操作装置10は、ジェスチャ操作によって自動車に搭載された各種機器を操作するものである。ジェスチャ操作装置10のジェスチャ操作の操作対象機器22としては、例えば、ディスプレイ22Aや、インストルメントパネルに設けられたインパネスイッチ(例えば、ヒータコントローラ、ミラースイッチ、エアコンスイッチ、オーディオの操作スイッチ等の各種スイッチ)22Bを適用することができる。
ジェスチャ操作装置10は、乗員(運転者)のジェスチャ操作を検出するためのジェスチャ操作検出用カメラ14、及び乗員(運転者)の視線を検出する視線検出用カメラ18を備えている。
ジェスチャ操作検出用カメラ14は、ジェスチャ操作を検出すると共に、手の位置を検出するために、ステレオカメラによって撮影が行われる。ジェスチャ操作検出用カメラ14は、例えば、図1に示すように、ルームミラーのベース部分に設けられ、インストルメントパネルに設けられたインパネスイッチ22Bやディスプレイ22A等の操作対象機器22の方向を撮影するように、車両のルーフ側から下方向に向けて配置されている。なお、ジェスチャ操作検出用カメラ14は、本実施形態では、ステレオカメラを適用して3次元撮影が可能なものを適用するが、これに限るものではなく、例えば、単眼カメラと距離センサ等を併用して、ジェスチャ操作及び手の位置を検出するようにしてもよい。
また、視線検出用カメラ18は、乗員の顔を撮影して、撮影画像から目の位置を検出すると共に、視線を検出するために、単眼のカメラによって撮影が行われる。視線検出用カメラ18は、例えば、図1に示すように、運転者側のルーフに、運転者側に向けられて配置されている。なお、ジェスチャ操作検出用カメラ14に隣接して設けるようにしてもよい。
ジェスチャ操作の検出や視線検出は、周知の各種技術を適用して検出することができる。また、本実施形態では、ジェスチャ操作検出用カメラ14と視線検出用カメラ18をそれぞれ別に設ける構成として説明するが、例えば、ステレオカメラ1つでジェスチャ操作と視線を共に検出するようにしてもよい。或いは、単眼カメラと距離センサを用いてジェスチャ操作と視線を共に検出するようにしてもよい。
ジェスチャ操作装置10は、ジェスチャ操作ECU(Electronic Control Unit)12を備えており、乗員のジェスチャ操作に応じてジェスチャ操作ECU12が操作対象機器22の操作を制御するようになっている。
ジェスチャ操作ECU12は、CPU12A、ROM12B、RAM12C、及びI/O(入出力インターフェース)12Dがバス12Eに接続されたマイクロコンピュータで構成されている。
I/O12Dには、ジェスチャ操作検出用ECU16、視線検出用ECU20、及び複数の操作対象機器22(22A、22B・・・)が接続されている。
ジェスチャ操作検出用ECU16には、上述のジェスチャ操作検出用カメラ14が接続されており、ジェスチャ操作検出用カメラ14の撮影結果が入力される。ジェスチャ操作検出用ECU16は、ジェスチャ操作検出用カメラ14の撮影結果から、乗員の手の位置及びジェスチャ操作を検出して、検出結果をジェスチャ操作ECU12へ出力する。ジェスチャ操作としては、操作内容毎にジェスチャ操作を予め定めて記憶しておくことにより、対応するジェスチャ操作をパターンマッチング等によって検出する。なお、ジェスチャ操作としては、例えば、手振りや、サイン、手形状など手で行うことができる動作全般とすることができる。
視線検出用ECU20には、上述の視線検出用カメラ18が接続されており、視線検出用カメラ18の撮影結果が入力される。視線検出用ECU20は、視線検出用カメラ18の撮影結果から、乗員の目の位置及び視線を検出して、検出結果をジェスチャ操作ECU12へ出力する。
ジェスチャ操作ECU12のROM12Bにジェスチャ操作用プログラムや、操作対象機器22の位置等が予め記憶されており、ROM12Bに記憶されたジェスチャ操作用プログラムをRAM12Cに展開してCPU12Aが実行することにより、ジェスチャ操作に対応する動作を行うように操作対象機器22を制御する。
具体的には、乗員は、図3(A)の実線矢印で示すように、前方を注視して運転しているが、操作を行う場合に、図3(A)の点線矢印で示すように、操作対象機器22をちら見する。
視線検出用カメラ18及び視線検出用ECU20が乗員の目の位置及び視線を検出して、検出結果をジェスチャ操作ECU12に出力する。そして、ジェスチャ操作ECU12が、図3(A)の点線矢印で示すように、ちら見の視線先に存在する操作対象機器候補を複数抽出する。例えば、図1に示すように、ちら見(図1の一点鎖線矢印)先には、ディスプレイ22Aとインパネスイッチ22Bが存在するので、これらの機器を操作対象候補として抽出する。
続いて、乗員は、図3(B)に示すように、ちら見によって確認した操作対象機器に向かって操作指示に対応して予め定めたジェスチャ操作を乗員が行う。
ジェスチャ操作検出用カメラ14及びジェスチャ操作検出用ECU16が乗員の手の位置及びジェスチャ操作を検出して、検出結果をジェスチャ操作ECU12に出力する。
そして、ジェスチャ操作ECU12が、操作対象候補の中から、図3(B)に示すように、乗員の目の位置と乗員の手の位置の延長線上に存在する機器を操作対象機器22に決定して、検出したジェスチャ操作に対応する動作を行うように、決定した操作対象機器22を制御する。図3(B)の例では、インパネスイッチ22Bが操作対象機器22として決定された例を示す
すなわち、本実施形態に係るジェスチャ操作装置10では、操作対象機器22を注視することなく、ちら見とジェスチャ操作だけで操作対象機器を操作することができる。
続いて、上述のように構成された本発明の第1実施形態に係るジェスチャ操作装置10で行われる具体的な処理例について説明する。図4は、本発明の第1実施形態に係るジェスチャ操作装置10におけるジェスチャ操作ECU12のROM12Bに記憶されたジェスチャ操作プログラムを実行することによって行われる処理の流れの一例を示すフローチャートである。なお、図4の処理は、例えば、イグニッションスイッチがオン、或いは、イグニッションスイッチがアクセサリオンの状態にされた場合に開始し、イグニッションスイッチがオフされた場合に終了する。
ステップ100では、視線検出が行われてステップ102へ移行する。すなわち、視線検出用カメラ18によって乗員を撮影して、視線検出用ECU20が撮影結果から視線を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ102では、操作対象機器への視線の移動があったか否か判定される。該判定は、視線検出用ECU20によって検出された視線に基づいて、ジェスチャ操作ECU12が予め定めた操作対象機器22が存在する方向への視線の移動があったか否かを判定し、該判定が肯定された場合にはステップ104へ移行し、否定された場合には一連の処理がリターンされる。
ステップ104では、操作対象機器候補がジェスチャ操作ECU12によって抽出されてステップ106へ移行する。すなわち、視線検出用ECU20によって検出されたちら見の視線先に存在する操作対象候補を抽出する。例えば、図1の一点鎖線矢印で示すように、ちら見先にディスプレイ22Aとインパネスイッチ22Bが存在する場合には、これらを操作対象機器候補として抽出する。
ステップ106では、目の位置が検出されてステップ108へ移行する。すなわち、視線検出用カメラ18によって乗員を撮影して、視線検出用ECU20が撮影結果から乗員の目の位置を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ108では、手の位置が検出されてステップ110へ移行する。すなわち、ジェスチャ操作検出用カメラ14によって乗員を撮影して、ジェスチャ操作検出用ECU16が撮影結果から乗員の手の位置を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ110では、操作対象機器の決定が行われてステップ112へ移行する。すなわち、乗員の目の位置と乗員の手の位置の延長線上に位置する操作対象候補をジェスチャ操作ECU12が特定することにより、特定した操作対象機器候補を操作対象に決定する。
ステップ112では、ジェスチャ操作が検出されてステップ114へ移行する。すなわち、ジェスチャ操作検出用カメラ14によって乗員を撮影して、ジェスチャ操作検出用ECU16が撮影結果からジェスチャ操作を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ114では、ジェスチャ操作を認識したか否かジェスチャ操作ECU12によって判定される。該判定は、ステップ112において、予め定めたジェスチャ操作を検出できたか否かを判定し、該判定が肯定された場合にはステップ116へ移行し、否定された場合には、ステップ118へ移行する。
ステップ116では、ステップ110で決定した操作対象機器22に対してステップ112で検出したジェスチャ操作に対応する操作指示をジェスチャ操作ECU12が行う。これによって、ジェスチャ操作によって操作対象機器を操作することができる。
また、ステップ118では、予め定めたジェスチャ操作エラー処理が行われて一連の処理がリターンされる。ジェスチャ操作エラー処理としては、例えば、ジェスチャ操作を認識できなかったことを表すアラーム出力や、音声出力、表示等を行う。
(第2実施形態)
続いて、本発明の第2実施形態に係るジェスチャ操作装置について説明する。図5は、本発明の第2実施形態に係るジェスチャ操作装置の構成を示すブロック図である。なお、第1実施形態と同一構成については同一符号を付して詳細な説明を省略する。
本実施形態のジェスチャ操作装置11は、第1実施形態に対して、操作対象を決定したときに、操作対象を表す情報を報知する報知機器を更に備えた構成とされている。
すなわち、図5に示すように、ジェスチャ操作ECU12のI/O12Dに報知機器24が第1実施形態のジェスチャ操作装置10に対して更に接続されている。その他の構成については、第1実施形態と共通とされている。
報知機器24としては、例えば、図6に示すように、フロントウインドガラス等に画像を投影する投影部を有して当該投影部に画像を投影する、所謂ヘッドアップディスプレイ24Aを適用することができる。ヘッドアップディスプレイ24Aを適用した場合には、決定した操作対象機器22を表す情報(例えば、操作対象機器毎に予め定めた色を表示するようにしてもよいし、操作対象機器をテキスト表示するようにしてもよい。或いは、報知機器24は、図6に示すように、ルーフ等に設けたLED等の異なる色をジェスチャ操作している手に照射可能な光源24Bを適用することもできる。光源24Bを適用する場合には、例えば、ジェスチャ操作する手に向けて、操作対象機器22毎に色を予め定めておき、操作対象機器22に対応して予め定めた色の光を照射することにより、手に照射された光の色を確認することで、決定した操作対象機器22が操作しようとした機器か否かを乗員が認識することができる。
続いて、本発明の第2実施形態に係るジェスチャ操作装置11で行われる具体的な処理例について説明する。図7は、本発明の第2実施形態に係るジェスチャ操作装置11におけるジェスチャ操作ECU12のROM12Bに記憶されたジェスチャ操作プログラムを実行することによって行われる処理の流れの一例を示すフローチャートである。なお、図7の処理は、例えば、イグニッションスイッチがオン、或いは、イグニッションスイッチがアクセサリオンの状態にされた場合に開始し、イグニッションスイッチがオフされた場合に終了する。また、第1実施形態と同一処理については同一符号を付して説明する。
ステップ100では、視線検出が行われてステップ102へ移行する。すなわち、視線検出用カメラ18によって乗員を撮影して、視線検出用ECU20が撮影結果から視線を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ102では、操作対象機器への視線の移動があったか否か判定される。該判定は、視線検出用ECU20によって検出された視線に基づいて、ジェスチャ操作ECU12が予め定めた操作対象機器22が存在する方向への視線の移動があったか否かを判定し、該判定が肯定された場合にはステップ104へ移行し、否定された場合には一連の処理がリターンされる。
ステップ104では、操作対象機器候補がジェスチャ操作ECU12によって抽出されてステップ106へ移行する。すなわち、視線検出用ECU20によって検出されたちら見の視線先に存在する操作対象候補を抽出する。例えば、図1の一点鎖線矢印で示すように、ちら見先にディスプレイ22Aとインパネスイッチ22Bが存在する場合には、これらを操作対象機器候補として抽出する。
ステップ106では、目の位置が検出されてステップ108へ移行する。すなわち、視線検出用カメラ18によって乗員を撮影して、視線検出用ECU20が撮影結果から乗員の目の位置を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ108では、手の位置が検出されてステップ110へ移行する。すなわち、ジェスチャ操作検出用カメラ14によって乗員を撮影して、ジェスチャ操作検出用ECU16が撮影結果から乗員の手の位置を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ110では、操作対象機器の決定が行われてステップ111へ移行する。すなわち、乗員の目の位置と乗員の手の位置の延長線上に位置する操作対象候補をジェスチャ操作ECU12が特定することにより、特定した操作対象機器候補を操作対象に決定する。
ステップ111では、決定した操作対象機器が報知機器24によって乗員に報知されてステップ112へ移行する。例えば、報知機器24としてヘッドアップディスプレイ24Aを適用した場合には、操作対象機器毎に色を予め定めて、決定した操作対象機器22に対応する色を表示したり、操作対象機器22が何であるかをテキスト表示したりすることにより、操作対象機器が適切な機器が選択されたか否かを確認することができる。或いは、報知機器24として光源24Bを適用した場合には、操作対象機器毎に色を予め定めて、決定した操作対象機器22に対応する色を乗員のジェスチャ操作をしている手に照射することで、手に照射されて光の色によって操作対象機器を認識することができる。或いは、報知機器25として音声出力装置等を適用して、音声により決定した操作対象機器22を報知するようにしてもよい。
ステップ112では、ジェスチャ操作が検出されてステップ114へ移行する。すなわち、ジェスチャ操作検出用カメラ14によって乗員を撮影して、ジェスチャ操作検出用ECU16が撮影結果からジェスチャ操作を検出する処理を行って検出結果をジェスチャ操作ECU12に出力する。
ステップ114では、ジェスチャ操作を認識したか否かジェスチャ操作ECU12によって判定される。該判定は、ステップ112において、予め定めたジェスチャ操作を検出できたか否かを判定し、該判定が肯定された場合にはステップ116へ移行し、否定された場合には、ステップ118へ移行する。
ステップ116では、ステップ110で決定した操作対象機器22に対してステップ112で検出したジェスチャ操作に対応する操作指示をジェスチャ操作ECU12が行う。これによって、ジェスチャ操作によって操作対象機器を操作することができる。
また、ステップ118では、予め定めたジェスチャ操作エラー処理が行われて一連の処理がリターンされる。ジェスチャ操作エラー処理としては、例えば、ジェスチャ操作を認識できなかったことを表すアラーム出力や、音声出力、表示等を行う。
なお、上記の実施の形態では、ジェスチャ操作の操作対象機器22の一例として、インストルメントパネルに設けられたディスプレイ22Aや、インパネスイッチ22Bを一例として挙げたが、操作対象装置は、これに限るものではなく、例えば、ドアトリムに設けたパワーウインドスイッチや、ドアミラースイッチ等を操作対象機器として適用するようにしてもよい。
また、上記の実施の形態では、運転者によるジェスチャ操作を対象として説明したが、助手席等の乗員によるジェスチャ操作についても同様に制御するようにしてもよい。
また、上記の実施の形態では、視線を検出して操作対象機器候補を抽出してから、手の位置及び目の位置に基づいて操作対象機器を決定するようにしたが、操作対象機器候補の抽出を行わずに、手の位置及び目の位置のみに基づいて、操作対象機器を決定するようにしてもよい。
10 ジェスチャ操作装置
12 ジェスチャ操作ECU
14 ジェスチャ操作検出用カメラ
16 ジェスチャ操作検出用ECU
18 視線検出用カメラ
20 視線検出用ECU
22 操作対象機器
22A ディスプレイ
22B インパネスイッチ
24 報知機器
24A ヘッドアップディスプレイ
24B 光源

Claims (5)

  1. 乗員を撮影する撮影手段と、
    前記撮影手段の撮影結果から乗員の目の位置を検出する第1検出手段と、
    前記撮影手段の撮影結果から乗員の手の位置及びジェスチャ操作を検出する第2検出手段と、
    予め定めた複数の操作対象機器の中から第1検出手段によって検出された乗員の目の位置、及び第2検出手段によって検出された乗員の手の位置に基づいて操作対象機器を決定し、前記第2検出手段によって検出されたジェスチャ操作に対応する予め定めた操作を行うように、決定した操作対象機器を制御する制御手段と、
    を備えたジェスチャ操作装置。
  2. 前記第1検出手段が、前記撮影手段の撮影結果から乗員の視線を更に検出し、
    前記制御手段が、予め定めた複数の操作対象機器の中から前記第1検出手段によって検出した視線の先に存在する操作対象機器候補を抽出する抽出手段を含み、前記抽出手段によって抽出された前記操作対象機器候補の中から、第1検出手段によって検出された乗員の目の位置、及び第2検出手段によって検出された乗員の手の位置に基づいて操作対象機器を決定する請求項1に記載のジェスチャ操作装置。
  3. 前記制御手段は、乗員の目の位置と手の位置とを結ぶ線分の延長線上に存在する機器を操作対象機器に決定する請求項1又は請求項2に記載のジェスチャ操作装置。
  4. 前記制御手段によって決定した操作対象機器を表す情報を報知する報知手段を更に備えた請求項1〜3の何れか1項に記載のジェスチャ操作装置。
  5. コンピュータを、請求項1〜4の何れか1項に記載のジェスチャ操作装置の前記第1検出手段、前記第2検出手段、及び前記制御手段として機能させるためのジェスチャ操作プログラム。
JP2013017555A 2013-01-31 2013-01-31 ジェスチャ操作装置及びジェスチャ操作プログラム Pending JP2014149640A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013017555A JP2014149640A (ja) 2013-01-31 2013-01-31 ジェスチャ操作装置及びジェスチャ操作プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013017555A JP2014149640A (ja) 2013-01-31 2013-01-31 ジェスチャ操作装置及びジェスチャ操作プログラム

Publications (1)

Publication Number Publication Date
JP2014149640A true JP2014149640A (ja) 2014-08-21

Family

ID=51572583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013017555A Pending JP2014149640A (ja) 2013-01-31 2013-01-31 ジェスチャ操作装置及びジェスチャ操作プログラム

Country Status (1)

Country Link
JP (1) JP2014149640A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062607A (ja) * 2015-09-24 2017-03-30 パナソニックIpマネジメント株式会社 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
WO2018116565A1 (ja) * 2016-12-22 2018-06-28 株式会社デンソー 車両用情報表示装置及び車両用情報表示プログラム
JP2018162023A (ja) * 2017-03-27 2018-10-18 株式会社デンソー 操作装置
WO2019053200A1 (de) * 2017-09-18 2019-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur ausgabe von informationen zu einem objekt eines fortbewegungsmittels, system und automobil
DE102018123114A1 (de) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha Bediengerät
US10506913B2 (en) 2015-08-28 2019-12-17 Fujifilm Corporation Apparatus operation device, apparatus operation method, and electronic apparatus system
US11683197B2 (en) 2018-08-10 2023-06-20 Denso Corporation Vehicle master device, update data distribution control method, computer program product and data structure of specification data
CN117021117A (zh) * 2023-10-08 2023-11-10 电子科技大学 一种基于混合现实的移动机器人人机交互与定位方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
WO2012176535A1 (ja) * 2011-06-20 2012-12-27 本田技研工業株式会社 車載機器操作装置及び報知装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (ja) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
WO2012176535A1 (ja) * 2011-06-20 2012-12-27 本田技研工業株式会社 車載機器操作装置及び報知装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016022146; 渡辺 博己 Hiroki Watanabe: 'マルチカメラを用いた全方位ポインティングジェスチャの方向推定 Estimation of Omni-Directinal Pointing' 電気学会論文誌C Vol.121-C No.9 The Transactions of The Institute of Electrical Engi 第121-C巻, 20010901, 1389頁, (社)電気学会 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10506913B2 (en) 2015-08-28 2019-12-17 Fujifilm Corporation Apparatus operation device, apparatus operation method, and electronic apparatus system
JP2017062607A (ja) * 2015-09-24 2017-03-30 パナソニックIpマネジメント株式会社 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
WO2018116565A1 (ja) * 2016-12-22 2018-06-28 株式会社デンソー 車両用情報表示装置及び車両用情報表示プログラム
JP2018103646A (ja) * 2016-12-22 2018-07-05 株式会社デンソー 車両用情報表示装置及び車両用情報表示プログラム
JP2018162023A (ja) * 2017-03-27 2018-10-18 株式会社デンソー 操作装置
WO2019053200A1 (de) * 2017-09-18 2019-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur ausgabe von informationen zu einem objekt eines fortbewegungsmittels, system und automobil
DE102018123114A1 (de) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha Bediengerät
US10890980B2 (en) 2017-11-20 2021-01-12 Toyota Jidosha Kabushiki Kaisha Operating apparatus for estimating an operation intention intended by a face direction
US11683197B2 (en) 2018-08-10 2023-06-20 Denso Corporation Vehicle master device, update data distribution control method, computer program product and data structure of specification data
CN117021117A (zh) * 2023-10-08 2023-11-10 电子科技大学 一种基于混合现实的移动机器人人机交互与定位方法
CN117021117B (zh) * 2023-10-08 2023-12-15 电子科技大学 一种基于混合现实的移动机器人人机交互与定位方法

Similar Documents

Publication Publication Date Title
JP2014149640A (ja) ジェスチャ操作装置及びジェスチャ操作プログラム
US11205348B2 (en) Drive assist device
US11524578B2 (en) Control method and control device for vehicle display device
US10466800B2 (en) Vehicle information processing device
JP6413207B2 (ja) 車両用表示装置
US9522633B2 (en) Driver customizable blind spot display method and apparatus
US9517776B2 (en) Systems, methods, and apparatus for controlling devices based on a detected gaze
EP2857886A2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
WO2016067574A1 (ja) 表示制御装置及び表示制御プログラム
JPWO2015125243A1 (ja) 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法
US20190213932A1 (en) Projection display device, projection display method, and projection display program
JP2008230558A (ja) 車両周辺監視装置
CN105523041B (zh) 车道偏离警告系统和用于控制该系统的方法
JP2017097759A (ja) 視線方向検出装置、及び視線方向検出システム
US20190236343A1 (en) Gesture detection device
JP6057755B2 (ja) ジェスチャ操作装置及びジェスチャ操作プログラム
JPWO2017061026A1 (ja) 画像表示装置
JP5136948B2 (ja) 車両用操作装置
WO2013114871A1 (ja) 運転支援装置及び運転支援方法
JP6365409B2 (ja) 車両の運転者のための画像表示装置
KR20130076214A (ko) 운전자의 포인팅 제스처를 이용한 차량 구동 장치 및 그 방법
JP5617678B2 (ja) 車両用表示装置
US12175021B2 (en) Display system
CN104517540A (zh) 具有安全按钮的曲面显示装置
CN111033514A (zh) 用于输出关于交通工具的物体的信息的方法、系统和汽车

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161129