[go: up one dir, main page]

JP2001216069A - Operation inputting device and direction detecting method - Google Patents

Operation inputting device and direction detecting method

Info

Publication number
JP2001216069A
JP2001216069A JP2000023548A JP2000023548A JP2001216069A JP 2001216069 A JP2001216069 A JP 2001216069A JP 2000023548 A JP2000023548 A JP 2000023548A JP 2000023548 A JP2000023548 A JP 2000023548A JP 2001216069 A JP2001216069 A JP 2001216069A
Authority
JP
Japan
Prior art keywords
movement
shape
gesture
detected
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000023548A
Other languages
Japanese (ja)
Inventor
Shunichi Numazaki
俊一 沼崎
Miwako Doi
美和子 土井
Norio Mihara
功雄 三原
Takahiro Harashima
高広 原島
Yasuaki Yamauchi
康晋 山内
Akira Morishita
明 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000023548A priority Critical patent/JP2001216069A/en
Publication of JP2001216069A publication Critical patent/JP2001216069A/en
Priority to JP2004378813A priority patent/JP2005174356A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation inputting device and method for allowing a driver to safely perform an operation without gazing on-vehicle equipment or the like. SOLUTION: Two kinds of gestures, that is, a shape gesture and a direction gesture are detected, and an operation mode is selected by one gesture, and a parameter in the operation mode is changed by the other gesture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は車載情報機器を始め
とする各種の情報機器に対し、操作入力を行う操作入力
装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an operation input device and a method for inputting operations to various information devices such as on-vehicle information devices.

【0002】[0002]

【従来の技術】近年、自動車の中には、カー・ナビゲー
ションを始め、オーディオ装置、TV、ビデオ装置、携
帯電話、エアコンなど数多くの情報機器、電装機器が搭
載されるようになっている。車内で電話をかけるだけで
なく、電子メールの読み書き、インターネットへのアク
セスさえ可能である。この傾向は今後もますます進み、
自動料金収受システムや安全走行支援システムなども導
入され、車はまさに走るコンピュータになろうとしてい
る状況である。
2. Description of the Related Art In recent years, many information devices and electric devices such as an audio device, a TV, a video device, a mobile phone, an air conditioner, and the like have been mounted in automobiles. In addition to making phone calls in the car, you can read and write e-mail and even access the Internet. This trend will continue to grow,
With the introduction of automatic toll collection systems and safe driving support systems, the car is about to become a running computer.

【0003】また、それらの様々な機器の操作パネルを
全て用意するのは困難で、操作部を共有するようになり
つつある。現在は、カー・オーディオ用の操作ボタンが
あり、エアコン用の操作ボタンがあり、カー・ナビゲー
ション用の操作ボタンあるいはリモコンがあり、それぞ
れを使って操作を行うという状況が一般的である。
In addition, it is difficult to prepare all operation panels for these various devices, and the operation units are being shared. At present, there is generally a situation in which there are operation buttons for car audio, operation buttons for air conditioner, operation buttons for car navigation or a remote control, and operation is performed using each of them.

【0004】しかし、一部の車載機器では、1つのディ
スプレイに全ての機器の状態が表示され、また、共通の
入力装置によって操作を行うことができる。例えば、デ
ィスプレイにタッチパネル機能が搭載されており、画面
に表示されるメニューに触れることで操作が行える。デ
ィスプレイには、状況に応じて異なった画面を表示でき
るため、全ての機器の操作が可能である。例えば、ディ
スプレイに「エアコン」、「オーディオ」「カーナビ」
などのメニューアイコンがあり、「オーディオ」に触れ
ると、オーディオの操作パネルが表示され、その中の
「音量を上げる」ボタンに触れると音量が大きくなる。
[0004] However, in some in-vehicle devices, the status of all devices is displayed on one display, and operations can be performed by a common input device. For example, the display has a touch panel function, and can be operated by touching a menu displayed on the screen. Since different screens can be displayed on the display depending on the situation, all the devices can be operated. For example, display "air conditioner", "audio", "car navigation"
If you touch "Audio", an audio operation panel will be displayed, and if you touch the "Volume Up" button in it, the volume will increase.

【0005】また、表示されたメニュー画面に対し、タ
ッチパネルではなくリモコンのような装置を使って操作
を行う製品も多い。その場合には、典型的にはリモコン
に4方向を指示するボタンが付いており、これを操作す
ることで、メニューを選択していくものもある。
Further, there are many products that operate the displayed menu screen using a device such as a remote controller instead of a touch panel. In such a case, typically, a remote controller is provided with a button for instructing four directions, and there is a type in which a menu is selected by operating the button.

【0006】このように、車載機器の種類が増えていく
中で、運転者が行う操作の種類は飛躍的に増大してい
る。特にカー・ナビゲーションの登場によって、操作の
種類は大幅に増えたと言って良い。このため、運転者が
運転中に、あるいは信号待ちなどのわずかな時間に操作
を行うというケースが増えている。
[0006] As the types of in-vehicle devices increase in this way, the types of operations performed by the driver have increased dramatically. In particular, with the advent of car navigation, it can be said that the types of operations have greatly increased. For this reason, the case where the driver performs an operation during driving or for a short time such as waiting for a traffic light is increasing.

【0007】従来ならば、オーディオ操作(音量調整、
選曲)やエアコン操作(温度調整、風量調整)程度しか
行っていなかったが、近年では、カー・ナビゲーション
の表示画面を切り替えたり、現在地近辺の施設を探すた
めに地図をスクロールしたり、携帯電話を使うこともあ
る。
Conventionally, audio operations (volume adjustment,
Music selection) and air-conditioning operation (temperature adjustment, air volume adjustment), but in recent years, switching the display screen of car navigation, scrolling the map to find facilities near the current location, Sometimes used.

【0008】このような操作が増えることにより、運転
中の注意力が散漫し、事故などの原因になりやすい。事
実、運転中の携帯電話の使用によって事故が急増し、道
路交通法の改正により、運転中の携帯電話の使用が禁止
された。ただし、手に電話機を持たずに通話できるハン
ズフリー装置を用いている場合は、運転中での使用は許
可されている。
[0008] By increasing the number of such operations, the driver's attention during driving is disturbed, which is likely to cause an accident or the like. In fact, the use of mobile phones while driving increased the number of accidents, and the revision of the Road Traffic Law banned the use of mobile phones while driving. However, when using a hands-free device that allows a user to talk without holding a telephone in his hand, use while driving is permitted.

【0009】この例に見られるように、運転者の視線を
動かさずに他のこと(この場合は電話)を行えるように
することは安全上重要である。
As seen in this example, it is important for safety to be able to do other things (in this case, telephone) without moving the driver's gaze.

【0010】一方、車載機器の操作について述べると、
通常は操作パネルを見ながら操作を行うために、運転者
の注意が前方よりそれることになる。そのような操作が
増えると言うことは、運転中の危険が増大していること
を示している。
On the other hand, the operation of the on-vehicle equipment will be described.
Usually, the driver's attention is deviated from the front because the operation is performed while looking at the operation panel. An increase in such operations indicates an increase in danger during driving.

【0011】また、前述したひとつの例のように、機器
の操作がディスプレイと共通の入力装置に集約している
と、例えば、従来ならば、エアコンの温度を上げるのに
は、温度つまみを回すか、温度上昇ボタンを押せばよか
ったものが、メインメニューから「エアコン」を選び、
エアコンの操作パネルが表示されてから、「温度上昇」
ボタンを押すことになり、運転者の視線の動きが増え、
危険度が増してしまう。
Further, as in the above-mentioned one example, if the operation of the devices is centralized on the display and the common input device, for example, conventionally, to raise the temperature of the air conditioner, the temperature knob is turned. What should have been to press the temperature rise button, select "Air Conditioner" from the main menu,
After the operation panel of the air conditioner is displayed,
Pressing the button will increase the movement of the driver's gaze,
The danger increases.

【0012】これらの問題を解決するために、手振りを
使うことが考えられ、いくつかの装置が提案されてい
る。特願平9−199647および特願平8−3061
02では、光センサを使った手振り検出装置を用いて、
手振りで方向を入力し、操作を行う装置を提案してい
る。しかし、通常、人が手の動きを入力するとき、例え
ば「右」「右」と繰り返し手振りを行うとき、その間に
手は「左」に戻る動作をする。この提案によるとそのよ
うな動きをしたときに、「右」「左」「右」と入力され
てしまうことになる。
In order to solve these problems, it is conceivable to use a hand gesture, and several devices have been proposed. Japanese Patent Application Nos. 9-199647 and 8-3061
In 02, using a hand movement detection device using an optical sensor,
A device for inputting directions by hand and performing operations has been proposed. However, normally, when a person inputs hand movements, for example, when the hand repeatedly performs “right” and “right”, the hand returns to “left” during that time. According to this proposal, when such a movement is made, "right", "left", and "right" are input.

【0013】[0013]

【発明が解決しようとする課題】本発明は自動車を運転
する運転者が、前方を注視したままで、安定して車載機
器の操作を行うことが難しかった現状を解決しようとす
るものである。また、その際に有効である、形状ジェス
チャ、方向ジェスチャをより効率的に安定して入力でき
るようにすることを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to solve the current situation in which it is difficult for a driver of an automobile to operate a vehicle-mounted device stably while gazing forward. It is another object of the present invention to enable a shape gesture and a direction gesture, which are effective at that time, to be input more efficiently and stably.

【0014】さらに、これは運転者だけでなく、助手席
者も操作することも想定し、画面を見ながら操作する際
の効果的な操作方法を発明する。また、車載という特殊
な環境の中でより安全に、安定して動作させることも目
的とする。また、車載に限らず、さまざまな機器で用い
ることのできる、汎用的なジェスチャ入力方法の確立を
目的とする。
In addition, the present invention assumes that not only the driver but also the passenger is operating, and invents an effective operation method when operating while watching the screen. It is also an object to operate more safely and stably in a special environment such as a vehicle. It is another object of the present invention to establish a general-purpose gesture input method that can be used not only in a vehicle but also in various devices.

【0015】[0015]

【課題を解決するための手段】本願発明は、検出すべき
対象物の形状や動きを検出するための第1の検出手段
と、この第1の検出手段によって検出される形状や動き
とは異なる前記対象物の形状や動きを検出するための第
2の検出手段と、前記第1の検出手段の検出結果をもと
に、特定の操作を選択する操作選択手段と、この操作選
択手段によって選択された操作における変更可能なパラ
メータを、前記第2の検出手段の検出結果をもとに、変
更するパラメータ変更手段を有することを特徴とする。
According to the present invention, a first detecting means for detecting a shape and a movement of an object to be detected is different from a shape and a movement detected by the first detecting means. Second detection means for detecting the shape or movement of the object, operation selection means for selecting a specific operation based on the detection result of the first detection means, and selection by the operation selection means A parameter change unit that changes a parameter that can be changed in the performed operation based on a detection result of the second detection unit.

【0016】また、検出すべき対象物の形状を検出する
形状検出手段と、前記対象物の動きの方向を検出する方
向検出手段と、前記形状検出手段の検索結果をもとに、
特定の操作を選択する操作選択手段と、この操作選択手
段によって選択された操作における変更可能なパラメー
タを、前記方向検出手段の検出結果をもとに、変更する
パラメータ変更手段を有することを特徴とする。
Further, based on a search result of the shape detecting means for detecting a shape of the object to be detected, a direction detecting means for detecting a direction of movement of the object, and a search result of the shape detecting means.
An operation selecting unit for selecting a specific operation, and a parameter changing unit for changing a changeable parameter in the operation selected by the operation selecting unit based on a detection result of the direction detecting unit. I do.

【0017】また、前記操作選択手段は、対象物の形状
に対し複数の操作を対応づけおき、前記形状検出手段が
同一の形状ジェスチャを連続して検出したときに、前記
形状に対応づけられた複数の操作を順番に切り替えて選
択することを特徴とする。
Further, the operation selection means associates a plurality of operations with the shape of the object, and when the shape detection means continuously detects the same shape gesture, the operation selection means is associated with the shape. A plurality of operations are sequentially switched and selected.

【0018】また、前記形状検出手段は、対象物の動き
が一定時間以上静止あるいは動きの小さい状態であるこ
とを検出したときに、対象物の形状の検出を行うことを
特徴とする。
Further, the shape detecting means detects the shape of the object when detecting that the movement of the object is stationary or small for a predetermined time or more.

【0019】また、選択可能な操作あるいは変更可能な
パラメータの情報を表示するための表示手段を有し、こ
の表示手段は、選択可能な操作モードとそれを選択する
ための形状ジェスチャを表す画像,あるいは変更可能な
パラメータとそれを変更するための方向を表す画像を併
せて表示することを特徴とする。
Further, the apparatus has display means for displaying information on selectable operation or changeable parameters. The display means includes an image showing a selectable operation mode and a shape gesture for selecting the operation mode, Alternatively, it is characterized in that a changeable parameter and an image indicating a direction for changing the parameter are displayed together.

【0020】また、選択可能な操作あるいは変更可能な
パラメータの情報を音声で提示するための音声提示手段
を有することを特徴とする。
[0020] The present invention is characterized in that it has a voice presenting means for presenting information on selectable operation or changeable parameters by voice.

【0021】また、前記形状検出手段または前記方向検
出手段の処理が滞ったときに音声提示を行うことを特徴
とする。
[0021] Further, the present invention is characterized in that voice presentation is performed when the processing of the shape detecting means or the direction detecting means is delayed.

【0022】また、形状検出手段による検出開始,検出
終了,検出失敗、および方向検出手段による方向検出が
起こったときに、音で操作者に提示するために音提示手
段を有することを特徴とする。
Further, there is provided a sound presenting means for presenting to the operator with sound when the detection by the shape detecting means, the detection end, the detection failure, and the direction detection by the direction detecting means occur. .

【0023】また、前記音提示手段は、操作の種類や検
出された方向の種類によって、異なる音を提示すること
を特徴とする。
Also, the sound presenting means presents different sounds depending on the type of operation and the type of detected direction.

【0024】また、検出すべき対象物の位置情報の軌跡
を解析して前記対象物の方向を検出する方法であって、
前記対象物が所定の方向に所定の距離だけ動き、前記方
向と反対側の方向に所定の距離だけ動いたとき、前記方
向への動きとして検出することを特徴とする。
Also, a method of analyzing a trajectory of position information of an object to be detected and detecting a direction of the object,
When the object moves by a predetermined distance in a predetermined direction and moves by a predetermined distance in a direction opposite to the direction, the movement is detected as a movement in the direction.

【0025】また、検出すべき対象物の位置情報の軌跡
を解析して前記対象物の方向を検出する方法であって、
前記対象物が所定の範囲に所定の時間内静止または動き
の少ない状態でとどまった後、所定の方向に所定の距離
だけ動き、前記方向と反対側の方向に所定の距離だけ動
き、再び所定の時間内だけ静止または動きの少ない状態
でとどまったときに、前記方向への動きとして検出する
ことを特徴とする。
A method for detecting the direction of an object by analyzing a trajectory of position information of the object to be detected,
After the object remains in a predetermined range in a state of rest or little motion for a predetermined time, moves in a predetermined direction by a predetermined distance, moves by a predetermined distance in a direction opposite to the direction, and again performs a predetermined operation. It is characterized in that when the robot stays still or has little motion for a time, the motion is detected as the motion in the direction.

【0026】また、前記方向検出手段は、前記対象物が
所定の方向に所定の距離だけ動き、前記方向と反対側の
方向に所定の距離だけ動いたとき、前記方向への動きと
して検出することを特徴とする。
Further, the direction detecting means detects the movement in the direction when the object moves by a predetermined distance in a predetermined direction and moves by a predetermined distance in a direction opposite to the direction. It is characterized by.

【0027】また、前記方向検出手段は、前記対象物が
所定の範囲に所定の時間内静止または動きの少ない状態
でとどまった後、所定の方向に所定の距離だけ動き、前
記方向と反対側の方向に所定の距離だけ動き、再び所定
の時間内だけ静止または動きの少ない状態でとどまった
ときに、前記方向への動きとして検出することを特徴と
する。
Further, the direction detecting means moves the object in a predetermined direction for a predetermined distance after the object stays in a predetermined range in a stationary state or a state of little movement for a predetermined time, and When the user moves in the direction by a predetermined distance and stays still for a predetermined time or stays in a state of little movement, the movement is detected as the movement in the direction.

【0028】また、前記音提示手段は、所定方向に動い
たときに第1の音を提示し、前記方向の反対側に動いて
戻り、前記方向への動きとして検出されたときに、第2
の音を提示することを特徴とする。
The sound presenting means presents a first sound when moving in a predetermined direction, moves back to the opposite side of the direction, and returns a second sound when movement in the direction is detected.
The present invention is characterized in that the sound of

【0029】また、前記音提示手段は、第1の音は動い
た方向によって異なる音を提示し、第2の音は方向によ
らず同じ音を提示することを特徴とする。
Further, the sound presenting means is characterized in that the first sound presents a different sound depending on the moving direction, and the second sound presents the same sound regardless of the direction.

【0030】また、前記方向検出手段は、意図的に動か
している動作と、意図せずに生じてしまう動作を識別す
ることを特徴とする。
Further, the direction detecting means is characterized by distinguishing between an intentionally moving operation and an unintentionally occurring operation.

【0031】また、前記方向検出手段は、所定の複数方
向のうち、いずれかの方向に動いたかを検出する手段
と、連続する同じ方向への動きの間に発生する戻る動作
を除去する手段を有することを特徴とする。
Further, the direction detecting means includes means for detecting which one of a plurality of predetermined directions has moved, and means for removing a return operation occurring between successive movements in the same direction. It is characterized by having.

【0032】また、前記方向検出手段は、動いた対象物
のセンサからの距離を検出する手段を有し、所定の方向
への連続した動きの間に、前記方向とは反対方向の距離
が遠い動きを検出したときに、戻る動きであると判定
し、除去することを特徴とする。
Further, the direction detecting means has means for detecting a distance of the moved object from the sensor, and a distance in a direction opposite to the direction is long during a continuous movement in a predetermined direction. When a movement is detected, it is determined that the movement is a returning movement and is removed.

【0033】また、前記方向検出手段は、対象物の動き
の間の時間間隔を測定する手段を有し、所定の方向への
連続した動きの間に、前記方向と反対方向の動きが検出
され、所定の長さ以下の時間間隔の場合、この間の動き
を戻る動きであると判定し、除去することを特徴とす
る。
Further, the direction detecting means has means for measuring a time interval between movements of the object, and a movement in a direction opposite to the direction is detected during a continuous movement in a predetermined direction. When the time interval is equal to or shorter than a predetermined length, the movement during this time is determined to be a returning movement and is removed.

【0034】また、検出された方向に対し異なる音を提
示する音提示手段を持つことを特徴とする。
[0034] Further, the present invention is characterized by having a sound presenting means for presenting different sounds in the detected direction.

【0035】また、前記方向検出手段は、対象物の動き
の始点と終点が近い位置に来るような軌跡を検出するこ
とを特徴とする。
Further, the direction detecting means detects a trajectory in which the starting point and the ending point of the movement of the object are close to each other.

【0036】また、検出すべき対象物の形状を検出する
ための形状検出手段と、この形状検出手段によって検出
される形状と対応づけられた操作メニューを表示するた
めのメニュー表示手段と、前記形状検出手段によって検
出された形状に応じて、前記操作メニューを選択するた
めのメニュー選択手段とを有することを特徴とする。
Further, a shape detecting means for detecting the shape of the object to be detected, a menu display means for displaying an operation menu associated with the shape detected by the shape detecting means, And a menu selection unit for selecting the operation menu according to the shape detected by the detection unit.

【0037】また、前記メニュー選択手段は、前記操作
メニューを階層的にメニューを辿っていくときに、異な
る形状を提示することを特徴とする。
Further, the menu selection means presents different shapes when the operation menu is hierarchically traversed.

【0038】また、検出すべき対象物の動きの方向を検
出する方向検出手段と、この方向検出手段によって検出
される動き方向と対応づけられた操作メニューを表示す
るため表示するメニュー表示手段と、前記方向検出手段
によって、動き方向を連続して検出されたときには、1
回だけ検出されたときとは異なる操作メニューを選択す
るメニュー選択手段とを有することを特徴とする。
A direction detecting means for detecting the direction of the movement of the object to be detected; a menu displaying means for displaying an operation menu associated with the movement direction detected by the direction detecting means; When the direction of movement is continuously detected by the direction detecting means, 1
Menu selection means for selecting an operation menu different from the operation menu detected only once.

【0039】また、検出すべき対象物の形状を検出する
ための形状検出手段と、検出すべき対象物の動きの方向
を検出する方向検出手段と、検出される形状および動き
方向と対応づけられた操作メニューを表示するため表示
するメニュー表示手段と、検出された形状および動き方
向に対応づけて、操作メニューを選択するメニュー選択
手段とを有することを特徴とする。
Further, the shape detecting means for detecting the shape of the object to be detected, the direction detecting means for detecting the direction of the movement of the object to be detected, and the detected shape and the moving direction are associated with each other. Menu display means for displaying the operation menu, and menu selection means for selecting the operation menu in association with the detected shape and movement direction.

【0040】[0040]

【発明の実施の形態】以下、図面に従い本発明の実施の
形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0041】<概要> 図1は、本発明の実施形態の一
例である。第1のジェスチャ検出部1と第2のジェスチ
ャ検出部2は、異なる種類のジェスチャを検出するもの
である。そして、操作種類選択部3は、第1のジェスチ
ャ検出部1の検出結果に従い、操作の種類を選択する。
パラメータ変更部4は、操作種類選択部3で選択された
操作の中で、変更可能なパラメータを第2のジェスチャ
検出部2の結果に従って変更する。
<Overview> FIG. 1 is an example of an embodiment of the present invention. The first gesture detection unit 1 and the second gesture detection unit 2 detect different types of gestures. Then, the operation type selection unit 3 selects an operation type according to the detection result of the first gesture detection unit 1.
The parameter change unit 4 changes a changeable parameter in the operation selected by the operation type selection unit 3 according to the result of the second gesture detection unit 2.

【0042】操作入力処理部5は、操作種類選択部3と
パラメータ変更部5の結果に従い、どのような操作が行
われたかを決定する。操作実行部6は決定された操作を
実行する。操作入力処理部5は、第1、第2のジェスチ
ャ検出部および操作種類選択部3、パラメータ変更部4
を制御し、これらが動作しないようにすることもでき
る。従って、状況に応じて、どちらか一方のジェスチャ
検出のみを行わせたりすることができる。
The operation input processing unit 5 determines what operation has been performed according to the results of the operation type selection unit 3 and the parameter change unit 5. The operation execution unit 6 executes the determined operation. The operation input processing unit 5 includes a first and second gesture detection unit and operation type selection unit 3, a parameter change unit 4.
, So that they do not work. Therefore, only one of the gestures can be detected depending on the situation.

【0043】<詳しい構成> 図1をより具体的に示し
たのが図2である。ここでは第1のジェスチャ検出部
は、形状ジェスチャを検出する、形状ジェスチャ検出部
7であり、第2のジェスチャ検出部は方向ジェスチャを
検出する方向ジェスチャ検出部8である。
<Detailed Configuration> FIG. 2 shows FIG. 1 more specifically. Here, the first gesture detection unit is a shape gesture detection unit 7 that detects a shape gesture, and the second gesture detection unit is a direction gesture detection unit 8 that detects a direction gesture.

【0044】ここで、「形状ジェスチャ」とは「手の形
で表されるジェスチャ」であり、「方向ジェスチャ」と
は「動いた方向を示すジェスチャ」である。この中で、
形状ジェスチャの場合には、必ずしも手が動いていなく
ても良く、その意味で「ジェスチャ」という言葉が当て
はまりにくいこともあるが、ここでは広く捉えて、形状
の提示もジェスチャのひとつとして扱う。
Here, the "shape gesture" is a "gesture expressed in the form of a hand", and the "directional gesture" is a "gesture indicating the direction in which the object has moved". In this,
In the case of a shape gesture, the hand does not necessarily have to be moving, and the word “gesture” may not be easily applied in that sense.

【0045】<検出手段の詳述> ここで、2つのジェ
スチャ検出部について、詳述する。具体例として、上記
の形状ジェスチャとは、「グー」「チョキ」「パー」と
いったじゃんけんで提示するような手の形状である。あ
るいは、「5本の指のうちどの指を伸ばすか」、あるい
は「人差し指と親指で丸を作る」など手によって表現さ
れるさまざまな形のことを指す。
<Detailed Description of Detecting Means> Here, the two gesture detecting units will be described in detail. As a specific example, the above-mentioned shape gesture is a hand shape such as “goo”, “choki”, and “par” that is presented as a rock-paper-scissor. Alternatively, it refers to various shapes expressed by hands, such as "Which of the five fingers should be extended" or "Make a circle with the index finger and thumb".

【0046】形状ジェスチャの例を図3に示す。本来
「ジェスチャ」とは動きを伴う意味を含んでおり、必ず
しも静止した手形状をジェスチャとは呼ばないこともあ
るが、これらの形状を提示する際には、操作者は、他の
形からこれらの形へ、手の形を変形させているのである
から、その意味で広義のジェスチャとして扱う。また、
検出処理方法を考えると、これらを静止形状として扱う
のが比較的容易であるが、実際にはこれらの形状の時系
列的な組み合わせ、形状と動きを伴うものなどもあり得
る。
FIG. 3 shows an example of the shape gesture. Originally, a “gesture” includes a meaning involving movement, and a still hand shape may not always be called a gesture.However, when presenting these shapes, the operator must use other shapes from other shapes. Since the shape of the hand is transformed into the shape of, it is treated as a gesture in a broad sense in that sense. Also,
Considering the detection processing method, it is relatively easy to treat them as stationary shapes, but in practice, there may be a combination of these shapes in a time series, or a shape accompanied by a movement.

【0047】具体的に、手の形状を捉えるための手段と
しては、小型CCDカメラなどを用いて手を撮像し、そ
の画像を解析することで形状を検出することが可能であ
る。しかし、特に車載機器応用を考えた場合、車内は昼
間明るく、夜は暗いと外光状態の変動が大きく、カメラ
で得られる画像が大きく変動してしまうため、検出精度
が低下してしまうという問題がある。カメラの前方を人
やものが横切る毎に誤認識するおそれがある。
Specifically, as a means for capturing the shape of the hand, it is possible to detect the shape by imaging the hand using a small CCD camera or the like and analyzing the image. However, especially when applied to in-vehicle equipment, the problem is that the detection accuracy decreases because the inside of the car is bright during the daytime and the nighttime is dark, and the external light condition fluctuates greatly, and the image obtained by the camera fluctuates greatly. There is. Each time a person or object crosses the front of the camera, there is a risk of erroneous recognition.

【0048】発明者らは、特開平10−177449に
あるように、発光手段と、これと同期して動作するイメ
ージセンサによって、物体形状を高速に検出できる画像
入力装置を開発した。これは、物体に典型的には赤外光
を照射し、これと同期した動作をするイメージセンサを
用いて、物体反射光のみを画像として取り出す装置であ
る。反射光の強さは一般的に物体までの距離の2乗に反
比例するため、近くの物体が遠くの背景から容易に切り
出すことができる。
The present inventors have developed an image input device capable of detecting an object shape at high speed by a light emitting means and an image sensor operating in synchronization with the light emitting means, as described in Japanese Patent Application Laid-Open No. 10-177449. This is an apparatus that typically irradiates an object with infrared light, and extracts only the object reflected light as an image using an image sensor that operates in synchronization with the infrared light. Since the intensity of the reflected light is generally inversely proportional to the square of the distance to the object, a nearby object can be easily cut out from a distant background.

【0049】この入力装置を使うと、装置自体が発光手
段を持っているため、夜などの通常のCCDカメラでは
撮像が難しい条件下でも、検出が行える。また、発光手
段は人間の目に見えない近赤外光を用いるので、運転者
の妨げにならない。また、距離のある背景の物体は、反
射光が届かず写らないため、関係ない動きなどによる誤
動作は小さくできる。
When this input device is used, since the device itself has a light emitting means, detection can be performed even under conditions where it is difficult to capture an image with a normal CCD camera, such as at night. Further, since the light emitting means uses near-infrared light which is invisible to human eyes, it does not hinder the driver. In addition, since the reflected light does not reach the background object at a long distance and the reflected light does not reach the object, malfunction due to unrelated movement or the like can be reduced.

【0050】これらの画像入力装置から得られた、手の
形状を認識して、あらかじめ決められた形状ジェスチャ
に合致するかどうかを決定する方法について述べる。例
えば、指をのばした本数による形状の違いを検出する場
合、伸ばした指が横切るであろう領域を設定し、横切っ
ている指の数を数えることによって形状の違いを検出す
ることができる。
A method of recognizing the shape of a hand obtained from these image input devices and determining whether or not the hand matches a predetermined shape gesture will be described. For example, when detecting a difference in shape due to the number of fingers extended, it is possible to detect a difference in shape by setting an area where a stretched finger will cross and counting the number of fingers crossed.

【0051】別の方法として、手の形状の輪郭線を考え
ると、指先は山状に出っ張っており、指の間は谷状にへ
こんでいる、それらの輪郭線形上を解析して、伸ばして
いる指の数を知ることができる。指先がカメラに向いて
いるような場合は、指先はカメラへの距離が周りに比べ
近い点となり、反射光量が極大となる。その極大点の数
をカウントすることで、カメラに向いている指の数を検
出することができる。
As another method, considering the outline of the shape of the hand, the fingertips protrude in a mountain shape, and the dents between the fingers are depressed in a valley shape. You can know the number of fingers. When the fingertip is facing the camera, the fingertip is a point closer to the camera than the surroundings, and the amount of reflected light is maximized. By counting the number of the maximum points, the number of fingers facing the camera can be detected.

【0052】また、自由な手の形状を認識するために、
パタンマッチングという技術を使うことができる。これ
はあらかじめ認識したい形状をパタンとして登録してお
き、入力された形状との相違度を計算し、近い形状があ
ればそれが入力されたと判断するものである。相違度の
計算の仕方としては、単純にパタンを重ね合わせ、その
重なり具合を計算するものや特徴空間へ写像し、そこで
の距離で判断する方法もある。
In order to recognize a free hand shape,
A technique called pattern matching can be used. In this method, the shape to be recognized is registered in advance as a pattern, the degree of difference from the input shape is calculated, and if there is a similar shape, it is determined that the shape has been input. As a method of calculating the degree of difference, there is a method in which patterns are simply overlapped, the degree of overlap is calculated, or a method is used in which a pattern is mapped to a feature space and the distance is used to make a judgment.

【0053】<静止してから形状認識開始> 形状の認
識をする場合、精度よく行おうとすればするほど、処理
に時間がかかる。従って、入力される画像のフレーム毎
に認識処理を行うと、処理コストが増大してしまう。形
状を提示する場合は、操作者が形状を提示して一定時間
静止している場合に、認識処理を開始するのが望まし
い。これは操作者が意志を持って形状を出す場合は、静
止させるという動作は自然であるからである。
<Start Shape Recognition after Stilling> In the case of shape recognition, the more accurate the process, the longer the processing time. Therefore, if the recognition process is performed for each frame of the input image, the processing cost increases. When presenting the shape, it is desirable to start the recognition process when the operator presents the shape and stands still for a certain period of time. This is because when the operator intentionally produces a shape, the operation of stopping the operation is natural.

【0054】また、静止状態を見つけたときのみ認識処
理を行えばよいから、計算コストを下げることができ
る。また、ジェスチャを提示する意志無しに、動かした
動作は、それが静止しない限り、ジェスチャ提示と誤認
識してしまうことがない。
Further, since the recognition process only needs to be performed when a stationary state is found, the calculation cost can be reduced. Also, a motion that has been moved without intention to present a gesture will not be erroneously recognized as a gesture presentation unless it is stationary.

【0055】一方、方向ジェスチャは、このような画像
入力装置から得られる画像から、手の動き方向を抽出す
ることによって行える。例えば、特開平10−1774
49における画像入力装置を用いた場合、画像には背景
は写らず、手の形状のみが写っているので、この画像の
重心計算を行えば、手の位置が求められる。その軌跡を
追跡することで基本的な動きを検出することが可能であ
る。
On the other hand, the direction gesture can be performed by extracting the hand movement direction from an image obtained from such an image input device. For example, Japanese Patent Application Laid-Open No. Hei 10-1774
When the image input device of 49 is used, the background is not shown in the image, and only the shape of the hand is shown. Therefore, if the center of gravity of this image is calculated, the position of the hand can be obtained. By tracking the trajectory, a basic movement can be detected.

【0056】手首付近はほとんど動かさず、指先だけを
動かすような場合には、手全体の重心計算を行うと、検
出される動きの精度が悪いことがある。このような場合
は、手の形状を細かく考慮した処理を行うことが考えら
れる。
When the fingertip is moved almost without moving around the wrist, if the center of gravity of the entire hand is calculated, the accuracy of the detected movement may be poor. In such a case, it is conceivable to perform processing in which the shape of the hand is carefully considered.

【0057】例えば、カメラに向かって指を伸ばしてい
る場合、指の先端はカメラに最も近く、したがって反射
光が最も大きく、画像中で極大点ととなっていることが
多い。このような点を検出し、それらの最も近いもの、
あるいは極大点の平均などを求めることで、手全体の重
心点を求めるのに比べ、実際の動きに対し感度のよい評
価値として、位置情報を得ることができる。この場合、
複数ある極大点の画像フレーム間の対応関係などを求め
ておくと、画像の端のほうに存在していた極大点が画像
外に出てしまった場合などの位置の挙動がおかしくなる
のを防ぐことができる。
For example, when the finger is extended toward the camera, the tip of the finger is closest to the camera, and therefore the reflected light is the largest, and is often the maximum point in the image. Detect such points and find their closest ones,
Alternatively, position information can be obtained as an evaluation value that is more sensitive to an actual movement than by obtaining the center of gravity of the entire hand by calculating the average of the maximum points and the like. in this case,
Finding the correspondence between image frames of a plurality of local maximum points, etc., prevents the position behavior when the local maximum points that existed at the edge of the image goes out of the image, etc. be able to.

【0058】いずれにしても、得られた手形状データか
ら、位置の情報を取り出し、その軌跡を解析することに
よって動きジェスチャを検出するのがよい。通常のCC
Dカメラを使った場合でも色情報などにより、手の形状
がきちんと切り出すことができれば、そこから位置情報
を取り出すことが可能である。方向ジェスチャを検出す
る方法については、実施例の後の方で詳しく述べる。
In any case, it is preferable to detect positional information from the obtained hand shape data and analyze the trajectory to detect a motion gesture. Normal CC
Even when a D camera is used, if the shape of the hand can be properly cut out based on color information or the like, it is possible to extract position information therefrom. A method for detecting the direction gesture will be described in detail later in the embodiment.

【0059】<操作状態遷移> この2種類のジェスチ
ャ検出を用いて、構成した操作における、状態遷移図を
図4に示す。まず始めは何も行っていない状態である。
ここで第1のジェスチャ検出部で検出する。いずれかの
ジェスチャを提示すると、それが検出され、操作モード
の1つに入る。例えば、ジェスチャ1が提示されるとカ
ー・ナビゲーションのビューを操作するモードに入り、
ジェスチャ2が提示されるとエアコンの操作モードに入
り、ジェスチャ3が提示されるとオーディオ操作のモー
ドに入る。各操作モード内では、4方向の方向ジェスチ
ャによっていくつかのパラメータが調整できるようにな
っている。
<Operation State Transition> FIG. 4 shows a state transition diagram in an operation configured using these two types of gesture detection. At first, nothing is done.
Here, detection is performed by the first gesture detection unit. When any gesture is presented, it is detected and enters one of the operating modes. For example, when gesture 1 is presented, a mode for operating a car navigation view is entered,
When the gesture 2 is presented, the operation mode of the air conditioner is entered, and when the gesture 3 is presented, the operation mode of the audio operation is entered. Within each operation mode, several parameters can be adjusted by four direction gestures.

【0060】例えばオーディオ操作モードにおいては、
上方向のジェスチャの提示により音量が大きくなり、下
方向のジェスチャの提示により音量が小さくなる。ま
た、右方向のジェスチャ提示により音楽CDなどの次曲
選択、左方向のジェスチャ提示により前曲選択が行え
る。また、オーディオ関係だけ考えても、操作対象とし
て、音楽CD、音楽MD、カセットテープ、ラジオ、場
合によってTVなど様々ある。始めにジェスチャ3を提
示することによりオーディオ操作モードになったが、そ
のときは現在動いている対象の操作が行えるようになっ
ている。
For example, in the audio operation mode,
Presenting an upward gesture increases the volume, and presenting a downward gesture decreases the volume. In addition, the next tune such as a music CD can be selected by presenting the gesture in the right direction, and the previous tune can be selected by presenting the gesture in the left direction. Even if only audio is considered, there are various operation targets such as a music CD, a music MD, a cassette tape, a radio, and a TV in some cases. First, when the gesture 3 is presented, the operation mode is changed to the audio operation mode. At that time, the operation of the currently moving target can be performed.

【0061】例えば、音楽CDが流れていれば、CDの
選曲、音量調整ができるようになっている。ジェスチャ
3を繰り返し提示することでこの操作対象を切り替える
ことができる。例えば、2回繰り返すと音楽MD、もう
1度提示するとラジオというように順に切り替わってい
く。このとき操作の対象によって、方向ジェスチャによ
る変更パラメータが変わることがある。
For example, if a music CD is playing, music selection and volume adjustment of the CD can be performed. The operation target can be switched by repeatedly presenting the gesture 3. For example, if it is repeated twice, the music MD is switched, and if it is presented again, the music MD is switched. At this time, the change parameter by the direction gesture may change depending on the operation target.

【0062】例えば、CDやMDの場合は、右,左の方
向ジェスチャで次曲,前曲を選択したが、ラジオの場合
にはラジオ局を登録した順に次局、前局を選択するよう
になる。音量調整はどの操作対象に関しても頻繁に使う
ので、上下の方向ジェスチャに関してはどの場合でも音
量調整を行うようにする。
For example, in the case of a CD or MD, the next song and the previous song are selected by right and left direction gestures. In the case of a radio, the next station and the previous station are selected in the order in which the radio stations are registered. Become. Since the volume adjustment is frequently used for any operation target, the volume adjustment is performed for the gesture in the up and down directions in any case.

【0063】形状ジェスチャと操作対象の対応付けを覚
えておけば、運転者は操作パネルを見ずに、操作モード
を選ぶことができる。また、選んだ操作モード内の操作
も、上下の方向ジェスチャで、音量の大小、というよう
に非常に覚えやすいものであるため、一連の操作全て
が、視線を前方に維持したまま、操作パネルを見ずに行
うことができる。
By remembering the correspondence between the shape gesture and the operation target, the driver can select an operation mode without looking at the operation panel. In addition, since the operation in the selected operation mode is also very easy to remember, such as the volume of the volume with the up and down direction gesture, all the series of operations can be performed while keeping the line of sight ahead. Can be done without looking.

【0064】例えば、カー・ナビゲーションを利用して
いるときには画面にはマップが表示されていることが多
いが、このときオーディオの操作を行いたければ、表示
のジェスチャを提示することで直ちにオーディオ操作パ
ネルが表示される。通常であれば一旦メインメニューを
表示し、メインメニューの中からオーディオ操作の項目
を探し、それを選択してはじめてオーディオ操作パネル
が表示される。
For example, when a car navigation is used, a map is often displayed on the screen. At this time, if an audio operation is to be performed, a gesture of the display is presented and the audio operation panel is immediately displayed. Is displayed. Normally, the main menu is displayed once, an audio operation item is searched from the main menu, and the audio operation panel is displayed only after selecting the item.

【0065】このように比較すれば、ジェスチャ提示に
よって、頻繁に用いる機能に素早くアクセスできること
の効果は大きい。
As compared in this way, the effect of quickly accessing frequently used functions by the gesture presentation is significant.

【0066】<ジェスチャ・アイコン> これらのジェ
スチャによる操作は非常に簡便であり、よく使用する形
状ジェスチャは容易に記憶することができる。また、方
向ジェスチャに関しては動きと効果(音量を上げる、下
げるなど)が上手く関連づけられているので、覚えやす
い。しかしながら、使用を始めたばかりの使用者や、長
期間使用をしていなかった後などにおいて、どのような
ジェスチャを行えば、何を制御できたか、ということを
忘れてしまうことがある。そのような場合に、わざわざ
取扱説明書を取り出して読まなくてはならないとした
ら、非常に不便である。
<Gesture Icon> The operation using these gestures is very simple, and frequently used shape gestures can be easily stored. In addition, as for the direction gesture, the movement and the effect (such as raising or lowering the volume) are well associated with each other, so that it is easy to remember. However, in some cases, such as when a user has just started using or after not using it for a long time, he or she may forget what kind of gesture and what could be controlled. In such a case, it is very inconvenient if the user must take out and read the instruction manual.

【0067】ここではさらに、ジェスチャを表示したア
イコンを画面上に同時に表示することで、操作を忘れた
場合も、容易に行うべきジェスチャを知ることができ
る。これを図5に示す。この図では画面下部にジェスチ
ャの形状を示すアイコン9とそのジェスチャを提示した
ときに行える操作を一緒に表示してある。このように、
実行できる形状ジェスチャとそれで何を操作できるかを
表示しておけば、忘れた場合はこの画面を見ることです
ぐに思い出せる。
Here, by further displaying the icon displaying the gesture on the screen at the same time, even if the operation is forgotten, the gesture to be performed can be easily known. This is shown in FIG. In this figure, the icon 9 indicating the shape of the gesture and the operation that can be performed when the gesture is presented are displayed together at the bottom of the screen. in this way,
By displaying the shape gestures that can be executed and what can be operated with them, if you forget them, you can immediately recall by looking at this screen.

【0068】操作ごとにこの画面のジェスチャ・アイコ
ンを見るようでは、操作パネルを見るのと同じであり、
運転者の注意が逸れることになるが、この場合は、操作
を忘れたときに見るだけなので、安全性は保たれてい
る。むしろ、操作を忘れてしまい、取扱説明書を見る方
がよほど危険である。
Looking at the gesture icon on this screen for each operation is the same as looking at the operation panel.
The driver's attention will be distracted, but in this case, the safety is maintained because the driver only looks when he forgets the operation. Rather, it is more dangerous to forget the operation and look at the instruction manual.

【0069】<音声フィードバック> 画面を見ずに操
作をしていると、時として今、どのような操作モードに
入っていて、今何が操作できるのかが分からなくなって
しまう。これは前述した、ジェスチャを忘れてしまうの
とは異なり、ちょっとしたことで気を取られることによ
って起こりうる。例えば、ラジオからCDに切り替えよ
うとして、オーディオ操作のためのジェスチャを提示し
たところで、突然、最近気に入っているヒット曲がかか
ったり、操作の途中で急に話しかけられたりして、気を
取られることによって起こりやすい。
<Voice Feedback> If an operation is performed without looking at the screen, sometimes it is difficult to know what operation mode is currently in operation and what can be operated now. This is different from forgetting a gesture, as described above, and can be caused by distraction. For example, when a gesture for audio operation is presented to switch from a radio to a CD, suddenly hitting a favorite song recently or suddenly speaking during operation, the user may be distracted. Easy to happen by.

【0070】そのような状況に対処するために、本発明
では、状況に応じて、音声を用いて、使用者に現在の状
況を知らせる、音声によるフィードバック機能を付加す
る。例えば、前述の例で、オーディオ操作ジェスチャを
提示した後、何かに気を取られて、分からなくなったと
き、「オーディオ操作です」と音声でフィードバックす
る。あるいは、現在ラジオがかかっているのなら「ラジ
オ操作です」、CDがかかっているのなら「CD操作で
す」と状況に応じて音声フィードバックを変えても良
い。操作を行うたびに、音声フィードバックを行うのも
よい。
In order to cope with such a situation, the present invention adds a voice feedback function for notifying the user of the current situation using voice according to the situation. For example, in the above-described example, after presenting the audio operation gesture, when something is distracted and the user does not understand, the audio feedback “audio operation” is given. Alternatively, the audio feedback may be changed according to the situation, such as "Radio operation" if the radio is currently on, and "CD operation" if the CD is on. Voice feedback may be provided each time an operation is performed.

【0071】しかし、操作に慣れると、オーディオ操作
ジェスチャと続く方向ジェスチャ(音量を上げるなど)
は連続して提示されることが多くなり、そのたびに音声
フィードバックが起こると煩わしくなる。そこで、オー
ディオ操作ジェスチャが提示されてからしばらく次の操
作が無いときに、使用者が状況を忘れたと判断し、音声
フィードバックを返すのが望ましい。また、同様に、音
声フィードバックを返した後さらに、一定時間経過した
場合、方向ジェスチャによって何が操作できるかを音声
フィードバックで返してもよい。例えば「上下で音量調
整、左右で選局してください」と言った具合に音声をフ
ィードバックする。
However, when the user gets used to the operation, the audio operation gesture is followed by the direction gesture (such as increasing the volume).
Are often presented in succession, and each time voice feedback occurs, it becomes annoying. Therefore, when there is no next operation for a while after the audio operation gesture is presented, it is desirable to judge that the user has forgotten the situation and return audio feedback. Similarly, when a certain period of time has elapsed after returning the voice feedback, what can be operated by the direction gesture may be returned by the voice feedback. For example, the voice is fed back, such as "Adjust the volume up and down, select the channel with left and right".

【0072】この機構をブロック図で示したものが、図
6である。操作入力処理部10は、形状ジェスチャが入
力されるとタイマー12を起動する。タイマー12は一
定時間経過すると操作入力処理部10にそのことを伝
え、それに従い、操作入力処理部10は音声フィードバ
ック部13に音声フィードバックを行うよう指示を出
す。
FIG. 6 is a block diagram showing this mechanism. The operation input processing unit 10 starts the timer 12 when the shape gesture is input. The timer 12 informs the operation input processing unit 10 when a certain time has elapsed, and in accordance with the notification, the operation input processing unit 10 instructs the audio feedback unit 13 to perform audio feedback.

【0073】また、この処理をフローチャートで示した
のが図7である。はじめの状態では、形状ジェスチャの
検出のみを行っており(S14)、形状ジェスチャが検
出されると(S15)、操作モードを変更し(S1
6)、ここでタイマーを起動する(S17)。続いて方
向ジェスチャの検出(S18)を始めるが、このループ
の中で、タイマーが起動してから一定時間経過したかど
うかを判断し(S20)、経過したと判断されたら音声
フィードバックを発生させる(S19)。
FIG. 7 is a flowchart showing this process. In the initial state, only the shape gesture is detected (S14), and when the shape gesture is detected (S15), the operation mode is changed (S1).
6) Here, a timer is started (S17). Subsequently, direction gesture detection (S18) is started. In this loop, it is determined whether a predetermined time has elapsed since the timer was started (S20), and when it is determined that the timer has elapsed, voice feedback is generated (S20). S19).

【0074】このフローチャートでは、形状ジェスチャ
を検出する初期状態へ戻る経路を省いているが、これ
は、さらに一定時間が経った後、あるいは、特定のジェ
スチャを行ったときなどに、戻るように構成できる。
In this flowchart, the path for returning to the initial state for detecting the shape gesture is omitted. However, this is configured so that the path returns after a certain period of time or when a specific gesture is performed. it can.

【0075】<音のフィードバック> 操作に迷ったと
きなどに、音声で現在の状態をフィードバックすると効
果があることを述べたが、これ以外にも、操作が実行さ
れたときに音でフィードバックするとさらに効果があ
る。従来のボタンによる操作パネルでは、操作者はボタ
ンに触ったことが分かり、またボタンを押すことによっ
て手に戻ってくる感触を手がかりにきちんとボタンが押
せたかどうかが分かるし、さらには音量が変わる、曲が
変わるなどの効果を実際に感じることによって、操作が
実際に行われたことを知ることができる。
<Sound Feedback> It has been described that it is effective to feed back the current state by voice when the user is lost in operation. effective. With a conventional operation panel using buttons, the operator can know that the button has been touched, and if the button is pressed, it can be used as a clue to determine whether the button has been pressed properly, and the volume changes. By actually feeling the effect such as a change in the music, it is possible to know that the operation has actually been performed.

【0076】しかし、ジェスチャによって操作を行う場
合は、どこにも触れないことから、操作感に乏しいとい
う問題がある。同様のことが例えば、コンピュータにお
ける操作が上げられる。
However, when performing an operation by gesture, there is a problem that an operation feeling is poor because the user does not touch anywhere. The same applies, for example, to operations on a computer.

【0077】例えば、マウスでデスクトップのアイコン
をダブルクリックし、あるアプリケーションを起動する
とき、通常起動するには、ハードディスクなどの記憶装
置からプログラムをロードし、画面に表示する時間がか
かるため、ダブルクリックした後、瞬時には起動しな
い。従って、ダブルクリックした後、本当に起動画面が
表示されるまでは操作が成功したかどうか分からずに不
安である。
For example, when a certain application is started by double-clicking a desktop icon with a mouse, it usually takes time to load a program from a storage device such as a hard disk and display it on a screen. After that, it does not start instantly. Therefore, after double-clicking, it is uneasy to know whether or not the operation was successful until the startup screen is truly displayed.

【0078】多くのコンピュータおよびソフトウエアで
は、この問題に対処するために、ダブルクリックしてプ
ログラムを起動させると、直ちにマウスカーソルの表示
を変化させ、起動が行われていることを知らせるように
している。例えば、矢印状のカーソルが砂時計の形に変
わり、起動のための準備をしていることを示したりす
る。この事実は、なんらかのフィードバックが重要であ
ることを示している。
In many computers and software, in order to deal with this problem, when the program is started by double-clicking, the display of the mouse cursor is changed immediately to notify that the start is being performed. I have. For example, the arrow-shaped cursor may change to an hourglass to indicate that it is preparing for activation. This fact indicates that some kind of feedback is important.

【0079】一方、車載機器を運転者が運転中に操作す
ることを考えると、このようにカーソルの形状を変える
など、画面上の変化でフィードバックを行うことは適切
でない。なぜならば、フィードバックを確認するため
に、前方から注意を逸らさなくてはならないからであ
る。音でフィードバックを返すことは、運転者が前方か
ら注意を逸らさずに確認することができ、特に本発明の
ような、ジェスチャによる操作入力装置には極めて有効
である。音声によるフィードバックには時間がかかるた
め、毎回聞かされると煩わしく感じるが、音によるフィ
ードバックは瞬時に行われるため、煩わしさはなく、む
しろ操作が完了したことを確認できて安心するという効
果がある。
On the other hand, considering that the driver operates the in-vehicle device during driving, it is not appropriate to provide feedback based on changes on the screen, such as changing the shape of the cursor. This is because you have to divert your attention from the front to see the feedback. Returning the feedback by sound can be confirmed by the driver without distracting the driver from the front, and is extremely effective particularly for a gesture-based operation input device as in the present invention. The feedback by voice takes a long time, so it feels annoying every time it is heard. However, since the feedback by sound is instantaneous, there is no hassle, and it is possible to confirm that the operation has been completed, and there is an effect that the user can feel relieved.

【0080】さらに、ジェスチャの種類によって音を変
えると、正しいジェスチャが行われたどうかも判断する
ことができる。例えば、「ビュー」のジェスチャを提示
したときは「ピッ」、「エアコン」のジェスチャを提示
したときは「プッ」、「オーディオ」のジェスチャを提
示したときは「ポッ」という音をフィードバックするよ
うにすると、「オーディオ」操作を選択したつもりで
も、「ピッ」という音が聞こえれば、操作が正しく行わ
れなかったと知ることができる。
Further, if the sound is changed according to the type of the gesture, it can be determined whether the correct gesture has been performed. For example, when the gesture of "view" is presented, the sound of "pip" is fed back, when the gesture of "air conditioner" is presented, the sound of "pop" is presented, and when the gesture of "audio" is presented, the feedback sound is "pop". Then, even if the user intends to select the “audio” operation and hear a “beep” sound, it is possible to know that the operation was not performed correctly.

【0081】実際には使用者は、「オーディオ」と「ポ
ッ」という音が関係していると明確に記憶することは少
ないかも知れないが、「オーディオ」のジェスチャに対
し、常に「ポッ」という音を聞いていると、たまに異な
る音が鳴ると違和感を覚えるものである。従って、明確
に何を間違ったかまでは分からなくとも、「正しく行わ
れなかった」ことを知ることはできる。
In practice, it may be rare that the user clearly remembers that the sound “audio” and the sound “pop” are related, but the gesture of “audio” always makes the sound “pop”. When listening to the sound, sometimes when a different sound is heard, it feels strange. Therefore, it is possible to know "it did not work correctly" without knowing exactly what was wrong.

【0082】また、形状認識を行う際には、静止状態が
検出されたときのみ形状認識処理を行うのが望ましいと
述べた。そのような処理を行う場合は、静止形状を見つ
けた時点で音を鳴らし、ジェスチャが検出されたらジェ
スチャに応じてまた音を鳴らす。例えば、静止状態を検
出し、形状認識を開始したら、「ピー」という音を鳴ら
し、形状検出が成功したら、前述の「ピッ」「プッ」
「ポッ」のいずれかの音が鳴り、検出に失敗したら「ブ
ー」という音が鳴る。これで認識が失敗したことがわか
り、また、意図しないのにジェスチャが認識されてしま
ったときでもそのことを知ることができる。
Also, it has been described that when performing shape recognition, it is desirable to perform shape recognition processing only when a stationary state is detected. When such processing is performed, a sound is emitted when a stationary shape is found, and a sound is emitted again according to the gesture when a gesture is detected. For example, when a stationary state is detected and shape recognition is started, a beep is sounded, and when shape detection is successful, the above-mentioned "beep" and "beep"
A beep sounds, and if the detection fails, a beep sounds. This makes it possible to know that the recognition has failed, and to know that the gesture has been recognized unintentionally even when the gesture has been recognized.

【0083】なお、このように2段階で音を鳴らした方
がよいかどうかは、認識処理にどのくらい時間がかかる
かに依存する。例えば、0.2 秒静止状態が合ったときに
認識を開始し、認識処理が0.1 秒で終了するなら、操作
者が形状を提示してから0.3秒でジェスチャが検出され
る。この場合なら、2段階の音提示は必要ないかも知れ
ない。逆に0.2秒静止状態が合ったときに認識を開始
し、認識処理が1秒で終了するなら、操作者が形状を提
示してから1.2秒経たないとジェスチャが検出されたか
どうかわからない。この場合には、2段階の音提示が有
効である。
Whether the sound should be produced in two stages depends on how long the recognition process takes. For example, if the recognition starts when the stationary state for 0.2 seconds is met and the recognition processing ends in 0.1 seconds, the gesture is detected 0.3 seconds after the operator presents the shape. In this case, two-stage sound presentation may not be necessary. Conversely, if the recognition is started when the stationary state is achieved for 0.2 seconds and the recognition process is completed in 1 second, it is not known whether the gesture is detected until 1.2 seconds have passed since the operator presented the shape. In this case, two-stage sound presentation is effective.

【0084】この例で述べた、「ピッ」「プッ」「ポ
ッ」などの表現はあくまで音の種類が違うことを表現し
たのみで、短時間の音であれば制限はない。ただし、3
つの形状ジェスチャで出す音は、ある程度違いがすぐ分
かる程度に違っていた方が望ましいし、例えば認識が失
敗したときの音は「ブー」などの比較的、習慣、文化的
に「失敗」と結びつきやすい音を採用するのが望まし
い。
The expressions such as "beep", "beep", and "blow" described in this example merely indicate that the type of sound is different, and there is no limitation as long as the sound is short-time. However, 3
It is desirable that the sound produced by one shape gesture be different to the extent that the difference can be easily recognized to a certain extent. For example, the sound when recognition fails is relatively tied to "failure", such as "boo". It is desirable to use easy sounds.

【0085】<他のジェスチャ> 本実施例において
は、第1のジェスチャ検出部は形状ジェスチャを検出
し、第2のジェスチャ検出部は方向ジェスチャを検出と
いう例で説明した。しかし、実施例はこれに限らず、あ
らゆる種類のジェスチャから、異なるカテゴリに属する
ジェスチャを2群選び、それを使って操作モード選択と
パラメータ調整を行うものでもよい。
<Other Gestures> In the present embodiment, an example has been described in which the first gesture detector detects a shape gesture, and the second gesture detector detects a direction gesture. However, the embodiment is not limited to this, and two groups of gestures belonging to different categories may be selected from all types of gestures, and the operation mode selection and the parameter adjustment may be performed using the selected groups.

【0086】またその特殊な例として、第1と第2のジ
ェスチャ検出部が同じ種類のジェスチャを検出する場合
も含まれる。例えば、はじめに方向ジェスチャで4つの
操作モードを選び、次に方向ジェスチャでパラメータを
変更する方法がある。
As a special example, the case where the first and second gesture detection units detect the same type of gesture is also included. For example, there is a method of first selecting four operation modes with a direction gesture and then changing parameters with a direction gesture.

【0087】この場合、同じ方向ジェスチャが検出され
たときにそれがどちらを制御するジェスチャなのかの判
断は、現在操作モードが選択されているかどうかで決ま
る。操作モードが選択されていなければ、ジェスチャは
操作選択のためのジェスチャであると判断され、既に操
作モードが選択されていれば、ジェスチャはパラメータ
変更のためのジェスチャであると判断される。
In this case, when a gesture in the same direction is detected, the determination of which gesture is to be controlled depends on whether the operation mode is currently selected. If the operation mode is not selected, the gesture is determined to be a gesture for selecting an operation. If the operation mode is already selected, the gesture is determined to be a gesture for changing a parameter.

【0088】また、上述の例では、方向ジェスチャは、
どちらかの方向へのジェスチャがあったかどうかだけを
判定した。そうではなく、手を上下左右に動かすことで
連続的に値を変えることも可能である。例えば前述した
実施例では、上方向ジェスチャを1回行う毎に、音量が
少しずつ大きくなり、大幅に大きくしたいときには何度
も上方向ジェスチャを提示しなくてはならない。これを
手の上下方向に動かすとそれに従って音量が変わる。そ
して、一定時間静止させるか、左右方向の動きを検出す
ると、その音量で固定する。素早くパラメータを変えた
いものにはこのような方法も適している。
In the above example, the direction gesture is
It was only determined whether there was a gesture in either direction. Instead, the value can be changed continuously by moving the hand up, down, left, and right. For example, in the above-described embodiment, the volume gradually increases each time the upward gesture is performed, and when it is desired to greatly increase the volume, the upward gesture must be presented many times. Move this up and down to change the volume accordingly. Then, when the camera is stopped for a certain period of time or when the movement in the left-right direction is detected, the sound volume is fixed. This method is also suitable for those who want to change parameters quickly.

【0089】また、上下左右の方向のみ述べたが、奥行
き方向の動きも利用することができる。特開平10−1
77449で発明された画像入力装置を使うと、物体距
離に依存する反射光の強さが画像として得られるため、
奥行き方向の位置を安定して求めることができるため、
このような使い方には適している。
Although only the vertical and horizontal directions have been described, the movement in the depth direction can also be used. JP-A-10-1
By using the image input device invented in 77449, the intensity of the reflected light depending on the object distance can be obtained as an image.
Since the position in the depth direction can be obtained stably,
It is suitable for such usage.

【0090】<回転ジェスチャ> 他の例として、方向
ジェスチャではなく、回転ジェスチャを使うこともでき
る。つまり、つまみを持つような手の形状を提示し、つ
まみを回すような手の動きをすることにより、その動き
の回転量が検出されるので、それをパラメータとして設
定する。ちょうど音調調節つまみを回すような感覚が実
現できる。
<Rotation Gesture> As another example, a rotation gesture can be used instead of a direction gesture. That is, by presenting the shape of a hand having a knob and performing a hand motion such as turning the knob, the amount of rotation of the movement is detected, and this is set as a parameter. The feeling of turning the tone adjustment knob can be realized.

【0091】<方向ジェスチャの入力方法> ここから
は、上記に述べた実施例の一要素となっている、方向ジ
ェスチャの入力方法について詳細に述べる。方向ジェス
チャの入力を実現する際に重要な点がある。それは繰り
返し同じ方向のジェスチャが入力されうることであり、
そのときに安定して検出できることが重要である。例え
ば、特願平9−199647で提案されている手振り入
力装置では、装置の前を手が横切ることで入力を行って
いる。
<Input Method of Direction Gesture> The input method of the direction gesture, which is one element of the above-described embodiment, will be described in detail. There is an important point in realizing the input of the direction gesture. That is, gestures in the same direction can be input repeatedly.
It is important that the detection be stable at that time. For example, in a hand gesture input device proposed in Japanese Patent Application No. 9-199647, an input is performed by a hand crossing the front of the device.

【0092】しかし、このような装置で、同じ方向のジ
ェスチャを繰り返すと誤動作を起こす可能性がある。す
なわち、例えば、「右」、「右」と繰り返して入力する
際には、2回の右方向ジェスチャの間で、手が一旦左側
に戻らなくてはならない。この際に、これが左方向ジェ
スチャと誤認識され、「右」、「右」と入力したつもり
が、「右」、「左」、「右」と入力されてしまうことに
なる。これを防ぐには、左に戻すときには、センサに検
知されないような位置を通って手が戻ることが必要であ
る。そのような動作をしなければならないとすると、繰
り返し同じ方向のジェスチャを入力するのは至極面倒く
さいものになってしまう。
However, if such a device repeats a gesture in the same direction, a malfunction may occur. That is, for example, when repeatedly inputting “right” and “right”, the hand must once return to the left between two rightward gestures. At this time, this is erroneously recognized as a left gesture, and the input of “right” and “right” is input as “right”, “left” and “right”. To prevent this, when returning to the left, it is necessary for the hand to return through a position that is not detected by the sensor. If such an operation had to be performed, it would be extremely troublesome to repeatedly input a gesture in the same direction.

【0093】<動いて、戻って、方向入力とする> そ
れを解決するための方向ジェスチャ入力方法を図8に示
す。これは、安定して方向ジェスチャを取得するための
処理をフローチャートで表している。
<Move, Return, and Direction Input> A direction gesture input method for solving the problem is shown in FIG. This is a flowchart of a process for stably acquiring a direction gesture.

【0094】まず、使用者が手をカメラセンサの前に出
したとき、直ちに動き情報を検出してしまうと、誤動作
の原因になる。従って、まず使用者はカメラセンサの前
に手を出し、静止させることによって、これから方向ジ
ェスチャを入力することを知らせる。装置は、物体が画
面中央の所定の領域内で一定時間静止したことを検出す
ることによって(S23,S24)、使用者が方向ジェ
スチャを入力しようとしていると判断し、方向ジェスチ
ャの検出を開始する。
First, when the user puts his hand in front of the camera sensor and immediately detects the motion information, a malfunction may occur. Therefore, first, the user puts his hand in front of the camera sensor and stops, thereby notifying that the direction gesture is about to be input. The apparatus determines that the user intends to input a direction gesture by detecting that the object has stopped for a predetermined time in a predetermined area in the center of the screen (S23, S24), and starts detecting the direction gesture. .

【0095】手の位置の軌跡を追跡し、いずれかの方向
に一定量だけ動いたことを検出する(S25,S2
6)。検出する方向の数は、例えば4方向のジェスチャ
検出であれば4つであるし、8方向であれば斜め方向も
含め8つである。また、動きが上下左右だけでなく、奥
行き方向であっても検出する場合もある。
The trajectory of the hand position is tracked, and it is detected that the hand has moved by a certain amount in any direction (S25, S2).
6). The number of directions to be detected is, for example, four for gesture detection in four directions, and eight for oblique directions in eight directions. Further, there is a case where the motion is detected not only in the vertical and horizontal directions but also in the depth direction.

【0096】ある方向に一定量動いたことが検出された
ら、次は反対方向、すなわち戻る方向に、一定量移動す
るかどうかを監視する(S27)。そして、反対方向に
一定量移動し(S28)、そこでさらに一定時間静止し
たことを検出したとき(S29,S30)、方向ジェス
チャがあったと判断する(S31)。ここで述べている
「静止」した状態とは、厳密には静止していなくとも、
動きが小さいときを含む。
If it is detected that the object has moved by a certain amount in a certain direction, it is monitored whether or not it moves by a certain amount in the opposite direction, that is, in the returning direction (S27). Then, it is moved by a fixed amount in the opposite direction (S28), and when it is detected that it has stopped still for a certain period of time (S29, S30), it is determined that there is a direction gesture (S31). The "stationary" state described here is not strictly stationary,
Including when the movement is small.

【0097】この方法の良いところは、同じ方向のジェ
スチャを連続して入力する場合、そのあいだの戻る動作
が、反対方向のジェスチャとして誤認識されることが無
いことである。それは、常にジェスチャが中央付近から
開始され、その付近に戻ることによってジェスチャが終
了するからである。
The advantage of this method is that when gestures in the same direction are successively input, the returning operation during that time is not erroneously recognized as a gesture in the opposite direction. This is because the gesture always starts near the center and ends by returning to the vicinity.

【0098】また、方向ジェスチャを次々と連続して入
力したい場合に、一つひとつのジェスチャのつながりが
スムーズなので、操作者にとって、作業がし易いという
利点がある。
Further, when it is desired to input direction gestures one after another, there is an advantage that the operation is easy for the operator because the connection of each gesture is smooth.

【0099】<音のフィードバック> また、方向ジェ
スチャを入力する際にも、音をフィードバックさせ、操
作者に入力が受け付けられたことを知らせるのは有効で
ある。図8の場合は、最後の静止状態で方向ジェスチャ
の検出が完了した時点で音を発生させる。また、入力さ
れた方向によって異なる音を発生させると、使用者は正
しい入力が行われたことを確実に知ることができる。
<Sound Feedback> Also, when inputting a directional gesture, it is effective to feed back the sound and inform the operator that the input has been accepted. In the case of FIG. 8, a sound is generated at the time when the detection of the direction gesture is completed in the final stationary state. Further, when different sounds are generated depending on the input direction, the user can surely know that the correct input has been performed.

【0100】<2度の音でフィードバック> 音をフィ
ードバックさせるときに、2段階で音を発生させると、
さらに効果的な場合がある。図8中で、いずれかの方向
に一定量動いたことを検出した時点で、一つ目の音を鳴
らし、戻って静止して、方向ジェスチャが検出されたと
き2つ目の音を鳴らす。
<Feedback with Second Sound> When sound is fed back, if sound is generated in two stages,
May be even more effective. In FIG. 8, the first sound is emitted at the time when it is detected that a certain amount of movement has been made in any direction, the sound is returned to standstill, and the second sound is emitted when the direction gesture is detected.

【0101】このときに、いずれかの方向に動いた音
と、戻って方向ジェスチャが検出されたときの音を変え
ておく。すると、万一、戻る動作が、はじめのいずれか
の方向に動く動作と誤って認識されたときでも、使用者
にはそれがすぐに判る。また、一つ目の音は、方向によ
って異ならせても良いが、戻る音は、いずれの場合でも
同じにしたほうがよい。
At this time, the sound that has moved in any direction and the sound that returns when the direction gesture is detected are changed. Then, even if the returning operation is erroneously recognized as an operation moving in one of the first directions, the user can immediately recognize the operation. The first sound may be different depending on the direction, but the returning sound should be the same in any case.

【0102】例えば、上下左右の一つ目の音を「パ」
「ピ」「プ」「ペ」、2つ目の音を全て「ポ」にする
と、上下左右の音フィードバックとして、使用者には、
「パポ」「ピポ」「プポ」「ペポ」と聞こえることにな
る。スムーズに操作が行えるようになれば、これらはそ
れぞれひとつの効果音のようにも聞こえ、使用者にとっ
て、違和感はない。
For example, the first sound (up, down, left, right)
If the "pi", "pu", "pe", and the second sound are all "po", the user will receive the top, bottom, left and right sound feedback,
You will hear "papo", "pipo", "popo" and "pepo". If the operation can be performed smoothly, each of these sounds like a single sound effect, and the user does not feel uncomfortable.

【0103】<戻らないとキャンセル> いずれかの方
向に一定量動かした後、あるいは動かそうとしていると
きに、間違いに気づいたり、気が変わったりした場合
に、キャンセルしたいことがある。上記の方法を採って
いれば、キャンセルしたい場合は、その動きのままカメ
ラの視野外に手を出してしまうことによりキャンセルで
きる。
<Cancel if not returned> After moving a certain amount in any direction, or when trying to move, if you notice an error or change your mind, you may want to cancel. If the above method is adopted, if the user wants to cancel, he can do so by putting his hand out of the field of view of the camera with the movement.

【0104】あるいは、途中で、動きを止めてしまうこ
とで、キャンセルすることもできる。図8のフローチャ
ートでは、一定時間経つと初期状態に戻るようになって
いる。
Alternatively, the movement can be stopped halfway, thereby canceling the movement. In the flowchart of FIG. 8, the state returns to the initial state after a lapse of a predetermined time.

【0105】<元に戻るジェスチャ> 上記の例では、
方向ジェスチャだけについて述べたが、一般的に、位置
の軌跡によって情報を提示する場合、「ある領域から始
まり、その領域に到達して終わる」一連のジェスチャと
いうのは、連続して入力するのに非常に適している。例
えば、図9に示すようなジェスチャはいずれもそうであ
り、これにより方向だけでなく、様々なジェスチャを入
力することができる。図9において、矢印が位置の軌跡
を示している。
<Return gesture> In the above example,
Although only the direction gesture has been described, in general, when information is presented by a position trajectory, a series of gestures "starting from a certain area, reaching and ending in that area" is a series of gestures Very suitable. For example, the gestures shown in FIG. 9 are all the same, so that not only the direction but also various gestures can be input. In FIG. 9, an arrow indicates a locus of position.

【0106】<距離の違いで戻る時の動きを除く> 上
記のような構成により、戻るときの動作が誤動作を引き
起こさないようにしながら連続的な方向ジェスチャの提
示が可能になった。しかし、場合によっては、やはり一
方向に動かす動きで方向ジェスチャとしたいこともあ
る。そのような戻す動きをするときには、やや手を引い
た感じで戻すことが多い。
<Excluding Movement When Returning Due to Difference in Distance> With the above-described configuration, it is possible to present a continuous direction gesture while preventing the returning operation from causing a malfunction. However, depending on the case, there is also a case where it is desired to make a directional gesture by a movement that moves in one direction. When performing such a return movement, it is often the case that the hand is slightly pulled back.

【0107】例えば、机の上を右方向へ2回なでること
を考えると、まず机の表面を1回、右方向へ撫で、机か
ら少し手を浮かせて左側に戻り、再度右方向に撫でる、
という動作を通常行う。この「少し浮かせた状態」とい
うのは、空中のジェスチャで考えると、「少し引いた状
態」となる。
For example, assuming that the user strokes twice on the desk to the right, first stroke the surface of the desk once to the right, lift the hand slightly from the desk, return to the left, and stroke again to the right.
This operation is normally performed. The “slightly lifted state” is a “slightly pulled down state” in consideration of a gesture in the air.

【0108】ところで、特開平10−177449に記
載の画像入力装置では、手の相対的な距離情報を取得す
ることができる。従って、左に戻す動きが、右に動かす
動きより、「少し引いた状態」で行われていることを検
出することができる。これを行う構成を図10に示す。
By the way, the image input device described in JP-A-10-177449 can acquire relative distance information of a hand. Therefore, it is possible to detect that the movement to return to the left is performed in a "slightly pulled state" rather than to the movement to the right. FIG. 10 shows a configuration for performing this.

【0109】画像入力部32から入力される画像は、動
き検出部34と距離検出部33に入力され、各々で、動
き情報39と距離情報38が求められる。判定部35
は、これらの情報から、動き検出部34から入力された
動き情報が、動き入力なのか、戻るための動作なのかを
判定する。
The image input from the image input unit 32 is input to the motion detecting unit 34 and the distance detecting unit 33, and the motion information 39 and the distance information 38 are obtained respectively. Judgment unit 35
Determines from the information whether the motion information input from the motion detection unit 34 is a motion input or an operation for returning.

【0110】より具体的には、ある方向の方向ジェスチ
ャが検出された直後に、反対方向の動きが検出され、し
かもそのときの距離情報が、前回の方向ジェスチャに比
べ遠い場合、これは戻るための動作であると判断する。
方向ジェスチャと判定されれば、操作実行部36に方向
ジェスチャの情報を伝達し、必要に応じて音でフィード
バックを発生させる。戻りの動きであると判定されれ
ば、操作実行部には何も伝達せず、また音フィードバッ
クも発生させない。
More specifically, if a motion in the opposite direction is detected immediately after a direction gesture in a certain direction is detected, and the distance information at that time is farther than the previous direction gesture, this returns. It is determined that the operation is performed.
If the gesture is determined to be a direction gesture, the information of the direction gesture is transmitted to the operation execution unit 36, and feedback is generated by sound as needed. If it is determined that the movement is a return movement, nothing is transmitted to the operation execution unit, and no sound feedback is generated.

【0111】音フィードバックに関しては、右、左で音
を変え、戻りが音を発生させないようにすれば、戻り動
作が誤って、方向ジェスチャとして検出されてしまった
場合は、使用者はすぐに気づくことができる。
Regarding the sound feedback, if the sound is changed on the right and left so that the return does not generate a sound, the user immediately notices that the return operation is erroneously detected as a direction gesture. be able to.

【0112】<2回目の動きを戻り動作と判定する>
距離情報を取得できない画像センサを用いても、このよ
うな処理は必ずしも不可能ではない。動き情報しか取得
できない画像センサの場合、動きの時系列を見て、戻り
動作が何であるかを判断することができる。
<Judge the Second Movement as a Return Operation>
Such processing is not necessarily impossible even if an image sensor that cannot acquire distance information is used. In the case of an image sensor that can only acquire motion information, it is possible to determine the return operation by looking at the time series of the motion.

【0113】例えば、「右」「左」「右」「左」「右」
という入力があれば、これは右方向に3回の入力を行
い、中の2つの左ジェスチャは戻り動作であると判定す
る。しかし、単純にこれだけだと、途中で左ジェスチャ
に変えることができない。それはそれぞれの動いている
間の時間間隔、いわゆる「間(ま)」を上手く利用する
ことで、判定できる。
For example, “right”, “left”, “right”, “left”, “right”
Is input three times in the right direction, and it is determined that the two left gestures in the middle are a return operation. However, this is not enough to change the left gesture on the way. It can be determined by making good use of the time interval between each movement, so-called “ma”.

【0114】例えば、「右」「左」「右」(間)「左」
「右」「左」という入力があった場合は、「右」「右」
の入力の後、「左」「左」という入力がされたと判定で
きる。
For example, “right”, “left”, “right” (between), “left”
If "Right" or "Left" is entered, "Right" or "Right"
It can be determined that "left" and "left" have been input after the input of.

【0115】<メニュー階層をたどる> これまで、主
に、形状を提示するジェスチャ、方向を入力するジェス
チャについて述べてきたが、これらのジェスチャを用い
て、メニュー階層をたどっていくことが可能である。機
能が非常に多い装置を操作するインタフェースは、しば
しば、機能をカテゴリに分け、階層構造にし、上から順
にたどっていくことで機能に到達するようにしているも
のが多い。
<Following the Menu Hierarchy> So far, the gesture for presenting a shape and the gesture for inputting a direction have been described, but it is possible to follow the menu hierarchy using these gestures. . Interfaces for operating a device having a large number of functions often have functions that are divided into categories, have a hierarchical structure, and reach functions by tracing from top to bottom.

【0116】例えば、コンピュータでは、マウスでカー
ソルを動かしながら、画面上のメニューを順に選択して
いく方法を採ることが多いし、カー・ナビゲーションな
どの車載機器であれば、タッチパネルやリモコンの十字
ボタンで、順にメニューを選択していく方法を採ってい
ることが多い。
For example, a computer often adopts a method of sequentially selecting menus on a screen while moving a cursor with a mouse. For a vehicle-mounted device such as a car navigation system, a cross button of a touch panel or a remote control is used. In many cases, a menu is sequentially selected.

【0117】メニューを選択する場合に、方向キーなど
を使わずに、方向ジェスチャで入力したり、ファンクシ
ョンキーを押す替わりに、形状ジェスチャを提示したり
するのは、有効な方法である。図11は、その構成図を
表す。画像入力部40より入力された画像は、ジェスチ
ャ検出部41で処理され、ジェスチャが提示された際に
はそれを検出する。メニュー制御部42は、検出された
ジェスチャによりメニューをどう辿っているかを判定
し、新しいメニューをメニュー表示部43に表示させ
る。
When selecting a menu, it is an effective method to input a direction gesture without using a direction key or the like, or to present a shape gesture instead of pressing a function key. FIG. 11 shows a configuration diagram thereof. The image input from the image input unit 40 is processed by the gesture detection unit 41, and when a gesture is presented, it is detected. The menu control unit 42 determines how to follow the menu based on the detected gesture, and causes the menu display unit 43 to display a new menu.

【0118】また、ジェスチャが検出された際には、フ
ィードバック部44から使用者に音や音声でフィードバ
ックする。このときのメリットとして、操作がジェスチ
ャであるため、ある機能に到達するまでの操作を記憶し
やすいということがある。例えば、形状ジェスチャを用
いて、「グー」「チョキ」「パー」と提示すれば、エア
コンの温度設定になるという具合である。使用者はこれ
らの全てを覚える必要はなく、使用頻度の高いものだけ
をジェスチャの時系列で覚えてしまえばよい。
When a gesture is detected, the feedback section 44 gives feedback to the user by sound or voice. As an advantage at this time, since the operation is a gesture, it is easy to memorize the operation until reaching a certain function. For example, if the shape gesture is used to indicate “goo”, “choki”, and “par”, the temperature of the air conditioner is set. The user does not need to memorize all of these, but only the frequently used ones in the time series of gestures.

【0119】実際は、ジェスチャの時系列、というのは
やはりジェスチャであり、その点でこのインタフェース
は、全ての機能をジェスチャと1対1に対応づけている
とも言える。このとき、同じ形状が続く場合、それが2
回続いていることを示すのは難しい。従って、「パー」
を出して次のメニュー階層に移った場合、その階層では
「パー」を提示するメニューが存在しないようにすると
都合がよい。つまり、どの機能を選択する場合でも、同
じジェスチャを2回提示することが無いようにメニュー
のジェスチャを構成すると良い。
Actually, the time series of gestures is still a gesture, and in this respect, it can be said that this interface associates all functions with gestures on a one-to-one basis. At this time, if the same shape continues, it is 2
It's hard to show that it's happening many times. Therefore, "par"
Is displayed and the menu moves to the next menu hierarchy, it is convenient that there is no menu presenting “par” in that hierarchy. That is, no matter which function is selected, the menu gesture should be configured so that the same gesture is not presented twice.

【0120】<方向ジェスチャでメニュー階層を辿る>
形状ジェスチャの提示でメニュー階層を辿る方法につ
いて述べたが、方向ジェスチャを用いても同様に可能で
ある。方向ジェスチャを用いる場合、人間の手の動かし
易さを考えると、4方向ジェスチャを用いるのが比較的
望ましいが、4方向ジェスチャだと、4つまでのメニュ
ー選択肢しか表示できないという欠点がある。これを解
決するためのいくつかの実現方法がある。
<Follow the menu hierarchy with direction gesture>
Although the method of tracing the menu hierarchy by presenting the shape gesture has been described, it is similarly possible to use the direction gesture. When the directional gesture is used, it is relatively desirable to use the four-directional gesture in consideration of the easiness of movement of the human hand. However, the four-directional gesture has a disadvantage that only four menu options can be displayed. There are several ways to solve this.

【0121】<繰り返し入力> 例えば、「右に1回」
だけ動かす場合と、「右に2回」動かす場合では、異な
る選択肢を選択できるように構成すればよい。これは、
前述した方向ジェスチャ入力方法のうち、いずれかの方
向に手を動かし元の位置に戻る一連の動作で、方向ジェ
スチャとする場合に適している。
<Repeated input> For example, "once to the right"
It is sufficient to configure so that different options can be selected when the user moves only the button and when the user moves “twice to the right”. this is,
Of the above-described direction gesture input methods, a series of operations of moving a hand in any direction and returning to the original position are suitable for use as a direction gesture.

【0122】例えば、右方向に一定量動き、元の位置ま
で動いて静止すると、「右」が入力されるが、静止せず
に、さらにもう一度右に動き、元の位置まで戻って静止
すると、「右2」が入力されるようにする。
For example, if the user moves rightward by a fixed amount and moves to the original position and stops, "Right" is input. However, if the user does not stop and moves to the right again and returns to the original position and stops, "Right 2" is input.

【0123】これを繰り返し行えば、基本的には無限の
選択肢を選べるが、現実的には、2回もしくは3回程度
の繰り返しに限定するのが妥当である。これは、マウス
のクリックが通常シングルクリックとダブルクリックの
2つであり、一部の専門家向けコンピュータで、トリプ
ルクリックが実現されているぐらいである。逆に、一般
ユーザでもダブルクリックは当然のように使われてお
り、2回ぐらいの連続入力は問題ない。
If this is repeated, basically an infinite number of options can be selected, but in reality, it is appropriate to limit the repetition to about two or three times. This is about two mouse clicks, usually a single click and a double click, and some professional computers have realized a triple click. Conversely, double clicks are used by ordinary users as a matter of course, and there are no problems with continuous input about twice.

【0124】方向ジェスチャでメニュー階層を辿ってい
く場合、例えば図12に示すような、メニュー画面が考
えられる。これは、動きの方向に各メニューが配置され
ているので、見やすい構成となっている。
When traversing the menu hierarchy using the direction gesture, a menu screen as shown in FIG. 12, for example, can be considered. Since each menu is arranged in the direction of movement, the configuration is easy to see.

【0125】また2回連続入力まで許す場合は、図13
(a)のようなメニュー画面が考えられる。1回の方向
入力で内側のメニューが、2回の方向メニューで外側の
メニューが選択される。また、3回連続入力まで許す
と、テンキーも方向ジェスチャで入力することが可能に
なる(図13(b))。
In the case where two consecutive inputs are permitted, FIG.
A menu screen as shown in FIG. The inner menu is selected by one direction input, and the outer menu is selected by two direction menus. Also, if three consecutive inputs are allowed, the ten-key can also be input by a directional gesture (FIG. 13B).

【0126】<形状+方向> 方向ジェスチャを入力す
る際、手の形状も変え、形状と方向の組み合わせで選択
肢を選ぶ方法もある。方向を例えば、手全体の重心位置
の移動で求めるとしたら、手の形状に関係なく方向を提
示することができる。そのとき、1本指を伸ばした状態
で左に動かすのと、2本指を伸ばした状態で左に動かし
た場合で、異なる選択肢が選ばれるようにすることがで
きる。方向を繰り返し入力するのは手間がかかるが、形
と方向を組み合わせる場合は、比較的選択肢を増やすの
が容易である。
<Shape + Direction> When inputting a direction gesture, there is also a method of changing the shape of the hand and selecting an option by a combination of the shape and the direction. If the direction is determined by, for example, moving the center of gravity of the entire hand, the direction can be presented regardless of the shape of the hand. At this time, different options can be selected when moving the finger to the left with one finger extended and when moving the finger to the left with the two fingers extended. It takes time and effort to input the direction repeatedly, but when the shape and the direction are combined, it is relatively easy to increase the number of options.

【0127】<開始指示ボタン> ジェスチャを検出す
るのは、ある程度の処理コストがかかり、また、何気な
い動作がジェスチャとして拾われてしまう危険性を常に
持っている。ジェスチャを提示する際に、必ず、ジェス
チャ提示ボタンのようなものを押すようにすれば、これ
らの問題は発生しない。
<Start Instruction Button> Detecting a gesture requires some processing cost, and there is always a risk that casual actions may be picked up as gestures. These problems do not occur if the gesture presentation button is always pressed when the gesture is presented.

【0128】<2次元ポインティングでの選択> この
ようなジェスチャによる入力インタフェースを例えば車
載機器に搭載することによって、運転中の安全な操作が
実現できる。しかし、これらの操作の中には運転中はま
ず操作しないものも含まれており、また、助手席者が操
作する場合には必ずしも視線を前方に固定している必要
はない。
<Selection by Two-Dimensional Pointing> By mounting such an input interface using a gesture on, for example, an in-vehicle device, a safe operation during driving can be realized. However, some of these operations are not operated during driving, and the line of sight does not necessarily need to be fixed forward when operated by a passenger.

【0129】従って、画面を見ながら行うのが合理的な
操作については、そのように実現すればよい。方向で指
示するというのは、視線を向けないで操作できるという
メリットがある反面、多くの選択肢から選ぶ場合には、
前述のように、繰り返し方向ジェスチャを提示したり、
形状と方向を併用したりする必要があった。視線を画面
に向けることができる状態では、ポイントの位置を使っ
て選択するという方法もよい。
Therefore, operations that are rational to be performed while looking at the screen may be realized as such. Instructing by direction has the merit that you can operate without directing your gaze, but when choosing from many options,
As mentioned earlier, presenting repeated direction gestures,
It was necessary to use both shape and direction. In a state where the line of sight can be directed to the screen, a method of selecting using the position of the point may be used.

【0130】そのときに問題になるのが、選択決定入力
である。例えば、マウスを使って画面上のアイコンを選
択するときには、マウスカーソルをアイコン状に移動さ
せてから、クリックすることによって、選択する。手振
りを使って同様のことを実現する場合、クリックに相当
する決定入力をどうするかが問題になる。パーからグー
へと「掴む」ように手の形を変えたり、ボタンを扱うよ
うに「押す」動作を行ったりして、それを決定入力とす
る方法が考えられる。
At that time, a problem is the selection decision input. For example, when selecting an icon on the screen using a mouse, the user moves the mouse cursor to an icon and then clicks the icon to select it. In the case of using a gesture to achieve the same thing, the problem is how to make a decision input corresponding to a click. A possible method is to change the shape of the hand to “grab” from par to goo, or to perform a “push” action to handle a button, and use that as a decision input.

【0131】しかし、そのような動作をさせると、その
動作の過程で、位置情報の変動が起こり、隣のアイコン
を選択してしまう、ということがよく起こる。これは、
「位置を動かす」という動作と「形状を変える」または
「前後に押す」という動作が独立していないからであ
る。これは人がこれらを独立して制御するのが難しいと
いう場合もあるし、装置の特性としてそれらを分離しに
くいという場合もある。
However, when such an operation is performed, the position information fluctuates in the course of the operation, and the icon next to the selected icon is often selected. this is,
This is because the operation of "moving the position" and the operation of "changing the shape" or "pushing back and forth" are not independent. This may be difficult for a person to control them independently, or it may be difficult to separate them as a property of the device.

【0132】また、一定時間以上の静止状態で選択トリ
ガとすることもできるが、静止する時間が必要であった
り、迷っている間に静止状態になってしまったりするこ
とがある。人の動きの中で、独立に動かすことが容易で
あり、なおかつそれを独立にセンシングできるような2
つの動きを、「選択」と「決定」に利用することで、よ
り安定した操作を実現することができる。
Further, a selection trigger can be used in a stationary state for a certain period of time or more. However, there is a case where a period of time for standing still is required or the stationary state is reached while the user is lost. It is easy to move independently in human motion, and it can be sensed independently.
By using the two movements for “selection” and “decision,” a more stable operation can be realized.

【0133】これを図14で説明する。画像入力部46
より入力された画像は、第1の動き検出部47と第2の
動き検出部49に伝達され、それぞれの検出部で上述し
たような、それぞれ独立な動き情報を検出する。選択肢
または値の選択部48は第1の動き検出部47の出力に
応じて、現在なにが選択されているかを判断する。この
結果は典型的には、図示しない表示部において、反転表
示するなどにより、操作者にフィードバックされる。
This will be described with reference to FIG. Image input unit 46
The input image is transmitted to the first motion detecting section 47 and the second motion detecting section 49, and each detecting section detects independent motion information as described above. The option or value selection unit 48 determines what is currently selected according to the output of the first motion detection unit 47. This result is typically fed back to the operator by, for example, inverting display on a display unit (not shown).

【0134】決定動作判定部50は、第2の動き検出部
49の出力を解析し、決定動作が行われたどうかを判定
する。操作入力処理部51は、選択肢または値の選択部
48と決定動作判定部50の出力を用いて、何が選択決
定されたかを判定し、実際に処理を行う、操作実行部5
2に送る。
The decision operation determination section 50 analyzes the output of the second motion detection section 49 and determines whether a decision operation has been performed. The operation input processing unit 51 uses the output of the option or value selection unit 48 and the determination operation determination unit 50 to determine what has been selected and determined, and actually performs processing.
Send to 2.

【0135】<2つの動きで選択と決定> より具体的
には、例えば、左右の動きと上下の動きを組み合わせる
方法である。左右方向の動きで、左右に並んだメニュー
を選ぶ。現在選択されているメニューは例えば反転表示
されるなどして、何が選ばれているかが分かる。この状
態では、仮に選択した段階であり、ここから上下の動き
をすることによって、選択肢を決定する。
<Selection and Determination with Two Movements> More specifically, for example, a method of combining left and right movement and up and down movement is used. Use left and right movements to select menus arranged side by side. The currently selected menu is highlighted, for example, so that the user can know what is selected. In this state, this is a tentatively selected stage, from which the options are determined by moving up and down.

【0136】上の例では、左右方向で「選択」し、上下
方向で「決定」したが、これには理由がある。一般的に
人は、左右方向の動きの方がより細かく位置を指示する
ことができるため、左右方向を「選択」の方向とした。
上下運動はトリガ入力だけなので、それほど細かく制御
できなくても問題ない。ただし、これは一般論であり、
操作の条件(体の姿勢など)によって逆の場合もあり得
るが、いずれにしろ、細かく制御し易い方向を「選択」
の方向にするのは重要である。
In the above example, "selection" is made in the left-right direction and "decision" is made in the up-down direction, but there is a reason for this. In general, a person can specify a position more finely by a movement in the left-right direction. Therefore, the left-right direction is defined as a “selection” direction.
Since the vertical movement is only a trigger input, there is no problem even if it cannot be controlled so finely. However, this is general,
The opposite may occur depending on the operation conditions (body posture, etc.), but in any case, select the direction that is easy to control finely.
It is important to make the direction.

【0137】例えば、図15(a)は、この方法で選択
をする場合のメニュー画面の一例であるが、図中に矢印
で示したように、横方向の動きで選択し、縦方向の動き
で決定する。同図(b)は、選択肢が多いため、左右に
スクロールするためのアイコンを配置してある。ここを
選択しているとメニューが次々とスクロールしていく。
For example, FIG. 15A shows an example of a menu screen in the case of making a selection by this method. As shown by an arrow in the figure, a selection is made by a horizontal motion and a vertical motion is selected. Determined by In FIG. 11B, since there are many options, icons for scrolling left and right are arranged. When this is selected, the menu scrolls one after another.

【0138】<上下の動きを別々に使う> また、上の
例では、上下方向はどちらも単に「決定」であったが、
メニューを上下2段にして、上と下の方向でそれぞれ上
下のメニューを選択することもできる。こうすると倍の
選択肢を一度に表示できる。この場合は、仮の選択状態
(例えば反転表示など)は、上下2つのメニュー同時選
択しておいて、「決定」の入力でどちらかに確定する。
<Using the Up and Down Movements Separately> In the above example, both the up and down directions are simply “determined”.
It is also possible to arrange the menu up and down in two steps, and to select the upper and lower menus respectively in the upper and lower directions. This allows you to see twice as many choices at once. In this case, the tentative selection state (for example, reverse display) is determined by selecting two menus at the top and bottom simultaneously and inputting "OK".

【0139】例えば、この選択方法を行うための、メニ
ュー画面例を図16に示す。例えば茨城県、山梨県のと
ころを選択しておき、上に動かしたら茨城県、下に動か
したら山梨県が選択決定される。ここでは、端の「他の
地域」および「戻る」のアイコンは、上下どちらに動か
しても選択される。
FIG. 16 shows an example of a menu screen for performing this selection method. For example, Ibaraki Prefecture and Yamanashi Prefecture are selected, and if moved up, Ibaraki Prefecture is selected, and if moved down, Yamanashi Prefecture is selected. Here, the icons of “other areas” and “return” at the end are selected by moving either up or down.

【0140】<上下に動いて戻る> これまでの例で
は、上下いずれかに動かして選択したら、手は上か下に
移動してしまうので、連続したメニュー操作を行う場合
には、適していない。上下いずれかに一定量動き、元の
場所に戻ったときに、「決定」されるようにすると、連
続したメニュー選択を行いやすい。ちょうど、前述の例
で、右に動いて、中央に戻ったときに「右」ジェスチャ
と認識させたのと同様である。
<Move up and down and return> In the examples so far, if the user moves up or down to select, the hand moves up or down, so it is not suitable for performing a continuous menu operation. . If it is determined by moving a certain amount up or down and returning to the original place, continuous menu selection can be easily performed. Just like moving to the right and recognizing a “right” gesture when returning to the center in the previous example.

【0141】<横、縦、横と連続> 50音表から、文
字を選ぶような場合には、一度に表示したい選択肢の数
が多い。このような場合、まず横の動きで、「ア行」
「カ行」「サ行」といった「行」を選択し、次いで縦の
動きで、5文字のうちひとつを選び、さらに横の動きで
選択するという方法も採れる。また、一旦横の動きで行
を選んだら、次の縦の動きで文字を選んでいるときに、
多少横方向に動いてしまっても、再び違う行を選択して
しまうようなことが合ってはならない。
<Horizontal, Vertical, Horizontal and Continuity> When characters are selected from the Japanese syllabary, there are many options to be displayed at one time. In such a case, first, use the horizontal movement to
A method of selecting "line" such as "line" or "line", then selecting one of the five characters by a vertical movement, and further selecting by a horizontal movement. Also, once you select a line by horizontal movement, and then select a character by the next vertical movement,
Even if it moves a little in the horizontal direction, it should not be appropriate to select a different line again.

【0142】この場合、一旦横方向を決定したら、次に
縦方向を決定するまでは、横方向の動きは検出しないと
いうような処理を行うとよい。もちろん50音表の場合
は、単純に、上下左右の位置でカーソルを表示し、直接
選択することもできる。この場合は、奥行き方向の動き
か、静止情報などで決定することになる。さらに、奥行
きを変えると、ひらがな、カタカナにかわると言った具
合に、さらに奥行き情報も利用することも可能である。
In this case, once the horizontal direction is determined, it is preferable to perform processing such that no horizontal movement is detected until the next vertical direction is determined. Of course, in the case of the Japanese syllabary table, the cursor can be simply displayed at the upper, lower, left, and right positions and directly selected. In this case, the motion in the depth direction is determined based on still information or the like. Furthermore, when the depth is changed, it is possible to use the depth information further, for example, to change to hiragana or katakana.

【0143】また、指すときの指の形で濁点、半濁点な
どを指定することもでき、濁点などを独立して入力する
より効率がよい。例えば、2本指で選択すると濁点、3
本指で選択すると半濁点という具合である。
Further, a cloud point, a semi-voice point and the like can be designated by the shape of the finger when pointing, which is more efficient than inputting the cloud point and the like independently. For example, if you select it with two fingers,
If you select it with your finger, it will be a semi-voiced point.

【0144】<センサの取り付け位置> 特開平10−
177449で提案した画像入力センサなどを用いて、
車載用の操作入力装置を構成する場合、そのセンサの設
置位置というのは、使い勝手、性能に大きく左右する。
<Sensor mounting position>
Using the image input sensor and the like proposed in 177449,
When a vehicle-mounted operation input device is configured, the installation position of the sensor greatly affects usability and performance.

【0145】運転者が運転中に安全に操作できることを
最重要視するなら、運転者がハンドルに手を乗せたま
ま、あるいはほとんどハンドルから手を離さずに操作で
きるような場所に、カメラを配置するのがよい。例え
ば、ハンドルの奥側に、ハンドルを持った手の方を向く
ように配置するのが一例である。
If it is of the utmost importance that the driver can operate safely while driving, place the camera in a place where the driver can operate with the hand on the steering wheel or with almost no release from the steering wheel. Good to do. For example, it is an example to arrange on the back side of the handle so as to face the hand holding the handle.

【0146】また、カーブを切るときには通常操作はし
ないが、緩やかなカーブなど、わずかにハンドルを切っ
ているときに操作を行う場合は想定できる。すると、ハ
ンドルの裏側で、直接ハンドルに取り付けてしまうこと
もできる。そうすると、ハンドルの状態に関わらず、手
とカメラの位置関係(距離、向き)などに変化が無く、
安定した検出性能を得ることができる。
[0146] Further, although a normal operation is not performed when turning a curve, a case where an operation is performed when the steering wheel is slightly turned, such as a gentle curve, can be assumed. Then, it can be attached directly to the handle on the back side of the handle. Then, regardless of the state of the steering wheel, there is no change in the positional relationship (distance, direction) between the hand and the camera,
Stable detection performance can be obtained.

【0147】これらの場合、画像入力には、ハンドルな
どの部品が含まれていることが多いので、これらの影響
を受けないような処理を行う。また、このとき、画像を
処理する場合、画像の上下、左右方向の動きを求めるの
は、斜め方向の動きを検出するより、容易であるため、
手の位置とその動き方向に合わせて、カメラの向きを設
置することが重要である。
In these cases, since the image input often includes components such as handles, processing is performed so as not to be affected by these components. Also, at this time, when processing the image, it is easier to determine the vertical and horizontal movement of the image than to detect the movement in the oblique direction.
It is important to set the orientation of the camera according to the position of the hand and the direction of its movement.

【0148】また、運転者だけでなく、助手席者も操作
する場合は、双方の中間位置に配置するのが望ましい。
この場合は、運転者が無理なく手を伸ばせるところを検
出できるような位置に配置してあることが必要である。
また、ジェスチャ操作を行う場合、特に位置を指示する
ような場合は、肘や手首など腕の一部を、固定するか台
などの上に乗せることにより、安定して操作が行える。
In the case where not only the driver but also the passenger are operating, it is desirable to arrange them at an intermediate position between them.
In this case, it is necessary to be arranged at a position where it is possible to detect a place where the driver can easily reach.
In addition, when performing a gesture operation, particularly when pointing a position, the operation can be stably performed by fixing a part of an arm such as an elbow or a wrist or placing the arm on a table or the like.

【0149】従って、肘や手首を乗せることができる台
を適当な場所に配置しておくのが重要である。また、こ
れは、操作する手のおよその場所を決める役割もあり、
安定した性能を確保するために重要である。例えば、図
17の53のような形が考えられる。ここでは、斜め方
向にカメラ54が配置してあり、手があまりカメラに近
づかないよう、くぼみを設けている。
Therefore, it is important to place a base on which an elbow or a wrist can be placed at an appropriate place. This is also responsible for determining the approximate location of the operating hand,
It is important to ensure stable performance. For example, a shape like 53 in FIG. 17 can be considered. Here, the camera 54 is arranged in an oblique direction, and a recess is provided so that the hand does not approach the camera very much.

【0150】また、特開平10−177449で発明し
た画像入力装置は、自身で発光手段を持っているため、
周りの明るさに寄らず、物体形状を撮像できる。しか
し、極度に明るい外光、例えば直射日光などがある場合
は、影響を受ける可能性がある。特に、画像入力装置の
発光手段が照らす部分に、強力な外光が当たっている
と、画像の劣化を引き起こしやすい。
The image input device invented in Japanese Patent Application Laid-Open No. H10-177449 has its own light emitting means.
The object shape can be imaged regardless of the surrounding brightness. However, if there is extremely bright external light, such as direct sunlight, it may be affected. In particular, if strong external light is applied to a portion of the image input device that is illuminated by the light emitting means, the image is likely to deteriorate.

【0151】そこで、画像入力装置が撮像している手の
表面に、強い外光が当たらないような位置関係にセンサ
を配置することは、性能向上や使用する光学BPFの低
コスト化などの効果がある。
Therefore, arranging the sensor in such a positional relationship that strong external light does not hit the surface of the hand picked up by the image input apparatus can improve the performance and reduce the cost of the optical BPF used. There is.

【0152】例えば図17(b)は図17(a)の形状
の断面図を示しているが、手のひら55は下を向いてい
るため、ここに強力な外光が当たることは少ない。ま
た、操作のしやすさを損なわない程度に、外光を遮蔽す
る手段を持つのも有効である。
For example, FIG. 17B shows a cross-sectional view of the shape of FIG. 17A. Since the palm 55 faces downward, strong external light rarely hits it. It is also effective to have a means for shielding external light to such an extent that the operability is not impaired.

【0153】<運転者、助手席者を認識> カー・ナビ
ゲーションのような高度な情報機器は、運転者が操作に
集中すると危険なため、運転中は行ってはいけない操作
がある。例えば、目的地を登録するといった操作は、非
常に煩雑であるため、運転中は操作できないようになっ
ている。従って、通常は車速センサの入力を使用し、走
行中はこれらの操作ができないようになっている。
<Recognition of Drivers and Passengers> Advanced information devices such as car navigation are dangerous when the driver concentrates on operations, and there are operations that must not be performed during driving. For example, the operation of registering a destination is very complicated, and cannot be performed during driving. Therefore, normally, the input of the vehicle speed sensor is used, and these operations cannot be performed during traveling.

【0154】しかし、走行中であっても助手席者が操作
するのは本来危険ではないのに、現状では操作ができな
いようになっている。現在操作を行おうとしている人が
運転者なのか助手席者なのかが検出できれば、運転者の
みの操作を禁止することが可能となる。画像センサを使
って、操作している人全体を撮像することによって、あ
るいは全体ではなくとも、操作している手の上腕程度ま
で撮像すれば、それが運転席、助手席どちらから伸びて
いる手かどうかは判断することができる。
[0154] However, even while the vehicle is running, the operation by the passenger is not inherently dangerous, but at present, the operation cannot be performed. If it is possible to detect whether the person who is currently performing the operation is a driver or a passenger, it is possible to prohibit the operation of only the driver. By using the image sensor to image the entire operating person or, if not all, the upper arm of the operating hand, the hand extending from either the driver's seat or the passenger seat Can be determined.

【0155】図18は、これを実現する装置の構成図で
ある。操作者判定部58は画像入力センサ57からの入
力画像を用いて、操作者が運転者であるか助手席者であ
るかを判定する。その結果は、操作入力処理部60に送
られ、操作不可能な機能であれば、実行を拒否し、操作
できない旨を操作者に知らせる。
FIG. 18 is a block diagram of an apparatus for realizing this. The operator determining unit 58 determines whether the operator is a driver or a passenger using the input image from the image input sensor 57. The result is sent to the operation input processing unit 60, and if the function cannot be operated, the execution is refused and the operator is notified that the function cannot be operated.

【0156】<音声認識との併用> 本発明で説明して
いる、ジェスチャによる入力と同様に、運転者が運転中
に安全に操作ができる装置として、音声認識を用いた入
力装置がある。これは、運転者が発した音声をマイクで
検出し、その音声データを解析し、使用者の意図を判定
し、操作に結びつけるものである。音声認識を使った装
置は、コマンドを覚えるのが容易でしゃべるだけなので
誰にでも使えるといったメリットがある反面、操作をす
る際にいつもしゃべらなければならない誤認識が多いと
いった問題がある。本発明のジェスチャ入力装置と、音
声認識を組み合わせることにより、より扱いやすいシス
テムを構築できる。
<Combined Use with Voice Recognition> An input device using voice recognition is a device that can be safely operated by a driver while driving, as in the case of input by gesture described in the present invention. In this method, a voice emitted by a driver is detected by a microphone, the voice data is analyzed, a user's intention is determined, and the result is linked to an operation. Devices using voice recognition have the advantage that they can be used by anyone because they can easily remember commands and speak, but also have the problem that there are many erroneous recognitions that must always be made when operating. By combining the gesture input device of the present invention with speech recognition, a system that is easier to handle can be constructed.

【0157】例えば、機能の選択は、音声を使うと階層
を辿らずに即座に行えるので、音声認識を用い、パラメ
ータの入力は、直感的なジェスチャを用いた入力を行
う。例えば、「音量」といった後、手を左右に(あるい
は上下でも奥行き方向でもよい)動かすことで音量がダ
イナミックに調整される。ちょうど良いと思ったところ
で、「OK」と発声すると決定される。
[0157] For example, the function can be selected immediately without tracing the hierarchy by using voice. Therefore, voice recognition is used, and parameter input is performed using intuitive gestures. For example, after "volume", the volume is dynamically adjusted by moving the hand left and right (or up and down or in the depth direction). When it is just right, it is decided to say "OK".

【0158】あるいは、位置の指示を行うときに決定入
力として音声入力を用いることもできる。さらには、ジ
ェスチャによって選択されている対象に対し、複数の実
行可能な操作を、音声入力で指示することができる。
Alternatively, a voice input can be used as a determination input when designating a position. Furthermore, a plurality of executable operations can be instructed by voice input to the target selected by the gesture.

【0159】例えば、地図上に表示されているレストラ
ンをジェスチャによって選択し、「電話」「情報」「経
路」などの音声コマンドを発行できる。「電話」と発声
するとそのレストランへ電話をかけ、「情報」と発声す
るとそのレストランに関する情報を表示し、「経路」と
発声するとそのレストランへの経路探索を開始する。
For example, a restaurant displayed on a map can be selected by a gesture and a voice command such as “telephone”, “information”, and “route” can be issued. When "phone" is spoken, the restaurant is called, when "information" is spoken, information about the restaurant is displayed, and when "route" is spoken, a route search to the restaurant is started.

【0160】<接触板> 肘や手首などを台などに乗せ
て操作をするとより安定した操作ができることを既に述
べたが、検出する手や指自体を、乗せることのできる台
などを用意することも大きな効果がある。そのような構
成を図17(c)に示す。ここでは、特開平10−17
7449に記載の、画像入力装置が画像センサとして配
置されている。
<Contact plate> It has already been described that a more stable operation can be performed when the elbow, the wrist, or the like is put on a table or the like, but a table or the like on which the hand or finger to be detected can be put is prepared. Also has a great effect. Such a configuration is shown in FIG. Here, JP-A-10-17
The image input device described in 7449 is arranged as an image sensor.

【0161】また、操作者の手との間に、透明または半
透明状の板56が配置してある。これには反射防止加工
を施しておくと、よけいな反射がなくなり安定して画像
を得ることができる。あるいはこの板には、当該画像入
力装置が備えている発光手段による光の波長のみを通過
させるような、光学バンドパス特性を持ったものでも良
い。半透明状の板の場合、通過する光の量が変わるので
感度に影響する他は、基本的に板が無いときと同様に動
作する。板があることによる効果は以下の通りである。
Further, a transparent or translucent plate 56 is disposed between the operator and the hand. If anti-reflection processing is applied to this, extra reflection is eliminated and an image can be stably obtained. Alternatively, the plate may have an optical band-pass characteristic such that only the wavelength of light emitted by the light emitting means included in the image input device is transmitted. In the case of a translucent plate, the amount of light passing therethrough changes, so that the operation is basically the same as when there is no plate, except for affecting the sensitivity. The effect of the presence of the plate is as follows.

【0162】まず、操作者は常にこの板に触れるか触れ
ないかぐらいで操作を行うようにすることで、手とセン
サカメラとの距離がほぼ一定に保たれ、安定して検出で
きるという利点がある。また、特に位置を指示するとき
に顕著であるが、人は空中で指を静止させるよりは、板
の上に置いて静止している方が容易である。
First, the operator always performs the operation by touching or not touching the plate, so that the distance between the hand and the sensor camera can be kept almost constant, and the detection can be stably performed. is there. Also, this is particularly remarkable when indicating a position, but it is easier for a person to rest on a plate than to keep his finger still in the air.

【0163】また、方向ジェスチャを入力するときは、
指示する方向に動かすときは、わずかに板に触れるよう
にし、戻るときには触れないようにすることで、確実に
距離の違いを表すことができる。また、板に触れている
ときの検出距離はかなり安定して、小さな幅に収まるた
め、触っているかどうかを距離値(実際には、反射光量
から換算される距離情報)で判定することができる。
When inputting a direction gesture,
By slightly touching the board when moving in the direction instructed and not touching when returning, the difference in distance can be reliably represented. Further, the detection distance when touching the plate is fairly stable and fits within a small width, so that it is possible to determine whether or not the touch is made by a distance value (actually, distance information converted from the amount of reflected light). .

【0164】これにより、例えば、形状ジェスチャとし
て、1本指で板を触る、2本指で板を触る、というよう
に触る指の数で表すこともかのうである。また、手全体
の形状も検出されているので、触った指がどの指かも検
出することができ、形状ジェスチャの種類を容易に増や
すことができる。
Thus, for example, the shape gesture can be represented by the number of fingers touching the board with one finger, touching the board with two fingers, and the like. Further, since the shape of the entire hand is also detected, it is possible to detect which finger is touched, and it is possible to easily increase the types of shape gestures.

【0165】また、カメラの位置は、この図では手の指
方向斜めから手を捉えているが、この位置はここに限ら
ず、例えば、手の真下であったり、手首方向斜めからで
あったりしてもよい。しかし、指先の方の形状がやや重
要であることが多いため、この方向から撮像した方が、
安定した検出が可能になる。
[0165] In this figure, the position of the camera captures the hand obliquely in the finger direction, but this position is not limited to this. For example, the camera position may be right under the hand or obliquely in the wrist direction. May be. However, since the shape of the fingertip is often somewhat important, it is better to take an image from this direction.
Stable detection becomes possible.

【0166】<形状検出> 触った形状のみで、動作を
させようと思えば、さらに異なる構造を持たせることも
できる。画像センサとして、CCDカメラが配置されて
おり、外部からの光を拡散する拡散板がある。通常外部
からの光が拡散板を通してカメラに入射しているため、
カメラはぼんやりと明るい画像を常に捉えている。操作
者が手や指を、拡散板の上に載せたとき、その部分から
は光が到達しないので、黒い部分として撮像される。
<Shape Detection> If it is desired to operate only by touching the shape, a different structure can be provided. As an image sensor, a CCD camera is provided, and there is a diffusion plate for diffusing light from the outside. Normally, light from the outside enters the camera through the diffuser,
The camera always captures dimly bright images. When the operator places his or her hand or finger on the diffusion plate, light does not reach from that part, and thus the image is taken as a black part.

【0167】この画像を解析することによって、何ヶ所
指が触れているか、あるいは触れた指がどちらの方向に
動いたかという情報を検出することができる。あるいは
触れてはいないが非常に近い場合は、黒に近い灰色とし
て撮像されるので、これも利用することが可能である。
周りが暗い場合には、外光が利用できないので、その場
合は補助的な光源を外部に持つことで同様の動作を行え
る。
By analyzing this image, it is possible to detect how many fingers have been touched, or which direction the touched finger has moved. Alternatively, if not touched but very close, the image is captured as gray close to black, so that this can also be used.
When the surroundings are dark, external light cannot be used. In this case, a similar operation can be performed by providing an auxiliary light source outside.

【0168】また、本願発明の実施例における処理をコ
ンピュータで実行可能なプログラムで実現し、このプロ
グラムをコンピュータで読み取り可能な記憶媒体として
実現することも可能である。
Further, the processing in the embodiment of the present invention can be realized by a computer-executable program, and the program can be realized as a computer-readable storage medium.

【0169】<記録媒体> なお、本願発明における記
憶媒体としては、磁気ディスク、フロッピーディスク、
ハードディスク、光ディスク(CD−ROM,CD−
R,DVD等)、光磁気ディスク(MO等)、半導体メ
モリ等、プログラムを記憶でき、かつコンピュータが読
み取り可能な記憶媒体であれば、その記憶形式は何れの
形態であってもよい。
<Recording Medium> The storage medium in the present invention includes a magnetic disk, a floppy disk,
Hard disk, optical disk (CD-ROM, CD-
R, DVD, etc.), a magneto-optical disk (MO, etc.), a semiconductor memory, or any other storage medium that can store programs and that can be read by a computer.

【0170】また、記憶媒体からコンピュータにインス
トールされたプログラムの指示に基づきコンピュータ上
で稼動しているOS(オペレーションシステム)や、デ
ータベース管理ソフト、ネットワーク等のMW(ミドル
ウェア)等が本実施形態を実現するための各処理の一部
を実行してもよい。
An OS (operation system) running on the computer, database management software, MW (middleware) such as a network, etc., according to the instructions of the program installed in the computer from the storage medium, realize this embodiment. May be executed.

【0171】さらに、本願発明における記憶媒体は、コ
ンピュータと独立した媒体に限らず、LANやインター
ネット等により伝送されたプログラムをダウンロードし
て記憶または一時記憶した記憶媒体も含まれる。
Further, the storage medium in the present invention is not limited to a medium independent of a computer, but also includes a storage medium in which a program transmitted through a LAN, the Internet, or the like is downloaded and stored or temporarily stored.

【0172】また、記憶媒体は1つに限らず、複数の媒
体から本実施形態における処理が実行される場合も、本
発明における記憶媒体に含まれ、媒体の構成は何れの構
成であってもよい。
Further, the number of storage media is not limited to one, and the case where the processing in the present embodiment is executed from a plurality of media is also included in the storage media of the present invention. Good.

【0173】なお、本願発明におけるコンピュータは、
記憶媒体に記憶されたプログラムに基づき、本実施形態
における各処理を実行するものであって、パソコン等の
1つからなる装置、複数の装置がネットワーク接続され
たシステム等の何れの構成であってもよい。
The computer according to the present invention is:
The computer executes each process in the present embodiment based on a program stored in a storage medium, and may have any configuration such as an apparatus such as a personal computer or a system in which a plurality of apparatuses are connected to a network. Is also good.

【0174】また、本願発明におけるコンピュータと
は、パソコンに限らず、情報処理機器に含まれる演算処
理装置、マイコン等も含み、プログラムによって本願発
明の機能を実現することが可能な機器、装置を総称して
いる。
The computer in the present invention is not limited to a personal computer, but also includes an arithmetic processing unit, a microcomputer, and the like included in information processing equipment, and generically refers to equipment and devices capable of realizing the functions of the present invention by a program. are doing.

【0175】<まとめ> 第1の発明によれば、人の身
体あるいはその一部の形状や動きなどのジェスチャのう
ち、異なる2つの種類のジェスチャを用いて操作を行
い、第1の種類のジェスチャで、操作モードの選択を行
い、第2の種類のジェスチャでその操作モードないでの
パラメータの変更を行うことができる操作入力装置が実
現できる。
<Summary> According to the first aspect of the present invention, the operation is performed using two different types of gestures among the gestures such as the shape and movement of the human body or a part thereof, and the first type of gesture is performed. Thus, it is possible to realize an operation input device that can select an operation mode and change parameters without the operation mode using the second type of gesture.

【0176】第2の発明によれば、形状を提示するとい
う形状ジェスチャで操作モードを選択し、方向を指示す
る方向ジェスチャでパラメータを変更するという極めて
使用者にとって自然な操作入力装置が実現できる。
According to the second aspect of the present invention, it is possible to realize an operation input device which is extremely natural for a user, in which an operation mode is selected by a shape gesture of presenting a shape, and parameters are changed by a direction gesture indicating a direction.

【0177】第3の発明によれば、ひとつの形状ジェス
チャには、ひとつあるいは類似した複数の操作モードが
対応づけられており、形状ジェスチャ検出手段が同一の
形状ジェスチャを連続して検出したときに、その形状ジ
ェスチャに関連づけられた複数の操作モードを順番に選
択していくことができるため、類似の操作モードが複数
ある時、それら全てに異なるジェスチャを割り当てると
いう、使用者にとって負担の大きい手段を採らずに、多
くの類似の操作モードを選択できる。
According to the third invention, one or a plurality of similar operation modes are associated with one shape gesture, and when the shape gesture detection means continuously detects the same shape gesture, Since it is possible to sequentially select a plurality of operation modes associated with the shape gesture, when there are a plurality of similar operation modes, assigning different gestures to all of them causes a large burden on the user. Many similar operating modes can be selected without adoption.

【0178】第4の発明によれば、形状ジェスチャ検出
手段は、人の身体あるいはその一部の動きが一定時間以
上静止あるいは動きの小さい状態であることを検出した
ときに、形状の検出を開始するので、意図しない操作者
の動きが形状ジェスチャとして誤認識されてしまうこと
を防ぐことができる。また、静止したときのみ形状認識
処理を行うので、処理コストを低くすることができる。
According to the fourth aspect, the shape gesture detecting means starts the shape detection when detecting that the motion of the human body or a part thereof is stationary or has a small motion for a predetermined time or more. Therefore, it is possible to prevent an unintended movement of the operator from being erroneously recognized as a shape gesture. Further, since the shape recognition processing is performed only when the apparatus is stationary, processing costs can be reduced.

【0179】第5の発明によれば、表示手段に、選択可
能な操作モードとそれを選択するための形状ジェスチャ
を表す画像、あるいは変更可能なパラメータとそれを変
更するための方向を表す画像を併せて表示するので、操
作者がジェスチャを忘れたときには、わざわざ取扱説明
書を開かなくとも、ジェスチャの種類を知ることができ
る。
According to the fifth aspect, an image representing a selectable operation mode and a shape gesture for selecting the operation mode or an image representing a changeable parameter and a direction for changing the selectable operation mode is displayed on the display means. Since the display is also performed, when the operator forgets the gesture, the type of the gesture can be known without having to open the instruction manual.

【0180】第6の発明によれば、現在選択可能な操作
モードあるいは変更可能なパラメータなどの情報を音声
で提示するので、操作者が前方を注視したままで、現在
の操作の状況を知ることができる。
According to the sixth aspect, information such as a currently selectable operation mode or a changeable parameter is presented by voice, so that the operator can know the current operation status while gazing forward. Can be.

【0181】第7の発明によれば、操作の途中で、操作
者によるジェスチャ提示が滞ったときに音声提示を行う
ので、常に音声提示が行われているという煩わしさがな
い。
According to the seventh aspect, voice presentation is performed when the gesture presentation by the operator is delayed during the operation, so that there is no trouble that the voice presentation is always performed.

【0182】第8の発明によれば、形状ジェスチャ検出
手段が検出を開始したこと、検出を終了したこと、検出
に失敗したこと、方向ジェスチャ検出手段が方向を検出
したこと、のうちのいくつかまたは全てが起こったとき
に、音で操作者に提示する音提示手段を有するので、自
分の行ったジェスチャが正しく認識されたかどうかを、
画面を見ずに知ることができる。
According to the eighth aspect of the present invention, there are some of the following: the shape gesture detection means has started detection, the detection has been completed, the detection has failed, and the direction gesture detection means has detected the direction. Or, when everything happens, it has a sound presentation means that presents to the operator with sound, so that whether or not the gesture made by himself has been correctly recognized,
You can know without looking at the screen.

【0183】第9の発明によれば、操作の種類によっ
て、あるいは検出された方向の種類によって、異なる音
が提示されるので、入力しようとした方向、形状と異な
るジェスチャが検出されてしまったときに、知ることが
できる。
According to the ninth aspect, since different sounds are presented depending on the type of operation or the type of direction detected, when a gesture different from the direction or shape to be input is detected. You can know.

【0184】第10の発明によれば、人の身体やその一
部、人が持っているもの、または人が身につけているも
のの位置に対応した位置情報の軌跡を解析して方向ジェ
スチャを検出する方法であって、当該物体が、あらかじ
め決まられた複数の方向のうち、いずれかの方向に、決
められた範囲の量だけ動き、次いで反対側に、決められ
た範囲の量だけ動いたとき、始めに動いた方向への方向
ジェスチャとして検出することを特徴とした、方向ジェ
スチャ検出方法を用いることによって、同じ方向のジェ
スチャを繰り返し提示するときに、あいだに生じる「戻
り」の動作を反対方向のジェスチャと誤って認識するこ
とを防ぐことができる。また、常に同じ場所に戻ってき
て、ジェスチャが終了するため、方向ジェスチャを繰り
返すのに適している。
According to the tenth aspect, the direction gesture is detected by analyzing the trajectory of the position information corresponding to the position of the human body or a part thereof, the one held by the person, or the one worn by the person. The object moves in a predetermined direction in one of a plurality of predetermined directions, and then moves in the opposite direction by a predetermined range. By using the direction gesture detection method, characterized by detecting as a direction gesture in the direction of the first movement, when a gesture in the same direction is repeatedly presented, the "return" operation occurring between the opposite directions is performed. Can be prevented from being erroneously recognized as a gesture. In addition, since the gesture is always returned to the same place and the gesture ends, it is suitable for repeating the direction gesture.

【0185】第11の発明によれば、人の身体やその一
部、人が持っているもの、または人が身につけているも
のの位置に対応した位置情報の軌跡を解析して方向ジェ
スチャを検出する方法であって、当該物体が、あらかじ
め決められた範囲に決められた範囲の時間だけ静止また
は動きの少ない状態でとどまった後、あらかじめ決まら
れた複数の方向のうち、いずれかの方向に、決められた
範囲の量だけ動き、次いで反対側に、決められた範囲の
量だけ動き、再び決められた範囲の時間だけ静止または
動きの少ない状態でとどまったときに、始めに動いた方
向への方向ジェスチャとして検出することを特徴とし
た、方向ジェスチャ検出方法を用いることにより、操作
者の意図しない動きが方向ジェスチャとして誤検出され
てしまうことを防ぐことができる。
According to the eleventh invention, the direction gesture is detected by analyzing the trajectory of the position information corresponding to the position of the body or a part of the person, the object held by the person, or the object worn by the person. In the method, after the object stays in a stationary or low-motion state for a predetermined range of time in a predetermined range, in one of a plurality of predetermined directions, Moves in a fixed range, then moves in the opposite direction by a fixed range, and then remains stationary or low-motion for a fixed range of time again, in the direction of the first move By using a direction gesture detection method characterized by detecting as a direction gesture, it is possible to prevent an unintended movement of the operator from being erroneously detected as a direction gesture. Door can be.

【0186】第12の発明によれば、方向ジェスチャが
検出されたときに、検出されたことを音で提示する、音
提示手段を持つので、方向ジェスチャが正しく検出され
たことを確認できる。
According to the twelfth aspect, when the direction gesture is detected, the presence of the sound is provided by sound, so that it is possible to confirm that the direction gesture has been correctly detected.

【0187】第13の発明によれば、検出されたジェス
チャの方向によって、ことなる音を提示するため、入力
しようとした方向と異なる方向が誤検出されたときに気
づくことができる。
According to the thirteenth aspect, since different sounds are presented depending on the direction of the detected gesture, it is possible to notice when a direction different from the input direction is erroneously detected.

【0188】第14の発明によれば、はじめにある方向
に動いたときに、ひとつの音を提示し、逆側に動いて戻
り、方向ジェスチャとして検出されたときに、別の音を
提示するので、はじめの動きと戻りの動きを確実に実行
することが可能である。
According to the fourteenth aspect, when one moves in a certain direction at first, one sound is presented, and when moving in the opposite direction, another sound is presented when detected as a direction gesture. It is possible to reliably execute the initial movement and the return movement.

【0189】第15の発明によれば、ひとつめの音は、
動いた方向によって異なる音を提示し、ふたつめの音
は、方向ジェスチャによらず同じ音を提示するので、方
向ジェスチャが完了したときには常に同じ音が聞こえ
る。したがって、はじめの動きと戻りの動きが逆に検出
されるような事態になったときには、すぐに気づくこと
ができる。
According to the fifteenth aspect, the first sound is:
Different sounds are presented depending on the direction of movement, and the second sound presents the same sound regardless of the direction gesture, so that the same sound is always heard when the direction gesture is completed. Therefore, when a situation in which the initial movement and the return movement are detected in reverse is immediately noticeable.

【0190】第16の発明によれば、人の身体やその一
部、人が持っているもの、または人が身につけているも
のの位置に対応した位置情報の軌跡を解析してジェスチ
ャを検出する方法であって、人が意図して動かしている
動作と、意図せずに生じてしまう動作を識別することを
特徴とする、ジェスチャ検出方法を用いる。これによ
り、空中でのジェスチャを行うときに、人が意図して行
っている動作と、その意図している動作同士のあいだに
発生してしまう、意図しない動作を識別し、判定に有効
な動作のみを取り出すことができる。
According to the sixteenth aspect, a gesture is detected by analyzing the trajectory of position information corresponding to the position of a person's body, a part thereof, a person's possession, or a person's body. A method is used, wherein a gesture detection method is characterized in that a motion intentionally moved by a person is distinguished from a motion that occurs unintentionally. Thus, when performing a gesture in the air, an operation that is intentionally performed by a person and an unintended operation that occurs between the intended operations are identified, and an operation that is effective for determination is performed. Only can be taken out.

【0191】第17の発明によれば、人の身体やその一
部、人が持っているもの、または人が身につけているも
のの位置に対応した位置情報の軌跡を解析して方向ジェ
スチャを検出する方法であって、あらかじめ決まられた
複数の方向のうち、いずれかの方向に動いたことを検出
する手段と、連続する同じ方向ジェスチャの間に発生す
る「戻り」の動作を除去する手段を有する方向ジェスチ
ャ検出方法を用いることにより、一方向の動きで、方向
ジェスチャを示すときに問題となる「戻り」動作の誤検
出を防ぐことができる。
According to the seventeenth aspect, the direction gesture is detected by analyzing the trajectory of the position information corresponding to the position of the human body or a part thereof, the object held by the person, or the object worn by the person. Means for detecting movement in any one of a plurality of predetermined directions, and means for removing a "return" operation occurring between successive same-direction gestures. By using the directional gesture detection method having the directional gesture, it is possible to prevent erroneous detection of a “return” operation, which is a problem when a directional gesture is indicated, in one-directional movement.

【0192】第18の発明によれば、動いたもののセン
サからの距離を検出する手段を持ち、ある方向への連続
した動きの間に、反対方向の距離が遠い動きを検出した
ときに、それは「戻り」の動きであると判定し、除去す
るので、操作者が「戻り」動作を行う際には、カメラセ
ンサより手を遠ざけて戻すようにすることで、「戻り」
動作を除去できる。
According to the eighteenth aspect, there is provided a means for detecting a distance from the sensor of a movement, and when a movement in a direction opposite to the distance is detected during a continuous movement in a certain direction, the movement is detected. Since it is determined that the movement is "return" and is removed, when the operator performs the "return" operation, the operator moves his hand away from the camera sensor and returns it.
Operation can be eliminated.

【0193】第19の発明によれば、各々の動きの間の
時間間隔を測定する手段を持ち、ある方向への連続した
動きの間に、反対方向の動きが検出され、なおかつそれ
らの間に、あらかじめ定められた長さ以下の時間間隔し
か無かった場合、この間の動きを「戻り」の動きである
と判定し、除去するので、同じ方向ジェスチャを提示す
るときは、時間間隔が空かないように操作し、逆方向の
ジェスチャを提示するときは、一旦停止してから行うよ
うにすることで、「戻り」動作を除去した安定的な操作
が行える。
According to the nineteenth aspect, there is provided a means for measuring a time interval between each movement, wherein a movement in an opposite direction is detected during a continuous movement in a certain direction, and between the movements. If there is only a time interval equal to or less than the predetermined length, the motion during this time is determined to be a “return” motion and removed, so when presenting the same direction gesture, make sure that the time interval is not empty When a gesture in the reverse direction is presented, the operation is stopped and then performed again, so that a stable operation without the "return" operation can be performed.

【0194】第20の発明によれば、検出された方向ジ
ェスチャに対し、それぞれ方向によって異なる音を提示
するため、「戻り」動作を除去せずに方向ジェスチャと
して認識してしまったときに、知ることができる。
According to the twentieth aspect, since different sounds are presented depending on the directions for the detected direction gestures, it is possible to know when the direction gesture is recognized without removing the “return” operation. be able to.

【0195】第21の発明によれば、人の身体やその一
部、人が持っているもの、または人が身につけているも
のの位置に対応した位置情報の軌跡を解析してジェスチ
ャとして検出する方法であって、始まりの位置と終わり
の位置が近い位置に来るような軌跡をジェスチャとして
検出するので、さまざまなジェスチャを繰り返し入力す
るのに適している。
According to the twenty-first aspect, a trajectory of position information corresponding to the position of a person's body, a part thereof, a person's possession, or a person's wear is analyzed and detected as a gesture. This method is suitable for repeatedly inputting various gestures because a trajectory in which the start position and the end position are close to each other is detected as a gesture.

【0196】第22の発明によれば、上述したような方
向ジェスチャ検出方法を用いた、操作入力装置が実現で
きる。
According to the twenty-second aspect, an operation input device using the above-described direction gesture detection method can be realized.

【0197】第23の発明によれば、人の身体あるいは
その一部の形状を検出することができる、形状ジェスチ
ャ検出手段と、メニューを表示するメニュー表示手段
と、検出されたジェスチャに対応づけて、メニューを選
択するメニュー選択手段を有する入力装置であって、階
層的にメニューを辿っていくときに、同じ形状の形状ジ
ェスチャを提示することが無いように、ジェスチャとメ
ニューの対応付けがなされたことを特徴とする、操作入
力装置を実現することにより、ジェスチャの組み合わせ
で、階層をまたぐメニュー選択が、あたかもひとつのジ
ェスチャ提示をするかのごとく行えるようになる。
According to the twenty-third aspect, a shape gesture detecting means capable of detecting a shape of a human body or a part thereof, a menu displaying means for displaying a menu, and a detected gesture are associated with each other. An input device having menu selection means for selecting a menu, wherein a gesture is associated with a menu so that a shape gesture having the same shape is not presented when the menu is hierarchically traversed. By realizing the operation input device characterized by the above feature, it is possible to perform menu selection across hierarchies by combining gestures as if a single gesture is presented.

【0198】第24の発明によれば、人の身体あるいは
その一部の動きの方向を検出することができる、方向ジ
ェスチャ検出手段と、メニューを表示するメニュー表示
手段と、検出されたジェスチャに対応づけて、メニュー
を選択するメニュー選択手段を有する入力装置であっ
て、方向ジェスチャを連続して提示したときには、1回
だけ提示したときとは異なるメニューが選択されるよう
にすることによって、単に方向ジェスチャを用いるとき
も多くのメニューを表示することができる。
According to the twenty-fourth aspect, a direction gesture detecting means capable of detecting a direction of movement of a human body or a part thereof, a menu displaying means for displaying a menu, and a function corresponding to the detected gesture In addition, an input device having menu selection means for selecting a menu, wherein when a direction gesture is continuously presented, a menu different from that presented only once is selected, so that the direction gesture is simply performed. Many menus can also be displayed when using gestures.

【0199】第25の発明によれば、人の身体あるいは
その一部の形状を検出することができる形状ジェスチャ
検出手段と、人の身体あるいはその一部の動きの方向を
検出することができる、方向ジェスチャ検出手段と、メ
ニューを表示するメニュー表示手段と、検出されたジェ
スチャに対応づけて、メニューを選択するメニュー選択
手段を有する入力装置であって、検出された方向ジェス
チャと、それと同時に検出された形状ジェスチャとの組
み合わせによって、選択されるメニューが決定されるよ
うにすることによって、単に方向ジェスチャを用いると
きも多くのメニューを表示することができる。
According to the twenty-fifth aspect, a shape gesture detecting means capable of detecting the shape of a human body or a part thereof, and a direction of movement of the human body or a part thereof can be detected. An input device having a direction gesture detection unit, a menu display unit for displaying a menu, and a menu selection unit for selecting a menu in association with the detected gesture, wherein the detected direction gesture is detected simultaneously with the detected direction gesture. By selecting the menu to be selected in accordance with the combination with the shape gesture, many menus can be displayed even when simply using the directional gesture.

【0200】第26の発明によれば、人の身体やその一
部、人が持っているもの、または人が身につけているも
のの位置や動きの情報を用いて、並んだ項目のひとつを
選択する、あるいは値を設定する方法であって、人が容
易に独立して制御できる、または検出手段が容易に独立
して検出しうる、2種類の位置、動き情報を用いて、一
方を用いて項目あるいは値の選択を行い、他方を用いて
決定する、ことを特徴とする、操作入力方法を構成す
る。これにより、画面を見ることができるときには、素
早く項目あるいは値の入力ができる。これらの2種類の
動きは独立性が高いので、互いの動作に影響を与えて、
検出誤差が生じるのを防ぐことができる。
According to the twenty-sixth aspect, one of the arranged items is selected using information on the position and movement of a person's body or a part thereof, a thing held by a person, or a thing worn by a person. Using two types of position and motion information that can be easily and independently controlled by a person or that can be easily and independently detected by a detecting means. An operation input method is characterized in that an item or a value is selected and the other is determined using the other. Thus, when the screen can be viewed, an item or a value can be input quickly. These two types of movements are highly independent, affecting each other's movements,
It is possible to prevent a detection error from occurring.

【0201】第27の発明によれば、ひとつの方向に動
かして項目あるいは値の選択を行い、それと異なる方向
の動きを提示することで、決定するので、動き情報のみ
で選択動作が行える。クリックに相当する動作を形状の
変化などで示さなくて良いので、より安定して操作でき
る。
According to the twenty-seventh aspect, the item or value is selected by moving in one direction, and the motion is determined by presenting the motion in a direction different from that, so that the selecting operation can be performed only with the motion information. The operation corresponding to the click need not be indicated by a change in shape or the like, so that the operation can be performed more stably.

【0202】第28の発明によれば、人が、より細かく
位置を制御できる方向、あるいは検出手段がより精度良
く位置を検出できる方向を、選択の方向として利用する
ので、より精度良く操作が行え、また使用者にとっても
操作しやすい装置を提供することができる。
According to the twenty-eighth aspect, the direction in which a person can control the position more finely or the direction in which the detecting means can detect the position with higher accuracy is used as the direction of selection, so that the operation can be performed with higher accuracy. In addition, it is possible to provide a device that is easy for the user to operate.

【0203】第29の発明によれば、決定の方向ジェス
チャを提示する際には、反対向きの2つの方向によっ
て、異なる項目または値を選択決定することにより、よ
り多くの項目を表示し、選択することが可能となる。
According to the twenty-ninth aspect, when presenting the determination direction gesture, different items or values are selected and determined according to two opposite directions, so that more items are displayed and selected. It is possible to do.

【0204】第30の発明によれば、決定の方向ジェス
チャを提示する際には、決定の方向に、定められた範囲
の量だけ移動し、再び定められた範囲の量だけ戻って来
たときに、決定することを特徴とするので、この項目選
択を繰り返し行うときに効率的に操作できる。
According to the thirtieth aspect, when presenting the determination direction gesture, when the user moves in the determination direction by the amount of the predetermined range and returns again by the amount of the predetermined range. In addition, since the item is determined, the operation can be efficiently performed when this item selection is repeatedly performed.

【0205】第31の発明によれば、第26〜第30の
発明の操作入力方法を用いた操作入力装置が実現でき
る。
According to the thirty-first aspect, an operation input device using the operation input method according to the twenty-sixth to thirtieth aspects can be realized.

【0206】第32の発明によれば、肘、手首など、腕
の一部を置く場所を設けたことにより、より安定して、
楽に操作を行うことができる。
According to the thirty-second aspect, by providing a place for placing a part of an arm, such as an elbow or a wrist, more stably,
Operation can be performed easily.

【0207】第33の発明によれば、光学的手段を用い
て、対象物体の位置や形状を検出する、第1〜第9、第
12〜第15、第20、第22〜第25、第31の発明
の操作入力装置であって、画像入力装置側の物体表面
に、強力な外部光が当たらないように、向き、配置を工
夫した、操作入力装置であるため、太陽光のような強力
な外光の影響を受けやすい、光学的手段を用いても安定
した性能を発揮することができる。
According to the thirty-third aspect, the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, and twenty-fifth to twenty-fifth, the position and the shape of the target object are detected using optical means. 31. The operation input device according to the thirty-first aspect, wherein the operation input device is devised in a direction and arrangement such that strong external light does not hit an object surface on the image input device side. Stable performance can be exhibited even by using optical means that is easily affected by external light.

【0208】第34の発明によれば、車載機器に使用さ
れる、第1〜第9、第12〜第15、第20、第22〜
第25、第31の発明の操作入力装置であって、運転者
がハンドルから手を離さずにあるいはほとんど離さずに
操作できるように、配置したことを特徴とする、操作入
力装置を実現できるので、運転者が運転中により安全に
操作を行うことができる。
According to the thirty-fourth aspect, the first to ninth, twelfth to fifteenth, twentieth, and twenty-second to twenty-fourth units are used in vehicle-mounted devices.
An operation input device according to the twenty-fifth and thirty-first inventions, wherein the operation input device is arranged so that the driver can operate the steering wheel without releasing his hand from the steering wheel or almost without releasing it. Thus, the driver can operate more safely while driving.

【0209】第35の発明によれば、第1〜第9、第1
2〜第15、第20、第22〜第25、第31の発明の
操作入力装置であって、操作しようとしている人が、ど
のカテゴリに属する人なのかを判定する、操作者判定手
段を持ち、操作者の属するカテゴリによって、行える操
作を変更することができる手段を持つことを特徴とす
る、操作入力装置を用いる。これにより、使用者の状態
や位置などの条件によって、操作を許可したり禁止した
りすることが可能になる。
According to the thirty-fifth aspect, the first to ninth, first
An operation input device according to any of the second to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first inventions, comprising an operator determination unit configured to determine to which category a person who intends to operate belongs. The operation input device is characterized in that the operation input device is characterized by having means capable of changing the operation that can be performed depending on the category to which the operator belongs. Accordingly, it is possible to permit or prohibit the operation according to conditions such as the state and position of the user.

【0210】第36の発明によれば、車載機器に使用さ
れる、第1〜第9、第12〜第15、第20、第22〜
第25、第31の発明の操作入力装置であって、操作し
ようとしているのが運転者なのかそれ以外なのかを判定
する、操作者判定手段を持ち、操作者が運転者である場
合、一定の条件下で一部の操作ができないよう制御する
手段を持つことを特徴とするので、走行中に運転者が操
作してはならない操作でも、助手席者ならば操作できる
ように構成することができる。
According to the thirty-sixth aspect, the first to ninth, twelfth to fifteenth, twentieth, and twenty-second to twenty-fourth units are used for in-vehicle devices.
The operation input device according to the twenty-fifth and thirty-first inventions, further comprising: an operator determination unit configured to determine whether an operation is to be performed by a driver or another driver. It is characterized by having a means to control so that some operations can not be performed under the conditions of the above, so that even if the driver should not operate while driving, it can be operated by the passenger it can.

【0211】第37の発明によれば、第1〜第9、第1
2〜第15、第20、第22〜第25、第31の発明の
操作入力装置であって、さらに音声によって指示が行え
る、音声入力手段を持つことを特徴とするので、音声に
よる簡便な入力方法とパラメータ入力に適したジェスチ
ャ入力を併用したより操作しやすい環境を実現できる。
According to the thirty-seventh aspect, the first to ninth, first to ninth
The operation input device according to any one of the second to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first inventions, further comprising a voice input unit capable of giving an instruction by voice, so that a simple input by voice is performed. An environment that is easier to operate can be realized by using both a method and gesture input suitable for parameter input.

【0212】第38の発明によれば、第1〜第9、第1
2〜第15、第20、第22〜第25、第31の発明の
操作入力装置であって、さらにユーザの意図しない動き
を防ぎ、手や身体の動きを安定させるための安定化手段
を有することを特徴とする操作入力装置を用いること
で、より安定した操作を実現することができる。
According to the thirty-eighth aspect, the first to ninth, first to ninth,
The operation input device according to any one of the second to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first inventions, further including a stabilizing unit for preventing unintended movement of a user and stabilizing movement of a hand or body. By using the operation input device characterized by the above, more stable operation can be realized.

【0213】第39の発明によれば、安定化手段は、ユ
ーザが動作の最初や最後あるいは動作中に手や身体を接
触させて操作するための接触板であることを特徴とし
た、第38の発明の操作入力装置を用いることによっ
て、操作者は板に触ることでより安定的に位置入力が行
え、また、触ることで操作しているという安心感を与え
られる。また、距離が一定に保たれるので、より安定し
た検出性能が実現できる。
According to a thirty-ninth aspect, the stabilizing means is a contact plate for allowing a user to make contact with a hand or a body at the beginning or end of an operation or during an operation to operate. By using the operation input device of the invention of the invention, the operator can input the position more stably by touching the board, and can feel reassured that the operation is performed by touching the board. Further, since the distance is kept constant, more stable detection performance can be realized.

【0214】第40の発明によれば、手で触った部分の
形状が検出できる、接触形状検出手段と、この接触形状
を形状ジェスチャとして検出する形状ジェスチャ検出手
段と、動きの方向を検出する、方向ジェスチャ検出手段
と、形状ジェスチャ検出手段の検出結果に応じて、ある
特定の操作が行える複数の操作モードのうちのひとつを
選択する操作モード選択手段と、方向ジェスチャ検出手
段の検出結果に応じて、当該操作モードにおいて変更可
能なパラメータを変更するパラメータ変更手段を有する
操作入力装置を構成することで、確実に触って操作した
ときのみ動作するような操作入力環境が実現できる。こ
の構成では、通常のCCDカメラを用いても安定した動
作が実現できる。
According to the fortieth aspect, a contact shape detecting means capable of detecting a shape of a portion touched by a hand, a shape gesture detecting means detecting the contact shape as a shape gesture, and a direction of movement are detected. According to the detection result of the direction gesture detection means, the operation mode selection means for selecting one of a plurality of operation modes in which a specific operation can be performed according to the detection result of the shape gesture detection means, and the detection result of the direction gesture detection means By configuring an operation input device having a parameter changing unit that changes a parameter that can be changed in the operation mode, it is possible to realize an operation input environment that operates only when touched and operated reliably. With this configuration, a stable operation can be realized even with a normal CCD camera.

【0215】第41の発明によれば、第1〜第9、第1
2〜第15、第20、第22〜第25、第31の発明の
操作入力装置であって、パルス発光する発光手段と発光
手段に同期して動作し、その発光手段から照射される光
の物体反射光のみを撮像する手段を、備えたことを特徴
とする操作入力装置を用いることで、物体の形状を安定
に、高速に得られるため、低い処理コストでジェスチャ
入力が実現できる。
According to the forty-first aspect, the first to ninth, first
An operation input device according to any one of the second to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first inventions, wherein the light-emitting device emits pulsed light and operates in synchronization with the light-emitting device. By using the operation input device having a means for imaging only the object reflected light, the shape of the object can be obtained stably and at high speed, so that gesture input can be realized at low processing cost.

【0216】第42の発明によれば、第1〜第9、第1
2〜第15、第20、第22〜第25、第31〜第41
の発明の操作入力装置を備えた車両が実現できる。
According to the forty-second aspect, the first to ninth, first
2nd to 15th, 20th, 22nd to 25th, 31st to 41st
A vehicle equipped with the operation input device of the invention of the invention can be realized.

【0217】第43の発明によれば、人の身体やその一
部あるいは物体などの対象物の形状・動き情報を検出
し、この検出結果により、複数の操作モードのうちのひ
とつを選択し、次いで、同じ対象物の、前述とは異なる
種類の形状・動き情報を検出し、この検出結果を用い
て、その操作モードにおける変更可能なパラメータを変
更することを特徴とする操作入力方法により、使用者が
自然な感覚で操作できる、装置が構成できる。
According to the forty-third aspect, shape / movement information of an object such as a human body or a part thereof or an object is detected, and one of a plurality of operation modes is selected based on the detection result. Then, using the operation input method characterized by detecting different types of shape / movement information of the same object, and changing the changeable parameters in the operation mode using the detection result. A device that can be operated by a person with a natural feeling can be configured.

【0218】第44の発明によれば、第10、第11、
第16〜第19、第21、第26〜第30、第43の発
明のジェスチャ入力方法あるいは操作入力方法を実行す
るプログラムを収めた記憶媒体は、コンピュータが搭載
されている装置に、実施例で述べたような操作入力環境
を構築することができる。
According to the forty-fourth aspect, the tenth, eleventh,
The storage medium storing the program for executing the gesture input method or the operation input method according to the sixteenth to nineteenth, twenty-first, twenty-sixth, and thirty-third inventions is stored in an apparatus in which a computer is mounted. The operation input environment as described above can be constructed.

【0219】[0219]

【発明の効果】本願発明によれば、人の身体あるいはそ
の一部の形状や動きなどのジェスチャのうち、異なる2
つの種類のジェスチャを用いて操作を行い、第1の種類
のジェスチャで、操作モードの選択を行い、第2の種類
のジェスチャでその操作モード内でのパラメータの変更
を行うことができる操作入力装置が実現できる。
According to the present invention, two different gestures, such as the shape and movement of the human body or a part thereof, are used.
An operation input device capable of performing an operation using two types of gestures, selecting an operation mode with a first type of gesture, and changing a parameter within the operation mode with a second type of gesture Can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を実現する全体構成図である。FIG. 1 is an overall configuration diagram for realizing the present invention.

【図2】本発明を実現するより具体的な全体構成図であ
る。
FIG. 2 is a more specific overall configuration diagram for realizing the present invention.

【図3】本発明で用いる形状ジェスチャの例である。FIG. 3 is an example of a shape gesture used in the present invention.

【図4】本発明で用いる形状ジェスチャと方向ジェスチ
ャを用いた操作の遷移図である。
FIG. 4 is a transition diagram of an operation using a shape gesture and a direction gesture used in the present invention.

【図5】本発明で用いるジェスチャ・アイコンの表示例
である。
FIG. 5 is a display example of a gesture icon used in the present invention.

【図6】本発明で用いる音声フィードバックを行うため
の構成図である。
FIG. 6 is a configuration diagram for performing audio feedback used in the present invention.

【図7】本発明で用いる操作が滞ったときに音声フィー
ドバックを行う処理のフローチャート。
FIG. 7 is a flowchart of processing for performing audio feedback when an operation used in the present invention is delayed.

【図8】本発明で用いる方向ジェスチャの検出方法を示
すフローチャートである。
FIG. 8 is a flowchart showing a direction gesture detection method used in the present invention.

【図9】本発明で用いる始まりと終わりの位置が近いジ
ェスチャの例である。
FIG. 9 is an example of a gesture whose start and end positions are close to each other used in the present invention.

【図10】本発明で用いる距離を検知して戻りの動作を
除去する構成例である。
FIG. 10 is a configuration example for detecting a distance used in the present invention and eliminating a return operation.

【図11】本発明で用いるジェスチャによって、メニュ
ー階層を辿ることができる装置の構成例。
FIG. 11 is a configuration example of an apparatus that can follow a menu hierarchy by using a gesture used in the present invention.

【図12】本発明で用いる方向ジェスチャでメニュー選
択をする際の画面例である。
FIG. 12 is an example of a screen when a menu is selected by a direction gesture used in the present invention.

【図13】本発明で用いる方向ジェスチャの繰り返しで
異なるメニューを選択する画面例である。
FIG. 13 is an example of a screen for selecting a different menu by repeating a direction gesture used in the present invention.

【図14】本発明で用いる独立した2種類の動き情報
で、選択と決定を行う装置の構成図である。
FIG. 14 is a configuration diagram of an apparatus that performs selection and determination using two types of independent motion information used in the present invention.

【図15】本発明で用いる独立した2種類の動き情報
で、選択と決定を行う装置の画面例である。
FIG. 15 is an example of a screen of a device that performs selection and determination using two types of independent motion information used in the present invention.

【図16】決定を行う動きをさらに分け、選択肢の数を
増やした構成における画面例である。
FIG. 16 is an example of a screen in a configuration in which a motion for determining is further divided and the number of options is increased.

【図17】本発明で用いる装置の外観の例である。FIG. 17 is an example of the appearance of an apparatus used in the present invention.

【図18】操作者を判定して、適応的に操作の許可・不
許可を与える装置の構成図である。
FIG. 18 is a configuration diagram of a device that determines an operator and adaptively permits / disallows an operation.

【符号の説明】[Explanation of symbols]

1…第1のジェスチャ検出部 2…第2のジェスチャ検出部 3…操作種類選択部 4…パラメータ変更部 5…操作入力処理部 6…操作実行部 7…形状ジェスチャ検出部 8…方向ジェスチャ検出部 9…ジェスチャ・アイコン 13…音声フィードバック部 32…画像入力部 33…距離検出部 34…動き検出部 47…第1の動き検出部 48…選択部 49…第2の動き検出部 50…決定動作判定部 53…腕の一部を乗せる台 54…カメラ 56…接触板 58…操作者判定部 DESCRIPTION OF SYMBOLS 1 ... 1st gesture detection part 2 ... 2nd gesture detection part 3 ... operation type selection part 4 ... parameter change part 5 ... operation input processing part 6 ... operation execution part 7 ... shape gesture detection part 8 ... direction gesture detection part 9 Gesture icon 13 Voice feedback unit 32 Image input unit 33 Distance detection unit 34 Motion detection unit 47 First motion detection unit 48 Selection unit 49 Second motion detection unit 50 Determination operation determination Part 53: A table on which part of the arm is placed 54 ... Camera 56 ... Contact plate 58 ... Operator determination part

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三原 功雄 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 原島 高広 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 山内 康晋 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 森下 明 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5E501 AA20 AA22 AB03 AB06 AC03 BA05 CA02 CA07 CA08 CB14 CC11 CC14 EA33 EB05 FA04 FA05 FA32 FA42  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor, Isao Mihara 1st, Komukai Toshiba-cho, Saiwai-ku, Kawasaki City, Kanagawa Prefecture Inside the Toshiba R & D Center (72) Inventor Takahiro Harashima, Komukai Toshiba, Sai-ku, Kawasaki City, Kanagawa Prefecture No. 1 in the Toshiba R & D Center (72) Inventor Yasunari Yamauchi 1 in Komukai Toshiba-cho in Sachi-ku, Kawasaki-shi, Kanagawa Prefecture In-Toshiba R & D Center (72) Inventor Akira Morishita, Kawasaki-shi, Kanagawa 1F, Komukai Toshiba-cho, Toshiba R & D Center F-term (reference) 5E501 AA20 AA22 AB03 AB06 AC03 BA05 CA02 CA07 CA08 CB14 CC11 CC14 EA33 EB05 FA04 FA05 FA32 FA42

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】検出すべき対象物の形状や動きを検出する
ための第1の検出手段と、 この第1の検出手段によって検出される形状や動きとは
異なる前記対象物の形状や動きを検出するための第2の
検出手段と、 前記第1の検出手段の検出結果をもとに、特定の操作を
選択する操作選択手段と、 この操作選択手段によって選択された操作における変更
可能なパラメータを、前記第2の検出手段の検出結果を
もとに、変更するパラメータ変更手段を有することを特
徴とする操作入力装置。
A first detecting means for detecting a shape and a movement of the object to be detected, and a shape and a movement of the object different from the shape and the movement detected by the first detecting means. Second detecting means for detecting; an operation selecting means for selecting a specific operation based on a detection result of the first detecting means; a changeable parameter in the operation selected by the operation selecting means An operation input device, comprising: a parameter changing unit that changes the parameter based on a detection result of the second detection unit.
【請求項2】検出すべき対象物の形状を検出する形状検
出手段と、 前記対象物の動きの方向を検出する方向検出手段と、 前記形状検出手段の検索結果をもとに、特定の操作を選
択する操作選択手段と、 この操作選択手段によって選択された操作における変更
可能なパラメータを、前記方向検出手段の検出結果をも
とに、変更するパラメータ変更手段を有することを特徴
とする操作入力装置。
2. A shape detecting means for detecting a shape of an object to be detected, a direction detecting means for detecting a direction of movement of the object, and a specific operation based on a search result of the shape detecting means. And an operation selecting means for changing the parameter which can be changed in the operation selected by the operation selecting means based on the detection result of the direction detecting means. apparatus.
【請求項3】前記操作選択手段は、対象物の形状に対し
複数の操作を対応づけおき、前記形状検出手段が同一の
形状ジェスチャを連続して検出したときに、前記形状に
対応づけられた複数の操作を順番に切り替えて選択する
ことを特徴とする請求項2に記載の操作入力装置。
3. The operation selecting means associates a plurality of operations with the shape of the object, and when the shape detecting means continuously detects the same shape gesture, the operation selecting means is associated with the shape. The operation input device according to claim 2, wherein a plurality of operations are sequentially switched and selected.
【請求項4】前記形状検出手段は、対象物の動きが一定
時間以上静止あるいは動きの小さい状態であることを検
出したときに、対象物の形状の検出を行うことを特徴と
する請求項2に記載の操作入力装置。
4. The apparatus according to claim 2, wherein said shape detecting means detects the shape of the object when detecting that the movement of the object is stationary or in a state of a small movement for a predetermined time or more. An operation input device according to item 1.
【請求項5】選択可能な操作あるいは変更可能なパラメ
ータの情報を表示するための表示手段を有し、 この表示手段は、選択可能な操作モードとそれを選択す
るための形状ジェスチャを表す画像,あるいは変更可能
なパラメータとそれを変更するための方向を表す画像を
併せて表示することを特徴とする請求項2に記載の操作
入力装置。
5. Display means for displaying information of a selectable operation or a parameter which can be changed, the display means comprising an image showing a selectable operation mode and a shape gesture for selecting the operation mode, 3. The operation input device according to claim 2, wherein a changeable parameter and an image indicating a direction for changing the changeable parameter are displayed together.
【請求項6】選択可能な操作あるいは変更可能なパラメ
ータの情報を音声で提示するための音声提示手段を有す
ることを特徴とする請求項2に記載の操作入力装置。
6. The operation input device according to claim 2, further comprising a voice presenting unit for presenting information of a selectable operation or a changeable parameter by voice.
【請求項7】前記形状検出手段または前記方向検出手段
の処理が滞ったときに音声提示を行うことを特徴とする
請求項6に記載の操作入力装置。
7. The operation input device according to claim 6, wherein when the processing of the shape detecting means or the direction detecting means is delayed, the voice presentation is performed.
【請求項8】形状検出手段による検出開始,検出終了,
検出失敗、および方向検出手段による方向検出が起こっ
たときに、音で操作者に提示するために音提示手段を有
することを特徴とする請求項2に記載の操作入力装置。
8. A detection start and a detection end by the shape detecting means,
3. The operation input device according to claim 2, further comprising a sound presenting unit for presenting to the operator by sound when the detection fails and the direction detection by the direction detecting unit occurs.
【請求項9】前記音提示手段は、操作の種類や検出され
た方向の種類によって、異なる音を提示することを特徴
とする請求項8に記載の操作入力装置。
9. The operation input device according to claim 8, wherein said sound presenting means presents different sounds depending on the type of operation and the type of detected direction.
【請求項10】検出すべき対象物の位置情報の軌跡を解
析して前記対象物の方向を検出する方法であって、 前記対象物が所定の方向に所定の距離だけ動き、前記方
向と反対側の方向に所定の距離だけ動いたとき、前記方
向への動きとして検出することを特徴とする方向検出方
法。
10. A method for detecting a direction of an object by analyzing a trajectory of position information of the object to be detected, wherein the object moves by a predetermined distance in a predetermined direction and is opposite to the direction. A direction detecting method comprising: detecting a movement in the direction when the object moves by a predetermined distance in a side direction.
【請求項11】検出すべき対象物の位置情報の軌跡を解
析して前記対象物の方向を検出する方法であって、 前記対象物が所定の範囲に所定の時間内静止または動き
の少ない状態でとどまった後、所定の方向に所定の距離
だけ動き、前記方向と反対側の方向に所定の距離だけ動
き、再び所定の時間内だけ静止または動きの少ない状態
でとどまったときに、前記方向への動きとして検出する
ことを特徴とする方向検出方法。
11. A method for detecting the direction of an object by analyzing a trajectory of position information of the object to be detected, wherein the object is stationary or within a predetermined time within a predetermined time period or has little motion. After staying in, moving for a predetermined distance in a predetermined direction, moving for a predetermined distance in a direction opposite to the direction, and again staying stationary or with little movement for a predetermined time, moving in the direction A direction detection method, wherein the direction is detected as a motion.
【請求項12】前記方向検出手段は、前記対象物が所定
の方向に所定の距離だけ動き、前記方向と反対側の方向
に所定の距離だけ動いたとき、前記方向への動きとして
検出することを特徴とする請求項2乃至9記載の操作入
力装置。
12. The apparatus according to claim 1, wherein the direction detecting means detects the movement in the direction when the object moves by a predetermined distance in a predetermined direction and moves by a predetermined distance in a direction opposite to the direction. The operation input device according to claim 2, wherein:
【請求項13】前記方向検出手段は、前記対象物が所定
の範囲に所定の時間内静止または動きの少ない状態でと
どまった後、所定の方向に所定の距離だけ動き、前記方
向と反対側の方向に所定の距離だけ動き、再び所定の時
間内だけ静止または動きの少ない状態でとどまったとき
に、前記方向への動きとして検出することを特徴とする
請求項2乃至9記載の操作入力装置。
13. The apparatus according to claim 1, wherein the direction detecting means moves the object in a predetermined direction for a predetermined distance after the object stays in a predetermined range for a predetermined period of time in a stationary state or with a small amount of movement. 10. The operation input device according to claim 2, wherein the movement input in the direction is detected when the movement in the direction is performed by a predetermined distance, and the movement is stopped for a predetermined time again or the movement is small.
【請求項14】前記音提示手段は、所定方向に動いたと
きに第1の音を提示し、前記方向の反対側に動いて戻
り、前記方向への動きとして検出されたときに、第2の
音を提示することを特徴とする請求項9に記載の操作入
力装置。
14. The sound presenting means presents a first sound when moved in a predetermined direction, moves back to the opposite side of the direction, and returns a second sound when detected as movement in the direction. The operation input device according to claim 9, wherein the sound is presented.
【請求項15】前記音提示手段は、第1の音は動いた方
向によって異なる音を提示し、第2の音は方向によらず
同じ音を提示することを特徴とする請求項14に記載の
操作入力装置。
15. The sound presenting means according to claim 14, wherein the first sound presents a different sound depending on the moving direction, and the second sound presents the same sound regardless of the direction. Operation input device.
【請求項16】前記方向検出手段は、意図的に動かして
いる動作と、意図せずに生じてしまう動作を識別するこ
とを特徴とする請求項2乃至9記載の操作入力装置。
16. An operation input device according to claim 2, wherein said direction detecting means distinguishes between an intentionally moving operation and an unintentionally occurring operation.
【請求項17】前記方向検出手段は、所定の複数方向の
うち、いずれかの方向に動いたかを検出する手段と、 連続する同じ方向への動きの間に発生する戻る動作を除
去する手段を有する請求項2乃至9記載の操作入力装
置。
17. The apparatus according to claim 17, wherein the direction detecting means includes means for detecting whether the object has moved in any one of a plurality of predetermined directions, and means for removing a return operation occurring between successive movements in the same direction. The operation input device according to claim 2, further comprising:
【請求項18】前記方向検出手段は、動いた対象物のセ
ンサからの距離を検出する手段を有し、所定の方向への
連続した動きの間に、前記方向とは反対方向の距離が遠
い動きを検出したときに、戻る動きであると判定し、除
去することを特徴とする請求項17に記載の操作入力装
置。
18. The direction detecting means has means for detecting a distance of a moving object from a sensor, and a distance in a direction opposite to the direction is long during a continuous movement in a predetermined direction. 18. The operation input device according to claim 17, wherein when the movement is detected, the movement is determined to be a returning movement and is removed.
【請求項19】前記方向検出手段は、対象物の動きの間
の時間間隔を測定する手段を有し、所定の方向への連続
した動きの間に、前記方向と反対方向の動きが検出さ
れ、所定の長さ以下の時間間隔の場合、この間の動きを
戻る動きであると判定し、除去することを特徴とする請
求項17に記載の操作入力装置。
19. The direction detecting means has means for measuring a time interval between movements of an object, and a movement in a direction opposite to the direction is detected during a continuous movement in a predetermined direction. 18. The operation input device according to claim 17, wherein when the time interval is equal to or less than a predetermined length, the movement during this time is determined to be a return movement and is removed.
【請求項20】検出された方向に対し異なる音を提示す
る音提示手段を持つことを特徴とする請求項17に記載
の操作入力装置。
20. The operation input device according to claim 17, further comprising sound presenting means for presenting a different sound in the detected direction.
【請求項21】前記方向検出手段は、対象物の動きの始
点と終点が近い位置に来るような軌跡を検出することを
特徴とする請求項2乃至9記載の操作入力装置。
21. The operation input device according to claim 2, wherein the direction detection means detects a trajectory where the start point and the end point of the movement of the object are close to each other.
【請求項22】検出すべき対象物の形状を検出するため
の形状検出手段と、 この形状検出手段によって検出される形状と対応づけら
れた操作メニューを表示するためのメニュー表示手段
と、 前記形状検出手段によって検出された形状に応じて、前
記操作メニューを選択するためのメニュー選択手段とを
有することを特徴とする操作入力装置。
22. A shape detecting means for detecting a shape of an object to be detected; a menu display means for displaying an operation menu associated with the shape detected by the shape detecting means; An operation input device comprising: a menu selection unit for selecting the operation menu according to the shape detected by the detection unit.
【請求項23】前記メニュー選択手段は、前記操作メニ
ューを階層的にメニューを辿っていくときに、異なる形
状を提示することを特徴とする請求項22記載の操作入
力装置。
23. The operation input device according to claim 22, wherein the menu selection means presents different shapes when the operation menu is hierarchically traversed.
【請求項24】検出すべき対象物の動きの方向を検出す
る方向検出手段と、 この方向検出手段によって検出される動き方向と対応づ
けられた操作メニューを表示するため表示するメニュー
表示手段と、 前記方向検出手段によって、動き方向を連続して検出さ
れたときには、1回だけ検出されたときとは異なる操作
メニューを選択するメニュー選択手段とを有することを
特徴とする操作入力装置。
24. A direction detecting means for detecting a direction of a movement of an object to be detected, a menu displaying means for displaying an operation menu associated with the movement direction detected by the direction detecting means, An operation input device, comprising: a menu selection unit that selects an operation menu different from that detected only once when the movement direction is continuously detected by the direction detection unit.
【請求項25】検出すべき対象物の形状を検出するため
の形状検出手段と、 検出すべき対象物の動きの方向を検出する方向検出手段
と、 検出される形状および動き方向と対応づけられた操作メ
ニューを表示するため表示するメニュー表示手段と、 検出された形状および動き方向に対応づけて、操作メニ
ューを選択するメニュー選択手段とを有することを特徴
とする操作入力装置。
25. A shape detecting means for detecting a shape of an object to be detected, a direction detecting means for detecting a direction of movement of the object to be detected, and a shape and a movement direction to be detected. An operation input device comprising: menu display means for displaying an operation menu to be displayed; and menu selection means for selecting an operation menu in association with the detected shape and movement direction.
JP2000023548A 2000-02-01 2000-02-01 Operation inputting device and direction detecting method Pending JP2001216069A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000023548A JP2001216069A (en) 2000-02-01 2000-02-01 Operation inputting device and direction detecting method
JP2004378813A JP2005174356A (en) 2000-02-01 2004-12-28 Direction detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000023548A JP2001216069A (en) 2000-02-01 2000-02-01 Operation inputting device and direction detecting method

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2004378814A Division JP2005135439A (en) 2004-12-28 2004-12-28 Operation input device
JP2004378813A Division JP2005174356A (en) 2000-02-01 2004-12-28 Direction detection method

Publications (1)

Publication Number Publication Date
JP2001216069A true JP2001216069A (en) 2001-08-10

Family

ID=18549690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000023548A Pending JP2001216069A (en) 2000-02-01 2000-02-01 Operation inputting device and direction detecting method

Country Status (1)

Country Link
JP (1) JP2001216069A (en)

Cited By (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084877A (en) * 2001-09-13 2003-03-19 Clarion Co Ltd Information selection device and music playback device
JP2003108407A (en) * 2001-10-01 2003-04-11 Noobasu:Kk Evaluation device, evaluation method and program
JP2003111157A (en) * 2001-09-28 2003-04-11 Toshiba Corp Integrated controller, apparatus controlling method, and apparatus controlling program
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product
JP2003233617A (en) * 2002-01-10 2003-08-22 Navigation Technol Corp Data collection system and method for geographic database
JP2003345389A (en) * 2002-05-22 2003-12-03 Nissan Motor Co Ltd Voice recognition device
JP2004026078A (en) * 2002-06-27 2004-01-29 Clarion Co Ltd Device for switching display and operation mode
JP2004050927A (en) * 2002-07-18 2004-02-19 Denso Corp Air-conditioner
JP2004145723A (en) * 2002-10-25 2004-05-20 Keio Gijuku Hand pattern switch device
JP2004145722A (en) * 2002-10-25 2004-05-20 Keio Gijuku Hand pattern switch device
JP2004171476A (en) * 2002-11-22 2004-06-17 Keio Gijuku Hand pattern switch device
JP2004246814A (en) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd Indication movement recognition device
JP2004334590A (en) * 2003-05-08 2004-11-25 Denso Corp Operation input device
JP2004356819A (en) * 2003-05-28 2004-12-16 Sharp Corp Remote control apparatus
WO2005003948A1 (en) * 2003-07-08 2005-01-13 Sony Computer Entertainment Inc. Control system and control method
JP2005047412A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Non-contact information input device
JP2005047331A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Control device
JP2005047327A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Command input device
JP2005047329A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Input device for vehicle
JP2005050177A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Non-contact information input device
JP2005063090A (en) * 2003-08-11 2005-03-10 Keio Gijuku Hand pattern switch device
WO2005023598A1 (en) * 2003-09-02 2005-03-17 Matsushita Electric Industrial Co., Ltd. Input device
JP2005178473A (en) * 2003-12-17 2005-07-07 Denso Corp Interface for in-vehicle equipment
JP2005242694A (en) * 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp Hand pattern switch device
JP2005254851A (en) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd Command input device
JP2005268929A (en) * 2004-03-16 2005-09-29 Sharp Corp Remote control apparatus
JP2006111134A (en) * 2004-10-14 2006-04-27 Pioneer Electronic Corp Behavior guiding device, its method, its program and recording medium recording the program
KR100575504B1 (en) 2003-08-11 2006-05-03 미츠비시 후소 트럭 앤드 버스 코포레이션 Hand pattern switch device
JP2006302490A (en) * 2005-03-25 2006-11-02 Sony Corp Content searching method, content list searching method, content searching apparatus, content list searching apparatus, and searching server
JP2007069676A (en) * 2005-09-05 2007-03-22 Toyota Motor Corp Vehicle control device
JP2007106372A (en) * 2005-10-17 2007-04-26 Mitsubishi Electric Corp On-vehicle instrument control device
JP2007109248A (en) * 2006-11-27 2007-04-26 Noobasu:Kk Evaluation device
JP2007145106A (en) * 2005-11-25 2007-06-14 Xanavi Informatics Corp On-vehicle information terminal
JP2007164814A (en) * 2007-02-09 2007-06-28 Toshiba Corp Interface device
JP2007163550A (en) * 2005-12-09 2007-06-28 Xanavi Informatics Corp Information processor, navigation device, and map data display method
WO2007088939A1 (en) * 2006-02-03 2007-08-09 Matsushita Electric Industrial Co., Ltd. Information processing device
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display device, projector, display system, display method, display program, and recording medium
US7289645B2 (en) 2002-10-25 2007-10-30 Mitsubishi Fuso Truck And Bus Corporation Hand pattern switch device
JP2008040576A (en) * 2006-08-02 2008-02-21 Sharp Corp Image processing system and video display device equipped with the same
JP2008052590A (en) * 2006-08-25 2008-03-06 Toshiba Corp Interface device and its method
WO2008029467A1 (en) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Gesture input system, method and program
DE102008048325A1 (en) 2007-10-22 2009-04-23 Mitsubishi Electric Corp. Operation input device
JP2009093260A (en) * 2007-10-04 2009-04-30 Alps Electric Co Ltd Coordinate input device
KR100977443B1 (en) 2008-10-01 2010-08-24 숭실대학교산학협력단 Gesture based home appliance control device and method
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
EP2244166A2 (en) 2009-04-23 2010-10-27 Hitachi Consumer Electronics Co., Ltd. Input device using camera-based tracking of hand-gestures
JP2010244405A (en) * 2009-04-08 2010-10-28 Kyushu Hitachi Maxell Ltd Operating device
JP2011065012A (en) * 2009-09-18 2011-03-31 Nec Casio Mobile Communications Ltd Imaging apparatus and program
WO2011045861A1 (en) * 2009-10-16 2011-04-21 パイオニア株式会社 Map display device, map display method, and map display program
EP2328061A2 (en) 2009-10-05 2011-06-01 Hitachi Consumer Electronics Co. Ltd. Input apparatus
JP2011525283A (en) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド Gesture reference control system for vehicle interface
US8077970B2 (en) 2006-12-04 2011-12-13 Denso Corporation Operation estimating apparatus and related article of manufacture
US8094189B2 (en) 2007-01-30 2012-01-10 Toyota Jidosha Kabushiki Kaisha Operating device
WO2012011614A1 (en) * 2010-07-23 2012-01-26 Sharp Kabushiki Kaisha Information device, control method thereof and system
JP2012027851A (en) * 2010-07-27 2012-02-09 Nippon Telegr & Teleph Corp <Ntt> Information input device
KR101152805B1 (en) 2010-12-15 2012-06-12 콘티넨탈 오토모티브 일렉트로닉스 유한회사 Vehicle temperature key input control device
JP2012155742A (en) * 2012-04-11 2012-08-16 Toshiba Corp Information processing apparatus, command execution control method, and command execution control program
JP2012525625A (en) * 2009-04-30 2012-10-22 サムスン エレクトロニクス カンパニー リミテッド User intention inference apparatus and method using multimodal information
WO2012147960A1 (en) * 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
JP2012528405A (en) * 2009-05-27 2012-11-12 オブロング・インダストリーズ・インコーポレーテッド Spatial multi-mode control device for use with spatial motion systems
JP2012222784A (en) * 2011-04-14 2012-11-12 Casio Comput Co Ltd Remote operation device, remote operation method and program
JP2013020311A (en) * 2011-07-07 2013-01-31 Fujitsu Ltd Image processing system, image processing method and image processing program
JP2013037689A (en) * 2011-08-05 2013-02-21 Samsung Electronics Co Ltd Electronic equipment and control method thereof
EP2562620A1 (en) 2011-08-23 2013-02-27 Hitachi Consumer Electronics Co., Ltd. Input unit recognizing user's motion
JP5174978B1 (en) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 Information processing apparatus, electronic device, and program
JP2013131237A (en) * 2013-03-07 2013-07-04 Fujitsu Ten Ltd Display device
WO2013101044A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Systems, methods, and apparatus for controlling devices based on a detected gaze
EP2258587A4 (en) * 2008-03-19 2013-08-07 Denso Corp Operation input device for vehicle
JP2013172211A (en) * 2012-02-17 2013-09-02 Sharp Corp Remote control device and remote control system
CN103294186A (en) * 2012-03-05 2013-09-11 东芝泰格有限公司 Operation supporting display apparatus and control method thereof
US8538090B2 (en) 2009-03-03 2013-09-17 Hyundai Motor Japan R&D Center, Inc. Device for manipulating vehicle built-in devices
WO2013137412A1 (en) * 2012-03-15 2013-09-19 オムロン株式会社 Control device, electronic device, control method, control program, and computer-readable recording medium which stores control program
EP2647919A1 (en) 2012-04-02 2013-10-09 Mitsubishi Electric Corporation Indoor unit of air-conditioning apparatus
JP2013225211A (en) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> Information input device
JP2013541092A (en) * 2010-09-20 2013-11-07 コピン コーポレーション Advanced remote control of host applications using movement and voice commands
US8593417B2 (en) 2009-04-30 2013-11-26 Denso Corporation Operation apparatus for in-vehicle electronic device and method for controlling the same
JP2013545183A (en) * 2010-11-01 2013-12-19 トムソン ライセンシング Method and apparatus for detecting gesture input
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program
JP2014507714A (en) * 2011-01-19 2014-03-27 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Method and system for multimodal and gesture control
KR20140070747A (en) * 2012-11-26 2014-06-11 현대자동차주식회사 Guidance apparatus for controlling of vehicle and method thereof
JP2014115699A (en) * 2012-12-06 2014-06-26 Alpine Electronics Inc In-vehicle system
JP2014127870A (en) * 2012-12-26 2014-07-07 Mitsui Home Co Ltd Housing facility controlling device
JP2014132461A (en) * 2013-01-07 2014-07-17 Samsung Electronics Co Ltd Apparatus for controlling content in electronic device, and method therefor
WO2014119521A1 (en) 2013-01-29 2014-08-07 矢崎総業株式会社 Electronic control device
JP2014179097A (en) * 2013-03-13 2014-09-25 Honda Motor Co Ltd Information query by pointing
WO2014172904A1 (en) * 2013-04-27 2014-10-30 Rong Weihua Hand gesture recognition apparatus, hand gesture recognition method, and related vehicle-mounted apparatus
WO2014196208A1 (en) 2013-06-07 2014-12-11 島根県 Gesture input device for car navigation device
WO2014203459A1 (en) * 2013-06-18 2014-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Input device and operation request input method
JP2014535098A (en) * 2011-10-14 2014-12-25 サムスン エレクトロニクス カンパニー リミテッド Motion recognition apparatus and method using event-based vision sensor
JP2015007946A (en) * 2013-06-26 2015-01-15 キヤノン株式会社 Information processing apparatus and control method of the same, program, and recording medium
JP2015018325A (en) * 2013-07-09 2015-01-29 キヤノン株式会社 Information processor and control method thereof, program, recording medium
JP2015509204A (en) * 2011-12-29 2015-03-26 インテル・コーポレーション Direct grammar access
JP2015510197A (en) * 2012-02-13 2015-04-02 クアルコム,インコーポレイテッド Engagement-dependent gesture recognition
JP2015072609A (en) * 2013-10-03 2015-04-16 アルパイン株式会社 Electronic device, gesture input method, and program
KR101542986B1 (en) 2013-12-19 2015-08-07 현대자동차 주식회사 System and control method for gestures recognition using holographic
WO2015133057A1 (en) * 2014-03-05 2015-09-11 株式会社デンソー Detection device and gesture input device
JP2015168304A (en) * 2014-03-05 2015-09-28 株式会社デンソー Detection device
JP2015169839A (en) * 2014-03-07 2015-09-28 ポーラ化成工業株式会社 Imaging unit and imaging apparatus
WO2015159548A1 (en) * 2014-04-18 2015-10-22 日本電気株式会社 Projection control device, projection control method, and recording medium recording projection control program
JP2015531719A (en) * 2012-11-27 2015-11-05 ネオノード インコーポレイテッド Light-based touch control on steering wheel and dashboard
JP2015199383A (en) * 2014-04-04 2015-11-12 株式会社デンソー gesture input device
JP2015225493A (en) * 2014-05-28 2015-12-14 京セラ株式会社 Mobile terminal, gesture control program, and gesture control method
WO2016031152A1 (en) * 2014-08-29 2016-03-03 株式会社デンソー Input interface for vehicle
US9294607B2 (en) 2012-04-25 2016-03-22 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
JP2016053767A (en) * 2014-09-02 2016-04-14 ソニー株式会社 Information processing apparatus, information processing method, and program
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9369760B2 (en) 2011-12-29 2016-06-14 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
JP2016110423A (en) * 2014-12-08 2016-06-20 富士通テン株式会社 Manipulation device and manipulation system
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
US9389710B2 (en) 2009-02-15 2016-07-12 Neonode Inc. Light-based controls on a toroidal steering wheel
JP2016139340A (en) * 2015-01-28 2016-08-04 富士ゼロックス株式会社 Information input system and input device
JP2016141171A (en) * 2015-01-29 2016-08-08 三菱自動車工業株式会社 Operation input device for vehicle air conditioner
JP2016165084A (en) * 2015-03-06 2016-09-08 パイオニア株式会社 Reproduction control device and method, and computer program
US9507772B2 (en) 2012-04-25 2016-11-29 Kopin Corporation Instant translation system
WO2016203715A1 (en) * 2015-06-17 2016-12-22 株式会社デンソー Vehicle information processing device, vehicle information processing system, and vehicle information processing program
JP2017500241A (en) * 2013-12-13 2017-01-05 ダヴ Human machine interface for automobiles
US9573471B2 (en) 2013-12-11 2017-02-21 Hyundai Motor Company Terminal, vehicle having the same, and control method thereof
JPWO2015125213A1 (en) * 2014-02-18 2017-03-30 三菱電機株式会社 Gesture guidance device for moving body, gesture guidance system for moving body, and gesture guidance method for moving body
JP2017510875A (en) * 2014-01-22 2017-04-13 エルジー イノテック カンパニー リミテッド Gesture device, operation method thereof, and vehicle equipped with the same
JP2017511632A (en) * 2014-03-31 2017-04-20 ハーマン インターナショナル インダストリーズ インコーポレイテッド Gesture control earphone
US9639164B2 (en) 2013-09-26 2017-05-02 Fujitsu Limited Gesture input method
US9710144B2 (en) 2012-11-27 2017-07-18 Neonode Inc. User interface for curved input device
US9733895B2 (en) 2011-08-05 2017-08-15 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2017187629A1 (en) * 2016-04-28 2017-11-02 三菱電機株式会社 Information processing device, information processing method, and information processing program
JP2018501998A (en) * 2014-09-30 2018-01-25 ヴァレオ、コンフォート、アンド、ドライビング、アシスタンスValeo Comfort And Driving Assistance System and method for controlling automotive equipment
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US10019069B2 (en) 2014-03-27 2018-07-10 Denso Corporation Vehicular display input apparatus
US10185399B2 (en) 2015-03-31 2019-01-22 Fujitsu Limited Image processing apparatus, non-transitory computer-readable recording medium, and image processing method
WO2019016878A1 (en) * 2017-07-19 2019-01-24 三菱電機株式会社 Operation support device and operation support method
WO2019077908A1 (en) * 2017-10-20 2019-04-25 株式会社デンソー Gesture input device
CN110114256A (en) * 2016-10-03 2019-08-09 三菱电机株式会社 Automatic Pilot control parameter change device and automatic Pilot control parameter variation
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
WO2020003914A1 (en) * 2018-06-26 2020-01-02 京セラ株式会社 Electronic device, mobile body, program, and control method
JP2020003955A (en) * 2018-06-26 2020-01-09 京セラ株式会社 Electronic apparatus, mobile body, program, and method for control
JP2020003956A (en) * 2018-06-26 2020-01-09 京セラ株式会社 Electronic device, moving object, program and control method
JP2020052681A (en) * 2018-09-26 2020-04-02 シュナイダーエレクトリックホールディングス株式会社 Operation processing device
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
JP2020063043A (en) * 2018-05-14 2020-04-23 株式会社ユピテル Electronic information system and program thereof
JP2020091639A (en) * 2018-12-05 2020-06-11 日本信号株式会社 Instruction identifying system
EP2766210B1 (en) * 2011-10-15 2020-08-19 Volkswagen Aktiengesellschaft Method for providing an operating device in a vehicle and operating device
WO2020203425A1 (en) * 2019-04-01 2020-10-08 ソニー株式会社 Information processing device, information processing method, and program
JP2021033746A (en) * 2019-08-27 2021-03-01 アルパイン株式会社 Service providing apparatus, service providing system, and service providing method
WO2021199697A1 (en) * 2020-03-31 2021-10-07 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing system, information processing method, and program
US11429230B2 (en) 2018-11-28 2022-08-30 Neonode Inc Motorist user interface sensor
JP2023040164A (en) * 2019-12-24 2023-03-22 株式会社ユピテル Electronic information system and program thereof
JP7274058B1 (en) * 2022-06-28 2023-05-15 三菱電機株式会社 Information processing device, mobile control system, and information processing method
JP2023539880A (en) * 2021-05-19 2023-09-20 アップル インコーポレイテッド User interface navigation using hand gestures
US11861077B2 (en) 2017-07-11 2024-01-02 Apple Inc. Interacting with an electronic device through physical movement
US12032817B2 (en) 2012-11-27 2024-07-09 Neonode Inc. Vehicle user interface

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60222921A (en) * 1984-04-20 1985-11-07 Canon Inc Movement extent controller
JPH06242885A (en) * 1993-02-16 1994-09-02 Hitachi Ltd Document editing method
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
JPH10207618A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and indication input method
JPH1144703A (en) * 1997-07-25 1999-02-16 Matsushita Electric Ind Co Ltd Hand gesture input device
JP2000020200A (en) * 1998-07-03 2000-01-21 Mitsubishi Electric Corp User interface device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60222921A (en) * 1984-04-20 1985-11-07 Canon Inc Movement extent controller
JPH06242885A (en) * 1993-02-16 1994-09-02 Hitachi Ltd Document editing method
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
JPH10207618A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and indication input method
JPH1144703A (en) * 1997-07-25 1999-02-16 Matsushita Electric Ind Co Ltd Hand gesture input device
JP2000020200A (en) * 1998-07-03 2000-01-21 Mitsubishi Electric Corp User interface device

Cited By (211)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084877A (en) * 2001-09-13 2003-03-19 Clarion Co Ltd Information selection device and music playback device
JP2003111157A (en) * 2001-09-28 2003-04-11 Toshiba Corp Integrated controller, apparatus controlling method, and apparatus controlling program
JP2003108407A (en) * 2001-10-01 2003-04-11 Noobasu:Kk Evaluation device, evaluation method and program
WO2003032166A1 (en) * 2001-10-01 2003-04-17 Novas Inc. Evaluation device, evaluation method and progrom
US6907382B2 (en) 2001-10-01 2005-06-14 Novas Inc. Evaluation device, evaluation method and program
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product
JP2003233617A (en) * 2002-01-10 2003-08-22 Navigation Technol Corp Data collection system and method for geographic database
JP2003345389A (en) * 2002-05-22 2003-12-03 Nissan Motor Co Ltd Voice recognition device
JP2004026078A (en) * 2002-06-27 2004-01-29 Clarion Co Ltd Device for switching display and operation mode
JP2004050927A (en) * 2002-07-18 2004-02-19 Denso Corp Air-conditioner
JP2004145722A (en) * 2002-10-25 2004-05-20 Keio Gijuku Hand pattern switch device
US7289645B2 (en) 2002-10-25 2007-10-30 Mitsubishi Fuso Truck And Bus Corporation Hand pattern switch device
JP2004145723A (en) * 2002-10-25 2004-05-20 Keio Gijuku Hand pattern switch device
JP2004171476A (en) * 2002-11-22 2004-06-17 Keio Gijuku Hand pattern switch device
JP2004246814A (en) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd Indication movement recognition device
JP2004334590A (en) * 2003-05-08 2004-11-25 Denso Corp Operation input device
JP2004356819A (en) * 2003-05-28 2004-12-16 Sharp Corp Remote control apparatus
WO2005003948A1 (en) * 2003-07-08 2005-01-13 Sony Computer Entertainment Inc. Control system and control method
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
JP2005050177A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Non-contact information input device
JP2005047412A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Non-contact information input device
JP2005047329A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Input device for vehicle
JP2005047327A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Command input device
JP2005047331A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Control device
JP2005063090A (en) * 2003-08-11 2005-03-10 Keio Gijuku Hand pattern switch device
DE102004038965B4 (en) * 2003-08-11 2009-04-02 Mitsubishi Fuso Truck And Bus Corp. Hand image switching device
KR100575504B1 (en) 2003-08-11 2006-05-03 미츠비시 후소 트럭 앤드 버스 코포레이션 Hand pattern switch device
CN1313905C (en) * 2003-08-11 2007-05-02 三菱扶桑卡客车株式会社 Hand pattern switch device
WO2005023598A1 (en) * 2003-09-02 2005-03-17 Matsushita Electric Industrial Co., Ltd. Input device
JP2005178473A (en) * 2003-12-17 2005-07-07 Denso Corp Interface for in-vehicle equipment
US7499569B2 (en) 2004-02-26 2009-03-03 Mitsubishi Fuso Truck And Bus Corporation Hand pattern switching apparatus
JP2005242694A (en) * 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp Hand pattern switch device
CN1324437C (en) * 2004-02-26 2007-07-04 三菱扶桑卡客车公司 Gesture switching gear
JP2005254851A (en) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd Command input device
JP2005268929A (en) * 2004-03-16 2005-09-29 Sharp Corp Remote control apparatus
JP2006111134A (en) * 2004-10-14 2006-04-27 Pioneer Electronic Corp Behavior guiding device, its method, its program and recording medium recording the program
JP2006302490A (en) * 2005-03-25 2006-11-02 Sony Corp Content searching method, content list searching method, content searching apparatus, content list searching apparatus, and searching server
JP2007069676A (en) * 2005-09-05 2007-03-22 Toyota Motor Corp Vehicle control device
US8049722B2 (en) 2005-09-05 2011-11-01 Toyota Jidosha Kabushiki Kaisha Vehicular operating apparatus
JP2007106372A (en) * 2005-10-17 2007-04-26 Mitsubishi Electric Corp On-vehicle instrument control device
JP2007145106A (en) * 2005-11-25 2007-06-14 Xanavi Informatics Corp On-vehicle information terminal
JP2007163550A (en) * 2005-12-09 2007-06-28 Xanavi Informatics Corp Information processor, navigation device, and map data display method
WO2007088939A1 (en) * 2006-02-03 2007-08-09 Matsushita Electric Industrial Co., Ltd. Information processing device
CN101375235B (en) * 2006-02-03 2011-04-06 松下电器产业株式会社 information processing device
JPWO2007088939A1 (en) * 2006-02-03 2009-06-25 パナソニック株式会社 Information processing device
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display device, projector, display system, display method, display program, and recording medium
JP2008040576A (en) * 2006-08-02 2008-02-21 Sharp Corp Image processing system and video display device equipped with the same
US7844921B2 (en) 2006-08-25 2010-11-30 Kabushiki Kaisha Toshiba Interface apparatus and interface method
JP2008052590A (en) * 2006-08-25 2008-03-06 Toshiba Corp Interface device and its method
US9032336B2 (en) 2006-09-07 2015-05-12 Osaka Electro-Communication University Gesture input system, method and program
JPWO2008029467A1 (en) * 2006-09-07 2010-01-21 学校法人 大阪電気通信大学 Gesture input system, method and program
WO2008029467A1 (en) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Gesture input system, method and program
JP2007109248A (en) * 2006-11-27 2007-04-26 Noobasu:Kk Evaluation device
US8077970B2 (en) 2006-12-04 2011-12-13 Denso Corporation Operation estimating apparatus and related article of manufacture
US8094189B2 (en) 2007-01-30 2012-01-10 Toyota Jidosha Kabushiki Kaisha Operating device
JP2007164814A (en) * 2007-02-09 2007-06-28 Toshiba Corp Interface device
JP2009093260A (en) * 2007-10-04 2009-04-30 Alps Electric Co Ltd Coordinate input device
US8378970B2 (en) 2007-10-22 2013-02-19 Mitsubishi Electric Corporation Manipulation input device which detects human hand manipulations from captured motion images
US8681099B2 (en) 2007-10-22 2014-03-25 Mitsubishi Electric Corporation Manipulation input device which detects human hand manipulations from captured motion images
DE102008048325A1 (en) 2007-10-22 2009-04-23 Mitsubishi Electric Corp. Operation input device
JP2009104297A (en) * 2007-10-22 2009-05-14 Mitsubishi Electric Corp Operation input device
DE102008048325B4 (en) * 2007-10-22 2011-12-08 Mitsubishi Electric Corp. Operation input device
US10579324B2 (en) 2008-01-04 2020-03-03 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
EP2258587A4 (en) * 2008-03-19 2013-08-07 Denso Corp Operation input device for vehicle
JP2011525283A (en) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド Gesture reference control system for vehicle interface
KR100977443B1 (en) 2008-10-01 2010-08-24 숭실대학교산학협력단 Gesture based home appliance control device and method
US10007422B2 (en) 2009-02-15 2018-06-26 Neonode Inc. Light-based controls in a toroidal steering wheel
US9389710B2 (en) 2009-02-15 2016-07-12 Neonode Inc. Light-based controls on a toroidal steering wheel
US8538090B2 (en) 2009-03-03 2013-09-17 Hyundai Motor Japan R&D Center, Inc. Device for manipulating vehicle built-in devices
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
JP2010244405A (en) * 2009-04-08 2010-10-28 Kyushu Hitachi Maxell Ltd Operating device
EP2244166A2 (en) 2009-04-23 2010-10-27 Hitachi Consumer Electronics Co., Ltd. Input device using camera-based tracking of hand-gestures
US11036301B2 (en) 2009-04-23 2021-06-15 Maxell, Ltd. Input device for motion operating graphical user interface
CN101901050A (en) * 2009-04-23 2010-12-01 日立民用电子株式会社 input device
US9411424B2 (en) 2009-04-23 2016-08-09 Hitachi Maxell, Ltd. Input device for operating graphical user interface
US9164578B2 (en) 2009-04-23 2015-10-20 Hitachi Maxell, Ltd. Input device for operating graphical user interface
JP2012525625A (en) * 2009-04-30 2012-10-22 サムスン エレクトロニクス カンパニー リミテッド User intention inference apparatus and method using multimodal information
US8593417B2 (en) 2009-04-30 2013-11-26 Denso Corporation Operation apparatus for in-vehicle electronic device and method for controlling the same
JP2012528405A (en) * 2009-05-27 2012-11-12 オブロング・インダストリーズ・インコーポレーテッド Spatial multi-mode control device for use with spatial motion systems
JP2011065012A (en) * 2009-09-18 2011-03-31 Nec Casio Mobile Communications Ltd Imaging apparatus and program
EP2328061A2 (en) 2009-10-05 2011-06-01 Hitachi Consumer Electronics Co. Ltd. Input apparatus
WO2011045861A1 (en) * 2009-10-16 2011-04-21 パイオニア株式会社 Map display device, map display method, and map display program
JP5351283B2 (en) * 2009-10-16 2013-11-27 パイオニア株式会社 Map display device, map display method, and map display program
WO2012011614A1 (en) * 2010-07-23 2012-01-26 Sharp Kabushiki Kaisha Information device, control method thereof and system
JP2012027851A (en) * 2010-07-27 2012-02-09 Nippon Telegr & Teleph Corp <Ntt> Information input device
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US9817232B2 (en) 2010-09-20 2017-11-14 Kopin Corporation Head movement controlled navigation among multiple boards for display in a headset computer
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
JP2013541092A (en) * 2010-09-20 2013-11-07 コピン コーポレーション Advanced remote control of host applications using movement and voice commands
JP2013545183A (en) * 2010-11-01 2013-12-19 トムソン ライセンシング Method and apparatus for detecting gesture input
KR101152805B1 (en) 2010-12-15 2012-06-12 콘티넨탈 오토모티브 일렉트로닉스 유한회사 Vehicle temperature key input control device
US9778747B2 (en) 2011-01-19 2017-10-03 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
JP2014507714A (en) * 2011-01-19 2014-03-27 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Method and system for multimodal and gesture control
JP2012222784A (en) * 2011-04-14 2012-11-12 Casio Comput Co Ltd Remote operation device, remote operation method and program
US9329673B2 (en) 2011-04-28 2016-05-03 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
JP5709227B2 (en) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 Information processing apparatus, information processing method, and program
WO2012147960A1 (en) * 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US11947387B2 (en) 2011-05-10 2024-04-02 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US11237594B2 (en) 2011-05-10 2022-02-01 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
JP2013020311A (en) * 2011-07-07 2013-01-31 Fujitsu Ltd Image processing system, image processing method and image processing program
JP2013037689A (en) * 2011-08-05 2013-02-21 Samsung Electronics Co Ltd Electronic equipment and control method thereof
US9733895B2 (en) 2011-08-05 2017-08-15 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
EP2562620A1 (en) 2011-08-23 2013-02-27 Hitachi Consumer Electronics Co., Ltd. Input unit recognizing user's motion
US9389693B2 (en) 2011-10-14 2016-07-12 Samsung Electronics Co., Ltd. Apparatus and method for recognizing motion by using an event-based vision sensor
JP2014535098A (en) * 2011-10-14 2014-12-25 サムスン エレクトロニクス カンパニー リミテッド Motion recognition apparatus and method using event-based vision sensor
EP2766210B1 (en) * 2011-10-15 2020-08-19 Volkswagen Aktiengesellschaft Method for providing an operating device in a vehicle and operating device
US9369760B2 (en) 2011-12-29 2016-06-14 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US9487167B2 (en) 2011-12-29 2016-11-08 Intel Corporation Vehicular speech recognition grammar selection based upon captured or proximity information
US9517776B2 (en) 2011-12-29 2016-12-13 Intel Corporation Systems, methods, and apparatus for controlling devices based on a detected gaze
JP2015509204A (en) * 2011-12-29 2015-03-26 インテル・コーポレーション Direct grammar access
WO2013101044A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Systems, methods, and apparatus for controlling devices based on a detected gaze
JP2015510197A (en) * 2012-02-13 2015-04-02 クアルコム,インコーポレイテッド Engagement-dependent gesture recognition
JP2013172211A (en) * 2012-02-17 2013-09-02 Sharp Corp Remote control device and remote control system
CN103294186B (en) * 2012-03-05 2016-02-17 东芝泰格有限公司 Operation assisting display device and control method thereof
CN103294186A (en) * 2012-03-05 2013-09-11 东芝泰格有限公司 Operation supporting display apparatus and control method thereof
JP2013186500A (en) * 2012-03-05 2013-09-19 Toshiba Tec Corp Operation support display device and program
JPWO2013137412A1 (en) * 2012-03-15 2015-08-03 オムロン株式会社 Control device, electronic device, control method, control program, and computer-readable recording medium storing control program
WO2013137412A1 (en) * 2012-03-15 2013-09-19 オムロン株式会社 Control device, electronic device, control method, control program, and computer-readable recording medium which stores control program
EP2647919A1 (en) 2012-04-02 2013-10-09 Mitsubishi Electric Corporation Indoor unit of air-conditioning apparatus
US9347716B2 (en) 2012-04-02 2016-05-24 Mitsubishi Electric Corporation Indoor unit of air-conditioning apparatus
JP2012155742A (en) * 2012-04-11 2012-08-16 Toshiba Corp Information processing apparatus, command execution control method, and command execution control program
JP2013225211A (en) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> Information input device
US9294607B2 (en) 2012-04-25 2016-03-22 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
US9507772B2 (en) 2012-04-25 2016-11-29 Kopin Corporation Instant translation system
JP5232930B1 (en) * 2012-04-26 2013-07-10 株式会社三菱東京Ufj銀行 Information processing apparatus, electronic device, and program
JP5174979B1 (en) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 Information processing apparatus, electronic device, and program
JP2013242844A (en) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device, electronic apparatus, and program
JP5174978B1 (en) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 Information processing apparatus, electronic device, and program
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program
KR101875626B1 (en) * 2012-11-26 2018-07-09 현대자동차 주식회사 Guidance apparatus for controlling of vehicle and method thereof
KR20140070747A (en) * 2012-11-26 2014-06-11 현대자동차주식회사 Guidance apparatus for controlling of vehicle and method thereof
US11650727B2 (en) 2012-11-27 2023-05-16 Neonode Inc. Vehicle user interface
US10719218B2 (en) 2012-11-27 2020-07-21 Neonode Inc. Vehicle user interface
JP2015531719A (en) * 2012-11-27 2015-11-05 ネオノード インコーポレイテッド Light-based touch control on steering wheel and dashboard
US9710144B2 (en) 2012-11-27 2017-07-18 Neonode Inc. User interface for curved input device
US10254943B2 (en) 2012-11-27 2019-04-09 Neonode Inc. Autonomous drive user interface
US12032817B2 (en) 2012-11-27 2024-07-09 Neonode Inc. Vehicle user interface
JP2014115699A (en) * 2012-12-06 2014-06-26 Alpine Electronics Inc In-vehicle system
JP2014127870A (en) * 2012-12-26 2014-07-07 Mitsui Home Co Ltd Housing facility controlling device
JP2014132461A (en) * 2013-01-07 2014-07-17 Samsung Electronics Co Ltd Apparatus for controlling content in electronic device, and method therefor
WO2014119521A1 (en) 2013-01-29 2014-08-07 矢崎総業株式会社 Electronic control device
JP2013131237A (en) * 2013-03-07 2013-07-04 Fujitsu Ten Ltd Display device
JP2014179097A (en) * 2013-03-13 2014-09-25 Honda Motor Co Ltd Information query by pointing
WO2014172904A1 (en) * 2013-04-27 2014-10-30 Rong Weihua Hand gesture recognition apparatus, hand gesture recognition method, and related vehicle-mounted apparatus
WO2014196208A1 (en) 2013-06-07 2014-12-11 島根県 Gesture input device for car navigation device
US9662980B2 (en) 2013-06-07 2017-05-30 Shimane Prefectural Government Gesture input apparatus for car navigation system
CN105264465B (en) * 2013-06-18 2018-11-09 松下电器(美国)知识产权公司 The method that input unit and input action require
JPWO2014203459A1 (en) * 2013-06-18 2017-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Input device and method for inputting operation request
CN105264465A (en) * 2013-06-18 2016-01-20 松下电器(美国)知识产权公司 Input device and operation request input method
WO2014203459A1 (en) * 2013-06-18 2014-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Input device and operation request input method
JP2015007946A (en) * 2013-06-26 2015-01-15 キヤノン株式会社 Information processing apparatus and control method of the same, program, and recording medium
JP2015018325A (en) * 2013-07-09 2015-01-29 キヤノン株式会社 Information processor and control method thereof, program, recording medium
US9639164B2 (en) 2013-09-26 2017-05-02 Fujitsu Limited Gesture input method
JP2015072609A (en) * 2013-10-03 2015-04-16 アルパイン株式会社 Electronic device, gesture input method, and program
US9573471B2 (en) 2013-12-11 2017-02-21 Hyundai Motor Company Terminal, vehicle having the same, and control method thereof
JP2017500241A (en) * 2013-12-13 2017-01-05 ダヴ Human machine interface for automobiles
KR101542986B1 (en) 2013-12-19 2015-08-07 현대자동차 주식회사 System and control method for gestures recognition using holographic
JP2017510875A (en) * 2014-01-22 2017-04-13 エルジー イノテック カンパニー リミテッド Gesture device, operation method thereof, and vehicle equipped with the same
JPWO2015125213A1 (en) * 2014-02-18 2017-03-30 三菱電機株式会社 Gesture guidance device for moving body, gesture guidance system for moving body, and gesture guidance method for moving body
WO2015133057A1 (en) * 2014-03-05 2015-09-11 株式会社デンソー Detection device and gesture input device
US9939912B2 (en) 2014-03-05 2018-04-10 Denso Corporation Detection device and gesture input device
JP2015168304A (en) * 2014-03-05 2015-09-28 株式会社デンソー Detection device
JP2015169839A (en) * 2014-03-07 2015-09-28 ポーラ化成工業株式会社 Imaging unit and imaging apparatus
US10019069B2 (en) 2014-03-27 2018-07-10 Denso Corporation Vehicular display input apparatus
JP2017511632A (en) * 2014-03-31 2017-04-20 ハーマン インターナショナル インダストリーズ インコーポレイテッド Gesture control earphone
JP2015199383A (en) * 2014-04-04 2015-11-12 株式会社デンソー gesture input device
WO2015159548A1 (en) * 2014-04-18 2015-10-22 日本電気株式会社 Projection control device, projection control method, and recording medium recording projection control program
JP2015225493A (en) * 2014-05-28 2015-12-14 京セラ株式会社 Mobile terminal, gesture control program, and gesture control method
WO2016031152A1 (en) * 2014-08-29 2016-03-03 株式会社デンソー Input interface for vehicle
JP2016053767A (en) * 2014-09-02 2016-04-14 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2018501998A (en) * 2014-09-30 2018-01-25 ヴァレオ、コンフォート、アンド、ドライビング、アシスタンスValeo Comfort And Driving Assistance System and method for controlling automotive equipment
JP2016110423A (en) * 2014-12-08 2016-06-20 富士通テン株式会社 Manipulation device and manipulation system
JP2016139340A (en) * 2015-01-28 2016-08-04 富士ゼロックス株式会社 Information input system and input device
JP2016141171A (en) * 2015-01-29 2016-08-08 三菱自動車工業株式会社 Operation input device for vehicle air conditioner
JP2016165084A (en) * 2015-03-06 2016-09-08 パイオニア株式会社 Reproduction control device and method, and computer program
US10185399B2 (en) 2015-03-31 2019-01-22 Fujitsu Limited Image processing apparatus, non-transitory computer-readable recording medium, and image processing method
JP2017007409A (en) * 2015-06-17 2017-01-12 株式会社日本自動車部品総合研究所 Vehicular information processing device, vehicular information processing system and vehicular information processing program
WO2016203715A1 (en) * 2015-06-17 2016-12-22 株式会社デンソー Vehicle information processing device, vehicle information processing system, and vehicle information processing program
WO2017187629A1 (en) * 2016-04-28 2017-11-02 三菱電機株式会社 Information processing device, information processing method, and information processing program
JPWO2017187629A1 (en) * 2016-04-28 2018-09-13 三菱電機株式会社 Information processing apparatus, information processing method, and information processing program
CN110114256A (en) * 2016-10-03 2019-08-09 三菱电机株式会社 Automatic Pilot control parameter change device and automatic Pilot control parameter variation
CN110114256B (en) * 2016-10-03 2022-05-13 三菱电机株式会社 Automatic driving control parameter changing device and automatic driving control parameter changing method
US12189872B2 (en) 2017-07-11 2025-01-07 Apple Inc. Interacting with an electronic device through physical movement
US11861077B2 (en) 2017-07-11 2024-01-02 Apple Inc. Interacting with an electronic device through physical movement
WO2019016878A1 (en) * 2017-07-19 2019-01-24 三菱電機株式会社 Operation support device and operation support method
JPWO2019016878A1 (en) * 2017-07-19 2019-11-07 三菱電機株式会社 Operation support apparatus and operation support method
WO2019077908A1 (en) * 2017-10-20 2019-04-25 株式会社デンソー Gesture input device
JP2019079097A (en) * 2017-10-20 2019-05-23 株式会社デンソー Gesture input apparatus
JP2020063043A (en) * 2018-05-14 2020-04-23 株式会社ユピテル Electronic information system and program thereof
JP2020003956A (en) * 2018-06-26 2020-01-09 京セラ株式会社 Electronic device, moving object, program and control method
JP2020003955A (en) * 2018-06-26 2020-01-09 京セラ株式会社 Electronic apparatus, mobile body, program, and method for control
WO2020003914A1 (en) * 2018-06-26 2020-01-02 京セラ株式会社 Electronic device, mobile body, program, and control method
JP2020052681A (en) * 2018-09-26 2020-04-02 シュナイダーエレクトリックホールディングス株式会社 Operation processing device
US11429230B2 (en) 2018-11-28 2022-08-30 Neonode Inc Motorist user interface sensor
JP2020091639A (en) * 2018-12-05 2020-06-11 日本信号株式会社 Instruction identifying system
JP7182442B2 (en) 2018-12-05 2022-12-02 日本信号株式会社 Instruction identification system
JPWO2020203425A1 (en) * 2019-04-01 2020-10-08
WO2020203425A1 (en) * 2019-04-01 2020-10-08 ソニー株式会社 Information processing device, information processing method, and program
US11947869B2 (en) 2019-04-01 2024-04-02 Sony Group Corporation Information processing device, information processing method, and program
JP2021033746A (en) * 2019-08-27 2021-03-01 アルパイン株式会社 Service providing apparatus, service providing system, and service providing method
JP2023040164A (en) * 2019-12-24 2023-03-22 株式会社ユピテル Electronic information system and program thereof
JP7450899B2 (en) 2019-12-24 2024-03-18 株式会社ユピテル Electronic information systems and their programs
WO2021199697A1 (en) * 2020-03-31 2021-10-07 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing system, information processing method, and program
JP2023539880A (en) * 2021-05-19 2023-09-20 アップル インコーポレイテッド User interface navigation using hand gestures
JP2024096687A (en) * 2021-05-19 2024-07-17 アップル インコーポレイテッド Navigating a User Interface Using Hand Gestures
US12189865B2 (en) 2021-05-19 2025-01-07 Apple Inc. Navigating user interfaces using hand gestures
WO2024004003A1 (en) * 2022-06-28 2024-01-04 三菱電機株式会社 Information processing device, mobile body control system, and information processing method
JP7274058B1 (en) * 2022-06-28 2023-05-15 三菱電機株式会社 Information processing device, mobile control system, and information processing method

Similar Documents

Publication Publication Date Title
JP2001216069A (en) Operation inputting device and direction detecting method
JP2005174356A (en) Direction detection method
US6697721B2 (en) Safety devices for use in motor vehicles
US11003242B2 (en) Eye tracking
US9244527B2 (en) System, components and methodologies for gaze dependent gesture input control
US8760432B2 (en) Finger pointing, gesture based human-machine interface for vehicles
CN102470757B (en) For providing the method and apparatus of user interface in the car
CN101681232B (en) Multifunction display and operating device and method for operating a multifunction display and operating device having improved selection operation
JP2003131785A (en) Interface device, operation control method and program product
US8532871B2 (en) Multi-modal vehicle operating device
US9261908B2 (en) System and method for transitioning between operational modes of an in-vehicle device using gestures
JP2007164814A (en) Interface device
US20110227718A1 (en) Multi-function display and operating system and method for controlling such a system having optimized graphical operating display
WO2009128148A1 (en) Remote control device
US10346118B2 (en) On-vehicle operation device
CN105027062A (en) information processing device
JP5750687B2 (en) Gesture input device for car navigation
EP3605303A1 (en) Touch operation system and operating method and operating program therefor
JP2005135439A (en) Operation input device
KR20150000076A (en) Blind control system for vehicle
KR101369595B1 (en) A display apparatus providing user menu interface and a method of display appratus to provide user menu interface
US20130201126A1 (en) Input device
JP2019192124A (en) Switch device and controller
CN114040857B (en) Method for operating an operating system in a vehicle and operating system in a vehicle
US20240109418A1 (en) Method for operating an operating device for a motor vehicle, and motor vehicle having an operating device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041228

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060127