JP2014126997A - Operation device, and operation detection method - Google Patents
Operation device, and operation detection method Download PDFInfo
- Publication number
- JP2014126997A JP2014126997A JP2012282842A JP2012282842A JP2014126997A JP 2014126997 A JP2014126997 A JP 2014126997A JP 2012282842 A JP2012282842 A JP 2012282842A JP 2012282842 A JP2012282842 A JP 2012282842A JP 2014126997 A JP2014126997 A JP 2014126997A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- user
- driver
- control unit
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】手を使うこと無く、簡単且つ自由な操作を可能とする。
【解決手段】視線検出装置は、下方からのドライバの顔の撮影画像に基づき、ドライバの注視点や、該撮影画像上のドライバの左右の目の位置座標を検出し、該位置座標や注視点を車載装置に提供する。また、車載装置は、表示装置にアイコン等のオブジェクトが描かれた操作画面を表示すると共に、視線検出装置から取得した位置座標に基づき、上記撮影画像上の左右の目の上下方向の位置の間隔を算出し、これに基づきドライバが顔の向きを横方向に傾ける挙動を検出する。そして、該挙動がなされた際にドライバが同一のオブジェクトを注視していた場合には、該オブジェクトに対応する操作がなされたものみなす。
【選択図】図4An object of the present invention is to enable easy and free operation without using a hand.
A line-of-sight detection device detects a driver's gazing point and position coordinates of left and right eyes of the driver on the photographic image based on a photographed image of the driver's face from below, and the position coordinates and gazing point. Is provided to the in-vehicle device. Further, the in-vehicle device displays an operation screen on which an object such as an icon is drawn on the display device, and based on the position coordinates acquired from the line-of-sight detection device, the interval between the vertical positions of the left and right eyes on the captured image Based on this, the behavior of the driver tilting the face in the horizontal direction is detected. If the driver is gazing at the same object when the behavior is made, it is assumed that an operation corresponding to the object has been performed.
[Selection] Figure 4
Description
ユーザの視線により操作を受け付ける操作装置等に関する。 The present invention relates to an operation device or the like that receives an operation from a user's line of sight.
従来、車載装置や携帯機器等の電子装置では、装置とユーザとの間のインターフェースとしてボタン等が用いられていたが、近年では、ディスプレイに配されたタッチパネルを用いたものが多く見受けられる。 Conventionally, in an electronic device such as an in-vehicle device or a portable device, a button or the like is used as an interface between the device and a user. However, in recent years, many devices using a touch panel arranged on a display are seen.
このようなタッチパネルを用いることで、ディスプレイに表示されたアイコン等をタッチすることで操作を行うことができ、より直感的な操作が可能となる。しかしながら、指先で操作を行うという身体的な負担が低減されることは無く、例えば運転中等のように、両手が塞がっている状態では自由に操作を行うことができないという問題がある。 By using such a touch panel, an operation can be performed by touching an icon or the like displayed on the display, and a more intuitive operation is possible. However, the physical burden of performing the operation with the fingertip is not reduced, and there is a problem that the operation cannot be performed freely when both hands are closed, for example, during driving.
これに対し、特許文献1には、ユーザの視線に基づき操作を検出するシステムについて記載されている。該システムは、ユーザの視線上にある画面上の位置の座標(視線座標)を検出すると共に、ユーザから座標確定の指示を受け付け、座標確定の指示を受け付けた際の視線座標に対応する処理を実行する。
On the other hand,
特許文献1に記載のシステムによれば、視線により操作を選択することができるため、煩わしいキー操作が不要となるが、操作の選択を確定させるための操作を手で行う必要があり、依然として両手が塞がっている状態では自由に操作を行うことができない。
According to the system described in
本願発明は上記課題に鑑みてなされたものであり、手を使うこと無く、簡単且つ自由に操作を行うことができる操作装置等を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide an operation device and the like that can be operated easily and freely without using a hand.
上記課題を解決するためになされた請求項1に係る操作装置は、表示装置の画面に画像を表示する表示手段と、ユーザの顔の撮影画像に基づき、該ユーザが注視している画面上の注視点を特定する特定手段と、撮影画像に基づき、予め定められたユーザの頭部全体を動かす挙動を検出する検出手段と、検出手段によりユーザの挙動が検出されると、該挙動がなされた際に特定手段により特定された注視点に対応する操作が行われたとみなす操作手段と、を備える。
The operation device according to
このような構成によれば、ユーザが表示装置の画面上の特定の位置を注視した状態で、顔の向きを所定方向に向ける等、予め定められた態様で頭部全体を動かすと、ユーザの注視点に対応する操作が検出される。このため、ユーザは、画面の注視により操作を選択した後、頭部全体を動かすという極めて簡単な挙動により該選択を確定させることができ、手を使うこと無く、簡単且つ自由に操作を行うことができる。 According to such a configuration, when the user moves the entire head in a predetermined manner, such as turning the face in a predetermined direction while gazing at a specific position on the screen of the display device, An operation corresponding to the gaze point is detected. For this reason, after selecting an operation by gazing at the screen, the user can confirm the selection by an extremely simple behavior of moving the entire head, and can perform the operation easily and freely without using a hand. Can do.
また、上述したように、ディスプレイにタッチパネルを配し、画面上に表示されたアイコン等のオブジェクトをタッチすることで各種操作を行うことができる電子装置が知られており、このような電子装置によれば、より直感的な操作が可能となる。 In addition, as described above, an electronic device that can perform various operations by arranging a touch panel on a display and touching an object such as an icon displayed on the screen is known. According to this, a more intuitive operation is possible.
そこで、請求項2に記載の操作装置では、表示手段は、1または複数のオブジェクトが描かれた画像を表示装置の画面に表示し、操作手段は、検出手段によりユーザの挙動が検出されると、該挙動がなされた際に特定手段により特定された注視点が、いずれか一つのオブジェクトが描かれた領域にある場合には、該オブジェクトに対応する操作が行われたとみなす。 Therefore, in the operation device according to claim 2, the display means displays an image on which one or a plurality of objects are drawn on the screen of the display device, and the operation means detects the behavior of the user by the detection means. When the gaze point specified by the specifying unit when the behavior is performed is in an area where any one object is drawn, it is considered that an operation corresponding to the object has been performed.
このような構成によれば、ユーザが画面上の特定のオブジェクトを目視した状態で、予め定められた態様で頭部全体を動かすと、該オブジェクトに対応する操作が検出される。このため、ユーザは、頭部全体を動かすという極めて簡単な挙動により注視によるオブジェクトの選択を確定させることができ、手を使うこと無く、より直感的に、簡単且つ自由な操作を行うことができる。 According to such a configuration, when the user moves the entire head in a predetermined manner while viewing a specific object on the screen, an operation corresponding to the object is detected. For this reason, the user can confirm the selection of the object by gaze by an extremely simple behavior of moving the entire head, and can perform a simple and free operation more intuitively without using a hand. .
以下、本発明の実施形態について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment of the present invention is not limited to the following embodiment, and can take various forms as long as they belong to the technical scope of the present invention.
[第1実施形態]
[構成の説明]
図1は、第1実施形態の車載システム1の構成を示すブロック図である。車載システム1は、表示装置20に各種画像を表示する車載装置10と、ドライバの顔の撮影画像に基づきドライバが注視している位置等を検出する視線検出装置30(アイトラッカー)とを有する。
[First Embodiment]
[Description of configuration]
FIG. 1 is a block diagram illustrating a configuration of an in-
視線検出装置30は、ドライバの顔に向けて赤外線を投光する投光部や、ドライバの顔を撮影するカメラ31等から構成されており、撮影画像からドライバの目の位置を特定し、ドライバの目の画像を解析する。そして、解析結果からドライバの視線方向を検出し、該視線方向に基づき、ドライバが注視している表示装置20の画面上の位置の座標(注視点)を検出する。なお、カメラ31は、自車両のメータに隣接した位置に、水平方向から所定角度上方に傾けた状態で配されており、ドライバの顔を、顔の正面から下方寄りの視点から撮影する(図2)。
The line-of-
また、車載装置10は、CPU,ROM,RAM,I/O等から構成され、当該車載装置10を統括制御する制御部12と、表示装置20に対し映像信号を出力し、その画面上に各種画像を表示させる映像信号出力部11とを有する。
The in-
制御部12は、各種画像データを生成するよう構成されており、映像信号出力部11を介して、表示装置20に対し、生成した画像データに基づく映像信号を出力することで、表示装置20の画面に各種画像を表示させる。
The
[動作の説明]
(1)動作の概要について
次に、車載装置10の動作の概要について説明する。
[Description of operation]
(1) About operation | movement outline | summary Next, the outline | summary of operation | movement of the vehicle-mounted
車載装置10は、自装置に対する操作を受け付けるための操作画面の画像データを生成し、表示装置20に操作画面を表示させる。この操作画面には、1または複数のオブジェクト(アイコン等)が描かれており、車載装置10は、ドライバがいずれかのオブジェクトを注視しつつ、顔の向きを横方向に傾ける挙動(換言すれば、顔を横方向に振る挙動)をしたことに応じて、該オブジェクトに対応する操作を検出する(以後、該挙動を操作確定挙動とも記載する)。
The in-
なお、例えば、ドライバが顔の向きを上方向或いは下方向に傾ける挙動、若しくは、顔を前後させる挙動を、操作確定挙動とすることも考えられる。しかし、このような挙動はドライバが何気なく行ってしまう可能性があり、顔の向きを横方向に傾ける挙動を操作確定挙動とすることで、ドライバの意思をより正確に反映させることができる。また、例えば、頭部全体を左右或いは上下方向に繰り返し振る挙動等のように、他の頭部全体の挙動を操作確定挙動として検出しても良い。 Note that, for example, a behavior in which the driver tilts the face in the upward or downward direction, or a behavior in which the face moves back and forth may be considered as an operation confirmation behavior. However, there is a possibility that such a behavior is unexpectedly performed by the driver, and the intention of the driver can be more accurately reflected by setting the behavior of tilting the face in the horizontal direction as the operation confirmation behavior. Further, for example, the behavior of the entire other head may be detected as the operation confirmation behavior, such as a behavior of repeatedly shaking the entire head left and right or up and down.
視線検出装置30は、車載装置10からの指示に応じて、ドライバの顔の撮影画像に基づき、該撮影画像上におけるドライバの左右の目の位置座標や操作画面上の注視点を検出し、車載装置10に提供する。
The line-of-
このドライバの顔の撮影画像は、顔の正面から下方寄りの位置を視点とするものであり、ドライバの顔をやや見上げた状態で映し出したものである。このため、ドライバの左目の位置座標をL(lx,ly)、右目の位置座標をR(rx,ry)とした場合、ドライバの顔が真正面を向いた状態では、上下方向(y軸方向)の左右の目の位置の間隔である差分Δd=ry−lyは0付近の値となる(図3参照)。そして、ドライバの顔の向きが横方向に傾くにつれ、該Δdの絶対値が大きくなる。 The captured image of the driver's face is viewed from a position closer to the lower side than the front of the face, and is projected with the driver's face slightly looked up. Therefore, when the position coordinate of the left eye of the driver is L (lx, ly) and the position coordinate of the right eye is R (rx, ry), the vertical direction (y-axis direction) is obtained when the driver's face is facing directly in front. The difference Δd = ry−ly, which is the interval between the left and right eye positions, is a value near 0 (see FIG. 3). As the driver's face is tilted laterally, the absolute value of Δd increases.
そこで、位置座標L,Rを取得した車載装置10の制御部12は、これに基づきΔdを算出すると共に、Δdに基づきドライバの顔の向きを検出し、さらに、顔の向きに基づき操作確定挙動を検出する。
Therefore, the
無論、このほかにも、例えば、正面或いは上方等からのドライバの顔の撮影画像や、頭部全体の撮影画像等を用いて、顔の向きを検出することも考えられる。また、ドライバの目の位置座標以外にも、例えば、ドライバの顔の画像から特徴点を検出し、該特徴点の位置等に基づき、顔の向きを検出することも考えられる。 Of course, in addition to this, for example, it is conceivable to detect the orientation of the face using a photographed image of the driver's face from the front or above, a photographed image of the entire head, or the like. In addition to the position coordinates of the driver's eyes, for example, it is conceivable to detect feature points from the driver's face image and detect the face orientation based on the position of the feature points.
しかし、ドライバの目の位置に着目することで、より容易にドライバの顔の向きを検出することができる。また、ドライバの顔を下方から撮影した画像を用いると共に、左右の目の上下方向の位置の間隔に着目することで、容易且つ正確に顔の向きを検出することができ、その結果、操作確定挙動を検出する際の処理負荷を低減させることができる。 However, by paying attention to the position of the driver's eyes, the direction of the driver's face can be detected more easily. In addition, by using an image of the driver's face taken from below and paying attention to the distance between the vertical positions of the left and right eyes, the face orientation can be detected easily and accurately. The processing load when detecting the behavior can be reduced.
図4,5を用いて具体的に説明すると、制御部12は、表示装置20に操作画面100を表示させた後、位置座標L,Rに基づき、時刻tにおける上記差分の絶対値|Δd(t)|を算出する。そして、制御部12は、|Δd(t)|が予め定められた閾値D1以上になると、その時点の時刻をTstaとする。さらに、制御部12は、視線検出装置30から取得した注視点に基づき、時刻Tstaにおいてドライバが注視している操作画面100上のオブジェクトを特定し、表示装置20に対し、該オブジェクト101を強調表示させても良い。
4 and 5, the
その後、制御部12は、周期的に|Δd(t)|を算出し、時刻Tendまでに(時刻Tstaから所定時間が経過するまでに)|Δd(t)|が閾値D2以上になった場合には、操作確定挙動がなされたものとみなす。
Thereafter, the
また、操作確定挙動の検出中、制御部12は、視線検出装置30から取得した注視点に基づき、ドライバが注視している操作画面上のオブジェクトを特定する。そして、操作確定挙動が検出されるまでの間、ドライバが同一のオブジェクト101(強調表示されたオブジェクト101)を注視していた場合には、制御部12は、該オブジェクト101に対応する操作がなされたものとみなし、該オブジェクト101に対応する処理を実行する。なお、このとき、制御部12は、該オブジェクト101の表示態様をさらに変化させても良い。
Further, during the detection of the operation confirmation behavior, the
このほかにも、以下のようにして操作確定挙動を検出しても良い。すなわち、制御部12は、時刻Tsta以後、周期的に|Δd(t)|を算出すると共に、時刻Tstaを起点とした|Δd(t)|の積分値を算出し、時刻Tendまでに該積分値が閾値D3以上となった場合に、操作確定挙動がなされたとみなしても良い(図6参照)。
In addition, the operation confirmation behavior may be detected as follows. That is, after the time Tsta, the
また、この操作確定挙動の検出中、制御部12は、同様にしてドライバが注視している操作画面上のオブジェクトを特定しても良い。そして、操作確定挙動が検出されるまでの間、ドライバが同一オブジェクト101を注視していた場合には、制御部12は、該オブジェクト101に対応する操作がなされたものとみなしても良い。
Further, during the detection of the operation confirmation behavior, the
また、このほかにも、制御部12は、顔の向きを右方向に傾ける挙動(右側操作確定挙動)と、左方向に傾ける挙動(左側操作確定挙動)を、別の操作確定挙動として検出しても良い。
In addition to this, the
上述したように、Δd(t)=ry−lyであるため、ドライバが右方向に顔を傾けた場合には、Δd(t)は負の値に、左方向に顔を傾けた場合には、Δd(t)は正の値となる。このため、Δd(t)の符号によりドライバが顔を傾けた向きを判定することができ、制御部12は、Δd(t)に基づき、右側,左側操作確定挙動を検出することができる。
As described above, since Δd (t) = ry−ly, when the driver tilts his face to the right, Δd (t) has a negative value, and when he tilts his face to the left , Δd (t) is a positive value. For this reason, the direction in which the driver tilted the face can be determined based on the sign of Δd (t), and the
そこで、制御部12は、ドライバがいずれかのオブジェクトを注視した状態で、右側操作確定挙動が検出された場合には、該オブジェクトに対応する操作Rを検出し、左側操作確定挙動が検出された場合には、該オブジェクトに対応する操作Lを検出しても良い。
Therefore, when the right operation confirmation behavior is detected while the driver is gazing at any object, the
具体的に説明すると、左側操作確定挙動に関して、制御部12は、Δd(t)が予め定められた閾値DL1以上になると、視線検出装置30から取得した注視点に基づき、その時点(時刻Tsta)においてドライバが注視している操作画面上のオブジェクトを特定する(図7参照)。
More specifically, regarding the left-side operation determination behavior, when Δd (t) is equal to or greater than a predetermined threshold DL1, the
その後、制御部12は、周期的に|Δd(t)|を算出し、時刻Tendまでに|Δd(t)|が閾値DL2以上になった場合には、左側操作確定挙動がなされたものとみなす。そして、この左側操作確定挙動の検出中、ドライバが同一オブジェクトを注視していた場合には、制御部12は、該オブジェクトに対応する操作Lがなされたものとみなし、該オブジェクト及び操作Lに対応する処理を実行する。
Thereafter, the
一方、右側操作確定挙動に関しても、左側操作確定挙動と同様、制御部12は、Δd(t)が予め定められた閾値DR1以下になると、ドライバが注視しているオブジェクトを特定する(図7参照)。その後、時刻Tendまでに|Δd(t)|が閾値DR2以下になった場合には、制御部12は、右側操作確定挙動がなされたものとみなす。
On the other hand, regarding the right operation confirmed behavior, as in the left operation confirmed behavior, when Δd (t) is equal to or less than a predetermined threshold DR1, the
そして、この右側操作確定挙動の検出中、ドライバが同一オブジェクトを注視していた場合には、制御部12は、該オブジェクトに対応する操作Rがなされたものとみなし、該オブジェクト及び操作Rに対応する処理を実行する。
If the driver is gazing at the same object during the detection of the right-side operation determination behavior, the
なお、左側操作確定挙動に関して、制御部12は、Δd(t)が閾値DL1以上となった時刻Tsta以後、周期的にΔd(t)を算出すると共に、時刻Tstaを起点としたΔd(t)の積分値を算出しても良い。そして、時刻Tendまでに該積分値が閾値DL3以上となった場合に、左側操作確定挙動がなされたとみなしても良い(図8参照)。
Regarding the left-side operation confirmation behavior, the
また、右側操作確定挙動に関しても同様に、制御部12は、Δd(t)が閾値DR1以下となった時刻Tsta以後、時刻Tstaを起点としたΔd(t)の積分値を算出しても良い。そして、時刻Tendまでに該積分値が閾値DR2以下となった場合に、左側操作確定挙動がなされたとみなしても良い(図8参照)。
Similarly, the
無論、上記方法による左側或いは右側操作確定挙動の検出中、制御部12は、同様にしてドライバが注視している操作画面上のオブジェクトを特定し、検出中にドライバが同一のオブジェクトを注視していた場合には、操作L或いはRがなされたものとみなすことは言うまでも無い。
Of course, during the detection of the left or right operation confirmation behavior by the above method, the
このようにしてドライバの操作を検出することで、ドライバは、運転により両手が塞がった状態であっても、簡単且つ自由に車載装置10を操作することができる。
(2)操作検出処理について
次に、一例として、時刻Tsta以後、|Δd(t)|の積分値を算出し、該積分値が閾値D3以上となったか否かを判定することで、操作確定挙動を検出する操作検出処理について、図9,10に記載のフローチャートを用いて説明する。本処理は、車載装置10にて、ドライバ等からの操作の受け付けを開始する際に実行される。
By detecting the operation of the driver in this manner, the driver can easily and freely operate the in-
(2) Operation detection processing Next, as an example, after time Tsta, an integrated value of | Δd (t) | is calculated, and it is determined whether or not the integrated value is equal to or greater than a threshold value D3. The operation detection process for detecting the behavior will be described with reference to the flowcharts shown in FIGS. This process is executed when the in-
S200では、車載装置10の制御部12は、表示装置20に操作画面を表示させ、S205に処理を移行する。
S205では、制御部12は、視線検出装置30に対し、ドライバの左右の目の位置座標L,Rの検出を指示する。視線検出装置30では、該指示に応じて位置座標L,Rの検出がなされ、検出に成功すると、車載装置10に対し位置座標L,Rが提供される。
In S200, the
In S205, the
続くS210では、制御部12は、位置座標L,Rの検出に成功し、これらを取得することができたか否かを判定する。そして、制御部12は、肯定判定が得られた場合には(S210:Yes)、S205に処理を移行し、否定判定が得られた場合には(S210:No)、S215に処理を移行する。
In subsequent S210, the
S215では、制御部12は、ドライバの左右の目の位置座標を特定すると共に、これらに基づき上述した|Δd(t)|を算出し(S220)、S225に処理を移行する。
S225では、制御部12は、|Δd(t)|が閾値D1以上か否かを判定し、肯定判定が得られた場合には(S225:Yes)、S230に処理を移行すると共に、否定判定が得られた場合には(S225:No)、S205に処理を移行する。
In S215, the
In S225, the
S230では、制御部12は、視線検出装置30に対し、ドライバの注視点の検出を指示する。視線検出装置30では、該指示に応じて注視点の検出がなされ、検出に成功すると、車載装置10に対し注視点が提供される。
In S230, the
続くS235では、制御部12は、注視点の検出に成功し、該注視点を取得できたか否かを判定する。そして、制御部12は、肯定判定が得られた場合には(S235:Yes)、S240に処理を移行し、否定判定が得られた場合には(S235:No)、S230に処理を移行する。
In subsequent S235, the
S240では、制御部12は、現在の時刻をTstaとして設定すると共に、提供された注視点を時刻Tstaにおける注視点として確定させ、S245に処理を移行する。
S245では、制御部12は、表示装置20に表示された操作画面における上記注視点を含む領域に描かれたオブジェクト(ドライバが注視しているオブジェクト)を特定すると共に、表示装置20に対し該オブジェクトを強調表示させ、S250に処理を移行する。なお、該当するオブジェクトが存在しない場合には、制御部12は、再度S205に処理を移行しても良い。
In S240, the
In S <b> 245, the
S250では、制御部12は、現在の時刻tがTendに到達する前か否か(時刻Tstaから予め定められた時間が経過する前か否か)を判定する。そして、制御部12は、肯定判定が得られた場合には(S250:Yes)、S255に処理を移行し、否定判定が得られた場合には(S250:No)、S310に処理を移行する。
In S250, the
S255では、制御部12は、視線検出装置30に対し、ドライバの注視点の検出を指示し、S260に処理を移行する。
S260では、制御部12は、注視点の検出に成功し、視線検出装置30から該注視点を取得できたか否かを判定する。そして、制御部12は、肯定判定が得られた場合には(S260:Yes)、S265に処理を移行すると共に、否定判定が得られた場合には(S260:No)、S255に処理を移行する。
In S255, the
In S <b> 260, the
S265では、制御部12は、提供された注視点を現在のドライバの注視点として確定させ、S270に処理を移行する。
S270では、制御部12は、操作画面における上記注視点を含む領域に描かれたオブジェクト(ドライバが注視しているオブジェクト)を特定すると共に、該オブジェクトと、強調表示されているオブジェクト(時刻Tstaにて注視されていたオブジェクト)が一致するか否かを判定する。そして、制御部12は、肯定判定が得られた場合には(S270:Yes)、S275に処理を移行し、否定判定が得られた場合には(S270:No)、S310に処理を移行する。
In S265, the
In S270, the
S275では、制御部12は、視線検出装置30に対し、ドライバの左右の目の位置座標L,Rの検出を指示し、S280に処理を移行する。
S280では、制御部12は、位置座標L,Rの検出に成功し、視線検出装置30からこれらを取得することができたか否かを判定する。そして、制御部12は、肯定判定が得られた場合には(S280:Yes)、S285に処理を移行し、否定判定が得られた場合には(S280:No)、S275に処理を移行する。
In S275, the
In S280, the
S285では、制御部12は、ドライバの左右の目の位置座標を特定すると共に、これらに基づき、上述した|Δd(t)|を算出し(S290)、S295に処理を移行する。
In S285, the
S295では、制御部12は、時刻Tsta以後から現時点にかけての|Δd(t)|の積分値を算出し、S300に処理を移行する。
S300では、制御部12は、|Δd(t)|の積分値が閾値D3以上であるか否かを判定する。そして、制御部12は、肯定判定が得られた場合には(S300:Yes)、S305に処理を移行し、否定判定が得られた場合には(S300:No)、S250に処理を移行する。
In S295, the
In S300, the
S305では、制御部12は、特定されたオブジェクト(換言すれば、操作確定挙動がなされた間にドライバにより注視されていたオブジェクト)に対応する操作がなされたものとみなすと共に、該操作に対応する処理を実行し、本処理を終了する。
In S305, the
一方、現在の時刻tがTendに到達した場合等に移行するS310では、制御部12は、表示装置20に対し、時刻Tstaにて注視されていたオブジェクトの強調表示を解除させ、本処理を終了する。
On the other hand, in S310, which shifts to the case where the current time t reaches Tend, the
なお、時刻Tsta以後、|Δd(t)|が閾値D2以上となったか否かを判定することで、操作確定挙動を検出する場合であれば、制御部12は、S300において、|Δd(t)|の積分値の判定に替えて、|Δd(t)|が閾値D2以上であるか否かを判定しても良い。
Note that after the time Tsta, if it is a case where an operation confirmation behavior is detected by determining whether or not | Δd (t) | is equal to or greater than the threshold value D2, the
また、右側,左側操作確定挙動を別の操作確定挙動として検出する場合であれば、制御部12は、S220,S290において、|Δd(t)|に替えてΔd(t)を算出すると共に、S295において、|Δd(t)|の積分値に替えて、Δd(t)の積分値を算出しても良い。
If the right and left operation fixed behaviors are detected as different operation fixed behaviors, the
また、制御部12は、S225において、|Δd(t)|の比較に替えて、Δd(t)と閾値DR1或いはDL1との比較を行っても良い(具体的には、Δd(t)が正の値であれば、Δd(t)が閾値DL1以上か否かを判定し、負の値であれば、Δd(t)が閾値DR1以下か否かを判定しても良い)。
In S225, the
また、制御部12は、S300において、|Δd(t)|の積分値の比較に替えて、Δd(t)と閾値DR2或いはDL2との比較を行っても良い(具体的には、Δd(t)が正の値であれば、Δd(t)が閾値DL2以上か否かを判定し、負の値であれば、Δd(t)が閾値DR2以下か否かを判定しても良い)。
In S300, the
また、制御部12は、S300において、|Δd(t)|の積分値の比較に替えて、Δd(t)の積分値と閾値DR3或いはDL3との比較を行っても良い(具体的には、Δd(t)の積分値が正の値であれば、Δd(t)の積分値が閾値DL3以上か否かを判定し、負の値であれば、Δd(t)の積分値が閾値DR3以下か否かを判定しても良い)。
In S300, the
[第2実施形態]
図11は、第2実施形態の携帯機器50(例えば、スマートフォン等)の構成を示すブロック図である。携帯機器50は、各種画像を表示する表示部51と、CPU,ROM,RAM,I/O等から構成され、当該携帯機器50を統括制御する制御部52と、ユーザの顔の撮影画像に基づきユーザが注視している位置を検出する視線検出部53(アイトラッカー)とを有する。
[Second Embodiment]
FIG. 11 is a block diagram illustrating a configuration of a mobile device 50 (for example, a smartphone) according to the second embodiment. The
図12に記載されているように、表示部51は、略長方形の画面51aを有しており、画面51aは、矩形の板状の形状を有する携帯機器50の表面に配されていると共に、画面51aにおける短手辺の一方が上側、他方が下側となっている。そして、携帯機器50は、画面51aの上側の短手辺が上方に位置する状態で使用されるよう構成されている。
As shown in FIG. 12, the
また、視線検出部53は、ユーザの顔に向けて赤外線を投光する投光部や、ユーザの顔を撮影するカメラ53a等から構成されており、撮影画像からユーザの目の位置を特定し、ユーザの目の画像を解析する。そして、解析結果からユーザの視線方向を検出し、該視線方向に基づき、ユーザが注視している表示部51の画面51a上の位置の座標(注視点)を検出する。なお、カメラ53aは、画面51aの下側に隣接して配されている。
The line-of-
また、制御部12は、各種画像データを生成するよう構成されており、表示部51の画面51aに各種画像を表示させる。
第2実施形態の携帯機器50においても、第1実施形態と同様の操作検出処理が行われ、ユーザが操作画面上のオブジェクトを注視しつつ操作確定挙動を行うと、該オブジェクトに対応する操作が検出される。
The
In the
すなわち、携帯機器50の制御部52は、自装置に対する操作を受け付けるための操作画面の画像データを生成し、表示部51の画面51aに操作画面を表示する。また、カメラ53aは、画面51aの下側の短手辺に隣接して配されているため、通常は、画面51aを注視しているユーザの顔を、顔の正面から下方寄りの視点から撮影する状態となる。
That is, the
このため、カメラ53aによるユーザの顔の撮影画像は、第1実施形態と同様、顔をやや見上げた状態で映し出したものとなり、上下方向の左右の目の位置の間隔であるΔd(t)に基づき、ユーザの顔の向きを検出することができる。
For this reason, the photographed image of the user's face by the
そこで、視線検出部53は、制御部52からの指示に応じて、ユーザの顔の撮影画像に基づき、該撮影画像上におけるドライバの左右の目の位置座標L,Rや注視点を検出し、制御部52に提供する。
Therefore, the line-of-
一方、位置座標L,Rを取得した制御部52は、第1実施形態と同様にしてこれらに基づきΔdを算出すると共に、Δdに基づきドライバの顔の向きを検出し、さらに、操作確定挙動を検出する。そして、制御部52は、操作確定挙動の検出中、ユーザが同一のオブジェクトを注視していた場合には、該オブジェクトに対応する操作がなされたものとみなす。
On the other hand, the
[他の実施形態]
(1)第1,第2実施形態における操作検出処理では、ドライバやユーザにより操作確定挙動がなされる間に、該ドライバ等により操作画面上の同一のオブジェクトが注視されていた場合に、該オブジェクトに対応する操作が検出される。
[Other Embodiments]
(1) In the operation detection process according to the first and second embodiments, when the same object on the operation screen is being watched by the driver or the like while the operation is confirmed by the driver or the user, the object is detected. An operation corresponding to is detected.
しかしながら、このような操作画面を表示した場合に限らず、例えば、操作確定挙動がなされる間、該ドライバ等が、表示装置20(或いは携帯機器50の表示部51)の画面上における予め定められた領域を注視していた場合に、該領域に対応する操作を検出する構成としても良い。このような場合であっても、同様の効果を得ることができる。
However, the present invention is not limited to the case where such an operation screen is displayed. For example, the driver is determined in advance on the screen of the display device 20 (or the
(2)また、第1,第2実施形態における操作検出処理では、ドライバ等の顔の向きが、横方向に所定量傾いた状態となった段階でドライバ等が注視しているオブジェクトが特定される。そして、該オブジェクトを注視したまま操作確定挙動がなされた場合には、該オブジェクトに対応する操作が検出される。 (2) Further, in the operation detection processing in the first and second embodiments, an object that the driver or the like is gazing at when the face orientation of the driver or the like is inclined by a predetermined amount in the lateral direction is specified. The Then, when an operation confirmation behavior is made while gazing at the object, an operation corresponding to the object is detected.
しかしながら、これに限定されることは無く、例えば、車載装置10の制御部12や、携帯機器50の制御部52は、ドライバ等が特定のオブジェクトを注視していることを検出した段階で、該ドライバ等の顔の向きの横方向への傾き度合いを検出しても良い。そして、これらの制御部は、該オブジェクトを注視したまま、該ドライバ等の該傾き度合いが、当初検出したものから所定量変化した場合には、操作確定挙動がなされたものとみなし、該オブジェクトに対応する操作を検出しても良い。このような場合であっても、同様の効果を得ることができる。
However, the present invention is not limited to this. For example, when the
[特許請求の範囲との対応]
上記実施形態の説明で用いた用語と、特許請求の範囲の記載に用いた用語との対応を示す。
[Correspondence with Claims]
The correspondence between the terms used in the description of the above embodiment and the terms used in the description of the claims is shown.
第1実施形態における車載装置10,第2実施形態における携帯機器50が、操作装置に相当し、携帯機器50の表示部51が、表示装置に相当する。
また、操作検出処理のS200が表示手段,表示手順に、S230,S255が特定手段,特定手順に、S205〜S225,S275〜S300が検出手段,検出手順に、S270,S305が操作手段,操作手順に相当する。
The in-
Further, S200 of the operation detection process is the display means and display procedure, S230 and S255 are the specification means and specification procedure, S205 to S225 and S275 to S300 are the detection means and detection procedure, and S270 and S305 are the operation means and operation procedure. It corresponds to.
1…車載システム、10…車載装置、11…映像信号出力部、12…制御部、20…表示装置、30…視線検出装置、31…カメラ、50…携帯機器、51…表示部、51a…画面、52…制御部、53…視線検出部、53a…カメラ。
DESCRIPTION OF
Claims (7)
ユーザの顔の撮影画像に基づき、該ユーザが注視している前記画面上の注視点を特定する特定手段(S230,S255)と、
前記撮影画像に基づき、予め定められた前記ユーザの頭部全体を動かす挙動を検出する検出手段(S205〜S225,S275〜S300)と、
前記検出手段により前記ユーザの前記挙動が検出されると、該挙動がなされた際に前記特定手段により特定された前記注視点に対応する操作が行われたとみなす操作手段(S270,S305)と、
を備えることを特徴とする操作装置(10,50)。 Display means (S200) for displaying an image on the screen of the display device (20, 51);
Identification means (S230, S255) for identifying a point of interest on the screen on which the user is gazing based on a photographed image of the user's face;
Detection means (S205 to S225, S275 to S300) for detecting the behavior of moving the entire user's head in advance based on the captured image;
When the behavior of the user is detected by the detection means, an operation means (S270, S305) that considers that an operation corresponding to the gazing point specified by the specifying means is performed when the behavior is made;
An operating device (10, 50) comprising:
前記表示手段は、1または複数のオブジェクトが描かれた画像を前記表示装置の画面に表示し、
前記操作手段は、前記検出手段により前記ユーザの前記挙動が検出されると、該挙動がなされた際に前記特定手段により特定された前記注視点が、いずれか一つの前記オブジェクトが描かれた領域にある場合には、該オブジェクトに対応する操作が行われたとみなすこと、
を特徴とする操作装置。 The operating device according to claim 1,
The display means displays an image on which one or more objects are drawn on the screen of the display device,
When the behavior of the user is detected by the detection means, the operation means is an area where any one of the objects is drawn as the gazing point specified by the specification means when the behavior is made In the case where the operation corresponding to the object has been performed,
An operation device characterized by.
前記挙動とは、顔の向きを横方向に傾ける動きであること、
を特徴とする操作装置。 In the operating device according to claim 1 or 2,
The behavior is a movement that tilts the face sideways.
An operation device characterized by.
前記検出手段は、前記撮影画像に基づき前記ユーザの目の位置を検出し、該目の位置に基づき、前記挙動を検出すること、
を特徴とする操作装置。 The operating device according to any one of claims 1 to 3,
The detection means detects the eye position of the user based on the captured image, and detects the behavior based on the eye position;
An operation device characterized by.
前記撮影画像は、前記ユーザの顔を下方から撮影した画像であり、
前記検出手段は、前記撮影画像における前記ユーザの左右の目の上下方向の位置の間隔を検出すると共に、該間隔に基づき、該ユーザが顔の向きを横方向に傾けた度合いを判別し、該度合いに基づき、前記挙動を検出すること、
を特徴とする操作装置。 In the operating device according to claim 4, which refers to claim 3,
The captured image is an image of the user's face taken from below,
The detection means detects an interval between vertical positions of the left and right eyes of the user in the captured image, and determines a degree of the user tilting the face sideways based on the interval, Detecting the behavior based on the degree;
An operation device characterized by.
前記操作装置は、車両に搭載されていること、
を特徴とする操作装置。 In the operating device according to any one of claims 1 to 5,
The operating device is mounted on a vehicle;
An operation device characterized by.
ユーザの顔の撮影画像に基づき、該ユーザが注視している前記画面上の注視点を特定する特定手順(S230,S255)と、
前記撮影画像に基づき、予め定められた前記ユーザの頭部全体を動かす挙動を検出する検出手順(S205〜S225,S275〜S300)と、
前記検出手順において前記ユーザの前記挙動が検出されると、該挙動がなされた際に前記特定手段において特定された前記注視点に対応する操作が行われたとみなす操作手段(S270,S305)と、
を備えることを特徴とする操作検出方法。 A display procedure (S200) for displaying an image on the screen of the display device (20, 51);
A specific procedure (S230, S255) for identifying a gaze point on the screen on which the user is gazing based on a photographed image of the user's face;
A detection procedure (S205 to S225, S275 to S300) for detecting a behavior of moving the entire head of the user based on the captured image;
When the behavior of the user is detected in the detection procedure, an operation unit (S270, S305) that considers that an operation corresponding to the gazing point specified by the specifying unit is performed when the behavior is performed;
An operation detection method comprising:
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012282842A JP2014126997A (en) | 2012-12-26 | 2012-12-26 | Operation device, and operation detection method |
| PCT/JP2013/007304 WO2014103217A1 (en) | 2012-12-26 | 2013-12-12 | Operation device and operation detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012282842A JP2014126997A (en) | 2012-12-26 | 2012-12-26 | Operation device, and operation detection method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014126997A true JP2014126997A (en) | 2014-07-07 |
Family
ID=51020341
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012282842A Pending JP2014126997A (en) | 2012-12-26 | 2012-12-26 | Operation device, and operation detection method |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2014126997A (en) |
| WO (1) | WO2014103217A1 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2017169158A1 (en) * | 2016-03-29 | 2019-02-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JPWO2017187708A1 (en) * | 2016-04-26 | 2019-02-28 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| DE102018123114A1 (en) | 2017-11-20 | 2019-05-23 | Toyota Jidosha Kabushiki Kaisha | control unit |
| US10585476B2 (en) | 2015-09-04 | 2020-03-10 | Fujifilm Corporation | Apparatus operation device, apparatus operation method, and electronic apparatus system |
| JP2020140304A (en) * | 2019-02-27 | 2020-09-03 | 株式会社Jvcケンウッド | Recording / playback device, recording / playback method and program |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017016198A (en) | 2015-06-26 | 2017-01-19 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008117333A (en) * | 2006-11-08 | 2008-05-22 | Sony Corp | Information processing apparatus, information processing method, personal identification apparatus, dictionary data generation / update method and dictionary data generation / update program in personal identification apparatus |
| JP2010009484A (en) * | 2008-06-30 | 2010-01-14 | Denso It Laboratory Inc | Onboard equipment control device and onboard equipment control method |
| JP2011209928A (en) * | 2010-03-29 | 2011-10-20 | Ntt Docomo Inc | Mobile terminal |
| JP2011243108A (en) * | 2010-05-20 | 2011-12-01 | Nec Corp | Electronic book device and electronic book operation method |
| JP2012073790A (en) * | 2010-09-28 | 2012-04-12 | Nintendo Co Ltd | Information processing program, information processor, information processing method and information processing system |
| JP2012509544A (en) * | 2008-11-20 | 2012-04-19 | アマゾン テクノロジーズ インコーポレイテッド | Motion recognition as an input mechanism |
-
2012
- 2012-12-26 JP JP2012282842A patent/JP2014126997A/en active Pending
-
2013
- 2013-12-12 WO PCT/JP2013/007304 patent/WO2014103217A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008117333A (en) * | 2006-11-08 | 2008-05-22 | Sony Corp | Information processing apparatus, information processing method, personal identification apparatus, dictionary data generation / update method and dictionary data generation / update program in personal identification apparatus |
| JP2010009484A (en) * | 2008-06-30 | 2010-01-14 | Denso It Laboratory Inc | Onboard equipment control device and onboard equipment control method |
| JP2012509544A (en) * | 2008-11-20 | 2012-04-19 | アマゾン テクノロジーズ インコーポレイテッド | Motion recognition as an input mechanism |
| JP2011209928A (en) * | 2010-03-29 | 2011-10-20 | Ntt Docomo Inc | Mobile terminal |
| JP2011243108A (en) * | 2010-05-20 | 2011-12-01 | Nec Corp | Electronic book device and electronic book operation method |
| JP2012073790A (en) * | 2010-09-28 | 2012-04-12 | Nintendo Co Ltd | Information processing program, information processor, information processing method and information processing system |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10585476B2 (en) | 2015-09-04 | 2020-03-10 | Fujifilm Corporation | Apparatus operation device, apparatus operation method, and electronic apparatus system |
| JPWO2017169158A1 (en) * | 2016-03-29 | 2019-02-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JPWO2017187708A1 (en) * | 2016-04-26 | 2019-02-28 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| US11017257B2 (en) | 2016-04-26 | 2021-05-25 | Sony Corporation | Information processing device, information processing method, and program |
| JP7092028B2 (en) | 2016-04-26 | 2022-06-28 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
| DE102018123114A1 (en) | 2017-11-20 | 2019-05-23 | Toyota Jidosha Kabushiki Kaisha | control unit |
| US10890980B2 (en) | 2017-11-20 | 2021-01-12 | Toyota Jidosha Kabushiki Kaisha | Operating apparatus for estimating an operation intention intended by a face direction |
| JP2020140304A (en) * | 2019-02-27 | 2020-09-03 | 株式会社Jvcケンウッド | Recording / playback device, recording / playback method and program |
| WO2020174813A1 (en) * | 2019-02-27 | 2020-09-03 | 株式会社Jvcケンウッド | Recording/reproducing device, recording/reproducing method, and program |
| US11425329B2 (en) | 2019-02-27 | 2022-08-23 | Jvckenwood Corporation | Recording/reproducing device, recording/reproducing method, and program for movable object and recording and reproducing captured by camera |
| JP7192570B2 (en) | 2019-02-27 | 2022-12-20 | 株式会社Jvcケンウッド | Recording/playback device, recording/playback method and program |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2014103217A1 (en) | 2014-07-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11344810B2 (en) | Drift method and apparatus for virtual vehicle in virtual world and storage medium | |
| US9489500B2 (en) | Manipulation apparatus | |
| US11205348B2 (en) | Drive assist device | |
| CN107533366B (en) | Information display device and information display method | |
| US20150367859A1 (en) | Input device for a motor vehicle | |
| JP2014126997A (en) | Operation device, and operation detection method | |
| JPWO2007088939A1 (en) | Information processing device | |
| CN103116397A (en) | Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program | |
| US10296096B2 (en) | Operation recognition device and operation recognition method | |
| JP2014197252A (en) | Gesture operation apparatus, program thereof, and vehicle mounted with gesture operation apparatus | |
| JP5713959B2 (en) | Electronic device, method, and program | |
| US9671881B2 (en) | Electronic device, operation control method and recording medium | |
| US20180052564A1 (en) | Input control apparatus, input control method, and input control system | |
| JP5229928B1 (en) | Gaze position specifying device and gaze position specifying program | |
| JP6452658B2 (en) | Information processing apparatus, control method thereof, and program | |
| JP2008052536A (en) | Touch panel type input device | |
| JP6390380B2 (en) | Display operation device | |
| JP6371589B2 (en) | In-vehicle system, line-of-sight input reception method, and computer program | |
| JP2018010583A (en) | Operation support device and computer program | |
| JP2007080187A (en) | Operation input device | |
| JP2018063523A (en) | Display control system and display control program | |
| JP2013157878A (en) | Camera control device, camera control method, and program | |
| JP2018073310A (en) | Display system and display program | |
| US10967798B2 (en) | Control device and method for image display | |
| JP2018073311A (en) | Operation input system and operation input program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150313 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150901 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151028 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160202 |