JP2012168723A - Detector and information processor - Google Patents
Detector and information processor Download PDFInfo
- Publication number
- JP2012168723A JP2012168723A JP2011029097A JP2011029097A JP2012168723A JP 2012168723 A JP2012168723 A JP 2012168723A JP 2011029097 A JP2011029097 A JP 2011029097A JP 2011029097 A JP2011029097 A JP 2011029097A JP 2012168723 A JP2012168723 A JP 2012168723A
- Authority
- JP
- Japan
- Prior art keywords
- axis
- sensor unit
- unit
- along
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 claims abstract description 105
- 230000033001 locomotion Effects 0.000 claims abstract description 69
- 230000010365 information processing Effects 0.000 claims description 41
- 230000002708 enhancing effect Effects 0.000 abstract description 2
- 210000003811 finger Anatomy 0.000 description 25
- 230000005540 biological transmission Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 11
- 238000000034 method Methods 0.000 description 9
- 239000003990 capacitor Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006854 communication Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 5
- 210000003813 thumb Anatomy 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 230000026058 directional locomotion Effects 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、物体の接触又は近接の検出が可能な検出装置及びこの検出装置を備える情報処理装置に関する。 The present invention relates to a detection apparatus capable of detecting contact or proximity of an object and an information processing apparatus including the detection apparatus.
ユーザの指等の物体の接触又は近接により指示された座標の検出が可能なタッチセンサパネルを用いた情報処理装置が提案されている。とりわけ近年、情報処理能力や描画処理能力の高度化等に伴い、大型のタッチセンサパネルを用いたテーブル型の情報処理装置も提案されている(例えば、特許文献1参照。)。このような情報処理装置のテーブル上面には表示パネルが設置され、この表示パネルには、グラフィカルユーザインタフェース(GUI、Graphical User Interface)要素やコンテンツ要素が表示される。この種の情報処理装置においては、ユーザが表示パネルに表示された操作対象としてのGUI要素やコンテンツ要素を参照しつつ、この表示パネルの上に重ねて設置されたタッチセンサパネルに対して、例えば、操作対象を「掴む」、「回転させる」等の三次元の多様な操作を直感的に行うことを可能とする装置も提案されている。 An information processing apparatus using a touch sensor panel capable of detecting coordinates instructed by contact or proximity of an object such as a user's finger has been proposed. In particular, in recent years, with the advancement of information processing capability and drawing processing capability, a table type information processing apparatus using a large touch sensor panel has also been proposed (see, for example, Patent Document 1). A display panel is installed on the upper surface of the table of such an information processing apparatus, and a graphical user interface (GUI) element and a content element are displayed on the display panel. In this type of information processing apparatus, while referring to a GUI element or a content element as an operation target displayed on the display panel by a user, for example, with respect to a touch sensor panel placed over the display panel, In addition, an apparatus that can intuitively perform various three-dimensional operations such as “grabbing” and “rotating” an operation target has been proposed.
一方、筐体の角部の互いに直交する2本のエッジ部位に配置されたX軸位置センサ及びY軸位置センサを備える情報処理装置が知られている(例えば、特許文献2参照。)。特許文献2の情報処理装置によれば、ユーザは、X軸位置センサ及びY軸位置センサに右手の親指と人差し指とをそれぞれ当て、指をエッジに沿って移動させることで、表示画面に表示されたポインタを画面上で2軸方向に移動させることができる。 On the other hand, an information processing apparatus is known that includes an X-axis position sensor and a Y-axis position sensor that are arranged at two edge portions that are orthogonal to each other at the corners of the housing (see, for example, Patent Document 2). According to the information processing apparatus disclosed in Patent Document 2, the user touches the thumb and index finger of the right hand to the X-axis position sensor and the Y-axis position sensor, respectively, and moves the finger along the edge to display the information on the display screen. The pointer can be moved in the biaxial direction on the screen.
特許文献1の情報処理装置において、ユーザは、指をタッチセンサパネルに接触又は近接させて、操作対象としてのGUI要素やコンテンツ要素に対する直感的な入力操作を行う。しかし、テーブル型の情報処理装置のサイズや大型化したタッチセンサパネルのサイズによっては、ユーザが表示パネルに表示されたGUI要素やコンテンツ要素に対する入力操作を行うにあたり、ユーザとGUI要素やコンテンツ要素との距離が大きい場合等、操作性が悪くなるおそれがある。
In the information processing apparatus of
そこで、特許文献1の情報処理装置に対する操作性を高めるため、特許文献2のX軸位置センサ及びY軸位置センサを用いることについて検討する。特許文献2のX軸位置センサ及びY軸位置センサは、表示画面に表示されたGUI要素(ポインタ)の2軸方向の移動に用いられるにすぎず、例えば、表示パネルに表示されたGUI要素やコンテンツ要素を「掴む」、「回転させる」等の三次元の多様な操作を直感的に行うことは困難である。
Therefore, in order to improve the operability with respect to the information processing apparatus of
以上のような事情に鑑み、本発明の目的は、直感的な操作に関しての操作性を高めることのできる検出装置及びこの検出装置を備える情報処理装置を提供することにある。 In view of the circumstances as described above, an object of the present invention is to provide a detection device capable of enhancing the operability regarding an intuitive operation and an information processing device including the detection device.
上記目的を達成するため、本発明の一形態に係る検出装置は、立体物と、第1のセンサ部、第2のセンサ部及び第3のセンサ部とを有する。
上記立体物は、1以上の面を有し、三次元空間内での向きが互いに異なる第1の軸、第2の軸及び第3の軸が上記1以上の面に沿って設定される。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記立体物に設けられ、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能である。
In order to achieve the above object, a detection device according to an embodiment of the present invention includes a three-dimensional object, a first sensor unit, a second sensor unit, and a third sensor unit.
The three-dimensional object has one or more planes, and a first axis, a second axis, and a third axis that are different from each other in the three-dimensional space are set along the one or more planes.
The first sensor unit, the second sensor unit, and the third sensor unit are provided on the three-dimensional object, and are respectively along the first axis, the second axis, and the third axis. The movements of the three detection objects can be detected independently.
これにより、ユーザは、例えば、3つの検出対象物のうちの1つを第1の軸上に沿って動かし、別の1つを第2の軸に沿って動かし、さらに別の1つをを第3の軸に沿って動かすことにより、検出装置に対する入力操作を行うことができる。例えば、3つの検出対象物をユーザの指とすれば、ユーザは3本の指を使うことで同時に3つの動き情報を入力することができる。例えば、これら3つの動き情報を、3D制御のための個々の軸方向の動き情報に用いれば、表示中の3Dオブジェクトに対して、三次元の多様な操作を、直感的に行うことができる。 Thereby, for example, the user moves one of the three detection objects along the first axis, moves another one along the second axis, and moves another one over. By moving along the third axis, an input operation can be performed on the detection device. For example, if three detection objects are user's fingers, the user can input three pieces of motion information at the same time by using three fingers. For example, if these three pieces of movement information are used as movement information in individual axial directions for 3D control, various three-dimensional operations can be intuitively performed on the displayed 3D object.
上記第1の軸、上記第2の軸及び上記第3の軸は一つの交点を有してもよい。 The first axis, the second axis, and the third axis may have one intersection.
これにより、ユーザが片手の指で第1の軸、第2の軸及び第3の軸に3つの動き情報を入力することができるような位置関係となり、操作性が向上する。 Thus, the positional relationship is such that the user can input three pieces of motion information to the first axis, the second axis, and the third axis with the finger of one hand, and the operability is improved.
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する上記1以上の面に沿った接離方向の動きを検出してもよい。 The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis, respectively, along the one or more surfaces. The movement in the separation direction may be detected.
これにより、検出装置は、面に沿ってそれぞれの軸に対して接離する方向でのそれぞれの検出対象物の動きを検出することができるので、ユーザは、表示中の3Dオブジェクトに対して、三次元の多様な操作を、より直感的に行うことができる。 As a result, the detection device can detect the movement of each detection target in the direction of moving toward and away from each axis along the plane, so that the user can perform the display on the 3D object being displayed. Various three-dimensional operations can be performed more intuitively.
上記立体物は、1つの角部を構成する3つの面を有してもよい。
上記第1の軸、上記第2の軸及び上記第3の軸は、上記立体物の上記角部に設定されてもよい。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記3つの面に沿った上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する接離方向の動きを検出してもよい。
The three-dimensional object may have three surfaces constituting one corner.
The first axis, the second axis, and the third axis may be set at the corner of the three-dimensional object.
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. Directional motion may be detected.
これにより、ユーザが片手の指で3本の指を使うことで同時に立体物の角部に設定された第1の軸、第2の軸及び第3の軸に3つの動き情報を入力することができるような位置関係となり、操作性がさらに向上する。 Accordingly, when the user uses three fingers with one hand, the three pieces of motion information are simultaneously input to the first axis, the second axis, and the third axis set at the corners of the three-dimensional object. So that the operability is further improved.
本発明の一形態に係る情報処理装置は、立体物と、第1のセンサ部、第2のセンサ部及び第3のセンサ部と、制御部とを有する。
上記立体物は、1以上の面を有し、三次元空間内での向きが互いに異なる第1の軸、第2の軸及び第3の軸が上記1以上の面に沿って設定される。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記立体物に設けられ、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能である。
上記制御部は、表示部に、互いに直交する3軸方向の動きを操作可能な操作対象を表示させるとともに、上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部により検出された上記第1の軸、上記第2の軸及び上記第3の軸それぞれに沿った上記検出対象物の動きをもとに、上記表示部に表示された上記操作対象の上記3軸方向の動きを制御する。
An information processing apparatus according to one embodiment of the present invention includes a three-dimensional object, a first sensor unit, a second sensor unit, a third sensor unit, and a control unit.
The three-dimensional object has one or more planes, and a first axis, a second axis, and a third axis that are different from each other in the three-dimensional space are set along the one or more planes.
The first sensor unit, the second sensor unit, and the third sensor unit are provided on the three-dimensional object, and are respectively along the first axis, the second axis, and the third axis. The movements of the three detection objects can be detected independently.
The control unit causes the display unit to display an operation target capable of operating movements in three axis directions orthogonal to each other, and is detected by the first sensor unit, the second sensor unit, and the third sensor unit. Based on the movements of the detection object along the first axis, the second axis, and the third axis, the operation target displayed on the display unit in the three-axis direction Control movement.
これにより、ユーザは、例えば、3つの検出対象物のうちの1つを第1の軸上に沿って動かし、別の1つを第2の軸に沿って動かし、さらに別の1つをを第3の軸に沿って動かすことにより、検出装置に対する入力操作を行うことができる。例えば、3つの検出対象物をユーザの指とすれば、ユーザは3本の指を使うことで同時に3つの動き情報を入力することができる。例えば、これら3つの動き情報を、3D制御のための個々の軸方向の動き情報に用いれば、表示中の3Dオブジェクトに対して、三次元の多様な操作を、直感的に行うことができる。 Thereby, for example, the user moves one of the three detection objects along the first axis, moves another one along the second axis, and moves another one over. By moving along the third axis, an input operation can be performed on the detection device. For example, if three detection objects are user's fingers, the user can input three pieces of motion information at the same time by using three fingers. For example, if these three pieces of movement information are used as movement information in individual axial directions for 3D control, various three-dimensional operations can be intuitively performed on the displayed 3D object.
上記第1の軸、上記第2の軸及び上記第3の軸は一つの交点を有してもよい。 The first axis, the second axis, and the third axis may have one intersection.
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する上記1以上の面に沿った接離方向の動きを検出してもよい。 The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis, respectively, along the one or more surfaces. The movement in the separation direction may be detected.
上記立体物は、1つの角部を構成する3つの面を有してもよい。
上記第1の軸、上記第2の軸及び上記第3の軸は、上記立体物の上記角部に設定されてもよい。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記3つの面に沿った上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する接離方向の動きを検出してもよい。
The three-dimensional object may have three surfaces constituting one corner.
The first axis, the second axis, and the third axis may be set at the corner of the three-dimensional object.
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. Directional motion may be detected.
上記制御部は、さらに、上記表示部に、互いに直交する2軸方向の動きを操作可能な操作対象を表示させるとともに、上記第1のセンサ部及び上記第2のセンサ部により検出された上記第1の軸及び上記第2の軸それぞれに沿った上記検出対象物の動きをもとに、上記表示部に表示された上記操作対象の上記2軸方向の動きを制御し、上記第3のセンサ部により検出された上記第3の軸に沿った上記検出対象物の動きをもとに、上記表示部に表示された上記操作対象の操作を制御してもよい。 The control unit further causes the display unit to display an operation target capable of operating movements in two axial directions orthogonal to each other, and the first sensor unit and the second sensor unit detected by the second sensor unit. Controlling the movement of the operation target displayed on the display unit in the two-axis direction based on the movement of the detection target along each of the first axis and the second axis, and the third sensor The operation of the operation target displayed on the display unit may be controlled based on the movement of the detection target along the third axis detected by the unit.
これにより、ユーザは、例えば、3つの検出対象物のうちの1つを第1の軸上に沿って動かし、別の1つを第2の軸に沿って動かし、さらに別の1つをを第3の軸に沿って動かすことにより、検出装置に対する入力操作を行うことができる。例えば、3つの検出対象物をユーザの指とすれば、ユーザは3本の指を使うことで同時に3つの動き情報を入力することができる。例えば、これら3つの動き情報のうち2つの動き情報を、2D制御のための個々の軸方向の動き情報に用いれば、表示中の2Dオブジェクトに対して、二次元の多様な操作を、直感的に行うことができる。また、これら3つの動き情報のうち1つの動き情報を、補助操作に用いれば、表示中の2Dオブジェクトに対して、多様な補助操作を、直感的に行うことができる。 Thereby, for example, the user moves one of the three detection objects along the first axis, moves another one along the second axis, and moves another one over. By moving along the third axis, an input operation can be performed on the detection device. For example, if three detection objects are user's fingers, the user can input three pieces of motion information at the same time by using three fingers. For example, if two pieces of movement information among these three pieces of movement information are used for movement information in individual axial directions for 2D control, various two-dimensional operations can be intuitively performed on the displayed 2D object. Can be done. Further, if one piece of movement information among these three pieces of movement information is used for auxiliary operation, various auxiliary operations can be intuitively performed on the 2D object being displayed.
本発明の目的によれば、直感的な操作に関しての操作性を高めることができる。 According to the object of the present invention, it is possible to improve the operability for intuitive operation.
以下、図面を参照しながら、本発明の実施形態を説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態に係る情報処理装置を示す斜視図である。
同図に示すように、本発明の一実施形態に係る情報処理装置1は、直方体状の本体部30(立体物)と、本体部30を例えば床等に支持する脚部11とを有する。
本体部30は、表示パネル(図2に示す表示パネル20)と、3軸センサユニット60とを有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a perspective view showing an information processing apparatus according to the first embodiment of the present invention.
As shown in the figure, an
The
表示パネル20は、例えばLCD(Liquid Crystal Display)等からなる、例えば30インチを超えるような大型の表示パネルである。表示パネル20にはアイコン等のGUI(Graphic User Interface)要素や画像等のコンテンツ要素が表示される。表示パネル20は、直方体状の本体部30の1面を構成する。表示パネル20は、誘電体としてのフレーム10によって周縁部が囲われている。
The
3軸センサユニット60(検出装置)は、直方体状の本体部30の1つの角部31に設けられる。より具体的には、3軸センサユニット60は、誘電体としてのフレーム10の内側に配置されている。ここで、「角部31」とは、直方体状の本体部30の互いに向きが異なる3つの面で構成される三角錐部分である。本実施形態では、3軸センサユニット60は、本体部30の表示パネル20が設けられた面を含む1つの角部31に設けられる。3軸センサユニット60は、角部31の3つの面により構成される3つの軸それぞれに沿ったユーザの指等の検出対象物の動きを独立して検出可能である。
The triaxial sensor unit 60 (detection device) is provided at one
[情報処理装置のハードウェア構成]
図2は、情報処理装置のハードウェア構成を示すブロック図である。
同図に示すように、CPU(Central Processing Unit)40には、システムバス41を介して、ROM(Read Only Memory)42と、主メモリ43と、記憶部51と、無線通信処理部44と、ネットワーク接続部49と、オーディオ信号処理部45を介してオーディオ出力部50と、グラフィック演算処理部46を介して表示制御部47及び表示パネル20と、3軸センサユニットインターフェース48を介して3軸センサユニット60とが接続されている。
[Hardware configuration of information processing device]
FIG. 2 is a block diagram illustrating a hardware configuration of the information processing apparatus.
As shown in the figure, a CPU (Central Processing Unit) 40 is connected to a ROM (Read Only Memory) 42, a
ROM42は、情報処理装置1が実行すべきソフトウェア処理のためのプログラムやデータなどが恒久的に格納された読み出し専用メモリである。
主メモリ43は、CPU40の作業用の領域として用いられるメモリである。
記憶部51は、例えばHDD(Hard Disc Drive)、SSD(Solid State Drive)等の大容量記憶媒体よりなる。
The
The
The
無線通信処理部44は、外部機器との間での双方向通信を処理するためのインターフェースであり、具体的には、光、電波、音波、電磁波などの無線媒体を用いて外部機器との間で無線通信のための処理を行う。なお、外部機器との通信は無線に限らず有線での通信を行うためのインターフェースを採用してもよい。
ネットワーク接続部49は、グローバルなネットワークとの有線または無線での接続を処理する。
The wireless
The
オーディオ信号処理部45は、デジタルのオーディオ信号からアナログのオーディオ信号に生成する。オーディオ信号処理部45により生成されたアナログのオーディオ信号は、スピーカ等からなるオーディオ出力部50より音声となって出力される。
The audio
グラフィック演算処理部46は、CPU40の制御のもと画像データの生成などの演算処理を行い、生成した画像データを表示制御部47へ出力する。
表示制御部47は、グラフィック演算処理部46より供給された画像データの描画処理を行い、描画データを表示パネル20に供給する。
The graphic
The
3軸センサユニット60は、検出対象物の接触又は近接を検出可能な検出装置である。3軸センサユニット60は、X軸センサ部61、Y軸センサ部62及びZ軸センサ部63を有する。X軸センサ部61、Y軸センサ部62及びZ軸センサ部63としては、ここでは静電容量方式のものを採用しているが、例えば、抵抗膜方式、光検出方式、超音波検出方式等のセンサも採用可能である。
なお、3軸センサユニット60のほか、入力操作部(図示せず。)として、キーボード、各種ボタン、マウス、表示パネル20に重ね合わせられたタッチセンサパネル等をさらに設けてもよい。
The
In addition to the
ここで、3軸センサユニット60の構成について説明する。
図3は、3軸センサユニット及びユーザの右手を示す斜視図である。
3軸センサユニット60は、直方体状の本体部30の1つの角部31に設けられる。ここで、その角部31とは、本体部30の互いに向きが異なる3つの面、つまり第1の面32、第2の面33及び第3の面34で構成される三角錐部分である。
Here, the configuration of the three-
FIG. 3 is a perspective view showing the three-axis sensor unit and the right hand of the user.
The
角部31において、第1の面32、第2の面33及び第3の面34は相互の間に稜線を形成する。ここで、第1の面32と第2の面33との間の稜線には第1の軸35が、第1の面32と第3の面34との間の稜線には第2の軸36が、第2の面33と第3の面34との間の稜線には第3の軸37がそれぞれ設定されている。第1の軸35、第2の軸36及び第3の軸37は、頂点38としての1つの交点を有する。この実施形態では、第1の軸35、第2の軸36及び第3の軸37は、互いに直交する。なお、図においては、角部の先端が点(頂点38)となっているが、実際には曲面となっている。
In the
なお、より具体的には、「第1の軸35」は、本体部30の表示パネル20が設けられた面(第1の面32)を構成する一方の長辺に相当する軸である。「第2の軸36」は、本体部30の表示パネル20が設けられた面(第1の面32)を構成する一方の短辺に相当し、頂点38を介して第1の軸35に直交する軸である。「第3の軸37」は、本体部30の高さ(厚み)方向の辺に相当し、頂点38を介して第1の軸35及び第2の軸36に直交する軸である。
第1の軸35、第2の軸36及び第3の軸37に平行な軸を、それぞれ、X軸、Y軸及びZ軸と言う。
「第1の面32」は、第1の軸35と第2の軸36とにより区画され、本体部30の表示パネル20が設けられた面、すなわち本体部30の上面を言う。「第2の面33」は、第1の軸35と第3の軸37とにより区画される面、すなわち本体部30の一側面を言う。「第3の面34」は、第2の軸36と第3の軸37とにより区画される面、すなわち本体部30の別の一側面を言う。
More specifically, the “
The axes parallel to the
The “
ユーザは、例えば、右手の親指U1を第1の軸35上でX軸方向に沿って動かし、人指し指U2を第2の軸36上でY軸方向に沿って動かし、中指U3を第3の軸37上でZ軸方向に沿って動かすことにより、3軸センサユニット60に対する入力操作を行う(同図矢印参照。)。これら第1の軸35、第2の軸36及び第3の軸37には、それぞれ、X軸センサ部61、Y軸センサ部62及びZ軸センサ部63が設けられている。
For example, the user moves the thumb U1 of the right hand on the
図4は、X軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。
X軸センサ部61は、第1の軸35に沿って設けられた複数のX軸センサ電極61a,61b…を有する。例えば、複数のX軸センサ電極61a,61b…は、第1の面32の第1の軸35を含む領域上に、第1の軸35上で等間隔に配置される。
FIG. 4 is a perspective view showing the X-axis sensor unit, the Y-axis sensor unit, and the Z-axis sensor unit.
The
Y軸センサ部62は、第2の軸36に沿って設けられた複数のY軸センサ電極62a,62b…を有する。例えば、複数のY軸センサ電極62a,62b…は、第1の面32の第2の軸36を含む領域上に、第2の軸36上で等間隔に配置される。
The Y-
Z軸センサ部63は、第3の軸37に沿って設けられた複数のZ軸センサ電極63a,63b…を有する。例えば、複数のZ軸センサ電極63a,63b…は、第3の面34の第3の軸37を含む領域上に、第3の軸37上で等間隔に配置される。
The Z-
ここで、X軸センサ部61の構成について説明する。
図13は、X軸センサ部61の構成を示すブロック図である。
Here, the configuration of the
FIG. 13 is a block diagram illustrating a configuration of the
X軸センサ部61は、X軸センサ電極61a,61b…と、これらに接続された静電容量検知回路64とを有する。各X軸センサ電極61a,61b…と静電容量検知回路64との間には、スイッチ65a,65b…がそれぞれ設けられる。これらのスイッチ65a,65b…は、順次1つがオン状態となるようにサイクリックに切り替えられる。X軸センサ電極61a,61b…に検出対象物が接触又は近接すると、X軸センサ電極61a,61b…と検出対象物との間の静電容量が増加する。X軸センサ電極61a,61b…に接続された静電容量検知回路64は、これらの静電容量を電圧値に変換し、第1の検出処理部71(後で説明する。)に出力する。
The
なお、Y軸センサ部62及びZ軸センサ部63も同様の構成を有する。すなわち、Y軸センサ部62は検知した静電容量を電圧値に変換して第1の検出処理部71に出力する。Z軸センサ部63は検知した静電容量を電圧値に変換して第2の検出処理部72(後で説明する。)に出力する。
The Y-
なお、静電容量方式のセンサとしての3軸センサユニット60は、検出対象物の接触に限られず、検出対象物の近接、つまり検出対象物が3軸センサユニット60から離間していても検出対象物の検出が可能である。
Note that the
[情報処理装置の機能的な構成]
次に、この3軸センサユニット60に対する入力操作を検出し処理する情報処理装置1の機能的な構成について説明する。
[Functional configuration of information processing device]
Next, a functional configuration of the
図5は、情報処理装置の機能的な構成を示すブロック図である。
情報処理装置1は、X軸センサ部61と、Y軸センサ部62と、Z軸センサ部63と、第1の検出処理部71と、第2の検出処理部72と、入力情報解析部73と、入力指定部74と、表示指示部75とを有する。
FIG. 5 is a block diagram illustrating a functional configuration of the information processing apparatus.
The
第1の検出処理部71は、静電容量検知回路64によってそれぞれ検出されたX軸センサ電極61a,61b…に関する静電容量の変化を検出し、その中で最も大きな変化量を示したX軸センサ電極に対応するX軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。
The first
第1の検出処理部71は、また、静電容量検知回路64によってそれぞれ検出されたY軸センサ電極62a,62b…に関する静電容量の変化を検出し、その中で最も大きな変化量を示したY軸センサ電極に対応するY軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。
The first
第2の検出処理部72は、静電容量検知回路64によってそれぞれ検出されたZ軸センサ電極63a,63b…に関する静電容量の変化を検出し、その中で最も大きな変化量を示したZ軸センサ電極に対応するZ軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。
The second
入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した位置情報を統合的に処理する。
具体的には、入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した位置情報を、表示パネル20に表示された操作対象としての3D(three-dimensional)オブジェクトの互いに直交する3軸方向での動きとして処理して、表示指示部75に供給する。
あるいは、入力情報解析部73は、第1の検出処理部71から取得した位置情報を、表示パネル20に表示された操作対象としての2D(two-dimensional)オブジェクトの互いに直交する2軸方向での動きとして処理して、表示指示部75に供給する。入力情報解析部73は、また、第2の検出処理部72から取得した位置情報を、表示パネル20に表示された2Dオブジェクトの動きについての補助操作として処理して、表示指示部75に供給する。具体的には、入力情報解析部73は、位置情報の組み合わせに対して機能が割り当てられた対応表を参照する。この対応表には、例えば、検出対象物の第3の軸37に沿う動き(スライド操作)に対応する位置情報の組み合わせに対して「ズーム」、検出対象物の第3の軸37に対する短時間の接触(ワンクリック操作)に対応する位置情報の組み合わせに対して「決定」、のように、第2の検出処理部72から供給される位置情報に対して種々の機能が割り当てられている。入力情報解析部73は、第2の検出処理部72から位置情報を取得すると、対応表を参照して取得した位置情報の組み合わせに割り当てられた機能を読み出し、読み出した機能を表示指示部75に供給する。なお、上記対応表は、例えば、HDD、SSDなどの読み書きが可能な記憶装置に格納される。
The input
Specifically, the input
Alternatively, the input
入力指定部74は、入力情報解析部73に、3Dモードオン/オフ信号を供給する。3Dモードオン/オフ信号とは、第2の検出処理部72から供給される位置情報を、入力情報解析部73が上記対応表に割り当てられた機能として処理するか、表示パネル20に表示された3DオブジェクトのZ軸方向での動きとして処理するか、を切り替えるための信号である。
例えば、入力指定部74は、アプリケーションによる3Dオブジェクトの表示をする際、第3の軸37に沿う検出対象物の動きを、表示パネル20に表示された3DオブジェクトのZ軸方向での動きとして処理するよう切り替える3Dモードオン信号を、入力情報解析部73に供給する。そして、入力指定部74は、アプリケーションによる2Dオブジェクトの表示をする際、第3の軸37に沿う検出対象物の動きを、対応表に割り当てられた機能として処理するよう切り替える3Dモードオフ信号を、入力情報解析部73に供給する。
The
For example, when the 3D object is displayed by the application, the
表示指示部75は、入力情報解析部73から取得した、位置情報をもとに統合的に処理された、3D又は2Dオブジェクトの動きに関する情報をもとに描画命令を生成し、生成した描画命令をグラフィック演算処理部46に供給する。
例えば、表示指示部75は、3Dモードオン時には、表示パネル20に表示された操作対象としての3Dオブジェクトを3軸の成分を含む方向に回転させたり、3軸の成分を含む方向に移動させたりする(掴む、持ち上げる)ような表示を行う。表示指示部75は、3Dモードオフ時には、表示パネル20に表示された操作対象としての2Dオブジェクトを2軸の成分を含む方向に回転させたり移動させたりするような表示を行う。
The
For example, when the 3D mode is on, the
本実施形態によれば、ユーザは、例えば、右手の親指U1を第1の軸35上でX軸方向に沿って動かし、人指し指U2を第2の軸36上でY軸方向に沿って動かし、中指U3を第3の軸37上でZ軸方向に沿って動かすことにより、3軸センサユニット60に対して同時に3つの動き情報を入力することができる。そして、入力情報解析部73は、これら3つの動き情報を、3D制御のための個々の軸方向の動き情報に用いれば、表示パネル20に表示された3Dオブジェクトの3軸方向での動きとして処理したり、2Dオブジェクトの2軸方向での動き及び補助操作として処理し、表示指示部75に供給する。
このように、ユーザは片手の3本の指で3軸方向の入力操作を行うことができるので、ユーザは、表示パネル20に表示された2D又は3Dオブジェクトを「掴む」、「回転させる」等の三次元の多様な操作を、直感的に行うことができる。
また、本実施形態によれば、図1に示すような大型のパネルを持った情報処理装置において、操作する際に手が届かない範囲の表示パネル20の部分に対して操作を行う場合も容易に行うことができる。
According to the present embodiment, for example, the user moves the thumb U1 of the right hand on the
In this way, the user can perform input operations in three axial directions with three fingers of one hand, so the user can “grab”, “rotate”, etc. the 2D or 3D object displayed on the
Further, according to the present embodiment, in the information processing apparatus having a large panel as shown in FIG. 1, it is easy to operate the portion of the
<第2の実施形態>
上記の第1の実施形態では、第1の軸35に沿って設けられたX軸センサ部61と、第2の軸36に沿って設けられたY軸センサ部62と、第3の軸37に沿って設けられたZ軸センサ部63とを有する3軸センサユニット60を備えた情報処理装置1について説明した。以下に説明する各実施形態では、第1の実施形態と異なる形状を有するX軸センサ部、Y軸センサ部及びZ軸センサ部を有する3軸センサユニットを備えた情報処理装置について説明する。
<Second Embodiment>
In the first embodiment, the
以下の説明において、第1の実施形態と同様の構成及び機能等については説明を省略又は簡略し、異なる点を中心に説明する。本実施形態において、第1の実施形態の3軸センサユニット60の各部位と同様の構成をもつ3軸センサユニット80の各部位については対応する符号(80番台)を付し、重複する説明は省略する。
In the following description, the description of the same configuration and function as in the first embodiment will be omitted or simplified, and different points will be mainly described. In this embodiment, each part of the
本発明の第2の実施形態の3軸センサユニット80は、X軸センサ部81と、Y軸センサ部82と、Z軸センサ部83とを有する。
The
図6は、第2の実施形態に係るX軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。
X軸センサ部81は、第1の軸35に交差するようにして第1の面32及び第2の面33に亘って配置された複数のX軸センサ電極81a,81b…を有する。例えば、複数のX軸センサ電極81a,81b…各々は、第1の面32の頂点38を含む対角線の近傍から、第2の面33の頂点38を含む対角線の近傍まで、第1の軸35に交差するようにして延在する。これら複数のX軸センサ電極81a,81b…は、互いに等間隔且つ平行に配置される。
FIG. 6 is a perspective view showing an X-axis sensor unit, a Y-axis sensor unit, and a Z-axis sensor unit according to the second embodiment.
The
Y軸センサ部82は、第2の軸36に交差するようにして第1の面32及び第3の面34に亘って配置された複数のY軸センサ電極82a,82b…を有する。例えば、複数のY軸センサ電極82a,82b…各々は、第1の面32の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第2の軸36に交差するようにして延在する。これら複数のY軸センサ電極82a,82b…は、互いに等間隔且つ平行に配置される。
The Y-
Z軸センサ部83は、第3の軸37に交差するようにして第2の面33及び第3の面34に亘って配置された複数のZ軸センサ電極83a,83b…を有する。例えば、複数のZ軸センサ電極83a,83b…各々は、第2の面33の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第3の軸37に交差するようにして延在する。これら複数のZ軸センサ電極83a,83b…は、互いに等間隔且つ平行に配置される。
The Z-
本実施形態によれば、第1、第2及び第3の軸35,36,37の直上からずれて第1、第2及び第3の面32,33,34上で入力操作が行われても、3軸センサユニット60に対して同時に3つの動き情報を入力することができる。すなわち3軸センサユニット80は、ユーザの指による入力操作を広範囲で検出することができるため、ユーザにとっての操作性が向上する。
According to the present embodiment, an input operation is performed on the first, second, and
<第3の実施形態>
本実施形態において、第1の実施形態の3軸センサユニット60の各部位と同様の構成をもつ3軸センサユニット100の各部位については対応する符号(100番台)を付し、重複する説明は省略する。
<Third Embodiment>
In this embodiment, each part of the
図7は、第3の実施形態に係る3軸センサユニット及びユーザの右手を示す斜視図である。
ユーザは、例えば、右手の人指し指U2を第1の面32上でX軸とY軸とがなす2軸方向に沿って動かし、親指U1を第2の面33上でX軸とZ軸とがなす2軸方向に沿って動かし、中指U3を第3の面34上でY軸とZ軸とがなす2軸方向に沿って動かすことにより、3軸センサユニット100に対する入力操作を行う(同図矢印参照。)。これら第1の面32、第2の面33及び第3の面34には、X軸センサ部110、Y軸センサ部120及びZ軸センサ部130が設けられている。
FIG. 7 is a perspective view showing the three-axis sensor unit and the user's right hand according to the third embodiment.
For example, the user moves the index finger U2 of the right hand on the
X軸センサ部110は、第1の面32及び第2の面33に沿った第1の軸35に対する検出対象物の接離方向の動きを検出する。Y軸センサ部120は、第1の面32及び第3の面34に沿った第2の軸36に対する検出対象物の接離方向の動きを検出する。Z軸センサ部130は、第2の面33及び第3の面34に沿った第3の軸37に対する検出対象物の接離方向の動きを検出する。
The
図8は、X軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。
X軸センサ部110は、複数のライン状の受信電極111A,111B…と、複数のライン状の送信電極111a,111b…とを有する。複数の受信電極111A,111B…は、第1の軸35に交差するようにして第1の面32及び第2の面33に亘って配置される。例えば、複数の受信電極111A,111B…各々は、第1の面32の頂点38を含む対角線の近傍から、第2の面33の頂点38を含む対角線の近傍まで、第1の軸35に交差するようにして延在する。これら複数の受信電極111A,111B…は、互いに等間隔且つ平行に配置される。複数の受信電極111A,111B…の下方には、所定の間隙を挟んで且つ複数の受信電極111A,111B…を交差するようにして、送信電極111a,111b…が放射状に設けられる。
FIG. 8 is a perspective view showing the X-axis sensor unit, the Y-axis sensor unit, and the Z-axis sensor unit.
The
Y軸センサ部120は、複数のライン状の受信電極121A,121B…と、複数のライン状の送信電極121a,121b…とを有する。複数の受信電極121A,121B…は、第2の軸36に交差するようにして第1の面32及び第2の面33に亘って配置される。例えば、複数の受信電極121A,121B…各々は、第1の面32の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第2の軸36に交差するようにして延在する。これら複数の受信電極121A,121B…は、互いに等間隔且つ平行に配置される。複数の受信電極121A,121B…の下方には、所定の間隙を挟んで且つ複数の受信電極121A,121B…を交差するようにして、送信電極121a,121b…が放射状に設けられる。
The Y-
Z軸センサ部130は、複数のライン状の受信電極131A,131B…と、複数のライン状の送信電極131a,131b…とを有する。複数の受信電極131A,131B…は、第3の軸37に交差するようにして第2の面33及び第3の面34に亘って配置される。例えば、複数の受信電極131A,131B…各々は、第2の面33の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第3の軸37に交差するようにして延在する。これら複数の受信電極131A,131B…は、互いに等間隔且つ平行に配置される。複数の受信電極131A,131B…の下方には、所定の間隙を挟んで且つ複数の受信電極131A,131B…を交差するようにして、送信電極131a,131b…が放射状に設けられる。
The Z-
ここで、X軸センサ部110の構成について説明する。
図14は、X軸センサ部110の構成を示すブロック図である。
Here, the configuration of the
FIG. 14 is a block diagram illustrating a configuration of the
X軸センサ部110は、ライン状の送信電極111a,111b…と、ライン状の受信電極111A,111B…と、発振器142と、受信器141とを有する。
The
発振器142は、送信電極111a,111b…に送信用の所定の周波数(例えば100KHz)の交流電流をそれぞれ供給する。発振器142と各送信電極111a,111b…との間には、スイッチ143a,143b…がそれぞれ設けられる。また、各受信電極111A,111B…と受信器141との間には、スイッチ143A,143B…がそれぞれ設けられる。これらのスイッチ143a,143b…及びスイッチ143A,143B…は、順次1つがオン状態となるようにサイクリックに切り替えられる。
The
受信電極111A,111B…は、送信電極111a,111b…を交差するように配置されており、それぞれ交差点を持つ。各交差点において、送信電極111a,111b…と受信電極111A,111B…とは非接触とされている。換言すると、送信電極111a,111b…と受信電極111A,111B…との各交差点では、コンデンサが形成される。従って、発振器142により発振され、出力された交流電流が送信電極111a,111b…に供給されると、これに対向する受信電極111A,111B…には、静電誘導によって、その交差点(コンデンサ)を介して交流電流が流れる。
The receiving
すなわち、発振器142が送信電極111a,111b…に交流電圧を印加すると、送信電極111a,111b…と受信電極111A,111B…の間のコンデンサの静電容量による容量結合に基づいて、受信電極111A,111B…に交流電流が発生し、受信器141に供給される。
That is, when the
受信器141は、コンデンサを介して入力された交流電流の強度をデジタル信号として第1の検出処理部71に出力する。
The
ここで、導電性を有する検出対象物がこの送信電極111a,111b…と受信電極111A,111B…との交差点に接触あるいは近接すると、その交差点におけるコンデンサによる静電容量の変化が、受信器141にて交流電流の強度の変化として得られる。
Here, when a detection object having conductivity contacts or approaches the intersection of the
なお、Y軸センサ部120及びZ軸センサ部130も同様の構成を有する。すなわち、Y軸センサ部120は交流電流の強度をデジタル信号として第1の検出処理部71に出力する。Z軸センサ部130は交流電流の強度をデジタル信号として第2の検出処理部72に出力する。
The Y-
第1の検出処理部71は、受信器141から入力される情報をもとにX軸センサ部110内で静電容量の最も大きな変化量を示したコンデンサに対応する各受信電極及び送信電極にそれぞれ対応するX座標及びY座標を判定し、これらの座標情報を入力情報解析部73に供給する。
The first
第1の検出処理部71は、また、受信器141から入力される情報をもとにY軸センサ部120内で静電容量の最も大きな変化量を示したコンデンサに対応する各受信電極及び送信電極にそれぞれ対応するX座標及びY座標を判定し、これらの座標情報を入力情報解析部73に供給する。
The first
第2の検出処理部72は、受信器141から入力される情報をもとにZ軸センサ部130内で静電容量の最も大きな変化量を示したコンデンサに対応する各受信電極及び送信電極にそれぞれ対応するX座標及びY座標を判定し、これらの座標情報を入力情報解析部73に供給する。
The second
入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した座標情報を、表示パネル20に表示された操作対象としての3Dオブジェクトの互いに直交する3軸方向での動きとして処理して、表示指示部75に供給する。
The input
このような3軸センサユニット100において、例えば、ユーザが同時に右手の人差し指U2を第1の軸35から第2の軸36にかけて第1の面32に沿って動かし、親指U1を第3の軸37から第1の軸35にかけて第2の面33に沿って動かし、中指U3を第2の軸36から第3の軸37にかけて第3の面34に沿って動かしたとする(図7の矢印参照。)
このような場合、直流電圧の変化が生じたコンデンサ位置が、第1の面32、第2の面33及び第3の面34において、それぞれ、時計回りの方向に順次移動することとなる。入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した座標情報を、表示パネル20に表示された操作対象としての3Dオブジェクトの三次元の多様な操作、例えば、回転方向での動きとして処理する。
In such a
In such a case, the capacitor position where the change of the DC voltage occurs sequentially moves in the clockwise direction on the
なお、第3の実施形態についてこの他、図13に示す回路を2段にして適用することでも実現できる。すなわち、送信電極111a〜111fを図13と同様に構成し、さらに受信電極111A〜111Dを図13と同様に構成する。送信電極111a〜111f…に接続された静電容量検知回路は、これらの静電容量を電圧値に変換し、第1の検出処理部71に出力する。一方、受信電極111A〜111D…に接続された静電容量検知回路は、これらの静電容量を電圧値に変換し、第1の検出処理部71に出力する。第1の検出処理部71は、送信電極111a〜111f…の静電容量が変換された電圧値と、受信電極111A〜111D…の静電容量が変換された電圧値とをもとにX軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。説明は省略するが、送信電極121a〜121f及び受信電極121A〜121D並びに送信電極131a〜131f及び受信電極131A〜131Dも上記と同様に構成することができる。
In addition, the third embodiment can be realized by applying the circuit shown in FIG. 13 in two stages. That is, the transmitting
さらに、図8において、送信電極111c、111dを一体化し、送信電極121c、121dを一体化し、送信電極131c、131dを一体化してもよい。
Further, in FIG. 8, the
図9は、3軸センサユニット及びユーザの右手を示す別の斜視図である。
なお、静電容量方式のセンサとしての3軸センサユニット100は、検出対象物の接触に限られず、検出対象物の近接、つまりユーザの右手の各指U1,U2,U3が3軸センサユニット100から離間しているような状態も検出可能である。従って、例えば、ユーザが右手を3軸センサユニット100から離間させて時計回りに回転させても(同図矢印参照。)、3軸センサユニット100はユーザの右手の動きを検出することができ、入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した座標情報を、表示パネル20に表示された3Dオブジェクトの三次元の操作、例えば、時計回りの回転方向での動きとして処理することができる。
FIG. 9 is another perspective view showing the three-axis sensor unit and the right hand of the user.
The
本実施形態によれば、ユーザによる片手の3本の指で3つの面に沿ってそれぞれの軸に対して接離する方向でのそれぞれの検出対象物の動きを検出することができるので、ユーザは、表示パネル20に表示された3Dオブジェクトを「回転させる」等の三次元の多様な操作をより直感的に行うことができる。また、静電容量方式のセンサを採用することで3つの面から離間した位置での入力操作を検出することができるので、ユーザは、表示パネル20に表示された3Dオブジェクトを「掴む」、「回転させる」等の三次元の多様な操作をさらに直感的に行うことができる。
According to the present embodiment, the user can detect the movement of each detection object in the direction of coming into contact with and separating from each axis along the three surfaces with three fingers of one hand. Can perform various three-dimensional operations such as “rotate” a 3D object displayed on the
なお、本実施形態においても第1の実施形態と同様に、X軸センサ部110は第1の軸35上でX軸方向に沿う検出対象物の動きを検出し、Y軸センサ部120は、第2の軸36上でY軸方向に沿う検出対象物の動きを検出し、Z軸センサ部130は第3の軸37上でZ軸方向に沿う検出対象物の動きを検出することができる。
In this embodiment, as in the first embodiment, the
<第4の実施形態>
本実施形態において、第3の実施形態の3軸センサユニット100の各部位と同様の構成をもつ3軸センサユニット200の各部位については対応する符号(200番台)を付し、重複する説明は省略する。
<Fourth Embodiment>
In this embodiment, each part of the three-
図10は、第4の実施形態に係るX軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。 FIG. 10 is a perspective view showing an X-axis sensor unit, a Y-axis sensor unit, and a Z-axis sensor unit according to the fourth embodiment.
第3の実施形態の3軸センサユニット100は、複数の受信電極111A,111B…,121A,121B…,131A,131B…は、第1の面32、第2の面33及び第3の面34上で略矩形を構成するように配置されたが、これに限定されない。同図に示す第4の実施形態の3軸センサユニット200のように、複数の各受信電極211A,211B…,221A,221B…,231A,231B…は、第1の面32、第2の面33及び第3の面34上略三角形を構成するように配置されてもよい。
In the three-
<第5の実施形態>
本実施形態において、第1の実施形態の3軸センサユニット60の各部位と同様の構成をもつ3軸センサユニット90の各部位については対応する符号(90番台)を付し、重複する説明は省略する。
<Fifth Embodiment>
In this embodiment, each part of the three-
本発明の第5の実施形態の3軸センサユニット90は、第1の実施形態の3軸センサユニット60に頂点センサ電極94を付加したものである。
A
図11は、第5の実施形態に係るX軸センサ部、Y軸センサ部、Z軸センサ部及び頂点センサ部を示す斜視図である。
頂点センサ電極94は、角部31の頂点38に設けられる。例えば、頂点センサ電極94は、第3の軸37に沿って設けられる。
FIG. 11 is a perspective view showing an X-axis sensor unit, a Y-axis sensor unit, a Z-axis sensor unit, and a vertex sensor unit according to the fifth embodiment.
The
第2の検出処理部72は、頂点センサ電極94及びZ軸センサ電極93a,93b…の静電容量の変化を検出し、その中で最も大きな変化量を示した頂点センサ電極94及びZ軸センサ電極93a,93b…に対応する座標を判定し、この座標情報を入力情報解析部73に供給する。
The second
入力情報解析部73は、第2の検出処理部72から取得した座標情報に対して機能が割り当てられた対応表を参照する。この対応表には、例えば、検出対象物の頂点センサ電極94に対する短時間の接触(ワンクリック操作)に対応する座標情報の組み合わせに対して「決定」、のように、第2の検出処理部72から供給される座標情報に対して種々の機能が割り当てられている。入力情報解析部73は、第2の検出処理部72から座標情報を取得すると、対応表を参照して取得した座標情報の組み合わせに割り当てられた機能を読み出し、読み出した機能を表示指示部75に供給する。
The input
本実施形態によれば、頂点センサ電極94に対する検出対象物の動き情報を、表示パネル20に表示されたオブジェクト動きに関する補助操作として処理し、表示指示部75に供給する。これにより、ユーザは「決定」等の補助操作を直感的に行うことができる。
According to the present embodiment, the movement information of the detection target with respect to the
なお、本実施形態では第1の実施形態の3軸センサユニット60に頂点センサ電極94を付加した構成としたが、これに限定されず、第2〜第4の3軸センサユニット80,100,200に頂点センサ電極94を付加した構成としてもよい。
In this embodiment, the
<第6の実施形態>
図12は、第6の実施形態に係る3軸センサユニット及びユーザの右手を示す斜視図である。
3軸センサユニット300は、本体部30の表示パネル20が設けられた第1の面32を含む角部31に設けられ、X軸センサ部61及びY軸センサ部62より下方にZ軸センサ部63が配置されたが、これに限定されない。同図に示すように、3軸センサユニット300は、X軸センサ部310及びY軸センサ部320より上方にZ軸センサ部330が配置される構成としてもよい。
<Sixth Embodiment>
FIG. 12 is a perspective view showing the three-axis sensor unit and the user's right hand according to the sixth embodiment.
The
図15は、図12における、操作対象400としての3D(three-dimensional)オブジェクトが指定の空間内に存在しており、それをX軸センサ部310、Y軸センサ部320及びZ軸センサ部330によって操作する様子を示している。この操作によって、操作対象400の位置を移動したり、回転させたりする。
15, a 3D (three-dimensional) object as an
図15にあるように、大きな空間(このエリアは必ずしも可視される限定された領域に限定されることなく、所定の操作範囲の限界位置を示すものと扱っても良い)を持った情報処理装置において、操作する際に手が届かない範囲に対して操作を行う場合にも、本実施形態によって容易に行うことができる。 As shown in FIG. 15, an information processing apparatus having a large space (this area is not necessarily limited to a limited area that can be seen, and may be treated as indicating a limit position of a predetermined operation range). In this case, even when an operation is performed on a range that cannot be reached when the operation is performed, this embodiment can easily perform the operation.
<第7の実施形態>
図16は、本発明の第7の実施形態に係る複数のセンサ部を示す斜視図である。
<Seventh Embodiment>
FIG. 16 is a perspective view showing a plurality of sensor units according to the seventh embodiment of the present invention.
本発明の第7の実施形態の3軸センサユニット400は、複数のライン状のセンサ電極410を有する。複数のセンサ電極410は、第1の面32、第2の面33及び第3の面34上に頂点38を中心として放射状に設けられる。この構成により、検出対象物の頂点38を中心とした回転方向の動きのみを検出することが可能となる。
The
あるいは、3軸センサユニット60は、直方体状の本体部30の角部31に設けられたが、これに限定されない。図示は省略するが、平面(例えば、フレーム10の任意の一面)に、3軸センサユニットとしての三角錐状の立体物を設置し、この三角錐の3つの斜辺にX軸センサ部、Y軸センサ部及びZ軸センサ部を配置する構成としてもよい。
Or although the
あるいは、図示は省略するが、情報処理装置1から独立して、情報処理装置1と無線通信可能な3軸センサユニットを備えるリモートコントローラ装置であってもよい。この場合も、3軸センサユニットを備えるリモートコントローラ装置は、例えば三角錐等の立体物であり、この三角錐の3つの斜辺にX軸センサ部、Y軸センサ部及びZ軸センサ部を配置する構成とすればよい。
Or although illustration is abbreviate | omitted, you may be a remote controller apparatus provided with the 3-axis sensor unit which can be communicated with the
1…情報処理装置
35…第1の軸
36…第2の軸
37…第3の軸
60、80、90、100、200、300、400…3軸センサユニット
61、81、91、110、210、310…X軸センサ部
62、82、92、120、220、320…Y軸センサ部
63、83、93、130、230、330…Z軸センサ部
71…第1の検出処理部
72…第2の検出処理部
73…入力情報解析部
74…入力指定部
75…表示指示部
DESCRIPTION OF
Claims (9)
前記立体物に設けられ、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能な第1のセンサ部、第2のセンサ部及び第3のセンサ部と
を具備する検出装置。 A three-dimensional object having one or more surfaces and having a first axis, a second axis, and a third axis different from each other in a three-dimensional space, set along the one or more surfaces;
A first sensor unit provided on the three-dimensional object and capable of independently detecting movements of three detection objects along each of the first axis, the second axis, and the third axis; A detecting device comprising: a sensor unit and a third sensor unit.
前記第1の軸、前記第2の軸及び前記第3の軸は一つの交点を有する
検出装置。 The detection device according to claim 1,
The first axis, the second axis, and the third axis have one intersection.
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する前記1以上の面に沿った接離方向の動きを検出する
検出装置。 The detection device according to claim 1 or 2,
The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis along the one or more surfaces, respectively. A detector that detects movement in the away direction.
前記立体物は、1つの角部を構成する3つの面を有し、
前記第1の軸、前記第2の軸及び前記第3の軸は、前記立体物の前記角部に設定され、
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記3つの面に沿った前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する接離方向の動きを検出する
検出装置。 The detection device according to claim 3,
The three-dimensional object has three surfaces constituting one corner,
The first axis, the second axis, and the third axis are set at the corners of the three-dimensional object,
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. A detection device that detects movement in the direction.
前記立体物に設けられ、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能な第1のセンサ部、第2のセンサ部及び第3のセンサ部と、
表示部に、互いに直交する3軸方向の動きを操作可能な操作対象を表示させるとともに、前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部により検出された前記第1の軸、前記第2の軸及び前記第3の軸それぞれに沿った前記検出対象物の動きをもとに、前記表示部に表示された前記操作対象の前記3軸方向の動きを制御する制御部と
を具備する情報処理装置。 A three-dimensional object having one or more surfaces and having a first axis, a second axis, and a third axis different from each other in a three-dimensional space, set along the one or more surfaces;
A first sensor unit provided on the three-dimensional object and capable of independently detecting movements of three detection objects along each of the first axis, the second axis, and the third axis; A sensor unit and a third sensor unit;
The display unit displays an operation target capable of operating movements in three axis directions orthogonal to each other, and the first sensor unit, the second sensor unit, and the first sensor unit detected by the third sensor unit. Control for controlling the movement of the operation target displayed on the display unit in the three-axis direction based on the movement of the detection target along each of the axis, the second axis, and the third axis And an information processing apparatus.
前記第1の軸、前記第2の軸及び前記第3の軸は一つの交点を有する
情報処理装置。 The information processing apparatus according to claim 5,
The information processing apparatus, wherein the first axis, the second axis, and the third axis have one intersection.
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する前記1以上の面に沿った接離方向の動きを検出する
情報処理装置。 The information processing apparatus according to claim 5 or 6,
The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis along the one or more surfaces, respectively. An information processing device that detects movement in the away direction.
前記立体物は、1つの角部を構成する3つの面を有し、
前記第1の軸、前記第2の軸及び前記第3の軸は、前記立体物の前記角部に設定され、
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記3つの面に沿った前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する接離方向の動きを検出する
情報処理装置。 The information processing apparatus according to claim 7,
The three-dimensional object has three surfaces constituting one corner,
The first axis, the second axis, and the third axis are set at the corners of the three-dimensional object,
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. An information processing device that detects direction movement.
前記制御部は、さらに、前記表示部に、互いに直交する2軸方向の動きを操作可能な操作対象を表示させるとともに、前記第1のセンサ部及び前記第2のセンサ部により検出された前記第1の軸及び前記第2の軸それぞれに沿った前記検出対象物の動きをもとに、前記表示部に表示された前記操作対象の前記2軸方向の動きを制御し、前記第3のセンサ部により検出された前記第3の軸に沿った前記検出対象物の動きをもとに、前記表示部に表示された前記操作対象の操作を制御する
情報処理装置。 The information processing apparatus according to claim 5 or 8,
The control unit further causes the display unit to display an operation target capable of operating movements in two axial directions orthogonal to each other, and the first sensor unit and the second sensor unit detect the first object. Controlling the movement of the operation target displayed on the display unit in the two-axis direction based on the movement of the detection object along each of the first axis and the second axis, and the third sensor An information processing apparatus that controls the operation of the operation target displayed on the display unit based on the movement of the detection target along the third axis detected by the unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011029097A JP2012168723A (en) | 2011-02-14 | 2011-02-14 | Detector and information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011029097A JP2012168723A (en) | 2011-02-14 | 2011-02-14 | Detector and information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012168723A true JP2012168723A (en) | 2012-09-06 |
Family
ID=46972826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011029097A Withdrawn JP2012168723A (en) | 2011-02-14 | 2011-02-14 | Detector and information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012168723A (en) |
-
2011
- 2011-02-14 JP JP2011029097A patent/JP2012168723A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102193673B (en) | Position detection apparatus | |
TWI539362B (en) | Interface switching method and electric device using the same | |
JP4743267B2 (en) | Information processing apparatus, information processing method, and program | |
JP5205157B2 (en) | Portable image display device, control method thereof, program, and information storage medium | |
US20100177053A2 (en) | Method and apparatus for control of multiple degrees of freedom of a display | |
US20140043265A1 (en) | System and method for detecting and interpreting on and off-screen gestures | |
JP2014029673A (en) | Display device and method for controlling the same | |
JP5640486B2 (en) | Information display device | |
US20150160842A1 (en) | Electronic device and controlling method and program therefor | |
JP5848732B2 (en) | Information processing device | |
CN102402375A (en) | Display terminal and display method | |
KR20140078180A (en) | Touch sensitive device and controlling method for providing mini-map of tactile user interface | |
JP2015170282A (en) | Operation device for vehicle | |
WO2015159774A1 (en) | Input device and method for controlling input device | |
WO2015182222A1 (en) | Indicator detection device and signal processing method thereof | |
JP2011065252A (en) | Input display board-cum-table | |
US9367169B2 (en) | Method, circuit, and system for hover and gesture detection with a touch screen | |
JP5790578B2 (en) | Display system, display device, and operation device | |
JP6058118B2 (en) | Operation detection device | |
JP6174646B2 (en) | Computer program for 3-axis operation of objects in virtual space | |
WO2013080425A1 (en) | Input device, information terminal, input control method and input control program | |
JP2012168723A (en) | Detector and information processor | |
JP2019096182A (en) | Electronic device, display method, and program | |
JPWO2013089012A1 (en) | Information processing apparatus, information processing method, program, and information storage medium | |
JP2014067253A (en) | Operation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |