[go: up one dir, main page]

JP2012168723A - Detector and information processor - Google Patents

Detector and information processor Download PDF

Info

Publication number
JP2012168723A
JP2012168723A JP2011029097A JP2011029097A JP2012168723A JP 2012168723 A JP2012168723 A JP 2012168723A JP 2011029097 A JP2011029097 A JP 2011029097A JP 2011029097 A JP2011029097 A JP 2011029097A JP 2012168723 A JP2012168723 A JP 2012168723A
Authority
JP
Japan
Prior art keywords
axis
sensor unit
unit
along
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011029097A
Other languages
Japanese (ja)
Inventor
Toshiyuki Nakagawa
俊之 中川
Osamu Ito
鎮 伊藤
Tetsuo Goto
哲郎 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011029097A priority Critical patent/JP2012168723A/en
Publication of JP2012168723A publication Critical patent/JP2012168723A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a detector capable of enhancing operability about an intuitive operation and an information processor including the detector.SOLUTION: A three-axis sensor unit 60 has a body part 30, an X-axis sensor part 61, a Y-axis sensor part 62 and a Z-axis sensor part 63. The body part 30 has one or more faces 32, 33 and 34, and a first axis 35, a second axis 36 and a third axis 37 whose directions in a three-dimensional space are different from one another are set along the one or more faces 32, 33 and 34. The X-axis sensor part 61, the Y-axis sensor part 62 and the Z-axis sensor part 63 are provided in the body part 30, and can independently detect the movement of a detection object along each of the first axis 35, the second axis 36 and the third axis 37.

Description

本発明は、物体の接触又は近接の検出が可能な検出装置及びこの検出装置を備える情報処理装置に関する。   The present invention relates to a detection apparatus capable of detecting contact or proximity of an object and an information processing apparatus including the detection apparatus.

ユーザの指等の物体の接触又は近接により指示された座標の検出が可能なタッチセンサパネルを用いた情報処理装置が提案されている。とりわけ近年、情報処理能力や描画処理能力の高度化等に伴い、大型のタッチセンサパネルを用いたテーブル型の情報処理装置も提案されている(例えば、特許文献1参照。)。このような情報処理装置のテーブル上面には表示パネルが設置され、この表示パネルには、グラフィカルユーザインタフェース(GUI、Graphical User Interface)要素やコンテンツ要素が表示される。この種の情報処理装置においては、ユーザが表示パネルに表示された操作対象としてのGUI要素やコンテンツ要素を参照しつつ、この表示パネルの上に重ねて設置されたタッチセンサパネルに対して、例えば、操作対象を「掴む」、「回転させる」等の三次元の多様な操作を直感的に行うことを可能とする装置も提案されている。   An information processing apparatus using a touch sensor panel capable of detecting coordinates instructed by contact or proximity of an object such as a user's finger has been proposed. In particular, in recent years, with the advancement of information processing capability and drawing processing capability, a table type information processing apparatus using a large touch sensor panel has also been proposed (see, for example, Patent Document 1). A display panel is installed on the upper surface of the table of such an information processing apparatus, and a graphical user interface (GUI) element and a content element are displayed on the display panel. In this type of information processing apparatus, while referring to a GUI element or a content element as an operation target displayed on the display panel by a user, for example, with respect to a touch sensor panel placed over the display panel, In addition, an apparatus that can intuitively perform various three-dimensional operations such as “grabbing” and “rotating” an operation target has been proposed.

一方、筐体の角部の互いに直交する2本のエッジ部位に配置されたX軸位置センサ及びY軸位置センサを備える情報処理装置が知られている(例えば、特許文献2参照。)。特許文献2の情報処理装置によれば、ユーザは、X軸位置センサ及びY軸位置センサに右手の親指と人差し指とをそれぞれ当て、指をエッジに沿って移動させることで、表示画面に表示されたポインタを画面上で2軸方向に移動させることができる。   On the other hand, an information processing apparatus is known that includes an X-axis position sensor and a Y-axis position sensor that are arranged at two edge portions that are orthogonal to each other at the corners of the housing (see, for example, Patent Document 2). According to the information processing apparatus disclosed in Patent Document 2, the user touches the thumb and index finger of the right hand to the X-axis position sensor and the Y-axis position sensor, respectively, and moves the finger along the edge to display the information on the display screen. The pointer can be moved in the biaxial direction on the screen.

特開2006−065558号公報(段落[0018]、図1)JP 2006-065558 (paragraph [0018], FIG. 1) 特開2009−157709号公報(段落[0027]、図1)JP 2009-157709 A (paragraph [0027], FIG. 1)

特許文献1の情報処理装置において、ユーザは、指をタッチセンサパネルに接触又は近接させて、操作対象としてのGUI要素やコンテンツ要素に対する直感的な入力操作を行う。しかし、テーブル型の情報処理装置のサイズや大型化したタッチセンサパネルのサイズによっては、ユーザが表示パネルに表示されたGUI要素やコンテンツ要素に対する入力操作を行うにあたり、ユーザとGUI要素やコンテンツ要素との距離が大きい場合等、操作性が悪くなるおそれがある。   In the information processing apparatus of Patent Document 1, a user performs intuitive input operations on a GUI element or a content element as an operation target by bringing a finger into contact with or close to a touch sensor panel. However, depending on the size of the table-type information processing apparatus and the size of the touch sensor panel that has been enlarged, when the user performs an input operation on the GUI element or content element displayed on the display panel, If the distance is large, the operability may be deteriorated.

そこで、特許文献1の情報処理装置に対する操作性を高めるため、特許文献2のX軸位置センサ及びY軸位置センサを用いることについて検討する。特許文献2のX軸位置センサ及びY軸位置センサは、表示画面に表示されたGUI要素(ポインタ)の2軸方向の移動に用いられるにすぎず、例えば、表示パネルに表示されたGUI要素やコンテンツ要素を「掴む」、「回転させる」等の三次元の多様な操作を直感的に行うことは困難である。   Therefore, in order to improve the operability with respect to the information processing apparatus of Patent Document 1, the use of the X-axis position sensor and the Y-axis position sensor of Patent Document 2 will be examined. The X-axis position sensor and the Y-axis position sensor of Patent Document 2 are only used to move the GUI element (pointer) displayed on the display screen in the two-axis direction. For example, the GUI element displayed on the display panel It is difficult to intuitively perform various three-dimensional operations such as “grabbing” and “rotating” content elements.

以上のような事情に鑑み、本発明の目的は、直感的な操作に関しての操作性を高めることのできる検出装置及びこの検出装置を備える情報処理装置を提供することにある。   In view of the circumstances as described above, an object of the present invention is to provide a detection device capable of enhancing the operability regarding an intuitive operation and an information processing device including the detection device.

上記目的を達成するため、本発明の一形態に係る検出装置は、立体物と、第1のセンサ部、第2のセンサ部及び第3のセンサ部とを有する。
上記立体物は、1以上の面を有し、三次元空間内での向きが互いに異なる第1の軸、第2の軸及び第3の軸が上記1以上の面に沿って設定される。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記立体物に設けられ、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能である。
In order to achieve the above object, a detection device according to an embodiment of the present invention includes a three-dimensional object, a first sensor unit, a second sensor unit, and a third sensor unit.
The three-dimensional object has one or more planes, and a first axis, a second axis, and a third axis that are different from each other in the three-dimensional space are set along the one or more planes.
The first sensor unit, the second sensor unit, and the third sensor unit are provided on the three-dimensional object, and are respectively along the first axis, the second axis, and the third axis. The movements of the three detection objects can be detected independently.

これにより、ユーザは、例えば、3つの検出対象物のうちの1つを第1の軸上に沿って動かし、別の1つを第2の軸に沿って動かし、さらに別の1つをを第3の軸に沿って動かすことにより、検出装置に対する入力操作を行うことができる。例えば、3つの検出対象物をユーザの指とすれば、ユーザは3本の指を使うことで同時に3つの動き情報を入力することができる。例えば、これら3つの動き情報を、3D制御のための個々の軸方向の動き情報に用いれば、表示中の3Dオブジェクトに対して、三次元の多様な操作を、直感的に行うことができる。   Thereby, for example, the user moves one of the three detection objects along the first axis, moves another one along the second axis, and moves another one over. By moving along the third axis, an input operation can be performed on the detection device. For example, if three detection objects are user's fingers, the user can input three pieces of motion information at the same time by using three fingers. For example, if these three pieces of movement information are used as movement information in individual axial directions for 3D control, various three-dimensional operations can be intuitively performed on the displayed 3D object.

上記第1の軸、上記第2の軸及び上記第3の軸は一つの交点を有してもよい。   The first axis, the second axis, and the third axis may have one intersection.

これにより、ユーザが片手の指で第1の軸、第2の軸及び第3の軸に3つの動き情報を入力することができるような位置関係となり、操作性が向上する。   Thus, the positional relationship is such that the user can input three pieces of motion information to the first axis, the second axis, and the third axis with the finger of one hand, and the operability is improved.

上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する上記1以上の面に沿った接離方向の動きを検出してもよい。   The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis, respectively, along the one or more surfaces. The movement in the separation direction may be detected.

これにより、検出装置は、面に沿ってそれぞれの軸に対して接離する方向でのそれぞれの検出対象物の動きを検出することができるので、ユーザは、表示中の3Dオブジェクトに対して、三次元の多様な操作を、より直感的に行うことができる。   As a result, the detection device can detect the movement of each detection target in the direction of moving toward and away from each axis along the plane, so that the user can perform the display on the 3D object being displayed. Various three-dimensional operations can be performed more intuitively.

上記立体物は、1つの角部を構成する3つの面を有してもよい。
上記第1の軸、上記第2の軸及び上記第3の軸は、上記立体物の上記角部に設定されてもよい。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記3つの面に沿った上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する接離方向の動きを検出してもよい。
The three-dimensional object may have three surfaces constituting one corner.
The first axis, the second axis, and the third axis may be set at the corner of the three-dimensional object.
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. Directional motion may be detected.

これにより、ユーザが片手の指で3本の指を使うことで同時に立体物の角部に設定された第1の軸、第2の軸及び第3の軸に3つの動き情報を入力することができるような位置関係となり、操作性がさらに向上する。   Accordingly, when the user uses three fingers with one hand, the three pieces of motion information are simultaneously input to the first axis, the second axis, and the third axis set at the corners of the three-dimensional object. So that the operability is further improved.

本発明の一形態に係る情報処理装置は、立体物と、第1のセンサ部、第2のセンサ部及び第3のセンサ部と、制御部とを有する。
上記立体物は、1以上の面を有し、三次元空間内での向きが互いに異なる第1の軸、第2の軸及び第3の軸が上記1以上の面に沿って設定される。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記立体物に設けられ、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能である。
上記制御部は、表示部に、互いに直交する3軸方向の動きを操作可能な操作対象を表示させるとともに、上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部により検出された上記第1の軸、上記第2の軸及び上記第3の軸それぞれに沿った上記検出対象物の動きをもとに、上記表示部に表示された上記操作対象の上記3軸方向の動きを制御する。
An information processing apparatus according to one embodiment of the present invention includes a three-dimensional object, a first sensor unit, a second sensor unit, a third sensor unit, and a control unit.
The three-dimensional object has one or more planes, and a first axis, a second axis, and a third axis that are different from each other in the three-dimensional space are set along the one or more planes.
The first sensor unit, the second sensor unit, and the third sensor unit are provided on the three-dimensional object, and are respectively along the first axis, the second axis, and the third axis. The movements of the three detection objects can be detected independently.
The control unit causes the display unit to display an operation target capable of operating movements in three axis directions orthogonal to each other, and is detected by the first sensor unit, the second sensor unit, and the third sensor unit. Based on the movements of the detection object along the first axis, the second axis, and the third axis, the operation target displayed on the display unit in the three-axis direction Control movement.

これにより、ユーザは、例えば、3つの検出対象物のうちの1つを第1の軸上に沿って動かし、別の1つを第2の軸に沿って動かし、さらに別の1つをを第3の軸に沿って動かすことにより、検出装置に対する入力操作を行うことができる。例えば、3つの検出対象物をユーザの指とすれば、ユーザは3本の指を使うことで同時に3つの動き情報を入力することができる。例えば、これら3つの動き情報を、3D制御のための個々の軸方向の動き情報に用いれば、表示中の3Dオブジェクトに対して、三次元の多様な操作を、直感的に行うことができる。   Thereby, for example, the user moves one of the three detection objects along the first axis, moves another one along the second axis, and moves another one over. By moving along the third axis, an input operation can be performed on the detection device. For example, if three detection objects are user's fingers, the user can input three pieces of motion information at the same time by using three fingers. For example, if these three pieces of movement information are used as movement information in individual axial directions for 3D control, various three-dimensional operations can be intuitively performed on the displayed 3D object.

上記第1の軸、上記第2の軸及び上記第3の軸は一つの交点を有してもよい。   The first axis, the second axis, and the third axis may have one intersection.

上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する上記1以上の面に沿った接離方向の動きを検出してもよい。   The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis, respectively, along the one or more surfaces. The movement in the separation direction may be detected.

上記立体物は、1つの角部を構成する3つの面を有してもよい。
上記第1の軸、上記第2の軸及び上記第3の軸は、上記立体物の上記角部に設定されてもよい。
上記第1のセンサ部、上記第2のセンサ部及び上記第3のセンサ部は、上記3つの面に沿った上記第1の軸、上記第2の軸及び上記第3の軸それぞれに対する接離方向の動きを検出してもよい。
The three-dimensional object may have three surfaces constituting one corner.
The first axis, the second axis, and the third axis may be set at the corner of the three-dimensional object.
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. Directional motion may be detected.

上記制御部は、さらに、上記表示部に、互いに直交する2軸方向の動きを操作可能な操作対象を表示させるとともに、上記第1のセンサ部及び上記第2のセンサ部により検出された上記第1の軸及び上記第2の軸それぞれに沿った上記検出対象物の動きをもとに、上記表示部に表示された上記操作対象の上記2軸方向の動きを制御し、上記第3のセンサ部により検出された上記第3の軸に沿った上記検出対象物の動きをもとに、上記表示部に表示された上記操作対象の操作を制御してもよい。   The control unit further causes the display unit to display an operation target capable of operating movements in two axial directions orthogonal to each other, and the first sensor unit and the second sensor unit detected by the second sensor unit. Controlling the movement of the operation target displayed on the display unit in the two-axis direction based on the movement of the detection target along each of the first axis and the second axis, and the third sensor The operation of the operation target displayed on the display unit may be controlled based on the movement of the detection target along the third axis detected by the unit.

これにより、ユーザは、例えば、3つの検出対象物のうちの1つを第1の軸上に沿って動かし、別の1つを第2の軸に沿って動かし、さらに別の1つをを第3の軸に沿って動かすことにより、検出装置に対する入力操作を行うことができる。例えば、3つの検出対象物をユーザの指とすれば、ユーザは3本の指を使うことで同時に3つの動き情報を入力することができる。例えば、これら3つの動き情報のうち2つの動き情報を、2D制御のための個々の軸方向の動き情報に用いれば、表示中の2Dオブジェクトに対して、二次元の多様な操作を、直感的に行うことができる。また、これら3つの動き情報のうち1つの動き情報を、補助操作に用いれば、表示中の2Dオブジェクトに対して、多様な補助操作を、直感的に行うことができる。   Thereby, for example, the user moves one of the three detection objects along the first axis, moves another one along the second axis, and moves another one over. By moving along the third axis, an input operation can be performed on the detection device. For example, if three detection objects are user's fingers, the user can input three pieces of motion information at the same time by using three fingers. For example, if two pieces of movement information among these three pieces of movement information are used for movement information in individual axial directions for 2D control, various two-dimensional operations can be intuitively performed on the displayed 2D object. Can be done. Further, if one piece of movement information among these three pieces of movement information is used for auxiliary operation, various auxiliary operations can be intuitively performed on the 2D object being displayed.

本発明の目的によれば、直感的な操作に関しての操作性を高めることができる。   According to the object of the present invention, it is possible to improve the operability for intuitive operation.

本発明の第1の実施形態に係る情報処理装置を示す斜視図である。1 is a perspective view showing an information processing apparatus according to a first embodiment of the present invention. 情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of information processing apparatus. 3軸センサユニット及びユーザの右手を示す斜視図である。It is a perspective view which shows a 3-axis sensor unit and a user's right hand. X軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。It is a perspective view which shows an X-axis sensor part, a Y-axis sensor part, and a Z-axis sensor part. 情報処理装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of information processing apparatus. 第2の実施形態に係るX軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。It is a perspective view which shows the X-axis sensor part which concerns on 2nd Embodiment, a Y-axis sensor part, and a Z-axis sensor part. 第3の実施形態に係る3軸センサユニット及びユーザの右手を示す斜視図である。It is a perspective view which shows the 3 axis | shaft sensor unit which concerns on 3rd Embodiment, and a user's right hand. X軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。It is a perspective view which shows an X-axis sensor part, a Y-axis sensor part, and a Z-axis sensor part. 3軸センサユニット及びユーザの右手を示す別の斜視図である。It is another perspective view which shows a triaxial sensor unit and a user's right hand. 第4の実施形態に係るX軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。It is a perspective view which shows the X-axis sensor part which concerns on 4th Embodiment, a Y-axis sensor part, and a Z-axis sensor part. 第5の実施形態に係るX軸センサ部、Y軸センサ部、Z軸センサ部及び頂点センサ部を示す斜視図である。It is a perspective view which shows the X-axis sensor part which concerns on 5th Embodiment, a Y-axis sensor part, a Z-axis sensor part, and a vertex sensor part. 第6の実施形態に係る3軸センサユニット及びユーザの右手を示す斜視図である。It is a perspective view which shows the 3 axis | shaft sensor unit which concerns on 6th Embodiment, and a user's right hand. 第1の実施形態に係るX軸センサ部の構成を示すブロック図である。It is a block diagram which shows the structure of the X-axis sensor part which concerns on 1st Embodiment. 第3の実施形態に係るX軸センサ部の構成を示すブロック図である。It is a block diagram which shows the structure of the X-axis sensor part which concerns on 3rd Embodiment. 図12における、操作対象を示す概略図である。It is the schematic which shows the operation target in FIG. 本発明の第7の実施形態に係る複数のセンサ部を示す斜視図である。It is a perspective view showing a plurality of sensor parts concerning a 7th embodiment of the present invention.

以下、図面を参照しながら、本発明の実施形態を説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態に係る情報処理装置を示す斜視図である。
同図に示すように、本発明の一実施形態に係る情報処理装置1は、直方体状の本体部30(立体物)と、本体部30を例えば床等に支持する脚部11とを有する。
本体部30は、表示パネル(図2に示す表示パネル20)と、3軸センサユニット60とを有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a perspective view showing an information processing apparatus according to the first embodiment of the present invention.
As shown in the figure, an information processing apparatus 1 according to an embodiment of the present invention includes a rectangular parallelepiped main body 30 (three-dimensional object) and legs 11 that support the main body 30 on, for example, a floor.
The main body 30 has a display panel (display panel 20 shown in FIG. 2) and a triaxial sensor unit 60.

表示パネル20は、例えばLCD(Liquid Crystal Display)等からなる、例えば30インチを超えるような大型の表示パネルである。表示パネル20にはアイコン等のGUI(Graphic User Interface)要素や画像等のコンテンツ要素が表示される。表示パネル20は、直方体状の本体部30の1面を構成する。表示パネル20は、誘電体としてのフレーム10によって周縁部が囲われている。   The display panel 20 is, for example, a large display panel having a size of, for example, more than 30 inches, made of an LCD (Liquid Crystal Display) or the like. The display panel 20 displays GUI (Graphic User Interface) elements such as icons and content elements such as images. The display panel 20 constitutes one surface of the rectangular parallelepiped main body 30. The peripheral edge of the display panel 20 is surrounded by a frame 10 as a dielectric.

3軸センサユニット60(検出装置)は、直方体状の本体部30の1つの角部31に設けられる。より具体的には、3軸センサユニット60は、誘電体としてのフレーム10の内側に配置されている。ここで、「角部31」とは、直方体状の本体部30の互いに向きが異なる3つの面で構成される三角錐部分である。本実施形態では、3軸センサユニット60は、本体部30の表示パネル20が設けられた面を含む1つの角部31に設けられる。3軸センサユニット60は、角部31の3つの面により構成される3つの軸それぞれに沿ったユーザの指等の検出対象物の動きを独立して検出可能である。   The triaxial sensor unit 60 (detection device) is provided at one corner 31 of the rectangular parallelepiped main body 30. More specifically, the triaxial sensor unit 60 is disposed inside the frame 10 as a dielectric. Here, the “corner portion 31” is a triangular pyramid portion constituted by three surfaces of the rectangular parallelepiped main body portion 30 having different directions. In the present embodiment, the triaxial sensor unit 60 is provided at one corner 31 including the surface on which the display panel 20 of the main body 30 is provided. The triaxial sensor unit 60 can independently detect the movement of a detection target such as a user's finger along each of the three axes formed by the three surfaces of the corner portion 31.

[情報処理装置のハードウェア構成]
図2は、情報処理装置のハードウェア構成を示すブロック図である。
同図に示すように、CPU(Central Processing Unit)40には、システムバス41を介して、ROM(Read Only Memory)42と、主メモリ43と、記憶部51と、無線通信処理部44と、ネットワーク接続部49と、オーディオ信号処理部45を介してオーディオ出力部50と、グラフィック演算処理部46を介して表示制御部47及び表示パネル20と、3軸センサユニットインターフェース48を介して3軸センサユニット60とが接続されている。
[Hardware configuration of information processing device]
FIG. 2 is a block diagram illustrating a hardware configuration of the information processing apparatus.
As shown in the figure, a CPU (Central Processing Unit) 40 is connected to a ROM (Read Only Memory) 42, a main memory 43, a storage unit 51, a wireless communication processing unit 44, via a system bus 41, A network connection unit 49, an audio output processing unit 45 through an audio signal processing unit 45, a display control unit 47 and display panel 20 through a graphic calculation processing unit 46, and a three-axis sensor through a three-axis sensor unit interface 48 The unit 60 is connected.

ROM42は、情報処理装置1が実行すべきソフトウェア処理のためのプログラムやデータなどが恒久的に格納された読み出し専用メモリである。
主メモリ43は、CPU40の作業用の領域として用いられるメモリである。
記憶部51は、例えばHDD(Hard Disc Drive)、SSD(Solid State Drive)等の大容量記憶媒体よりなる。
The ROM 42 is a read-only memory in which programs and data for software processing to be executed by the information processing apparatus 1 are permanently stored.
The main memory 43 is a memory used as a work area for the CPU 40.
The storage unit 51 includes a large-capacity storage medium such as an HDD (Hard Disc Drive) or an SSD (Solid State Drive).

無線通信処理部44は、外部機器との間での双方向通信を処理するためのインターフェースであり、具体的には、光、電波、音波、電磁波などの無線媒体を用いて外部機器との間で無線通信のための処理を行う。なお、外部機器との通信は無線に限らず有線での通信を行うためのインターフェースを採用してもよい。
ネットワーク接続部49は、グローバルなネットワークとの有線または無線での接続を処理する。
The wireless communication processing unit 44 is an interface for processing bidirectional communication with an external device. Specifically, the wireless communication processing unit 44 is connected to the external device using a wireless medium such as light, radio wave, sound wave, and electromagnetic wave. To perform processing for wireless communication. Note that communication with an external device is not limited to wireless, and an interface for performing wired communication may be employed.
The network connection unit 49 processes a wired or wireless connection with a global network.

オーディオ信号処理部45は、デジタルのオーディオ信号からアナログのオーディオ信号に生成する。オーディオ信号処理部45により生成されたアナログのオーディオ信号は、スピーカ等からなるオーディオ出力部50より音声となって出力される。   The audio signal processing unit 45 generates an analog audio signal from a digital audio signal. The analog audio signal generated by the audio signal processing unit 45 is output as audio from the audio output unit 50 including a speaker or the like.

グラフィック演算処理部46は、CPU40の制御のもと画像データの生成などの演算処理を行い、生成した画像データを表示制御部47へ出力する。
表示制御部47は、グラフィック演算処理部46より供給された画像データの描画処理を行い、描画データを表示パネル20に供給する。
The graphic calculation processing unit 46 performs calculation processing such as generation of image data under the control of the CPU 40 and outputs the generated image data to the display control unit 47.
The display control unit 47 performs a drawing process on the image data supplied from the graphic calculation processing unit 46 and supplies the drawing data to the display panel 20.

3軸センサユニット60は、検出対象物の接触又は近接を検出可能な検出装置である。3軸センサユニット60は、X軸センサ部61、Y軸センサ部62及びZ軸センサ部63を有する。X軸センサ部61、Y軸センサ部62及びZ軸センサ部63としては、ここでは静電容量方式のものを採用しているが、例えば、抵抗膜方式、光検出方式、超音波検出方式等のセンサも採用可能である。
なお、3軸センサユニット60のほか、入力操作部(図示せず。)として、キーボード、各種ボタン、マウス、表示パネル20に重ね合わせられたタッチセンサパネル等をさらに設けてもよい。
The triaxial sensor unit 60 is a detection device that can detect contact or proximity of a detection target. The triaxial sensor unit 60 includes an X axis sensor unit 61, a Y axis sensor unit 62, and a Z axis sensor unit 63. As the X-axis sensor unit 61, the Y-axis sensor unit 62, and the Z-axis sensor unit 63, a capacitance type is adopted here, but for example, a resistance film type, a light detection type, an ultrasonic detection type, etc. These sensors can also be used.
In addition to the triaxial sensor unit 60, a keyboard, various buttons, a mouse, a touch sensor panel superimposed on the display panel 20, and the like may be further provided as an input operation unit (not shown).

ここで、3軸センサユニット60の構成について説明する。
図3は、3軸センサユニット及びユーザの右手を示す斜視図である。
3軸センサユニット60は、直方体状の本体部30の1つの角部31に設けられる。ここで、その角部31とは、本体部30の互いに向きが異なる3つの面、つまり第1の面32、第2の面33及び第3の面34で構成される三角錐部分である。
Here, the configuration of the three-axis sensor unit 60 will be described.
FIG. 3 is a perspective view showing the three-axis sensor unit and the right hand of the user.
The triaxial sensor unit 60 is provided at one corner 31 of the rectangular parallelepiped main body 30. Here, the corner portion 31 is a triangular pyramid portion constituted by three surfaces of the main body portion 30 having different directions, that is, the first surface 32, the second surface 33, and the third surface 34.

角部31において、第1の面32、第2の面33及び第3の面34は相互の間に稜線を形成する。ここで、第1の面32と第2の面33との間の稜線には第1の軸35が、第1の面32と第3の面34との間の稜線には第2の軸36が、第2の面33と第3の面34との間の稜線には第3の軸37がそれぞれ設定されている。第1の軸35、第2の軸36及び第3の軸37は、頂点38としての1つの交点を有する。この実施形態では、第1の軸35、第2の軸36及び第3の軸37は、互いに直交する。なお、図においては、角部の先端が点(頂点38)となっているが、実際には曲面となっている。   In the corner portion 31, the first surface 32, the second surface 33, and the third surface 34 form a ridge line therebetween. Here, the first axis 35 is on the ridgeline between the first surface 32 and the second surface 33, and the second axis is on the ridgeline between the first surface 32 and the third surface 34. 36, a third axis 37 is set on the ridgeline between the second surface 33 and the third surface 34, respectively. The first axis 35, the second axis 36, and the third axis 37 have one intersection as a vertex 38. In this embodiment, the first axis 35, the second axis 36, and the third axis 37 are orthogonal to each other. In the figure, the tip of the corner is a point (vertex 38), but it is actually a curved surface.

なお、より具体的には、「第1の軸35」は、本体部30の表示パネル20が設けられた面(第1の面32)を構成する一方の長辺に相当する軸である。「第2の軸36」は、本体部30の表示パネル20が設けられた面(第1の面32)を構成する一方の短辺に相当し、頂点38を介して第1の軸35に直交する軸である。「第3の軸37」は、本体部30の高さ(厚み)方向の辺に相当し、頂点38を介して第1の軸35及び第2の軸36に直交する軸である。
第1の軸35、第2の軸36及び第3の軸37に平行な軸を、それぞれ、X軸、Y軸及びZ軸と言う。
「第1の面32」は、第1の軸35と第2の軸36とにより区画され、本体部30の表示パネル20が設けられた面、すなわち本体部30の上面を言う。「第2の面33」は、第1の軸35と第3の軸37とにより区画される面、すなわち本体部30の一側面を言う。「第3の面34」は、第2の軸36と第3の軸37とにより区画される面、すなわち本体部30の別の一側面を言う。
More specifically, the “first axis 35” is an axis corresponding to one long side constituting the surface (first surface 32) on which the display panel 20 of the main body 30 is provided. The “second shaft 36” corresponds to one short side constituting the surface (first surface 32) on which the display panel 20 of the main body 30 is provided, and is connected to the first shaft 35 via the vertex 38. It is an orthogonal axis. The “third axis 37” corresponds to a side in the height (thickness) direction of the main body 30, and is an axis orthogonal to the first axis 35 and the second axis 36 via the vertex 38.
The axes parallel to the first axis 35, the second axis 36, and the third axis 37 are referred to as an X axis, a Y axis, and a Z axis, respectively.
The “first surface 32” is defined by the first shaft 35 and the second shaft 36, and refers to the surface of the main body 30 on which the display panel 20 is provided, that is, the upper surface of the main body 30. The “second surface 33” refers to a surface defined by the first shaft 35 and the third shaft 37, that is, one side surface of the main body 30. The “third surface 34” refers to a surface defined by the second shaft 36 and the third shaft 37, that is, another side surface of the main body 30.

ユーザは、例えば、右手の親指U1を第1の軸35上でX軸方向に沿って動かし、人指し指U2を第2の軸36上でY軸方向に沿って動かし、中指U3を第3の軸37上でZ軸方向に沿って動かすことにより、3軸センサユニット60に対する入力操作を行う(同図矢印参照。)。これら第1の軸35、第2の軸36及び第3の軸37には、それぞれ、X軸センサ部61、Y軸センサ部62及びZ軸センサ部63が設けられている。   For example, the user moves the thumb U1 of the right hand on the first axis 35 along the X-axis direction, moves the index finger U2 on the second axis 36 along the Y-axis direction, and moves the middle finger U3 on the third axis. The input operation to the triaxial sensor unit 60 is performed by moving along the Z-axis direction on 37 (see the arrow in the figure). The first shaft 35, the second shaft 36, and the third shaft 37 are provided with an X-axis sensor unit 61, a Y-axis sensor unit 62, and a Z-axis sensor unit 63, respectively.

図4は、X軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。
X軸センサ部61は、第1の軸35に沿って設けられた複数のX軸センサ電極61a,61b…を有する。例えば、複数のX軸センサ電極61a,61b…は、第1の面32の第1の軸35を含む領域上に、第1の軸35上で等間隔に配置される。
FIG. 4 is a perspective view showing the X-axis sensor unit, the Y-axis sensor unit, and the Z-axis sensor unit.
The X-axis sensor unit 61 has a plurality of X-axis sensor electrodes 61a, 61b... Provided along the first axis 35. For example, the plurality of X-axis sensor electrodes 61 a, 61 b... Are arranged on the first shaft 35 at equal intervals on the region including the first shaft 35 of the first surface 32.

Y軸センサ部62は、第2の軸36に沿って設けられた複数のY軸センサ電極62a,62b…を有する。例えば、複数のY軸センサ電極62a,62b…は、第1の面32の第2の軸36を含む領域上に、第2の軸36上で等間隔に配置される。   The Y-axis sensor unit 62 has a plurality of Y-axis sensor electrodes 62a, 62b... Provided along the second axis 36. For example, the plurality of Y-axis sensor electrodes 62 a, 62 b... Are arranged on the second shaft 36 at equal intervals on the region including the second shaft 36 of the first surface 32.

Z軸センサ部63は、第3の軸37に沿って設けられた複数のZ軸センサ電極63a,63b…を有する。例えば、複数のZ軸センサ電極63a,63b…は、第3の面34の第3の軸37を含む領域上に、第3の軸37上で等間隔に配置される。   The Z-axis sensor unit 63 has a plurality of Z-axis sensor electrodes 63a, 63b... Provided along the third axis 37. For example, the plurality of Z-axis sensor electrodes 63 a, 63 b... Are arranged on the third shaft 37 at equal intervals on the region including the third shaft 37 of the third surface 34.

ここで、X軸センサ部61の構成について説明する。
図13は、X軸センサ部61の構成を示すブロック図である。
Here, the configuration of the X-axis sensor unit 61 will be described.
FIG. 13 is a block diagram illustrating a configuration of the X-axis sensor unit 61.

X軸センサ部61は、X軸センサ電極61a,61b…と、これらに接続された静電容量検知回路64とを有する。各X軸センサ電極61a,61b…と静電容量検知回路64との間には、スイッチ65a,65b…がそれぞれ設けられる。これらのスイッチ65a,65b…は、順次1つがオン状態となるようにサイクリックに切り替えられる。X軸センサ電極61a,61b…に検出対象物が接触又は近接すると、X軸センサ電極61a,61b…と検出対象物との間の静電容量が増加する。X軸センサ電極61a,61b…に接続された静電容量検知回路64は、これらの静電容量を電圧値に変換し、第1の検出処理部71(後で説明する。)に出力する。   The X-axis sensor unit 61 includes X-axis sensor electrodes 61a, 61b, and a capacitance detection circuit 64 connected thereto. .. Are provided between the X-axis sensor electrodes 61a, 61b... And the capacitance detection circuit 64, respectively. These switches 65a, 65b... Are cyclically switched so that one of them is sequentially turned on. When the detection target object contacts or approaches the X-axis sensor electrodes 61a, 61b,..., The capacitance between the X-axis sensor electrodes 61a, 61b,. The electrostatic capacitance detection circuit 64 connected to the X-axis sensor electrodes 61a, 61b... Converts these electrostatic capacitances into voltage values and outputs them to a first detection processing unit 71 (described later).

なお、Y軸センサ部62及びZ軸センサ部63も同様の構成を有する。すなわち、Y軸センサ部62は検知した静電容量を電圧値に変換して第1の検出処理部71に出力する。Z軸センサ部63は検知した静電容量を電圧値に変換して第2の検出処理部72(後で説明する。)に出力する。   The Y-axis sensor unit 62 and the Z-axis sensor unit 63 have the same configuration. That is, the Y-axis sensor unit 62 converts the detected capacitance into a voltage value and outputs it to the first detection processing unit 71. The Z-axis sensor unit 63 converts the detected capacitance into a voltage value and outputs it to a second detection processing unit 72 (described later).

なお、静電容量方式のセンサとしての3軸センサユニット60は、検出対象物の接触に限られず、検出対象物の近接、つまり検出対象物が3軸センサユニット60から離間していても検出対象物の検出が可能である。   Note that the triaxial sensor unit 60 as a capacitive sensor is not limited to the contact of the detection target, but the detection target even if the detection target is close, that is, the detection target is separated from the triaxial sensor unit 60. Objects can be detected.

[情報処理装置の機能的な構成]
次に、この3軸センサユニット60に対する入力操作を検出し処理する情報処理装置1の機能的な構成について説明する。
[Functional configuration of information processing device]
Next, a functional configuration of the information processing apparatus 1 that detects and processes an input operation on the three-axis sensor unit 60 will be described.

図5は、情報処理装置の機能的な構成を示すブロック図である。
情報処理装置1は、X軸センサ部61と、Y軸センサ部62と、Z軸センサ部63と、第1の検出処理部71と、第2の検出処理部72と、入力情報解析部73と、入力指定部74と、表示指示部75とを有する。
FIG. 5 is a block diagram illustrating a functional configuration of the information processing apparatus.
The information processing apparatus 1 includes an X-axis sensor unit 61, a Y-axis sensor unit 62, a Z-axis sensor unit 63, a first detection processing unit 71, a second detection processing unit 72, and an input information analysis unit 73. And an input designation unit 74 and a display instruction unit 75.

第1の検出処理部71は、静電容量検知回路64によってそれぞれ検出されたX軸センサ電極61a,61b…に関する静電容量の変化を検出し、その中で最も大きな変化量を示したX軸センサ電極に対応するX軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。   The first detection processing unit 71 detects a change in capacitance relating to the X-axis sensor electrodes 61a, 61b,... Detected by the capacitance detection circuit 64, and the X-axis indicating the largest change amount among them. The position on the X axis corresponding to the sensor electrode is determined, and this position information is supplied to the input information analysis unit 73.

第1の検出処理部71は、また、静電容量検知回路64によってそれぞれ検出されたY軸センサ電極62a,62b…に関する静電容量の変化を検出し、その中で最も大きな変化量を示したY軸センサ電極に対応するY軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。   The first detection processing unit 71 also detects a change in capacitance related to the Y-axis sensor electrodes 62a, 62b... Detected by the capacitance detection circuit 64, and shows the largest change amount among them. The position on the Y axis corresponding to the Y axis sensor electrode is determined, and this position information is supplied to the input information analysis unit 73.

第2の検出処理部72は、静電容量検知回路64によってそれぞれ検出されたZ軸センサ電極63a,63b…に関する静電容量の変化を検出し、その中で最も大きな変化量を示したZ軸センサ電極に対応するZ軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。   The second detection processing unit 72 detects a change in the electrostatic capacitance related to the Z-axis sensor electrodes 63a, 63b,... Detected by the electrostatic capacitance detection circuit 64, and shows the largest change amount among them. The position on the Z axis corresponding to the sensor electrode is determined, and this position information is supplied to the input information analysis unit 73.

入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した位置情報を統合的に処理する。
具体的には、入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した位置情報を、表示パネル20に表示された操作対象としての3D(three-dimensional)オブジェクトの互いに直交する3軸方向での動きとして処理して、表示指示部75に供給する。
あるいは、入力情報解析部73は、第1の検出処理部71から取得した位置情報を、表示パネル20に表示された操作対象としての2D(two-dimensional)オブジェクトの互いに直交する2軸方向での動きとして処理して、表示指示部75に供給する。入力情報解析部73は、また、第2の検出処理部72から取得した位置情報を、表示パネル20に表示された2Dオブジェクトの動きについての補助操作として処理して、表示指示部75に供給する。具体的には、入力情報解析部73は、位置情報の組み合わせに対して機能が割り当てられた対応表を参照する。この対応表には、例えば、検出対象物の第3の軸37に沿う動き(スライド操作)に対応する位置情報の組み合わせに対して「ズーム」、検出対象物の第3の軸37に対する短時間の接触(ワンクリック操作)に対応する位置情報の組み合わせに対して「決定」、のように、第2の検出処理部72から供給される位置情報に対して種々の機能が割り当てられている。入力情報解析部73は、第2の検出処理部72から位置情報を取得すると、対応表を参照して取得した位置情報の組み合わせに割り当てられた機能を読み出し、読み出した機能を表示指示部75に供給する。なお、上記対応表は、例えば、HDD、SSDなどの読み書きが可能な記憶装置に格納される。
The input information analysis unit 73 integrally processes the position information acquired from the first detection processing unit 71 and the second detection processing unit 72.
Specifically, the input information analysis unit 73 uses the position information acquired from the first detection processing unit 71 and the second detection processing unit 72 as 3D (three-dimensional) as an operation target displayed on the display panel 20. ) The object is processed as a movement in three axis directions orthogonal to each other and supplied to the display instruction unit 75.
Alternatively, the input information analysis unit 73 uses the position information acquired from the first detection processing unit 71 in the two-axis directions orthogonal to each other of 2D (two-dimensional) objects as operation targets displayed on the display panel 20. It is processed as a motion and supplied to the display instruction unit 75. The input information analysis unit 73 also processes the position information acquired from the second detection processing unit 72 as an auxiliary operation regarding the movement of the 2D object displayed on the display panel 20, and supplies it to the display instruction unit 75. . Specifically, the input information analysis unit 73 refers to a correspondence table in which functions are assigned to combinations of position information. The correspondence table includes, for example, “zoom” for a combination of position information corresponding to the movement (slide operation) of the detection target object along the third axis 37, and a short time with respect to the third axis 37 of the detection target object. Various functions are assigned to the position information supplied from the second detection processing unit 72, such as “determine” for the combination of position information corresponding to the contact (one-click operation). When the input information analysis unit 73 acquires the position information from the second detection processing unit 72, the input information analysis unit 73 reads out the function assigned to the combination of the position information acquired with reference to the correspondence table, and displays the read function in the display instruction unit 75. Supply. The correspondence table is stored in a readable / writable storage device such as an HDD or an SSD.

入力指定部74は、入力情報解析部73に、3Dモードオン/オフ信号を供給する。3Dモードオン/オフ信号とは、第2の検出処理部72から供給される位置情報を、入力情報解析部73が上記対応表に割り当てられた機能として処理するか、表示パネル20に表示された3DオブジェクトのZ軸方向での動きとして処理するか、を切り替えるための信号である。
例えば、入力指定部74は、アプリケーションによる3Dオブジェクトの表示をする際、第3の軸37に沿う検出対象物の動きを、表示パネル20に表示された3DオブジェクトのZ軸方向での動きとして処理するよう切り替える3Dモードオン信号を、入力情報解析部73に供給する。そして、入力指定部74は、アプリケーションによる2Dオブジェクトの表示をする際、第3の軸37に沿う検出対象物の動きを、対応表に割り当てられた機能として処理するよう切り替える3Dモードオフ信号を、入力情報解析部73に供給する。
The input designation unit 74 supplies the 3D mode on / off signal to the input information analysis unit 73. The 3D mode on / off signal indicates that the position information supplied from the second detection processing unit 72 is processed by the input information analysis unit 73 as a function assigned to the correspondence table or displayed on the display panel 20. This is a signal for switching whether to process the movement of the 3D object in the Z-axis direction.
For example, when the 3D object is displayed by the application, the input specifying unit 74 processes the movement of the detection target along the third axis 37 as the movement of the 3D object displayed on the display panel 20 in the Z-axis direction. The 3D mode on signal to be switched is supplied to the input information analysis unit 73. Then, when the 2D object is displayed by the application, the input specifying unit 74 performs a 3D mode off signal for switching to process the movement of the detection target along the third axis 37 as a function assigned to the correspondence table. This is supplied to the input information analysis unit 73.

表示指示部75は、入力情報解析部73から取得した、位置情報をもとに統合的に処理された、3D又は2Dオブジェクトの動きに関する情報をもとに描画命令を生成し、生成した描画命令をグラフィック演算処理部46に供給する。
例えば、表示指示部75は、3Dモードオン時には、表示パネル20に表示された操作対象としての3Dオブジェクトを3軸の成分を含む方向に回転させたり、3軸の成分を含む方向に移動させたりする(掴む、持ち上げる)ような表示を行う。表示指示部75は、3Dモードオフ時には、表示パネル20に表示された操作対象としての2Dオブジェクトを2軸の成分を含む方向に回転させたり移動させたりするような表示を行う。
The display instruction unit 75 generates a drawing command based on the information about the movement of the 3D or 2D object, which is acquired from the input information analysis unit 73 and processed in an integrated manner based on the position information, and the generated drawing command Is supplied to the graphic arithmetic processing unit 46.
For example, when the 3D mode is on, the display instruction unit 75 rotates the 3D object displayed on the display panel 20 as an operation target in a direction including a 3-axis component, or moves the 3D object in a direction including a 3-axis component. A display to do (grab, lift) is performed. When the 3D mode is off, the display instruction unit 75 performs a display such that the 2D object as the operation target displayed on the display panel 20 is rotated or moved in a direction including a biaxial component.

本実施形態によれば、ユーザは、例えば、右手の親指U1を第1の軸35上でX軸方向に沿って動かし、人指し指U2を第2の軸36上でY軸方向に沿って動かし、中指U3を第3の軸37上でZ軸方向に沿って動かすことにより、3軸センサユニット60に対して同時に3つの動き情報を入力することができる。そして、入力情報解析部73は、これら3つの動き情報を、3D制御のための個々の軸方向の動き情報に用いれば、表示パネル20に表示された3Dオブジェクトの3軸方向での動きとして処理したり、2Dオブジェクトの2軸方向での動き及び補助操作として処理し、表示指示部75に供給する。
このように、ユーザは片手の3本の指で3軸方向の入力操作を行うことができるので、ユーザは、表示パネル20に表示された2D又は3Dオブジェクトを「掴む」、「回転させる」等の三次元の多様な操作を、直感的に行うことができる。
また、本実施形態によれば、図1に示すような大型のパネルを持った情報処理装置において、操作する際に手が届かない範囲の表示パネル20の部分に対して操作を行う場合も容易に行うことができる。
According to the present embodiment, for example, the user moves the thumb U1 of the right hand on the first axis 35 along the X-axis direction, moves the index finger U2 on the second axis 36 along the Y-axis direction, By moving the middle finger U3 along the Z-axis direction on the third axis 37, three pieces of movement information can be simultaneously input to the three-axis sensor unit 60. Then, if these three pieces of movement information are used as movement information in the individual axial directions for 3D control, the input information analysis unit 73 processes the movement of the 3D object displayed on the display panel 20 in the three axial directions. Or 2D objects are processed as movements in two axes and auxiliary operations, and supplied to the display instruction unit 75.
In this way, the user can perform input operations in three axial directions with three fingers of one hand, so the user can “grab”, “rotate”, etc. the 2D or 3D object displayed on the display panel 20. It is possible to intuitively perform various three-dimensional operations.
Further, according to the present embodiment, in the information processing apparatus having a large panel as shown in FIG. 1, it is easy to operate the portion of the display panel 20 that is out of reach when operating. Can be done.

<第2の実施形態>
上記の第1の実施形態では、第1の軸35に沿って設けられたX軸センサ部61と、第2の軸36に沿って設けられたY軸センサ部62と、第3の軸37に沿って設けられたZ軸センサ部63とを有する3軸センサユニット60を備えた情報処理装置1について説明した。以下に説明する各実施形態では、第1の実施形態と異なる形状を有するX軸センサ部、Y軸センサ部及びZ軸センサ部を有する3軸センサユニットを備えた情報処理装置について説明する。
<Second Embodiment>
In the first embodiment, the X-axis sensor unit 61 provided along the first shaft 35, the Y-axis sensor unit 62 provided along the second shaft 36, and the third shaft 37. The information processing apparatus 1 including the three-axis sensor unit 60 including the Z-axis sensor unit 63 provided along the line A has been described. In each embodiment described below, an information processing apparatus including a three-axis sensor unit having an X-axis sensor unit, a Y-axis sensor unit, and a Z-axis sensor unit having a shape different from that of the first embodiment will be described.

以下の説明において、第1の実施形態と同様の構成及び機能等については説明を省略又は簡略し、異なる点を中心に説明する。本実施形態において、第1の実施形態の3軸センサユニット60の各部位と同様の構成をもつ3軸センサユニット80の各部位については対応する符号(80番台)を付し、重複する説明は省略する。   In the following description, the description of the same configuration and function as in the first embodiment will be omitted or simplified, and different points will be mainly described. In this embodiment, each part of the triaxial sensor unit 80 having the same configuration as that of each part of the triaxial sensor unit 60 of the first embodiment is given a corresponding reference (80s), and overlapping description is given. Omitted.

本発明の第2の実施形態の3軸センサユニット80は、X軸センサ部81と、Y軸センサ部82と、Z軸センサ部83とを有する。   The triaxial sensor unit 80 according to the second embodiment of the present invention includes an X axis sensor unit 81, a Y axis sensor unit 82, and a Z axis sensor unit 83.

図6は、第2の実施形態に係るX軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。
X軸センサ部81は、第1の軸35に交差するようにして第1の面32及び第2の面33に亘って配置された複数のX軸センサ電極81a,81b…を有する。例えば、複数のX軸センサ電極81a,81b…各々は、第1の面32の頂点38を含む対角線の近傍から、第2の面33の頂点38を含む対角線の近傍まで、第1の軸35に交差するようにして延在する。これら複数のX軸センサ電極81a,81b…は、互いに等間隔且つ平行に配置される。
FIG. 6 is a perspective view showing an X-axis sensor unit, a Y-axis sensor unit, and a Z-axis sensor unit according to the second embodiment.
The X-axis sensor unit 81 has a plurality of X-axis sensor electrodes 81a, 81b,... Disposed over the first surface 32 and the second surface 33 so as to intersect the first axis 35. For example, each of the plurality of X-axis sensor electrodes 81 a, 81 b... Has a first axis 35 from the vicinity of the diagonal line including the vertex 38 of the first surface 32 to the vicinity of the diagonal line including the vertex 38 of the second surface 33. It extends to intersect. The plurality of X-axis sensor electrodes 81a, 81b,... Are arranged at equal intervals and in parallel.

Y軸センサ部82は、第2の軸36に交差するようにして第1の面32及び第3の面34に亘って配置された複数のY軸センサ電極82a,82b…を有する。例えば、複数のY軸センサ電極82a,82b…各々は、第1の面32の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第2の軸36に交差するようにして延在する。これら複数のY軸センサ電極82a,82b…は、互いに等間隔且つ平行に配置される。   The Y-axis sensor unit 82 includes a plurality of Y-axis sensor electrodes 82a, 82b,... Disposed over the first surface 32 and the third surface 34 so as to intersect the second axis 36. For example, each of the plurality of Y-axis sensor electrodes 82a, 82b... Has a second axis 36 from the vicinity of the diagonal line including the vertex 38 of the first surface 32 to the vicinity of the diagonal line including the vertex 38 of the third surface 34. It extends to intersect. The plurality of Y-axis sensor electrodes 82a, 82b,... Are arranged at equal intervals and in parallel.

Z軸センサ部83は、第3の軸37に交差するようにして第2の面33及び第3の面34に亘って配置された複数のZ軸センサ電極83a,83b…を有する。例えば、複数のZ軸センサ電極83a,83b…各々は、第2の面33の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第3の軸37に交差するようにして延在する。これら複数のZ軸センサ電極83a,83b…は、互いに等間隔且つ平行に配置される。   The Z-axis sensor unit 83 includes a plurality of Z-axis sensor electrodes 83a, 83b,... Disposed over the second surface 33 and the third surface 34 so as to intersect the third shaft 37. For example, each of the plurality of Z-axis sensor electrodes 83a, 83b... Has a third axis 37 from the vicinity of the diagonal including the vertex 38 of the second surface 33 to the vicinity of the diagonal including the vertex 38 of the third surface 34. It extends to intersect. The plurality of Z-axis sensor electrodes 83a, 83b,... Are arranged at equal intervals and in parallel.

本実施形態によれば、第1、第2及び第3の軸35,36,37の直上からずれて第1、第2及び第3の面32,33,34上で入力操作が行われても、3軸センサユニット60に対して同時に3つの動き情報を入力することができる。すなわち3軸センサユニット80は、ユーザの指による入力操作を広範囲で検出することができるため、ユーザにとっての操作性が向上する。   According to the present embodiment, an input operation is performed on the first, second, and third surfaces 32, 33, and 34, shifted from directly above the first, second, and third shafts 35, 36, and 37. Also, three pieces of motion information can be input to the three-axis sensor unit 60 at the same time. That is, since the triaxial sensor unit 80 can detect an input operation with a user's finger in a wide range, the operability for the user is improved.

<第3の実施形態>
本実施形態において、第1の実施形態の3軸センサユニット60の各部位と同様の構成をもつ3軸センサユニット100の各部位については対応する符号(100番台)を付し、重複する説明は省略する。
<Third Embodiment>
In this embodiment, each part of the triaxial sensor unit 100 having the same configuration as that of each part of the triaxial sensor unit 60 of the first embodiment is given a corresponding reference (100s), and overlapping description is given. Omitted.

図7は、第3の実施形態に係る3軸センサユニット及びユーザの右手を示す斜視図である。
ユーザは、例えば、右手の人指し指U2を第1の面32上でX軸とY軸とがなす2軸方向に沿って動かし、親指U1を第2の面33上でX軸とZ軸とがなす2軸方向に沿って動かし、中指U3を第3の面34上でY軸とZ軸とがなす2軸方向に沿って動かすことにより、3軸センサユニット100に対する入力操作を行う(同図矢印参照。)。これら第1の面32、第2の面33及び第3の面34には、X軸センサ部110、Y軸センサ部120及びZ軸センサ部130が設けられている。
FIG. 7 is a perspective view showing the three-axis sensor unit and the user's right hand according to the third embodiment.
For example, the user moves the index finger U2 of the right hand on the first surface 32 along the two-axis direction formed by the X axis and the Y axis, and the thumb U1 moves on the second surface 33 so that the X axis and the Z axis are aligned. The input operation to the triaxial sensor unit 100 is performed by moving along the biaxial direction formed by moving the middle finger U3 along the biaxial direction formed by the Y axis and the Z axis on the third surface 34 (see FIG. See arrow.) An X-axis sensor unit 110, a Y-axis sensor unit 120, and a Z-axis sensor unit 130 are provided on the first surface 32, the second surface 33, and the third surface 34.

X軸センサ部110は、第1の面32及び第2の面33に沿った第1の軸35に対する検出対象物の接離方向の動きを検出する。Y軸センサ部120は、第1の面32及び第3の面34に沿った第2の軸36に対する検出対象物の接離方向の動きを検出する。Z軸センサ部130は、第2の面33及び第3の面34に沿った第3の軸37に対する検出対象物の接離方向の動きを検出する。   The X-axis sensor unit 110 detects the movement of the detection target in the contact / separation direction with respect to the first shaft 35 along the first surface 32 and the second surface 33. The Y-axis sensor unit 120 detects the movement of the detection target in the contact / separation direction with respect to the second shaft 36 along the first surface 32 and the third surface 34. The Z-axis sensor unit 130 detects the movement of the detection target in the contact / separation direction with respect to the third shaft 37 along the second surface 33 and the third surface 34.

図8は、X軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。
X軸センサ部110は、複数のライン状の受信電極111A,111B…と、複数のライン状の送信電極111a,111b…とを有する。複数の受信電極111A,111B…は、第1の軸35に交差するようにして第1の面32及び第2の面33に亘って配置される。例えば、複数の受信電極111A,111B…各々は、第1の面32の頂点38を含む対角線の近傍から、第2の面33の頂点38を含む対角線の近傍まで、第1の軸35に交差するようにして延在する。これら複数の受信電極111A,111B…は、互いに等間隔且つ平行に配置される。複数の受信電極111A,111B…の下方には、所定の間隙を挟んで且つ複数の受信電極111A,111B…を交差するようにして、送信電極111a,111b…が放射状に設けられる。
FIG. 8 is a perspective view showing the X-axis sensor unit, the Y-axis sensor unit, and the Z-axis sensor unit.
The X-axis sensor unit 110 includes a plurality of line-shaped receiving electrodes 111A, 111B... And a plurality of line-shaped transmitting electrodes 111a, 111b. The plurality of receiving electrodes 111 </ b> A, 111 </ b> B... Are arranged across the first surface 32 and the second surface 33 so as to intersect the first axis 35. For example, each of the plurality of receiving electrodes 111A, 111B... Intersects the first axis 35 from the vicinity of the diagonal line including the vertex 38 of the first surface 32 to the vicinity of the diagonal line including the vertex 38 of the second surface 33. Extend as you do. The plurality of receiving electrodes 111A, 111B... Are arranged at equal intervals and in parallel. The transmission electrodes 111a, 111b,... Are provided radially below the reception electrodes 111A, 111B,... So as to intersect the reception electrodes 111A, 111B,.

Y軸センサ部120は、複数のライン状の受信電極121A,121B…と、複数のライン状の送信電極121a,121b…とを有する。複数の受信電極121A,121B…は、第2の軸36に交差するようにして第1の面32及び第2の面33に亘って配置される。例えば、複数の受信電極121A,121B…各々は、第1の面32の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第2の軸36に交差するようにして延在する。これら複数の受信電極121A,121B…は、互いに等間隔且つ平行に配置される。複数の受信電極121A,121B…の下方には、所定の間隙を挟んで且つ複数の受信電極121A,121B…を交差するようにして、送信電極121a,121b…が放射状に設けられる。   The Y-axis sensor unit 120 includes a plurality of line-shaped receiving electrodes 121A, 121B... And a plurality of line-shaped transmitting electrodes 121a, 121b. The plurality of receiving electrodes 121 </ b> A, 121 </ b> B... Are disposed across the first surface 32 and the second surface 33 so as to intersect the second axis 36. For example, each of the plurality of receiving electrodes 121A, 121B... Intersects the second axis 36 from the vicinity of the diagonal line including the vertex 38 of the first surface 32 to the vicinity of the diagonal line including the vertex 38 of the third surface 34. Extend as you do. The plurality of receiving electrodes 121A, 121B,... Are arranged at equal intervals and in parallel. The transmission electrodes 121a, 121b,... Are provided radially below the plurality of reception electrodes 121A, 121B,... So as to intersect the reception electrodes 121A, 121B,.

Z軸センサ部130は、複数のライン状の受信電極131A,131B…と、複数のライン状の送信電極131a,131b…とを有する。複数の受信電極131A,131B…は、第3の軸37に交差するようにして第2の面33及び第3の面34に亘って配置される。例えば、複数の受信電極131A,131B…各々は、第2の面33の頂点38を含む対角線の近傍から、第3の面34の頂点38を含む対角線の近傍まで、第3の軸37に交差するようにして延在する。これら複数の受信電極131A,131B…は、互いに等間隔且つ平行に配置される。複数の受信電極131A,131B…の下方には、所定の間隙を挟んで且つ複数の受信電極131A,131B…を交差するようにして、送信電極131a,131b…が放射状に設けられる。   The Z-axis sensor unit 130 includes a plurality of line-shaped receiving electrodes 131A, 131B... And a plurality of line-shaped transmitting electrodes 131a, 131b. The plurality of receiving electrodes 131 </ b> A, 131 </ b> B... Are arranged across the second surface 33 and the third surface 34 so as to intersect the third axis 37. For example, each of the plurality of receiving electrodes 131A, 131B... Intersects the third axis 37 from the vicinity of the diagonal line including the vertex 38 of the second surface 33 to the vicinity of the diagonal line including the vertex 38 of the third surface 34. Extend as you do. The plurality of receiving electrodes 131A, 131B,... Are arranged at equal intervals and in parallel. The transmission electrodes 131a, 131b,... Are provided radially below the reception electrodes 131A, 131B,... So as to intersect the reception electrodes 131A, 131B,.

ここで、X軸センサ部110の構成について説明する。
図14は、X軸センサ部110の構成を示すブロック図である。
Here, the configuration of the X-axis sensor unit 110 will be described.
FIG. 14 is a block diagram illustrating a configuration of the X-axis sensor unit 110.

X軸センサ部110は、ライン状の送信電極111a,111b…と、ライン状の受信電極111A,111B…と、発振器142と、受信器141とを有する。   The X-axis sensor unit 110 includes line-shaped transmission electrodes 111a, 111b,..., Line-shaped reception electrodes 111A, 111B, and so on, an oscillator 142, and a receiver 141.

発振器142は、送信電極111a,111b…に送信用の所定の周波数(例えば100KHz)の交流電流をそれぞれ供給する。発振器142と各送信電極111a,111b…との間には、スイッチ143a,143b…がそれぞれ設けられる。また、各受信電極111A,111B…と受信器141との間には、スイッチ143A,143B…がそれぞれ設けられる。これらのスイッチ143a,143b…及びスイッチ143A,143B…は、順次1つがオン状態となるようにサイクリックに切り替えられる。   The oscillator 142 supplies an alternating current having a predetermined frequency (for example, 100 KHz) for transmission to the transmission electrodes 111a, 111b. The switches 143a, 143b,... Are provided between the oscillator 142 and the transmission electrodes 111a, 111b,. In addition, switches 143A, 143B,... Are provided between the receiving electrodes 111A, 111B,. These switches 143a, 143b... And switches 143A, 143B... Are cyclically switched so that one of them is sequentially turned on.

受信電極111A,111B…は、送信電極111a,111b…を交差するように配置されており、それぞれ交差点を持つ。各交差点において、送信電極111a,111b…と受信電極111A,111B…とは非接触とされている。換言すると、送信電極111a,111b…と受信電極111A,111B…との各交差点では、コンデンサが形成される。従って、発振器142により発振され、出力された交流電流が送信電極111a,111b…に供給されると、これに対向する受信電極111A,111B…には、静電誘導によって、その交差点(コンデンサ)を介して交流電流が流れる。   The receiving electrodes 111A, 111B,... Are arranged so as to intersect the transmitting electrodes 111a, 111b,. The transmitting electrodes 111a, 111b,... And the receiving electrodes 111A, 111B,. In other words, a capacitor is formed at each intersection of the transmission electrodes 111a, 111b... And the reception electrodes 111A, 111B. Therefore, when the alternating current oscillated and output by the oscillator 142 is supplied to the transmission electrodes 111a, 111b,..., The reception electrodes 111A, 111B,. An alternating current flows through.

すなわち、発振器142が送信電極111a,111b…に交流電圧を印加すると、送信電極111a,111b…と受信電極111A,111B…の間のコンデンサの静電容量による容量結合に基づいて、受信電極111A,111B…に交流電流が発生し、受信器141に供給される。   That is, when the oscillator 142 applies an AC voltage to the transmission electrodes 111a, 111b,..., The reception electrodes 111A, 111B, based on capacitive coupling due to the capacitance of the capacitors between the transmission electrodes 111a, 111b,. An alternating current is generated at 111B and supplied to the receiver 141.

受信器141は、コンデンサを介して入力された交流電流の強度をデジタル信号として第1の検出処理部71に出力する。   The receiver 141 outputs the intensity of the alternating current input via the capacitor to the first detection processing unit 71 as a digital signal.

ここで、導電性を有する検出対象物がこの送信電極111a,111b…と受信電極111A,111B…との交差点に接触あるいは近接すると、その交差点におけるコンデンサによる静電容量の変化が、受信器141にて交流電流の強度の変化として得られる。   Here, when a detection object having conductivity contacts or approaches the intersection of the transmission electrodes 111a, 111b,... And the reception electrodes 111A, 111B, the capacitance change due to the capacitor at the intersection occurs in the receiver 141. And obtained as a change in the intensity of the alternating current.

なお、Y軸センサ部120及びZ軸センサ部130も同様の構成を有する。すなわち、Y軸センサ部120は交流電流の強度をデジタル信号として第1の検出処理部71に出力する。Z軸センサ部130は交流電流の強度をデジタル信号として第2の検出処理部72に出力する。   The Y-axis sensor unit 120 and the Z-axis sensor unit 130 have the same configuration. That is, the Y-axis sensor unit 120 outputs the alternating current intensity as a digital signal to the first detection processing unit 71. The Z-axis sensor unit 130 outputs the intensity of the alternating current as a digital signal to the second detection processing unit 72.

第1の検出処理部71は、受信器141から入力される情報をもとにX軸センサ部110内で静電容量の最も大きな変化量を示したコンデンサに対応する各受信電極及び送信電極にそれぞれ対応するX座標及びY座標を判定し、これらの座標情報を入力情報解析部73に供給する。   The first detection processing unit 71 applies to each reception electrode and transmission electrode corresponding to the capacitor showing the largest amount of change in capacitance in the X-axis sensor unit 110 based on the information input from the receiver 141. The corresponding X coordinate and Y coordinate are determined, and the coordinate information is supplied to the input information analysis unit 73.

第1の検出処理部71は、また、受信器141から入力される情報をもとにY軸センサ部120内で静電容量の最も大きな変化量を示したコンデンサに対応する各受信電極及び送信電極にそれぞれ対応するX座標及びY座標を判定し、これらの座標情報を入力情報解析部73に供給する。   The first detection processing unit 71 also transmits each reception electrode and transmission corresponding to the capacitor that exhibits the largest change in capacitance in the Y-axis sensor unit 120 based on the information input from the receiver 141. X coordinates and Y coordinates respectively corresponding to the electrodes are determined, and the coordinate information is supplied to the input information analysis unit 73.

第2の検出処理部72は、受信器141から入力される情報をもとにZ軸センサ部130内で静電容量の最も大きな変化量を示したコンデンサに対応する各受信電極及び送信電極にそれぞれ対応するX座標及びY座標を判定し、これらの座標情報を入力情報解析部73に供給する。   The second detection processing unit 72 applies to each reception electrode and transmission electrode corresponding to the capacitor showing the largest change in capacitance in the Z-axis sensor unit 130 based on the information input from the receiver 141. The corresponding X coordinate and Y coordinate are determined, and the coordinate information is supplied to the input information analysis unit 73.

入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した座標情報を、表示パネル20に表示された操作対象としての3Dオブジェクトの互いに直交する3軸方向での動きとして処理して、表示指示部75に供給する。   The input information analysis unit 73 uses the coordinate information acquired from the first detection processing unit 71 and the second detection processing unit 72 in the three axis directions orthogonal to each other of the 3D object as the operation target displayed on the display panel 20. And is supplied to the display instruction unit 75.

このような3軸センサユニット100において、例えば、ユーザが同時に右手の人差し指U2を第1の軸35から第2の軸36にかけて第1の面32に沿って動かし、親指U1を第3の軸37から第1の軸35にかけて第2の面33に沿って動かし、中指U3を第2の軸36から第3の軸37にかけて第3の面34に沿って動かしたとする(図7の矢印参照。)
このような場合、直流電圧の変化が生じたコンデンサ位置が、第1の面32、第2の面33及び第3の面34において、それぞれ、時計回りの方向に順次移動することとなる。入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した座標情報を、表示パネル20に表示された操作対象としての3Dオブジェクトの三次元の多様な操作、例えば、回転方向での動きとして処理する。
In such a triaxial sensor unit 100, for example, the user simultaneously moves the index finger U2 of the right hand from the first axis 35 to the second axis 36 along the first surface 32, and the thumb U1 is moved to the third axis 37. From the first axis 35 to the first axis 35, and the middle finger U3 is moved from the second axis 36 to the third axis 37 along the third plane 34 (see arrows in FIG. 7). )
In such a case, the capacitor position where the change of the DC voltage occurs sequentially moves in the clockwise direction on the first surface 32, the second surface 33, and the third surface 34, respectively. The input information analysis unit 73 uses the coordinate information acquired from the first detection processing unit 71 and the second detection processing unit 72 as the three-dimensional various operations of the 3D object as the operation target displayed on the display panel 20, For example, it is processed as a movement in the rotation direction.

なお、第3の実施形態についてこの他、図13に示す回路を2段にして適用することでも実現できる。すなわち、送信電極111a〜111fを図13と同様に構成し、さらに受信電極111A〜111Dを図13と同様に構成する。送信電極111a〜111f…に接続された静電容量検知回路は、これらの静電容量を電圧値に変換し、第1の検出処理部71に出力する。一方、受信電極111A〜111D…に接続された静電容量検知回路は、これらの静電容量を電圧値に変換し、第1の検出処理部71に出力する。第1の検出処理部71は、送信電極111a〜111f…の静電容量が変換された電圧値と、受信電極111A〜111D…の静電容量が変換された電圧値とをもとにX軸上の位置を判定し、この位置情報を入力情報解析部73に供給する。説明は省略するが、送信電極121a〜121f及び受信電極121A〜121D並びに送信電極131a〜131f及び受信電極131A〜131Dも上記と同様に構成することができる。   In addition, the third embodiment can be realized by applying the circuit shown in FIG. 13 in two stages. That is, the transmitting electrodes 111a to 111f are configured in the same manner as in FIG. 13, and the receiving electrodes 111A to 111D are configured in the same manner as in FIG. The electrostatic capacitance detection circuit connected to the transmission electrodes 111 a to 111 f... Converts these electrostatic capacitances into voltage values and outputs them to the first detection processing unit 71. On the other hand, the electrostatic capacitance detection circuit connected to the reception electrodes 111A to 111D... Converts these electrostatic capacitances into voltage values and outputs them to the first detection processing unit 71. The first detection processing unit 71 uses the X axis based on the voltage value obtained by converting the capacitance of the transmission electrodes 111a to 111f and the voltage value obtained by converting the capacitance of the reception electrodes 111A to 111D. The upper position is determined, and this position information is supplied to the input information analysis unit 73. Although not described, the transmission electrodes 121a to 121f and the reception electrodes 121A to 121D, the transmission electrodes 131a to 131f, and the reception electrodes 131A to 131D can also be configured in the same manner as described above.

さらに、図8において、送信電極111c、111dを一体化し、送信電極121c、121dを一体化し、送信電極131c、131dを一体化してもよい。   Further, in FIG. 8, the transmission electrodes 111c and 111d may be integrated, the transmission electrodes 121c and 121d may be integrated, and the transmission electrodes 131c and 131d may be integrated.

図9は、3軸センサユニット及びユーザの右手を示す別の斜視図である。
なお、静電容量方式のセンサとしての3軸センサユニット100は、検出対象物の接触に限られず、検出対象物の近接、つまりユーザの右手の各指U1,U2,U3が3軸センサユニット100から離間しているような状態も検出可能である。従って、例えば、ユーザが右手を3軸センサユニット100から離間させて時計回りに回転させても(同図矢印参照。)、3軸センサユニット100はユーザの右手の動きを検出することができ、入力情報解析部73は、第1の検出処理部71及び第2の検出処理部72から取得した座標情報を、表示パネル20に表示された3Dオブジェクトの三次元の操作、例えば、時計回りの回転方向での動きとして処理することができる。
FIG. 9 is another perspective view showing the three-axis sensor unit and the right hand of the user.
The triaxial sensor unit 100 as a capacitive sensor is not limited to the contact of the detection target, but the proximity of the detection target, that is, each finger U1, U2, U3 of the user's right hand is the triaxial sensor unit 100. It is also possible to detect a state in which it is separated from Therefore, for example, even if the user moves the right hand away from the triaxial sensor unit 100 and rotates clockwise (see the arrow in the figure), the triaxial sensor unit 100 can detect the movement of the right hand of the user, The input information analysis unit 73 uses the coordinate information acquired from the first detection processing unit 71 and the second detection processing unit 72 as a three-dimensional operation of the 3D object displayed on the display panel 20, for example, clockwise rotation. Can be treated as movement in direction.

本実施形態によれば、ユーザによる片手の3本の指で3つの面に沿ってそれぞれの軸に対して接離する方向でのそれぞれの検出対象物の動きを検出することができるので、ユーザは、表示パネル20に表示された3Dオブジェクトを「回転させる」等の三次元の多様な操作をより直感的に行うことができる。また、静電容量方式のセンサを採用することで3つの面から離間した位置での入力操作を検出することができるので、ユーザは、表示パネル20に表示された3Dオブジェクトを「掴む」、「回転させる」等の三次元の多様な操作をさらに直感的に行うことができる。   According to the present embodiment, the user can detect the movement of each detection object in the direction of coming into contact with and separating from each axis along the three surfaces with three fingers of one hand. Can perform various three-dimensional operations such as “rotate” a 3D object displayed on the display panel 20 more intuitively. Further, since the input operation at a position separated from the three surfaces can be detected by adopting the capacitance type sensor, the user can “grab” the 3D object displayed on the display panel 20, “ Various three-dimensional operations such as “rotate” can be performed more intuitively.

なお、本実施形態においても第1の実施形態と同様に、X軸センサ部110は第1の軸35上でX軸方向に沿う検出対象物の動きを検出し、Y軸センサ部120は、第2の軸36上でY軸方向に沿う検出対象物の動きを検出し、Z軸センサ部130は第3の軸37上でZ軸方向に沿う検出対象物の動きを検出することができる。   In this embodiment, as in the first embodiment, the X-axis sensor unit 110 detects the movement of the detection object along the X-axis direction on the first shaft 35, and the Y-axis sensor unit 120 The movement of the detection object along the Y-axis direction on the second axis 36 is detected, and the Z-axis sensor unit 130 can detect the movement of the detection object along the Z-axis direction on the third axis 37. .

<第4の実施形態>
本実施形態において、第3の実施形態の3軸センサユニット100の各部位と同様の構成をもつ3軸センサユニット200の各部位については対応する符号(200番台)を付し、重複する説明は省略する。
<Fourth Embodiment>
In this embodiment, each part of the three-axis sensor unit 200 having the same configuration as each part of the three-axis sensor unit 100 of the third embodiment is assigned a corresponding symbol (in the 200s), and overlapping description is provided. Omitted.

図10は、第4の実施形態に係るX軸センサ部、Y軸センサ部及びZ軸センサ部を示す斜視図である。   FIG. 10 is a perspective view showing an X-axis sensor unit, a Y-axis sensor unit, and a Z-axis sensor unit according to the fourth embodiment.

第3の実施形態の3軸センサユニット100は、複数の受信電極111A,111B…,121A,121B…,131A,131B…は、第1の面32、第2の面33及び第3の面34上で略矩形を構成するように配置されたが、これに限定されない。同図に示す第4の実施形態の3軸センサユニット200のように、複数の各受信電極211A,211B…,221A,221B…,231A,231B…は、第1の面32、第2の面33及び第3の面34上略三角形を構成するように配置されてもよい。   In the three-axis sensor unit 100 of the third embodiment, the plurality of receiving electrodes 111A, 111B,... 121A, 121B, 131A, 131B, are arranged with the first surface 32, the second surface 33, and the third surface 34. Although arrange | positioned so that a substantially rectangular shape may be comprised above, it is not limited to this. Like the three-axis sensor unit 200 of the fourth embodiment shown in the figure, the plurality of receiving electrodes 211A, 211B,..., 221A, 221B, 231A, 231B. 33 and the third surface 34 may be arranged so as to form a substantially triangular shape.

<第5の実施形態>
本実施形態において、第1の実施形態の3軸センサユニット60の各部位と同様の構成をもつ3軸センサユニット90の各部位については対応する符号(90番台)を付し、重複する説明は省略する。
<Fifth Embodiment>
In this embodiment, each part of the three-axis sensor unit 90 having the same configuration as that of each part of the three-axis sensor unit 60 of the first embodiment is given a corresponding reference (90s), and overlapping description is given. Omitted.

本発明の第5の実施形態の3軸センサユニット90は、第1の実施形態の3軸センサユニット60に頂点センサ電極94を付加したものである。   A triaxial sensor unit 90 according to the fifth embodiment of the present invention is obtained by adding a vertex sensor electrode 94 to the triaxial sensor unit 60 according to the first embodiment.

図11は、第5の実施形態に係るX軸センサ部、Y軸センサ部、Z軸センサ部及び頂点センサ部を示す斜視図である。
頂点センサ電極94は、角部31の頂点38に設けられる。例えば、頂点センサ電極94は、第3の軸37に沿って設けられる。
FIG. 11 is a perspective view showing an X-axis sensor unit, a Y-axis sensor unit, a Z-axis sensor unit, and a vertex sensor unit according to the fifth embodiment.
The apex sensor electrode 94 is provided at the apex 38 of the corner portion 31. For example, the vertex sensor electrode 94 is provided along the third axis 37.

第2の検出処理部72は、頂点センサ電極94及びZ軸センサ電極93a,93b…の静電容量の変化を検出し、その中で最も大きな変化量を示した頂点センサ電極94及びZ軸センサ電極93a,93b…に対応する座標を判定し、この座標情報を入力情報解析部73に供給する。   The second detection processing unit 72 detects a change in the electrostatic capacitance of the vertex sensor electrode 94 and the Z-axis sensor electrodes 93a, 93b..., And the vertex sensor electrode 94 and the Z-axis sensor exhibiting the largest change amount among them. The coordinates corresponding to the electrodes 93a, 93b... Are determined, and this coordinate information is supplied to the input information analysis unit 73.

入力情報解析部73は、第2の検出処理部72から取得した座標情報に対して機能が割り当てられた対応表を参照する。この対応表には、例えば、検出対象物の頂点センサ電極94に対する短時間の接触(ワンクリック操作)に対応する座標情報の組み合わせに対して「決定」、のように、第2の検出処理部72から供給される座標情報に対して種々の機能が割り当てられている。入力情報解析部73は、第2の検出処理部72から座標情報を取得すると、対応表を参照して取得した座標情報の組み合わせに割り当てられた機能を読み出し、読み出した機能を表示指示部75に供給する。   The input information analysis unit 73 refers to a correspondence table in which functions are assigned to the coordinate information acquired from the second detection processing unit 72. In this correspondence table, for example, the second detection processing unit is “determined” for a combination of coordinate information corresponding to a short-time contact (one-click operation) of the detection target with the vertex sensor electrode 94. Various functions are assigned to the coordinate information supplied from 72. When the input information analysis unit 73 acquires the coordinate information from the second detection processing unit 72, the input information analysis unit 73 reads the function assigned to the combination of the coordinate information acquired with reference to the correspondence table, and displays the read function in the display instruction unit 75. Supply.

本実施形態によれば、頂点センサ電極94に対する検出対象物の動き情報を、表示パネル20に表示されたオブジェクト動きに関する補助操作として処理し、表示指示部75に供給する。これにより、ユーザは「決定」等の補助操作を直感的に行うことができる。   According to the present embodiment, the movement information of the detection target with respect to the vertex sensor electrode 94 is processed as an auxiliary operation related to the object movement displayed on the display panel 20 and supplied to the display instruction unit 75. Thereby, the user can intuitively perform auxiliary operations such as “decision”.

なお、本実施形態では第1の実施形態の3軸センサユニット60に頂点センサ電極94を付加した構成としたが、これに限定されず、第2〜第4の3軸センサユニット80,100,200に頂点センサ電極94を付加した構成としてもよい。   In this embodiment, the apex sensor electrode 94 is added to the triaxial sensor unit 60 of the first embodiment. However, the present invention is not limited to this, and the second to fourth triaxial sensor units 80, 100, The configuration may be such that the apex sensor electrode 94 is added to the 200.

<第6の実施形態>
図12は、第6の実施形態に係る3軸センサユニット及びユーザの右手を示す斜視図である。
3軸センサユニット300は、本体部30の表示パネル20が設けられた第1の面32を含む角部31に設けられ、X軸センサ部61及びY軸センサ部62より下方にZ軸センサ部63が配置されたが、これに限定されない。同図に示すように、3軸センサユニット300は、X軸センサ部310及びY軸センサ部320より上方にZ軸センサ部330が配置される構成としてもよい。
<Sixth Embodiment>
FIG. 12 is a perspective view showing the three-axis sensor unit and the user's right hand according to the sixth embodiment.
The triaxial sensor unit 300 is provided at the corner 31 including the first surface 32 on which the display panel 20 of the main body 30 is provided, and the Z axis sensor unit is below the X axis sensor unit 61 and the Y axis sensor unit 62. Although 63 is arranged, it is not limited to this. As shown in the figure, the three-axis sensor unit 300 may be configured such that the Z-axis sensor unit 330 is disposed above the X-axis sensor unit 310 and the Y-axis sensor unit 320.

図15は、図12における、操作対象400としての3D(three-dimensional)オブジェクトが指定の空間内に存在しており、それをX軸センサ部310、Y軸センサ部320及びZ軸センサ部330によって操作する様子を示している。この操作によって、操作対象400の位置を移動したり、回転させたりする。   15, a 3D (three-dimensional) object as an operation target 400 in FIG. 12 exists in a designated space, and these are represented by an X-axis sensor unit 310, a Y-axis sensor unit 320, and a Z-axis sensor unit 330. The operation is shown by. By this operation, the position of the operation target 400 is moved or rotated.

図15にあるように、大きな空間(このエリアは必ずしも可視される限定された領域に限定されることなく、所定の操作範囲の限界位置を示すものと扱っても良い)を持った情報処理装置において、操作する際に手が届かない範囲に対して操作を行う場合にも、本実施形態によって容易に行うことができる。   As shown in FIG. 15, an information processing apparatus having a large space (this area is not necessarily limited to a limited area that can be seen, and may be treated as indicating a limit position of a predetermined operation range). In this case, even when an operation is performed on a range that cannot be reached when the operation is performed, this embodiment can easily perform the operation.

<第7の実施形態>
図16は、本発明の第7の実施形態に係る複数のセンサ部を示す斜視図である。
<Seventh Embodiment>
FIG. 16 is a perspective view showing a plurality of sensor units according to the seventh embodiment of the present invention.

本発明の第7の実施形態の3軸センサユニット400は、複数のライン状のセンサ電極410を有する。複数のセンサ電極410は、第1の面32、第2の面33及び第3の面34上に頂点38を中心として放射状に設けられる。この構成により、検出対象物の頂点38を中心とした回転方向の動きのみを検出することが可能となる。   The triaxial sensor unit 400 according to the seventh embodiment of the present invention includes a plurality of line-shaped sensor electrodes 410. The plurality of sensor electrodes 410 are provided radially on the first surface 32, the second surface 33, and the third surface 34 around the vertex 38. With this configuration, it is possible to detect only the movement in the rotation direction around the vertex 38 of the detection target.

あるいは、3軸センサユニット60は、直方体状の本体部30の角部31に設けられたが、これに限定されない。図示は省略するが、平面(例えば、フレーム10の任意の一面)に、3軸センサユニットとしての三角錐状の立体物を設置し、この三角錐の3つの斜辺にX軸センサ部、Y軸センサ部及びZ軸センサ部を配置する構成としてもよい。   Or although the triaxial sensor unit 60 was provided in the corner | angular part 31 of the rectangular parallelepiped main-body part 30, it is not limited to this. Although illustration is omitted, a triangular pyramid-shaped three-dimensional object as a three-axis sensor unit is installed on a plane (for example, an arbitrary surface of the frame 10), and an X-axis sensor unit and a Y-axis are provided on the three hypotenuses of the triangular pyramid. It is good also as a structure which arrange | positions a sensor part and a Z-axis sensor part.

あるいは、図示は省略するが、情報処理装置1から独立して、情報処理装置1と無線通信可能な3軸センサユニットを備えるリモートコントローラ装置であってもよい。この場合も、3軸センサユニットを備えるリモートコントローラ装置は、例えば三角錐等の立体物であり、この三角錐の3つの斜辺にX軸センサ部、Y軸センサ部及びZ軸センサ部を配置する構成とすればよい。   Or although illustration is abbreviate | omitted, you may be a remote controller apparatus provided with the 3-axis sensor unit which can be communicated with the information processing apparatus 1 independently from the information processing apparatus 1. Also in this case, the remote controller device including the three-axis sensor unit is a three-dimensional object such as a triangular pyramid, for example, and an X-axis sensor unit, a Y-axis sensor unit, and a Z-axis sensor unit are arranged on three oblique sides of the triangular pyramid. What is necessary is just composition.

1…情報処理装置
35…第1の軸
36…第2の軸
37…第3の軸
60、80、90、100、200、300、400…3軸センサユニット
61、81、91、110、210、310…X軸センサ部
62、82、92、120、220、320…Y軸センサ部
63、83、93、130、230、330…Z軸センサ部
71…第1の検出処理部
72…第2の検出処理部
73…入力情報解析部
74…入力指定部
75…表示指示部
DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus 35 ... 1st axis | shaft 36 ... 2nd axis | shaft 37 ... 3rd axis | shaft 60,80,90,100,200,300,400 ... 3 axis | shaft sensor unit 61,81,91,110,210 , 310 ... X-axis sensor unit 62, 82, 92, 120, 220, 320 ... Y-axis sensor unit 63, 83, 93, 130, 230, 330 ... Z-axis sensor unit 71 ... First detection processing unit 72 ... First 2 detection processing unit 73 ... input information analysis unit 74 ... input designation unit 75 ... display instruction unit

Claims (9)

1以上の面を有し、三次元空間内での向きが互いに異なる第1の軸、第2の軸及び第3の軸が前記1以上の面に沿って設定された立体物と、
前記立体物に設けられ、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能な第1のセンサ部、第2のセンサ部及び第3のセンサ部と
を具備する検出装置。
A three-dimensional object having one or more surfaces and having a first axis, a second axis, and a third axis different from each other in a three-dimensional space, set along the one or more surfaces;
A first sensor unit provided on the three-dimensional object and capable of independently detecting movements of three detection objects along each of the first axis, the second axis, and the third axis; A detecting device comprising: a sensor unit and a third sensor unit.
請求項1に記載の検出装置であって、
前記第1の軸、前記第2の軸及び前記第3の軸は一つの交点を有する
検出装置。
The detection device according to claim 1,
The first axis, the second axis, and the third axis have one intersection.
請求項1又は2に記載の検出装置であって、
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する前記1以上の面に沿った接離方向の動きを検出する
検出装置。
The detection device according to claim 1 or 2,
The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis along the one or more surfaces, respectively. A detector that detects movement in the away direction.
請求項3に記載の検出装置であって、
前記立体物は、1つの角部を構成する3つの面を有し、
前記第1の軸、前記第2の軸及び前記第3の軸は、前記立体物の前記角部に設定され、
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記3つの面に沿った前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する接離方向の動きを検出する
検出装置。
The detection device according to claim 3,
The three-dimensional object has three surfaces constituting one corner,
The first axis, the second axis, and the third axis are set at the corners of the three-dimensional object,
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. A detection device that detects movement in the direction.
1以上の面を有し、三次元空間内での向きが互いに異なる第1の軸、第2の軸及び第3の軸が前記1以上の面に沿って設定された立体物と、
前記立体物に設けられ、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに沿った3つの検出対象物の動きを独立して検出可能な第1のセンサ部、第2のセンサ部及び第3のセンサ部と、
表示部に、互いに直交する3軸方向の動きを操作可能な操作対象を表示させるとともに、前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部により検出された前記第1の軸、前記第2の軸及び前記第3の軸それぞれに沿った前記検出対象物の動きをもとに、前記表示部に表示された前記操作対象の前記3軸方向の動きを制御する制御部と
を具備する情報処理装置。
A three-dimensional object having one or more surfaces and having a first axis, a second axis, and a third axis different from each other in a three-dimensional space, set along the one or more surfaces;
A first sensor unit provided on the three-dimensional object and capable of independently detecting movements of three detection objects along each of the first axis, the second axis, and the third axis; A sensor unit and a third sensor unit;
The display unit displays an operation target capable of operating movements in three axis directions orthogonal to each other, and the first sensor unit, the second sensor unit, and the first sensor unit detected by the third sensor unit. Control for controlling the movement of the operation target displayed on the display unit in the three-axis direction based on the movement of the detection target along each of the axis, the second axis, and the third axis And an information processing apparatus.
請求項5に記載の情報処理装置であって、
前記第1の軸、前記第2の軸及び前記第3の軸は一つの交点を有する
情報処理装置。
The information processing apparatus according to claim 5,
The information processing apparatus, wherein the first axis, the second axis, and the third axis have one intersection.
請求項5又は6に記載の情報処理装置であって、
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する前記1以上の面に沿った接離方向の動きを検出する
情報処理装置。
The information processing apparatus according to claim 5 or 6,
The first sensor unit, the second sensor unit, and the third sensor unit are in contact with the first axis, the second axis, and the third axis along the one or more surfaces, respectively. An information processing device that detects movement in the away direction.
請求項7に記載の情報処理装置であって、
前記立体物は、1つの角部を構成する3つの面を有し、
前記第1の軸、前記第2の軸及び前記第3の軸は、前記立体物の前記角部に設定され、
前記第1のセンサ部、前記第2のセンサ部及び前記第3のセンサ部は、前記3つの面に沿った前記第1の軸、前記第2の軸及び前記第3の軸それぞれに対する接離方向の動きを検出する
情報処理装置。
The information processing apparatus according to claim 7,
The three-dimensional object has three surfaces constituting one corner,
The first axis, the second axis, and the third axis are set at the corners of the three-dimensional object,
The first sensor unit, the second sensor unit, and the third sensor unit are connected to and separated from the first axis, the second axis, and the third axis along the three surfaces, respectively. An information processing device that detects direction movement.
請求項5又は8に記載の情報処理装置であって、
前記制御部は、さらに、前記表示部に、互いに直交する2軸方向の動きを操作可能な操作対象を表示させるとともに、前記第1のセンサ部及び前記第2のセンサ部により検出された前記第1の軸及び前記第2の軸それぞれに沿った前記検出対象物の動きをもとに、前記表示部に表示された前記操作対象の前記2軸方向の動きを制御し、前記第3のセンサ部により検出された前記第3の軸に沿った前記検出対象物の動きをもとに、前記表示部に表示された前記操作対象の操作を制御する
情報処理装置。
The information processing apparatus according to claim 5 or 8,
The control unit further causes the display unit to display an operation target capable of operating movements in two axial directions orthogonal to each other, and the first sensor unit and the second sensor unit detect the first object. Controlling the movement of the operation target displayed on the display unit in the two-axis direction based on the movement of the detection object along each of the first axis and the second axis, and the third sensor An information processing apparatus that controls the operation of the operation target displayed on the display unit based on the movement of the detection target along the third axis detected by the unit.
JP2011029097A 2011-02-14 2011-02-14 Detector and information processor Withdrawn JP2012168723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011029097A JP2012168723A (en) 2011-02-14 2011-02-14 Detector and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011029097A JP2012168723A (en) 2011-02-14 2011-02-14 Detector and information processor

Publications (1)

Publication Number Publication Date
JP2012168723A true JP2012168723A (en) 2012-09-06

Family

ID=46972826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011029097A Withdrawn JP2012168723A (en) 2011-02-14 2011-02-14 Detector and information processor

Country Status (1)

Country Link
JP (1) JP2012168723A (en)

Similar Documents

Publication Publication Date Title
CN102193673B (en) Position detection apparatus
TWI539362B (en) Interface switching method and electric device using the same
JP4743267B2 (en) Information processing apparatus, information processing method, and program
JP5205157B2 (en) Portable image display device, control method thereof, program, and information storage medium
US20100177053A2 (en) Method and apparatus for control of multiple degrees of freedom of a display
US20140043265A1 (en) System and method for detecting and interpreting on and off-screen gestures
JP2014029673A (en) Display device and method for controlling the same
JP5640486B2 (en) Information display device
US20150160842A1 (en) Electronic device and controlling method and program therefor
JP5848732B2 (en) Information processing device
CN102402375A (en) Display terminal and display method
KR20140078180A (en) Touch sensitive device and controlling method for providing mini-map of tactile user interface
JP2015170282A (en) Operation device for vehicle
WO2015159774A1 (en) Input device and method for controlling input device
WO2015182222A1 (en) Indicator detection device and signal processing method thereof
JP2011065252A (en) Input display board-cum-table
US9367169B2 (en) Method, circuit, and system for hover and gesture detection with a touch screen
JP5790578B2 (en) Display system, display device, and operation device
JP6058118B2 (en) Operation detection device
JP6174646B2 (en) Computer program for 3-axis operation of objects in virtual space
WO2013080425A1 (en) Input device, information terminal, input control method and input control program
JP2012168723A (en) Detector and information processor
JP2019096182A (en) Electronic device, display method, and program
JPWO2013089012A1 (en) Information processing apparatus, information processing method, program, and information storage medium
JP2014067253A (en) Operation device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513