JP2746251B2 - Experience input device - Google Patents
Experience input deviceInfo
- Publication number
- JP2746251B2 JP2746251B2 JP8039200A JP3920096A JP2746251B2 JP 2746251 B2 JP2746251 B2 JP 2746251B2 JP 8039200 A JP8039200 A JP 8039200A JP 3920096 A JP3920096 A JP 3920096A JP 2746251 B2 JP2746251 B2 JP 2746251B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- foot
- data
- estimation
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、使用者の身体の動
きから荷重移動や移動動作などの運動情報を計測し、計
測された計測データ、計測データを何らかの形で解析し
た解析データを用いて、ディスプレイ上のキャラクタお
よびカーソルその他ディスプレイ上で移動する物体の移
動方向・移動量・操作(動作)内容を推定し、出力対象
に出力する入力装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of measuring motion information such as a load movement and a movement based on the movement of a user's body, and using the measured data and analysis data obtained by analyzing the measured data in some form. The present invention relates to an input device for estimating a moving direction, a moving amount, and an operation (movement) content of a character and a cursor on a display and other objects moving on the display, and outputting the result to an output target.
【0002】[0002]
【従来の技術】従来、使用者の姿勢あるいは動作を入力
しそれをもとに対象物の移動・操作を行なういわゆる体
感入力装置には、汎用的なものとしてデータグローブ・
データスーツ・カメラを用いたマーカー計測装置が知ら
れている。2. Description of the Related Art Conventionally, a so-called bodily sensation input device which inputs a user's posture or motion and moves / operates an object based on the input is used as a general-purpose data glove.
A marker measuring device using a data suit camera is known.
【0003】従来のデータグローブの一例として、産業
図書「バーチャルリアリティ」75−82頁記載のVP
L社のデータグローブ(Data Glove)、Vi
rtual Technologies社のサイバーグ
ローブが挙げられる。データグローブは一般的な手袋の
腕のつけねから指先にかけて光ファイバーを往復させた
もので、指や手の関節部分にちょうどあたる部分に切れ
込みをいれた構造になっている。指の関節を動かすと関
節部の切れ込みの大きさが変化しそれに伴い光ファイバ
ーを透過する光量が変化する。光量を測定することによ
り、各関節の変化を定量的に測定することが出来る。サ
イバーグローブは関節部に歪みセンサを取り付けること
により、手の関節の変化量を定量的に測定するものであ
る。これらはいずれも、計測される手の関節変化量を用
いて計算機内での仮想的な手が移動したり、物を掴んだ
りする用途に使われる。As an example of a conventional data glove, a VP described in an industrial book “Virtual Reality” on pages 75-82 is used.
L Company's Data Glove, Vi
technologies, Inc. cyber gloves. Data gloves are made by reciprocating an optical fiber from the arm of a general glove to the fingertip. The data glove has a structure in which a cut is made at the part that exactly hits the joint of the finger or hand. When the finger joint is moved, the size of the cut in the joint changes, and accordingly, the amount of light transmitted through the optical fiber changes. By measuring the amount of light, changes in each joint can be quantitatively measured. Cyber gloves quantitatively measure the amount of change in the joints of the hands by attaching a strain sensor to the joints. Each of these is used for moving a virtual hand or grasping an object in a computer using the measured joint change amount of the hand.
【0004】データスーツの一例として、産業図書「バ
ーチャルリアリティ」79頁記載のVPL社のデータス
ーツ(Data Suit)がある。これは、前述のデ
ータグローブを体全体に拡張した物で、身体の関節の変
化量を測定出来る様全体に光ファイバを沿わせた全身に
密着する服である。使用者がこの服を着て動作すると、
装置が身体の各関節の変化量を測定し、その変化に合わ
せて、計算機内の仮想人物を動作させることができる。[0004] As an example of the data suit, there is a data suit (Data Suite) of VPL Company described on page 79 of an industrial book "Virtual Reality". This is a clothing in which the above-mentioned data glove is extended to the whole body, and is in close contact with the whole body along an optical fiber so that the amount of change in the joints of the body can be measured. When the user wears this clothes and works,
The device measures the amount of change in each joint of the body, and can operate a virtual person in the computer in accordance with the change.
【0005】カメラを用いたマーカー計測の一例とし
て、特開平07−185131に記載のものが挙げられ
る。この装置は、遊戯者の身体に取り付けられたマーカ
ーを撮像する撮像手段と、撮像された遊戯者の画像から
マーカーの位置を検出するマーカー位置検出手段と、各
マーカーの位置情報から対応するゲームキャラクタの表
示画面における表示位置および表示姿勢を演算する演算
手段と、各ゲームキャラクタに対して、複数の表示姿勢
のオブジェクト画像が記憶されたオブジェクト画像記憶
手段と、演算された表示姿勢に対応するゲームキャラク
タの姿勢を、演算された表示位置に表示する表示制御手
段から構成される。An example of marker measurement using a camera is described in JP-A-07-185131. This apparatus includes an imaging unit that images a marker attached to a player's body, a marker position detection unit that detects the position of a marker from the captured image of the player, and a corresponding game character based on the position information of each marker. Calculating means for calculating a display position and a display attitude on a display screen of the same, an object image storing means for storing object images of a plurality of display attitudes for each game character, and a game character corresponding to the calculated display attitude Is constituted by display control means for displaying the posture of the image at the calculated display position.
【0006】測定者Qは当文献の図3のようにマーカー
をq1からq7のようにつけて、当文献の図1のように
測定者Qをカメラ31、31′を用いて撮影する。撮影
された2つの映像は画像処理装置33内でマーカーのみ
が抽出され、各マーカーの3次元座標が計測される。シ
ステム駆動装置6内では、各マーカーの3次元座標を測
定者Qの各関節の位置に対応づけて、各々のマーカーの
相対位置からゲームキャラクタの表示姿勢を、各マーカ
ーの絶対座標からゲームキャラクタの表示位置を演算す
る。さらに、演算された表示姿勢に対応するゲームキャ
ラクタのオブジェクト画像が読みこまれ、スクリーン4
上の演算された表示位置に表示される。このようにし
て、従来のキーによる入力装置に比べて臨場感のあるゲ
ーム入力装置が実現されている。The measurer Q attaches markers as shown at q1 to q7 as shown in FIG. 3 of this document, and photographs the person Q using the cameras 31 and 31 'as shown in FIG. 1 of this document. Only the markers are extracted from the two captured images in the image processing device 33, and the three-dimensional coordinates of each marker are measured. In the system driving device 6, the three-dimensional coordinates of each marker are associated with the position of each joint of the measurer Q, and the display attitude of the game character is determined from the relative position of each marker, and the game character's display attitude is determined from the absolute coordinates of each marker. Calculate the display position. Further, an object image of the game character corresponding to the calculated display posture is read, and
It is displayed at the above calculated display position. In this way, a game input device having a more realistic feeling than a conventional key input device is realized.
【0007】[0007]
【発明が解決しようとする課題】上記の装置は、いずれ
も入力データをもとに使用者の実際の動作を計算機上に
反映させることのできる操作インタフェースであるが、
使用者の動作の解釈の技術が未発達である。たとえば、
データグローブによる入力だと計算機内で仮想的な手を
動かしたり指を動かしたりできるが、仮想空間内で対象
物を操作する動作、例えばものを掴む・離す、ネジを巻
く、何かをひねるなどの動作を手や身体の動きから他の
動作と識別することによって計算機中に動作を反映させ
るのは困難であり、簡単なものを除いて現在のところな
されていない。The above devices are operation interfaces which can reflect the actual operation of the user on a computer based on input data.
The technique of interpreting the user's movement is undeveloped. For example,
With data glove input, you can move virtual hands and fingers in the computer, but you can operate objects in virtual space, such as grasping and releasing objects, winding screws, twisting something, etc. It is difficult to reflect the motion in the computer by distinguishing the motion from other motions from the motions of the hands and the body, and so far, except for the simple ones, has not been performed.
【0008】これは、このような装置を利用した場合、
入力情報にテンプレートマッチングのみを行った処理が
一般的に行われているため、使用者の細かい素早い動き
の解釈が出来ないためである。というのは、テンプレー
トマッチングは、入力センサ・画像処理の精度上の問
題、使用者の動作に対するロバスト性の問題からテンプ
レートを粗くする必要があるため、ある程度大きくかつ
特徴的な動作しか識別できないからである。This is because, when such a device is used,
This is because a process in which only template matching is performed on the input information is generally performed, and it is not possible to interpret the user's fine and quick movement. This is because template matching requires coarser templates due to problems with the accuracy of input sensors and image processing and robustness to user movements, so that only large and characteristic movements can be identified. is there.
【0009】現在のところ、このような問題から、この
操作を用いた汎用的なインターフェースはジェスチャに
よる入力が一般的である。その結果、使用者がちょっと
した動作を仮想空間内で行わせたい場合でも、他の動作
と識別できるよう大きな動作を行う、あるいは実際の動
作と大きく異なる動作を必要とするので、操作によって
は必ずしも臨場感のある操作が行えなかったり、動きに
時間を要するぶん操作自体が応答性が悪くなるといった
問題が生じる。At present, due to such a problem, general-purpose interfaces using this operation are generally input by gesture. As a result, even when the user wants to perform a small operation in the virtual space, the user must perform a large operation so that it can be distinguished from other operations, or need an operation that is significantly different from the actual operation. A problem arises in that an operation with a feeling cannot be performed, and the operation itself takes a long time to move, resulting in poor responsiveness.
【0010】本発明は、これらの問題を鑑み、使用者が
一般的な人間の動きにできるだけ近い入力を行なうこと
が出来、さらに素早い細かな操作を実現できる体感入力
装置を提供することを目的とする。The present invention has been made in view of the above problems, and has as its object to provide a bodily sensation input device that allows a user to perform input as close as possible to general human movements and realizes quick and detailed operation. I do.
【0011】[0011]
【課題を解決するための手段】本発明の体感入力装置
は、使用者の運動状態を計測し、計測データを基に操作
意志を推定し、情報処理装置へ操作信号を出力する入力
装置において、使用者が足を左右に振り出す運動を行う
ことができる動作部と、この左右の足の振り角を計測す
る計測部と、前記足の振り角の時系列データを持ち、こ
の時系列データから少なくとも足の振り角の角速度の解
析を行う解析部と、使用者の運動に対応した操作意志推
定条件を保持する推定条件保持部と、前記計測部が計測
した左右の足の振り角と前記解析部において生じる足の
振り角の角速度を少なくとも入力とし、前記推定条件判
別部の操作意志推定条件および操作推定方法決定条件を
参照することによって使用者の左右への移動の意志を推
定する操作推定部と、情報処理装置に入力可能な操作信
号情報を保持する操作信号発生条件保持部と、前記操作
推定部において生じる操作意志情報を入力とし、操作信
号発生条件保持部の操作信号情報を参照することによっ
て、出力対象の情報処理装置に操作信号を発生する操作
信号発生部とを有することを特徴とする。The sensation input device according to the present invention is an input device for measuring a motion state of a user, estimating an operation intention based on measurement data, and outputting an operation signal to an information processing device. It has an operating unit that allows the user to perform an exercise of swinging the foot left and right, a measuring unit that measures the swing angle of the left and right foot, and time-series data of the swing angle of the foot.
An analysis unit that analyzes at least the angular velocity of the swing angle of the foot from the time series data of the foot, an estimation condition holding unit that holds operation intention estimation conditions corresponding to the motion of the user, and the measurement unit measures
The swing angle of the left and right feet and the foot
An operation estimating unit for estimating the intention of the user to move left and right by referring to the operation intention estimating condition and the operation estimating method determining condition of the estimation condition discriminating unit at least as an input of the angular velocity of the swing angle; An operation signal generation condition holding unit that holds operation signal information that can be input to, an operation intention information generated in the operation estimating unit is input, and by referring to the operation signal information of the operation signal generation condition holding unit, an output target The information processing apparatus includes an operation signal generation unit that generates an operation signal.
【0012】[0012]
【発明の実施の形態】本発明の第1の実施形態について
図面を参照しながら、詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described in detail with reference to the drawings.
【0013】図1は第1の実施形態のブロック構成図で
ある。FIG. 1 is a block diagram of the first embodiment.
【0014】動作部1は、使用者がそれを利用して、実
際の動作を行う機器である。動作部1には使用者の動き
の特徴が検出出来るよう、各種センサが取り付けられて
おり、使用者の特徴的な動きに対して、センサ出力10
0を発生できるようになっている。The operation unit 1 is a device that allows a user to use the operation unit to perform an actual operation. Various sensors are attached to the operation unit 1 so that the characteristics of the user's movement can be detected.
0 can be generated.
【0015】計測部2は、センサ出力100を荷重、移
動量、磁気など人間が理解しやすい物理量に変換し、計
測データ200、210として出力する部分である。The measuring section 2 is a section that converts the sensor output 100 into a physical quantity such as a load, a moving amount, and magnetism that can be easily understood by a human, and outputs the measured data 200 and 210.
【0016】解析部3は、計測データ200を時間的、
空間的解析を行う部分である。計測データ200のう
ち、時間的解析を行うものについては、計測データメモ
リ6に送られ、保存される。解析部3は、時間的解析を
行う際には、計測データメモリ6に計測データを送り、
過去のデータを参照し、差分によって微分値を計算す
る。また、空間的解析を行うものについては、複数の計
測データを合成して、新しいデータを生成する。The analysis unit 3 converts the measured data 200 into a temporal and
This part performs spatial analysis. Of the measurement data 200, those for which a temporal analysis is performed are sent to the measurement data memory 6 and stored. The analysis unit 3 sends measurement data to the measurement data memory 6 when performing a temporal analysis,
The differential value is calculated based on the difference with reference to the past data. In the case of performing spatial analysis, a plurality of measurement data are combined to generate new data.
【0017】操作推定部4は、解析データ・計測データ
をもとに各操作内容についての推定を行い、その操作内
容を記述した操作情報400を出力する部分である。こ
こで述べる操作内容というのは、「上に行く」「右にい
く」などのゲーム等の各コマンドなどを指す。また、操
作情報400は、各操作内容を「実行する」「実行しな
い」を(1/0)で記述した操作内容指示変数の集まり
である。操作推定部4は、各操作内容に対して、その操
作内容の実行を推定する操作内容推定モジュールを複数
持っており、操作内容推定モジュール決定データ700
を用いて、各操作内容について、操作内容推定モジュー
ルを選択する。この操作内容推定モジュール決定データ
700は推定条件保持部7から入力される。また、操作
内容推定モジュールは、推定の際に利用する閾値などの
データを外部から入力して行うことができるようになっ
ている。それらのデータは操作意志推定条件データ71
0として、推定条件保持部710から同様に入力され
る。The operation estimating unit 4 is a part for estimating each operation content based on analysis data and measurement data, and outputting operation information 400 describing the operation content. The operation content described here refers to each command such as a game such as “go up” and “go right”. The operation information 400 is a set of operation content indicating variables in which “execute” or “do not execute” of each operation content is described by (1/0). The operation estimating unit 4 has a plurality of operation content estimation modules for estimating the execution of the operation content for each operation content, and the operation content estimation module determination data 700
, An operation content estimation module is selected for each operation content. The operation content estimation module determination data 700 is input from the estimation condition holding unit 7. In addition, the operation content estimating module can input data such as a threshold used at the time of estimation from the outside. These data are the operation intention estimation condition data 71.
0 is similarly input from the estimation condition holding unit 710.
【0018】操作信号発生部5は、操作情報400を入
力し、実際に操作する機器の端末(具体的にはゲーム機
などのボタンの信号が出力される端末を指す)に出力信
号である出力500を出力する。具体的には、操作信号
発生部5では、各操作内容の操作内容指示変数と各端末
の対応づけを行い、操作内容を「実行する」場合、対応
する端末の信号もonになるよう設定される。操作内容
指示変数と各操作機器の端末の対応づけは機器により異
なるので、操作信号発生条件データ800を用いて対応
づけを自由に設定できるようになっている。操作信号発
生条件データ800は、操作信号発生条件保持部8に記
述され、操作中に参照される。The operation signal generator 5 receives the operation information 400 and outputs an output signal to a terminal of a device actually operated (specifically, a terminal such as a game machine that outputs a button signal). 500 is output. Specifically, the operation signal generation unit 5 associates the operation content instruction variable of each operation content with each terminal, and when the operation content is “executed”, the signal of the corresponding terminal is set to be on. You. Since the correspondence between the operation content indicating variable and the terminal of each operation device differs depending on the device, the association can be freely set using the operation signal generation condition data 800. The operation signal generation condition data 800 is described in the operation signal generation condition holding unit 8 and is referred to during the operation.
【0019】操作推定部4と操作信号発生部5につい
て、図2と図3を用いて、より詳細に説明する。図2は
操作推定部4と操作推定モジュール決定データ700、
操作意志推定条件決定データ710、操作情報400の
内容を詳しく記した概念図である。The operation estimating unit 4 and the operation signal generating unit 5 will be described in more detail with reference to FIGS. FIG. 2 shows an operation estimation unit 4 and operation estimation module determination data 700,
FIG. 7 is a conceptual diagram showing details of operation intention estimation condition determination data 710 and operation information 400.
【0020】操作推定部4は、各操作内容について、操
作内容を推定する操作内容推定モジュールを複数持って
いる。ここで述べる操作内容というのは、「上に行く」
「右にいく」などのゲーム等の各コマンドなどを指す。
図ではそれぞれ複数の操作内容を操作内容1..操作内容
nで表現した。また、各操作内容は操作内容推定モジュ
ールをm1,m2,,,mn個持つこととし、操作内容
k(k=1..n)のmk個の推定モジュールを操作内
容k推定モジュール1...操作内容k推定モジュール
mkのように記述し、各操作内容における複数の操作内
容推定モジュールを表現することとする。The operation estimating section 4 has a plurality of operation content estimating modules for estimating the operation content for each operation content. The operation described here is "go up"
Refers to each command of a game such as "go right".
In the figure, a plurality of operation contents are represented by operation contents 1..operation contents n. Each operation content has m1, m2,... Mn operation content estimation modules, and mk estimation modules of operation content k (k = 1... . . It is described as an operation content k estimation module mk, and represents a plurality of operation content estimation modules in each operation content.
【0021】推定においては、まず、各操作内容につい
て推定モジュールの選択が行われる。この際、操作推定
モジュール決定データ700が利用される。操作推定モ
ジュール決定データ700は操作内容の順番に選択する
モジュールの番号をa1,a2,...anのように記
述されている。操作推定部4はこの値を参照しながら、
操作内容1については操作内容1推定モジュールa1
を、操作内容2については操作内容2推定モジュールa
2を、..という形で各操作内容についてモジュールの選
択をおこなう。In the estimation, first, an estimation module is selected for each operation content. At this time, the operation estimation module determination data 700 is used. The operation estimation module determination data 700 indicates the module numbers a1, a2,. . . It is described as an. The operation estimating unit 4 refers to this value,
For the operation content 1, the operation content 1 estimation module a1
For the operation content 2, the operation content 2 estimation module a
2. Select a module for each operation in the form of ..
【0022】つぎに、選択された操作内容推定モジュー
ルについて説明する。選択された操作内容推定モジュー
ルは、推定の際に利用される閾値などのデータと計測デ
ータ250、解析データ300を入力し、操作内容指示
変数を出力する関数形式になっているモジュールであ
る。ここでは、操作内容1推定モジュールa1をf1
(x1,y1,z1,...),...操作内容n推定
モジュールanをfn(xn,yn,zn,...)の
ような形で表現する。各モジュールは、x1,y1,z
1,...のような引数をもっている。これは推定の際
に利用される閾値などのデータである。この値は操作意
志推定条件設定データ710に記述され、推定の際は、
操作意志推定条件設定データ710から参照される。ま
た、計測データ250、解析データ300についてはグ
ローバル変数となっており、関数内でグローバル変数を
参照するように設定した。この関数の出力は「実行す
る」「実行しない」を表現した(1/0)の2値であ
り、その値があとで操作内容指示変数に代入される。こ
の図では、この操作内容指示変数は操作内容1..操作内
容nに応じて、p1,..pnと表現してある。また、
p1,..pnとf1(),...fn()の関係はp
1=f1(),...pn=fn()である。Next, the selected operation content estimating module will be described. The selected operation content estimating module is a module having a function format for inputting data such as a threshold value used for estimation, the measurement data 250, and the analysis data 300, and outputting operation content indicating variables. Here, the operation content 1 estimation module a1 is set to f1
(X1, y1, z1,...),. . . The operation content estimating module an is expressed in the form of fn (xn, yn, zn,...). Each module is x1, y1, z
1,. . . Has an argument like This is data such as a threshold used for estimation. This value is described in the operation intention estimation condition setting data 710, and at the time of estimation,
It is referred from the operation intention estimation condition setting data 710. Further, the measurement data 250 and the analysis data 300 are global variables, and are set so as to refer to the global variables in the function. The output of this function is a binary value (1/0) representing "execute" or "do not execute", and that value is later substituted into the operation content indicating variable. In this figure, the operation content indicating variables are p1,. . It is expressed as pn. Also,
p1,. . pn and f1 (),. . . The relationship of fn () is p
1 = f1 (),. . . pn = fn ().
【0023】つぎに、操作信号発生部5について詳細に
説明する。図3は、操作信号発生部5と操作信号発生デ
ータ800を説明するための概念図である。Next, the operation signal generator 5 will be described in detail. FIG. 3 is a conceptual diagram illustrating the operation signal generation unit 5 and the operation signal generation data 800.
【0024】操作信号発生部5は操作対象の情報処理装
置へ何らかの形で接続可能な接続部をもつかあるいは通
信することが可能なように設計されている。操作信号発
生部5は図3のように操作信号発生モジュールを複数持
っている。この操作信号発生モジュールは、各操作内容
の操作内容指示変数とゲーム機などの操作機器の各端末
の対応づけを行い、種々の発信対象に合わせて出力信号
が発生出来るよう定められたモジュールで、各操作機器
あたり1つ存在する。図ではn個の操作機器を操作でき
るような場合を想定し、操作信号発生モジュールがn個
操作信号発生部にある場合を表現している。各操作信号
発生モジュールは、操作信号発生モジュール1...操
作信号発生モジュールnと表現した。実際の操作の際に
は、操作信号条件発生データ600を参照し操作モジュ
ールの選択を行う。図では、操作信号条件発生データ6
00がiであるので、操作信号発生モジュールは操作信
号発生モジュールiが選択されている。The operation signal generating unit 5 has a connection unit which can be connected to the information processing apparatus to be operated in some form or is designed to be able to communicate. The operation signal generator 5 has a plurality of operation signal generation modules as shown in FIG. This operation signal generation module is a module that associates operation content instruction variables of each operation content with each terminal of an operation device such as a game machine, and is a module determined to be able to generate an output signal according to various transmission targets. There is one for each operating device. In the figure, a case where n operation devices can be operated is assumed, and a case where n operation signal generation modules are provided in the operation signal generation unit is expressed. Each of the operation signal generation modules includes an operation signal generation module 1. . . The operation signal generation module was expressed as n. At the time of actual operation, the operation module is selected by referring to the operation signal condition generation data 600. In the figure, the operation signal condition occurrence data 6
Since 00 is i, the operation signal generation module i is selected as the operation signal generation module.
【0025】操作信号発生モジュールでは、図の右側の
ように、操作機器の各端末の(on/off)を(1/
0)で記述した出力内容指示変数に、対応する1つの操
作内容指示変数あるいは複数の操作内容指示変数の論理
和・論理積が代入される。具体的に、操作信号発生モジ
ュール1の場合をあげて説明する。In the operation signal generation module, (on / off) of each terminal of the operation device is set to (1 /
The corresponding one operation content designating variable or the logical sum / logical product of a plurality of operation content designating variables is substituted for the output content designating variable described in (0). Specifically, the case of the operation signal generation module 1 will be described.
【0026】今、操作内容指示変数が以下のような操作
内容の状態を表したと考える。 p1:左に行く p2:右に行く p3:左足を踏む p4:右足を踏む p5:身体を前に傾ける p6:ジャンプする また、出力内容指示変数は以下のような端末を指すとす
る。 a1:「←」キー b1:「A」キー c1:「X」キー このとき、 「左に行く場合、「←」キーに対応する端末に信号を出
力する」 「身体を前に傾けるかあるいはジャンプした場合、
「X」キーに対応する端末に信号を出力する」 「右に行きさらに右足を踏んだ場合、あるいは、左に行
きさらに左足を踏んだ場合、「A」キーに対応する端末
に信号を出力する」 ということを操作信号発生モジュール1が行うわけであ
る。このようにして、操作信号発生モジュール内で、行
われた1つあるいは複数の操作内容に対して、対応する
機器の端末に信号を出力するわけである。Now, it is assumed that the operation content designating variable indicates the following operation content status. p1: go to the left p2: go to the right p3: step on the left foot p4: step on the right foot p5: tilt the body forward p6: jump Also, assume that the output content indicating variable points to the following terminal. a1: “←” key b1: “A” key c1: “X” key At this time, “when going left, output a signal to the terminal corresponding to the“ ← ”key.” “Tilt the body forward or jump if you did this,
"Output a signal to the terminal corresponding to the" X "key.""When going to the right and further stepping on the right foot, or when going to the left and stepping on the left foot, output a signal to the terminal corresponding to the" A "key. The operation signal generating module 1 performs this. In this way, a signal is output to the terminal of the corresponding device in response to one or more operation contents performed in the operation signal generation module.
【0027】この例では、操作信号発生モジュールiが
選択されているので、出力内容指示変数ai,b
i,..に対応する端末に信号を出力する。In this example, since the operation signal generation module i is selected, the output content indicating variables ai, b
i,. . Output a signal to the terminal corresponding to.
【0028】次に、一連の処理の流れを、図4を用いな
がら詳細に説明する。Next, a flow of a series of processes will be described in detail with reference to FIG.
【0029】まず、プログラム起動後、操作推定条件保
持部7と操作信号発生条件保持部8の制御の基本となる
データの読みこみを行う。さらに、使用者の体重などキ
ャリブレーションできるパラメータについては、キャリ
ブレーションする(ステップA01)。First, after the program is started, data that is the basis of control of the operation estimation condition holding unit 7 and the operation signal generation condition holding unit 8 is read. Further, parameters that can be calibrated, such as the weight of the user, are calibrated (step A01).
【0030】次に、実際の制御を起動する(ステップA
02)。Next, actual control is started (step A).
02).
【0031】起動後、使用者は動作部1を利用し、何ら
かの動作を行う。動作部1からは使用者のある特徴的な
動作によりセンサ出力100が連続的に発生する。計測
部2はセンサ出力10を荷重、移動量、磁気など人間が
理解しやすい物理量である計測データ20、21に変換
する(ステップA03)。After activation, the user uses the operation unit 1 to perform some operation. The sensor output 100 is continuously generated from the operation unit 1 by a certain characteristic operation of the user. The measurement unit 2 converts the sensor output 10 into measurement data 20 and 21 which are physical quantities such as a load, a movement amount, and magnetism that are easy for humans to understand (step A03).
【0032】計測部2では単にセンサ出力100を物理
量に変換するだけなので、その解析が必要な場合は、計
測データ200は解析部3に送られる。また、直接操作
判定に使われる計測データ250は直接操作推定部4に
送られる(ステップA04)。Since the measurement section 2 simply converts the sensor output 100 into a physical quantity, the measurement data 200 is sent to the analysis section 3 when its analysis is necessary. The measurement data 250 used for the direct operation determination is sent to the direct operation estimating unit 4 (step A04).
【0033】解析部3では、計測データ200について
時間的な解析、空間的な解析を行う。計測データ200
のうち時間的な解析を行なうものについては、計測デー
タメモリ6中にある時系列データを参照し、差分処理な
どを行なう。空間的処理については別のセンサからの計
測データと比較あるいは合成することによっておこなわ
れる(ステップA05)。The analysis unit 3 performs a temporal analysis and a spatial analysis on the measurement data 200. Measurement data 200
Among them, those that perform a temporal analysis refer to the time-series data in the measurement data memory 6 and perform a difference process and the like. The spatial processing is performed by comparing or synthesizing with measurement data from another sensor (step A05).
【0034】次に操作推定部4で前述のように各操作の
推定が行われる(ステップA06)。Next, the operation estimating section 4 estimates each operation as described above (step A06).
【0035】次に操作信号発生部5で実際の操作信号の
出力が行われる(ステップA07)。Next, an actual operation signal is output by the operation signal generator 5 (step A07).
【0036】この後、終了ステータスを読み込み、終了
が確認された場合プログラムを終了し、終了が確認され
なかった場合はふたたびセンサ出力の計測を行う(ステ
ップA08)。終了ステータスは、外部からのキー入
力、ループの数や起動時間、あるいは出力する情報処理
装置からの終了読み込みのいずれをおこなってもよい。Thereafter, the termination status is read, and if the termination is confirmed, the program is terminated. If the termination is not confirmed, the sensor output is measured again (step A08). The end status may be any of a key input from the outside, the number of loops and the start time, or an end read from the information processing device to be output.
【0037】本発明の第1の実施形態の変形例は2種類
考えられる。There are two types of modifications of the first embodiment of the present invention.
【0038】1つは、図2の操作推定モジュールの操作
内容指示変数への出力値を−1から1までのアナログ値
とし、さらに積分処理を行う。このような処理を行った
操作内容指示変数を閾値で比較する。One is that the output value to the operation content indicating variable of the operation estimation module of FIG. 2 is set to an analog value from -1 to 1, and further an integration process is performed. The operation content indicating variables that have undergone such processing are compared with a threshold value.
【0039】もう1つは、図3の操作信号発生モジュー
ルの出力内容指示変数への出力値を−1から1までのア
ナログ値とし、さらに積分処理を行う。このような処理
を行った出力内容指示変数を閾値で比較する。The other is to make the output value to the output content indicating variable of the operation signal generation module of FIG. 3 an analog value from -1 to 1, and further perform an integration process. The output content indicating variables that have undergone such processing are compared with a threshold.
【0040】次に、本発明の第1の実施形態の効果につ
いて説明する。本発明の第1の実施の形態は、使用者の
位置・姿勢・動作などの時間的・空間的解釈を加えるこ
とにより、従来にない多くの使用者の意図を反映させる
ユーザーインターフェースを構築することが可能とな
る。さらに上記の理由により、従来より応答性のよいイ
ンタフェースを構築することが可能となる。また、推定
条件保持部7の操作意志推定条件データ710を変更す
ることで、種々の使用者がそれぞれもっとも操作しやす
い形で操作することができる。また、推定条件保持部7
の操作内容推定モジュール決定データ700および操作
信号発生条件保持部8の操作信号発生条件データ800
を変更することで、種々の情報処理装置に対応した体感
入力装置として利用出来る。Next, the effects of the first embodiment of the present invention will be described. The first embodiment of the present invention is to construct a user interface that reflects the intentions of many unconventional users by adding temporal and spatial interpretations such as the position, posture, and motion of the user. Becomes possible. Further, for the above-mentioned reason, it is possible to construct an interface having better responsiveness than before. Further, by changing the operation intention estimation condition data 710 of the estimation condition holding unit 7, various users can operate in the form that is most easy to operate. Further, the estimation condition holding unit 7
Operation content estimation module determination data 700 and operation signal generation condition data 800 of the operation signal generation condition holding unit 8
Can be used as a sensation input device corresponding to various information processing devices.
【0041】また、本発明の第1の実施形態の変形例で
は、従来の例では実現できなかった使用者の微妙な動作
を考慮にいれた操作が可能になるといった効果をもたら
す。Further, the modification of the first embodiment of the present invention has an effect that an operation can be performed in consideration of a delicate operation of a user, which cannot be realized in the conventional example.
【0042】[0042]
【実施例】次に、実施例について説明する。図5は本発
明の第1の実施形態の第1実施例である。本実施例で
は、図5(A)のように両足をのせる部分にそれぞれ3
個ずつの圧力センサが取り付けられており、使用者が体
を動かすことによって画面上のカーソルの操作を行う。
アンプ1001は荷重センサの信号を増幅し、PC10
02は得られた荷重センサのデータを解析し、カーソル
の移動、あるいはイベント動作(マウスではクリックに
あたるもの)を推定して、出力信号を発生する。出力端
末1003はPC1002と情報処理装置1004を接
続する装置である。情報処理装置1004は実際のカー
ソルの操作を行う装置でここではPC等を指す。情報処
理装置1004の映像はLCDプロジェクタ1005を
通じてスクリーン1006に投影される。図5(B)に
示されているのは、操作者の各足に取り付けられたセン
サである。センサ1501〜1503は左足のセンサ、
センサ1504〜1506は右足のセンサであり、各々
の各足のy方向の正方向が使用者の身体の前方向であ
る。なお、座標軸上の原点は図では、各足をのせる部分
の中心の中点に便宜上決めているが、操作前にはキャリ
ブレーションするのでどこであっても差し支えない。図
5(B)の1501・1502・1503のセンサのX
座標をそれぞれXl1、Xl2、Xl3、Y座標をそれ
ぞれYl1、Yl2、Yl3、センサにかかる荷重をそ
れぞれWl1、Wl2、Wl3とし、1504・150
5・1506のセンサのX座標をそれぞれXr1、Xr
2、Xr3、Y座標をそれぞれYr1、Yr2、Yr
3、センサにかかる荷重をそれぞれWr1、Wr2、W
r3とする。図1における動作部1の形状、計測部2の
計測データの内容を以上のように行い、以下に解析部
3、操作推定部4、操作信号発生部5の処理を示す。Next, an embodiment will be described. FIG. 5 shows a first example of the first embodiment of the present invention. In this embodiment, each of the portions on which both feet are placed as shown in FIG.
Each of the pressure sensors is attached, and the user operates the cursor on the screen by moving the body.
The amplifier 1001 amplifies the signal of the load sensor, and
02 analyzes the obtained data of the load sensor, estimates the movement of the cursor or the event operation (which corresponds to a click with a mouse), and generates an output signal. The output terminal 1003 is a device that connects the PC 1002 and the information processing device 1004. The information processing device 1004 is a device for actually operating a cursor, and indicates a PC or the like here. The image of the information processing device 1004 is projected on a screen 1006 through an LCD projector 1005. FIG. 5B shows sensors attached to each foot of the operator. Sensors 1501 to 1503 are left foot sensors,
The sensors 1504 to 1506 are sensors for the right foot, and the forward direction in the y direction of each foot is the forward direction of the user's body. In the figure, the origin on the coordinate axis is determined for convenience as the midpoint of the center of the portion on which each foot is placed. However, calibration is performed before the operation, so that the origin may be anywhere. X of the sensors 1501, 1502, 1503 in FIG.
The coordinates are Xl1, Xl2, Xl3, the Y coordinates are Yl1, Yl2, Yl3, and the loads on the sensor are Wl1, Wl2, Wl3, respectively.
Xr1 and Xr are the X coordinates of the sensor 5 · 1506, respectively.
2, Xr3, and Y coordinates are Yr1, Yr2, and Yr, respectively.
3. The load applied to the sensor is Wr1, Wr2, W
r3. The shape of the operation unit 1 and the contents of the measurement data of the measurement unit 2 in FIG. 1 are performed as described above, and the processing of the analysis unit 3, the operation estimation unit 4, and the operation signal generation unit 5 will be described below.
【0043】図6は本実施例の解析部3のブロック図で
ある。FIG. 6 is a block diagram of the analysis unit 3 of the present embodiment.
【0044】微分部30は入力される図5(B)に示し
た各センサ1501〜1506の荷重−−Wl1、Wl
2、Wl3、Wr1、Wr2、Wr3を差分処理を行
い、時間微分の値を計算する。まず、各計測データが入
力されると、計測データメモリ6から過去の計測データ
−−oWl1、oWl2、oWl3、oWr1、oWr
2、oWr3を読みだし差分をとって、差分された値d
Wl1、dWl2、dWl3、dWr1、dWr2、d
Wr3を出力する。出力後、計測データメモリ6のoW
l1、oWl2、oWl3、oWr1、oWr2、oW
r3をWl1、Wl2、Wl3、Wr1、Wr2、Wr
3に書換える。The differentiating section 30 receives the load of each of the sensors 1501 to 1506 shown in FIG.
2, difference processing is performed on Wl3, Wr1, Wr2, and Wr3, and the value of the time derivative is calculated. First, when each measurement data is input, past measurement data--oW11, oW12, oW13, oWr1, and oWr are read from the measurement data memory 6 in the past.
2. Read out oWr3, take the difference, and obtain the difference value d
Wl1, dWl2, dWl3, dWr1, dWr2, d
Wr3 is output. After output, oW of measurement data memory 6
l1, oWl2, oWl3, oWr1, oWr2, oW
r3 is Wl1, Wl2, Wl3, Wr1, Wr2, Wr
Rewrite to 3.
【0045】重心位置解析部31aでは、各荷重データ
を入力した場合重心位置を出力し、各荷重データの時間
変化を入力した場合重心位置の時間変化を出力する。荷
重データから、左足の重心の座標(Xwl,Ywl)、
右足の重心の座標(Xwr,Ywr)の計算は以下の式
を用いて計算することができる。 Xwl=(Wl1*Xl1+Wl2*Xl2+Wl3*
Xl3)/(Wl1+Wl2+Wl3) Ywl=(Wl1*Yl1+Wl2*Yl2+Wl3*
Yr3)/(Wl1+Wl2+Wl3) Xwr=(Wr1*Xr1+Wr2*Xr2+Wr3*
Xr3)/(Wr1+Wr2+Wr3) Ywr=(Wr1*Yr1+Wr2*Yr2+Wr3*
Yr3)/(Wr1+Wr2+Wr3) 荷重データの時間変化から左足の重心位置の時間変化
(dXwl,dYwl)、右足の重心位置の時間変化
(dXwr,dYwr)も同様にして求めることができ
る。The center-of-gravity position analyzing unit 31a outputs the center-of-gravity position when each load data is input, and outputs the time-dependent change of the center-of-gravity position when the time change of each load data is input. From the load data, the coordinates (Xwl, Ywl) of the center of gravity of the left foot,
The coordinates (Xwr, Ywr) of the center of gravity of the right foot can be calculated using the following equation. Xwl = (W11 * X11 + W12 * X12 + W13 *)
X13) / (W11 + W12 + W13) Ywl = (W11 * Y11 + W12 * Y12 + W13 *)
Yr3) / (W11 + W12 + W13) Xwr = (Wr1 * Xr1 + Wr2 * Xr2 + Wr3 *)
Xr3) / (Wr1 + Wr2 + Wr3) Ywr = (Wr1 * Yr1 + Wr2 * Yr2 + Wr3 *)
Yr3) / (Wr1 + Wr2 + Wr3) The time change of the center of gravity of the left foot (dXwl, dYwl) and the time change of the center of gravity of the right foot (dXwr, dYwr) can be similarly obtained from the time change of the load data.
【0046】左足解析部31b、右足解析部31cで
は、各センサの荷重を入力した場合、それぞれ左足荷重
Wl、右足荷重Wrを出力し、各センサの荷重の時間変
化を入力した場合、それぞれ左足荷重時間変化dWl、
右足荷重時間変化dWrを計算することができる。The left foot analysis unit 31b and the right foot analysis unit 31c output the left foot load Wl and the right foot load Wr, respectively, when the load of each sensor is input. When the time change of the load of each sensor is input, the left foot load, respectively. Time change dWl,
The right foot load time change dWr can be calculated.
【0047】全体重解析部31dでは、荷重データの総
和から全体重Wtを計算する。The total weight analyzer 31d calculates the total weight Wt from the sum of the load data.
【0048】以上によって計算された(Xwl,Yw
l)、(Xwr,Ywr)、(dXwl,dYwl)、
(dXwr,dYwr)、Wl、dWl、Wr、dW
r、Wtは解析データ300として、操作推定部4に送
られる。(Xwl, Yw)
l), (Xwr, Ywr), (dXwl, dYwl),
(DXwr, dYwr), Wl, dWl, Wr, dW
r and Wt are sent to the operation estimating unit 4 as analysis data 300.
【0049】図7は本実施例の操作推定部4のブロック
図である。操作推定部4内の操作内容推定モジュール
は、推定条件保持部6内の操作内容推定モジュール決定
データ700によって、あらかじめ選択されている。選
択されたモジュールは図9のとおりである。FIG. 7 is a block diagram of the operation estimating unit 4 of this embodiment. The operation content estimation module in the operation estimation unit 4 has been selected in advance by the operation content estimation module determination data 700 in the estimation condition holding unit 6. The selected module is as shown in FIG.
【0050】左右移動推定モジュール40aは各足の重
心位置のx座標およびx座標の時間変化、上下移動推定
モジュール40bは各足の重心位置のy座標およびy座
標の時間変化を入力として、出力はそれぞれ左右方向の
移動状態、上下方向の移動状態を出力する。この移動状
態の推定方法は両者同じなので、左右方向の推定を例に
挙げて説明する。The left / right movement estimation module 40a receives the x-coordinate and the x-coordinate time change of the center of gravity of each foot, and the up-and-down movement estimation module 40b takes the y-coordinate and y-coordinate time change of the center of gravity of each foot as inputs. The moving state in the horizontal direction and the moving state in the vertical direction are output. Since the method of estimating the moving state is the same, the estimation in the left-right direction will be described as an example.
【0051】図8は左右移動推定モジュール40aでの
移動判定を行う際の判定基準を明確に示した図である。
図10のXwl+Xwrは各足の重心位置のx座標の
和、dXwl+dXwrは各足の重心位置のx座標の時
間変化の和である。グラフ内のx_thre1、x_t
hre2、dx_thre1、dx_thre2は領域
の識別の際基準となる閾値であるが、操作推定条件保持
部7の操作意志推定条件データ710として外部から入
力される。操作意志の推定は、図10のIからVまでの
5つの領域にわけて、領域によって移動の判別が行われ
る。I、II、III、IV、Vの領域内ではそれぞれ
xの正方向への移動、xの正方向への移動、xの負方向
への移動、xの負方向への移動、移動なしが推定され
る。FIG. 8 is a diagram clearly showing the criterion for judging the movement in the left / right movement estimation module 40a.
Xwl + Xwr in FIG. 10 is the sum of the x-coordinates of the center of gravity of each foot, and dXwl + dXwr is the sum of the changes over time of the x-coordinate of the center of gravity of each foot. X_thre1, x_t in graph
Although hre2, dx_thre1, and dx_thre2 are thresholds used as references for region identification, they are externally input as operation intention estimation condition data 710 of the operation estimation condition holding unit 7. In estimating the operation intention, movement is determined based on the five regions I to V in FIG. In the regions I, II, III, IV, and V, it is estimated that x moves in the positive direction, x moves in the positive direction, x moves in the negative direction, x moves in the negative direction, and no movement occurs. Is done.
【0052】次に、操作推定部4の残りの推定モジュー
ル、左足踏足推定モジュール40c、右足踏足推定モジ
ュール40d、ジャンプ推定モジュール40eについて
説明する。図7の左足踏足推定モジュール40c、右足
踏足推定モジュール40dはともに各足の荷重、各足の
荷重の時間変化を入力として、出力はそれぞれ左足の踏
足状態、右足の踏足状態を出力する。左足踏足推定モジ
ュール40cと右足踏足推定モジュール40dについて
も推定は同じ方法を用いて行われるので、左足の踏足状
態推定を例に挙げて説明する。Next, the remaining estimating module of the operation estimating unit 4, the left foot step estimating module 40c, the right foot step estimating module 40d, and the jump estimating module 40e will be described. The left foot step estimation module 40c and the right foot step estimation module 40d in FIG. 7 both receive the load of each foot and the time change of the load of each foot as inputs, and output the step state of the left foot and the step state of the right foot, respectively. Since the estimation is performed using the same method for the left foot step estimation module 40c and the right foot step estimation module 40d, the step estimation of the left foot will be described as an example.
【0053】使用者の静止時の体重をmass、閾値を
mass_thre1、mass_thre2とすると
左足の踏足状態については、 Wl−Wr>mass*mass_thre1 dWl−dWr>mass_thre2 のとき左足の踏足あり、それ以外の場合、踏足なしと判
定する。Assuming that the weight of the user at rest is mass and the thresholds are mass_thre1 and mass_thre2, the stepping state of the left foot is as follows: Wl−Wr> mass * mass_thre1 It is determined that there is no stepping.
【0054】ここのmassは制御開始前に計測した使
用者直立時の全体重である。mass_thre1、m
ass_thre2は操作意志推定条件データ710の
一部として、推定条件保持部6から入力される。The mass here is the total weight when the user stands upright, which is measured before the control is started. mass_thre1, m
ass_thre2 is input from the estimation condition holding unit 6 as a part of the operation intention estimation condition data 710.
【0055】ジャンプ推定モジュール40eは全体重W
tが一定の値を下回ったとき、ジャンプしたと判定す
る。この閾値も操作意志推定条件データ710の一部と
して、推定条件保持部6から入力される。The jump estimation module 40e calculates the total weight W
When t falls below a certain value, it is determined that a jump has occurred. This threshold is also input from the estimation condition holding unit 6 as a part of the operation intention estimation condition data 710.
【0056】次に前記操作推定モジュールとして推定さ
れた操作内容の操作内容指示変数への出力を行う。操作
指示変数として、図9のような7つの変数−−move
_left,move_right,move_up,
move_down,push_left,push_
right,jump−−が用意されている。この変数
はそれぞれ左移動・右移動・上移動・下移動・左足を踏
む動作・右足を踏む動作・ジャンプする動作に対応す
る。各変数はそれに対応する動作を行うと推定された場
合1が、行わないと推定される場合0が代入される。こ
れらの操作内容指示変数が操作情報400として、操作
信号発生部5に出力される。Next, the operation contents estimated by the operation estimating module are output to the operation content indicating variables. As operation instruction variables, seven variables as shown in FIG. 9 --- move
_Left, move_right, move_up,
move_down, push_left, push_
right, jump-- are prepared. These variables correspond to leftward movement, rightward movement, upward movement, downward movement, stepping on the left foot, stepping on the right foot, and jumping, respectively. For each variable, 1 is substituted when it is estimated that the corresponding operation is performed, and 0 is substituted when it is estimated that the corresponding operation is not performed. These operation content indicating variables are output to the operation signal generator 5 as operation information 400.
【0057】次に操作信号発生部5での処理を説明す
る。図9は本実施例の操作信号発生部5のブロック図で
ある。操作信号発生部5内の操作信号発生モジュール
は、操作信号発生条件保持部7内の操作信号発生条件デ
ータ800によって、あらかじめ選択されている。選択
されたモジュールは図9の50xであるとする。Next, the processing in the operation signal generator 5 will be described. FIG. 9 is a block diagram of the operation signal generator 5 of the present embodiment. The operation signal generation module in the operation signal generation unit 5 is selected in advance by the operation signal generation condition data 800 in the operation signal generation condition holding unit 7. It is assumed that the selected module is 50x in FIG.
【0058】操作信号発生モジュール内のa...gの
データは出力内容指示変数である。この実施例ではそれ
ぞれの変数が以下のようなマウス操作に対応している。 a・・・マウスを左に動かす b・・・マウスを右に動かす c・・・マウスを上に動かす d・・・マウスを下に動かす e・・・マウスの左ボタンをクリックする f・・・マウスの右ボタンをクリックする g・・・マウスの中ボタンをクリックする(もし存在す
れば) 操作信号発生モジュール50xでは、これら出力内容指
示変数にそれに対応する操作内容指示変数の値を代入す
る。次に、出力信号発生部51では出力内容指示変数の
値をもとに、対応する端末に出力信号を発生する。A. Within the operation signal generation module . . The data of g is an output content indicating variable. In this embodiment, each variable corresponds to the following mouse operation. a ... Move the mouse to the left b ... Move the mouse to the right c ... Move the mouse up d ... Move the mouse down e ... Click the left mouse button f ... -Click the right mouse button g ... Click the middle mouse button (if any) In the operation signal generation module 50x, the values of the corresponding operation content indicating variables are substituted for these output content designating variables. . Next, the output signal generation unit 51 generates an output signal to the corresponding terminal based on the value of the output content indicating variable.
【0059】本実施例の発明により、従来重心位置計測
かあるいは感圧パットといった単一入力にしか利用でき
なかった荷重センサを複数入力が可能な入力デバイスと
して利用できることが可能になった。According to the invention of this embodiment, a load sensor which can only be used for a single input such as a center of gravity position measurement or a pressure-sensitive pad can be used as an input device capable of a plurality of inputs.
【0060】本発明の第1の実施の形態の第2実施例の
動作を詳細に説明する。図10は本発明の第1の実施の
形態の第2実施例の概略構成図である。本実施例におけ
る動作部1は図10(A)のプラットホーム1101に
あたる。このプラットホーム1101上では、使用者は
スキーのように体を左右に動かす動作、各足の踵から下
を水平方向から傾ける動作、各種キーを押す動作を行う
ことができる。使用者の足を載せる部分には図5(B)
と同様、各足にそれぞれ3つずつ荷重センサがついてお
り、各足の荷重状態を計測できるようになっている。さ
らに各ハンドルには図10(C)に示すようなキーパッ
トがついている。使用者の前面にはスクリーン1106
がついており、使用者はゲーム機などの情報処理装置1
104の出力する映像(例えば、ゲームならゲームの画
面)を見ながら操作出来るようになっている。The operation of the second example of the first embodiment of the present invention will be described in detail. FIG. 10 is a schematic configuration diagram of a second example of the first embodiment of the present invention. The operation unit 1 in this embodiment corresponds to the platform 1101 in FIG. On the platform 1101, the user can perform an operation of moving the body left and right like skiing, an operation of tilting the heel of each foot downward from the horizontal direction, and an operation of pressing various keys. Fig. 5 (B) shows the part where the user's foot is placed.
Similarly to the above, three load sensors are attached to each foot so that the load state of each foot can be measured. Further, each handle is provided with a key pad as shown in FIG. The screen 1106 is in front of the user.
, The user is an information processing device 1 such as a game machine.
The operation can be performed while watching the video output from the display 104 (for example, a game screen for a game).
【0061】プラットホーム1101には、主軸角計測
エンコーダ1601、踵角計測エンコーダ1602、荷
重センサ1603、キーパット1604がついており、
主軸角θo、左踵角φl、右踵角φr、各荷重Wl1、
Wl2、Wl3、Wr1、Wr2、Wr3(センサと荷
重との対応は第1実施例と同じである)、PLl(図1
6(C)のキー「L1」を押した)、PL2(図16
(C)のキー「L2」を押した)、PRl(図16
(C)のキー「R1」を押した)、PR2(図16
(C)のキー「R2」を押した)を計測することができ
る。操作推定装置1102は、計測部2から操作信号発
生部5までの処理を全て行うものであり、上記各センサ
からの入力をもとに使用者の操作意図を推定し、情報処
理装置1104への出力内容を決定する。出力端末11
03は、情報処理装置1104への出力内容を各情報処
理装置に応じた出力に変換する装置で、ハードウェア接
続部がこれにあたる。The platform 1101 has a spindle angle measuring encoder 1601, a heel angle measuring encoder 1602, a load sensor 1603, and a key pad 1604.
Main shaft angle θo, left heel angle φl, right heel angle φr, each load Wl1,
Wl2, Wl3, Wr1, Wr2, Wr3 (correspondence between sensor and load is the same as in the first embodiment), PLl (FIG. 1)
6 (C) key "L1" was pressed), PL2 (FIG. 16)
(C) key "L2" is pressed), PR1 (FIG. 16)
(C) key "R1" is pressed), PR2 (FIG. 16)
(C) key “R2” is pressed). The operation estimation device 1102 performs all processes from the measurement unit 2 to the operation signal generation unit 5, estimates the user's operation intention based on the input from each of the above-described sensors, and sends the information to the information processing device 1104. Determine the output content. Output terminal 11
A device 03 converts the output content to the information processing device 1104 into an output corresponding to each information processing device, and corresponds to a hardware connection unit.
【0062】次に解析部3から操作信号発生部5までの
一連の処理を順を追って説明する。まず、解析部3の処
理を図11を用いて詳細に説明する。図11での計測デ
ータ200は主軸角θo、左踵角φl、右踵角φr、各
荷重Wl1、Wl2、Wl3、Wr1、Wr2、Wr3
にあたる。この内、微分処理される計測データ201は
主軸角θo、各荷重Wl1、Wl2、Wl3、Wr1、
Wr2、Wr3である。微分部30では、前記データが
差分処理を利用して微分される。具体的には、計測デー
タメモリ6から、過去の主軸角oθo・各荷重oWl
1、oWl2、oWl3、oWr1、oWr2、oWr
3を参照することにより、微分データ203であるdθ
o、dWl1、dWl2、dWl3、dWr1、dWr
2、dWr3を作成し出力した後で、計測データメモリ
の主軸角・各荷重の古いデータを計測データ201であ
る主軸角θo、各荷重Wl1、Wl2、Wl3、Wr
1、Wr2、Wr3に書換える。Next, a series of processes from the analysis unit 3 to the operation signal generation unit 5 will be described step by step. First, the processing of the analysis unit 3 will be described in detail with reference to FIG. The measurement data 200 in FIG. 11 includes the principal axis angle θo, the left heel angle φ1, the right heel angle φr, and the respective loads W11, W12, W13, Wr1, Wr2, Wr3.
Hit. Among them, the measurement data 201 to be differentiated includes the principal axis angle θo, the loads Wl1, Wl2, Wl3, Wr1,
Wr2 and Wr3. In the differentiator 30, the data is differentiated by using a difference process. Specifically, from the measurement data memory 6, the past principal axis angle oθo / each load oWl
1, oWl2, oWl3, oWr1, oWr2, oWr
3, dθ which is the differential data 203 is obtained.
o, dWl1, dWl2, dWl3, dWr1, dWr
2. After creating and outputting dWr3, the old data of the main axis angle and each load in the measurement data memory is converted into the main axis angle θo, which is the measurement data 201, and each load W11, W12, W13, Wr.
Rewrite to 1, Wr2, Wr3.
【0063】足台解析部32aは、計測データ204と
して主軸角θo、左踵角φl、右踵角φr、微分データ
209としてdθoを入力し、同じデータを足台データ
33aとして出力する。重心位置解析部32bは、計測
データ205としてWl1、Wl2、Wl3、Wr1、
Wr2、Wr3を、微分データ210としてdWl1、
dWl2、dWl3、dWr1、dWr2、dWr3を
入力し、重心位置(Xwl,Ywl)、(Xwr,Yw
r)と重心位置の時間変化(dXwl,dYwl)、
(dXwr,dYwr)を含む重心位置データ33bと
して出力する。左足解析部32cでは、計測データ20
6としてWl1、Wl2、Wl3、Wr1、Wr2、W
r3を、微分データ211としてdWl1、dWl2、
dWl3、dWr1、dWr2、dWr3を入力し、左
足データ33cとして、左足荷重Wl、左足荷重の時間
変化dWlを出力する。また、右足解析部32dでは、
計測データ207としてWl1、Wl2、Wl3、Wr
1、Wr2、Wr3を、微分データ212としてdWl
1、dWl2、dWl3、dWr1、dWr2、dWr
3を入力し、右足データ33dとして、右足荷重Wr、
右足荷重の時間変化dWrを出力する。全体重解析部3
2eでは、計測データ208としてWl1、Wl2、W
l3、Wr1、Wr2、Wr3を入力し、全体重データ
305として全体重Wtを出力する。これらの処理の中
身は第1実施例と同じであるので省略する。301から
305までの各データは解析データ300として、操作
推定部4に出力される。The footrest analyzing section 32a inputs the principal axis angle θo, the left heel angle φ1, the right heel angle φr as the measurement data 204, and dθo as the differential data 209, and outputs the same data as the footrest data 33a. The center-of-gravity position analyzing unit 32b calculates Wl1, Wl2, Wl3, Wr1,
Using Wr2 and Wr3 as differential data 210, dWl1,
dWl2, dWl3, dWr1, dWr2, dWr3 are input, and the center of gravity position (Xwl, Ywl), (Xwr, Yw
r) and the time change of the position of the center of gravity (dXwl, dYwl),
It is output as barycentric position data 33b including (dXwr, dYwr). In the left foot analysis unit 32c, the measurement data 20
Wl1, Wl2, Wl3, Wr1, Wr2, W
r3 is defined as dWl1, dWl2,
dWl3, dWr1, dWr2, and dWr3 are input, and the left foot load Wl and the time change dWl of the left foot load are output as the left foot data 33c. In the right foot analysis unit 32d,
Wl1, Wl2, Wl3, Wr as measurement data 207
1, Wr2 and Wr3 are represented by dWl as differential data 212.
1, dWl2, dWl3, dWr1, dWr2, dWr
3 as the right foot data 33d, the right foot load Wr,
The time change dWr of the right foot load is output. Total weight analysis unit 3
2e, Wl1, Wl2, W
13, Wr 1, Wr 2, and Wr 3 are input, and the overall weight Wt is output as the overall weight data 305. The contents of these processes are the same as in the first embodiment, and will not be described. Each of the data 301 to 305 is output to the operation estimation unit 4 as the analysis data 300.
【0064】次に操作推定部4の処理を説明する。操作
推定部4内で選択された各モジュールは図12の通りで
ある。この内、上下移動推定モジュール40b、左足踏
足推定モジュール40c、右足踏足推定モジュール40
d、ジャンプ推定モジュール40eは第1の実施形態の
実施例に述べたとおりなので省略する。Next, the processing of the operation estimating unit 4 will be described. Each module selected in the operation estimating unit 4 is as shown in FIG. Among them, the vertical movement estimation module 40b, the left foot step estimation module 40c, the right foot step estimation module 40
d, the jump estimating module 40e is the same as that described in the example of the first embodiment, and a description thereof will be omitted.
【0065】左右推定モジュール40aの推定原理を図
13を用いながら行う。本方式は、図8で示した実施形
態を応用したもので、主軸角θoと主軸角の時間変化d
θoをもとに7つの場合に分け、各々について姿勢パラ
メータ左足荷重Wl、右足荷重Wr、左踵角φl、右踵
角φrを参照しながら、移動状態の判定を行う。なお、
図中のar_thre1,..ar_thre4,av
_thre1,av_thre2,mass_thre
1,mass_thre2は各閾値で、図1の操作意志
推定条件データ710として外部から入力される。ma
ssは静止状態の使用者の体重で操作前に測定される。The estimation principle of the left / right estimation module 40a will be described with reference to FIG. This method is an application of the embodiment shown in FIG. 8, in which the main shaft angle θo and the time change d of the main shaft angle are shown.
Based on θo, the movement state is determined by referring to the posture parameters left foot load Wl, right foot load Wr, left heel angle φl, and right heel angle φr for each of the seven cases. In addition,
Ar_thre1,. . ar_thre4, av
_Thre1, av_thre2, mass_thre
1 and mass_thre2 are thresholds, which are externally input as operation intention estimation condition data 710 in FIG. ma
ss is measured before operation by the weight of the user in a stationary state.
【0066】II、V、VIIの場合は無条件に右移動
(左旋回)、左移動(右旋回)、移動なし(あるいは直
進)である。IIIの場合、Wr>mass_thre
1*massのとき右移動(左旋回)であり、その他の
場合が移動なしである。VIの場合はその逆の推定を行
う。Iの場合、Wr>mass_thre2*mas
s、φr>ar_thre4のとき右大移動(左大旋
回)、それ以外は普通の右移動(左旋回)である。IV
の場合はその逆の推定を行う。In the case of II, V, and VII, there is unconditionally rightward movement (turn left), leftward movement (right turn), and no movement (or straight ahead). In the case of III, Wr> mass_thre
When it is 1 * mass, the movement is to the right (turn left), and in other cases, there is no movement. In the case of VI, the reverse estimation is performed. In the case of I, Wr> mass_thre2 * mas
When s, φr> ar_thre4, large right movement (large left turn) is performed, and otherwise, normal right movement (left turn). IV
In the case of, the reverse estimation is performed.
【0067】次に、図12の残りの動作推定モジュール
を説明する。しゃがむ動作推定モジュール40fの処理
はYwl+YwrとdYwl+dYwrがともにある一
定の閾値を下回ったときに“しゃがむ”動作実行と判定
する。この閾値も操作意志推定条件データ600として
外部から入力される。最後に、キー操作推定モジュール
40gは計測データ250をそのまま出力する。Next, the remaining motion estimation module of FIG. 12 will be described. The process of the squatting motion estimation module 40f determines that the “squatting” motion is executed when both Ywl + Ywr and dYwl + dYwr fall below a certain threshold. This threshold is also input from the outside as operation intention estimation condition data 600. Finally, the key operation estimating module 40g outputs the measurement data 250 as it is.
【0068】上記動作推定モジュール(40a〜40
g)で推定されたものは操作指示変数出力41bで出力
される。なお、操作指示変数の出力は図12にある通り
である。ここで、第1の実施例で説明していない他の操
作内容指示変数についての説明を行なう。まず、dir
[]は左右への移動状態を表す操作内容指示変数であ
り、dir[0]は左大移動(右大旋回)、dir
[1]は左移動(右旋回)、dir[2]は直進あるい
は移動なし、dir[3]は右移動(左大旋回)、di
r[4]は右大移動(左大旋回)を表す。また、sud
den_downはしゃがむ動作が推定されたとき1
を、そうでないとき0を代入する。また、配列sw_s
tate[]は各キーの出力状態を示すものである(s
w_state[0]..sw_state[3]の1
/0は順にL1、L2、R1、R2の各キーのon/o
ffを示す)。The motion estimation module (40a-40)
The value estimated in g) is output at the operation instruction variable output 41b. The output of the operation instruction variable is as shown in FIG. Here, other operation content indicating variables not described in the first embodiment will be described. First, dir
[] Is an operation content indicating variable indicating a moving state to the left and right, and dir [0] is a large left movement (a large right turn) and a dir.
[1] moves left (turn right), dir [2] goes straight or does not move, dir [3] moves right (large left turn), di
r [4] represents a large right movement (a large left turn). Also, sud
den_down is 1 when the squatting motion is estimated
And 0 otherwise. Also, the array sw_s
state [] indicates the output state of each key (s
w_state [0]. . 1 of sw_state [3]
/ 0 is on / o of each key of L1, L2, R1, R2 in order
ff).
【0069】次に操作信号発生部5の処理を説明する。
図14における操作信号発生モジュール50yは操作信
号発生部内で選択された実施例1とは別の選択されたモ
ジュールである。この出力内容指示変数はゲーム機の以
下のようなボタンに対応する。 a:「←」キー b:「→」キー c:「↑」キー d:「↓」キー e:「B」キー f:「Y」キー ここで最初の式を例に挙げて説明すると a:=dir[0] or dir[1] or sw
_state[0]は「左大移動、左移動、あるいはL
1キーが押された時、「←」キーの端末に信号を出力す
る」という意味である。以下の式も同様に解釈すること
ができる。Next, the processing of the operation signal generator 5 will be described.
The operation signal generation module 50y in FIG. 14 is a selected module different from the first embodiment selected in the operation signal generation unit. The output content indicating variables correspond to the following buttons of the game machine. a: “←” key b: “→” key c: “↑” key d: “↓” key e: “B” key f: “Y” key Here, taking the first formula as an example, a: = Dir [0] or dir [1] or sw
_State [0] is "Large left movement, left movement, or L
This means that when one key is pressed, a signal is output to the terminal of the “←” key. The following equation can be interpreted similarly.
【0070】次に出力内容指示変数の大きさに合わせて
出力信号発生部51で情報処理装置1004に合わせた
信号が出力される。あとの処理は前実施形態の実施例と
同様に操作信号が出力される。Next, a signal matched to the information processing device 1004 is output by the output signal generator 51 in accordance with the size of the output content indicating variable. In the subsequent processing, an operation signal is output as in the example of the previous embodiment.
【0071】本実施例の発明により、従来移動を要する
インターフェースでは問題となっていた移動の切り替え
の反応の遅さを改善することができた。これは、ユーザ
ーの姿勢等から移動の大きさや動作を推定することによ
り、人間の反射的な反応をユーザーインターフェースに
取り込むことができたためである。According to the invention of the present embodiment, it has been possible to improve the response delay of the switching of the movement, which has been a problem in the interface requiring the conventional movement. This is because a reflexive response of a human could be captured in the user interface by estimating the magnitude and movement of the movement from the posture and the like of the user.
【0072】[0072]
【発明の効果】本発明の体感入力装置を利用する第1の
効果は、表示装置の操作対象物の細かい動作を素早く制
御することができるので、臨場感がありかつ操作性のよ
い制御インタフェースが実現できることである。A first effect of using the sensation input device of the present invention is that a detailed operation of the operation target of the display device can be quickly controlled, so that a control interface having a sense of presence and good operability is provided. It can be achieved.
【0073】その理由は使用者の体全体の動きから検出
できる物理データおよび、その物理データの単位時間あ
たりの変化量、他の物理データとの比較、合成されたデ
ータに基づいて、使用者の操作意図を解釈し制御するこ
とになるので、種々の動作を計算機内で解釈することが
できたり、人間のとっさの反応を姿勢検出などで検出し
操作に取り込むことにより、従来より応答性のよい体感
入力装置が実現できるからである。The reason is that based on physical data which can be detected from the movement of the entire body of the user, the amount of change of the physical data per unit time, comparison with other physical data, and synthesized data, Since the intention of the operation is interpreted and controlled, various operations can be interpreted in the computer, and the response of the human being can be detected by posture detection or the like and incorporated into the operation, so that the responsiveness is higher than before. This is because a sensation input device can be realized.
【0074】第2の効果は、1つの体感入力装置で種々
の出力情報処理装置に対応できることである。従来この
ような体感入力装置は、遊戯装置に代表されるように1
つの操作象にしか有効でない場合が多く、汎用的な体感
入力装置が存在しないのが実情であった。本発明によ
り、使用者のデータを予め持つ、あるいはキャリブレー
ションの前処理を行うだけで使いやすいインターフェー
スを実現できる意味において大変有効である。The second effect is that one sensation input device can support various output information processing devices. Conventionally, such a sensation input device is one such as a game device.
In many cases, it is effective for only one operation elephant, and there is no general sensation input device. The present invention is very effective in that an interface that is easy to use can be realized only by preliminarily holding user data or by performing preprocessing for calibration.
【0075】その効果は、操作内容推定の際に種々の推
定方法の内から最適なものを選択する機能、推定方法の
中で個人差が見受けられるデータについてはあらかじめ
入力することができる機能、出力信号発生の部位で外部
からデータ入力することにより出力場所を設定できる機
能を利用すれば、ソフトウエアで簡単に設定することに
より、実現される。The effect is a function of selecting an optimum one from various estimation methods when estimating the operation content, a function of inputting data in which individual differences are found in the estimation method, and an output. If a function that can set an output location by inputting data from outside at a signal generating portion is used, it can be realized by setting easily with software.
【図1】本発明の体感入力装置の第1実施形態の基本構
成を示す図である。FIG. 1 is a diagram showing a basic configuration of a first embodiment of a sensation input device of the present invention.
【図2】本発明の体感入力装置の第1実施形態の操作推
定部4の概念図である。FIG. 2 is a conceptual diagram of an operation estimation unit 4 of the first embodiment of the sensation input device of the present invention.
【図3】本発明の体感入力装置の第1実施形態の操作信
号発生部5の概念図である。FIG. 3 is a conceptual diagram of an operation signal generator 5 of the first embodiment of the sensation input device of the present invention.
【図4】本発明の体感入力装置の第1実施形態の処理の
流れを示すフローチャートである。FIG. 4 is a flowchart showing a processing flow of the first embodiment of the sensation input device of the present invention.
【図5】(A)は、本発明の体感入力装置の第1実施形
態の第1実施例の概念構成図である。(B)は、本発明
の体感入力装置の第1実施形態の第1実施例の使用者の
足元の荷重センサの配置図である。FIG. 5A is a conceptual configuration diagram of a first example of the first embodiment of the sensation input device of the present invention. (B) is a layout view of a load sensor at the foot of the user in the first example of the first embodiment of the sensation input device of the present invention.
【図6】本発明の体感入力装置の第1実施形態の第1実
施例の解析部3の処理のブロック図である。FIG. 6 is a block diagram of a process performed by the analysis unit 3 of the first example of the first embodiment of the sensation input device of the present invention.
【図7】本発明の体感入力装置の第1実施形態の第1実
施例の操作推定部4の処理のブロック図である。FIG. 7 is a block diagram of a process of the operation estimating unit 4 of the first example of the first embodiment of the sensation input device of the present invention.
【図8】図7の左右移動推定モジュール40aの処理の
際に利用する識別方法を示す図である。FIG. 8 is a diagram showing an identification method used in the processing of the left / right movement estimation module 40a of FIG. 7;
【図9】本発明の体感入力装置の第1実施形態の第1実
施例の操作信号発生部5の処理を示した図である。FIG. 9 is a diagram illustrating a process of the operation signal generation unit 5 of the first example of the first embodiment of the sensation input device of the present invention.
【図10】(A)は、本発明の体感入力装置の第1実施
形態の第2実施例の概念構成図である。(B)は、本発
明の体感入力装置の第1実施形態の第2実施例の使用者
の足元の荷重センサの配置図である。(C)は、本発明
の体感入力装置の第1実施形態の第2実施例のキーパッ
トのキー配置図である。FIG. 10A is a conceptual configuration diagram of a second example of the first embodiment of the sensation input device of the present invention. (B) is an arrangement view of a load sensor at the foot of the user of the second example of the first embodiment of the sensation input device of the present invention. (C) is a key layout diagram of a keypad of the second example of the first embodiment of the sensation input device of the present invention.
【図11】本発明の体感入力装置の第1実施形態の第2
実施例の解析部3の処理のブロック図である。FIG. 11 shows a second example of the first embodiment of the sensation input device of the present invention.
It is a block diagram of a process of the analysis part 3 of an Example.
【図12】本発明の体感入力装置の第1実施形態の第2
実施例の操作推定部4の処理を示したブロック図であ
る。FIG. 12 shows a second example of the first embodiment of the sensation input device of the present invention.
It is a block diagram showing processing of operation estimating part 4 of an example.
【図13】図12の左右移動推定モジュール40aの処
理の際に利用する識別方法を示す図である。FIG. 13 is a diagram showing an identification method used in the processing of the left / right movement estimation module 40a of FIG.
【図14】本発明の体感入力装置の第1実施形態の第2
実施例の操作信号発生部5の処理を示した図である。FIG. 14 shows a second example of the first embodiment of the sensation input device of the present invention.
FIG. 5 is a diagram illustrating a process of an operation signal generation unit 5 according to the embodiment.
1 動作部 2 計測部 3 解析部 4 操作推定部 5 操作信号発生部 6 計測データメモリ 7 推定条件保持部 8 操作信号発生条件保持部 100 動作部センサ出力 200 計測データ 300 解析データ 400 操作情報 500 出力 700 操作内容推定モジュール決定データ 710 操作意志推定条件データ 800 操作信号発生条件データ REFERENCE SIGNS LIST 1 operation unit 2 measurement unit 3 analysis unit 4 operation estimation unit 5 operation signal generation unit 6 measurement data memory 7 estimation condition storage unit 8 operation signal generation condition storage unit 100 operation unit sensor output 200 measurement data 300 analysis data 400 operation information 500 output 700 Operation content estimation module decision data 710 Operation intention estimation condition data 800 Operation signal generation condition data
Claims (4)
基に操作意志を推定し、情報処理装置へ操作信号を出力
する入力装置において、 使用者が足を左右に振り出す運動を行うことができる動
作部と、この左右の足の振り角 を計測する計測部と、 前記足の振り角の時系列データを持ち、この時系列デー
タから少なくとも足の振り角の角速度の解析を行う解析
部と、 使用者の運動に対応した操作意志推定条件を保持する推
定条件保持部と、 前記計測部が計測した左右の足の振り角と前記解析部に
おいて生じる足の振り角の角速度を少なくとも入力と
し、前記推定条件判別部の操作意志推定条件および操作
推定方法決定条件を参照することによって使用者の左右
への移動の意志を推定する操作推定部と、 情報処理装置に入力可能な操作信号情報を保持する操作
信号発生条件保持部と、 前記操作推定部において生じる操作意志情報を入力と
し、操作信号発生条件保持部の操作信号情報を参照する
ことによって、出力対象の情報処理装置に操作信号を発
生する操作信号発生部とを有することを特徴とする体感
入力装置。An input device for measuring a motion state of a user, estimating an operation intention based on measured data, and outputting an operation signal to an information processing device, wherein the user performs a motion of swinging a foot left and right. And a measuring unit for measuring the swing angles of the left and right feet, and time series data of the swing angles of the feet.
An analyzing unit that analyzes at least the angular velocity of the foot swing angle from the data, an estimation condition holding unit that holds operation intention estimation conditions corresponding to the motion of the user, and a swing angle of the left and right feet measured by the measurement unit. By inputting at least the angular velocity of the swing angle of the foot generated in the analysis unit and referring to the operation intention estimation condition and the operation estimation method determination condition of the estimation condition determination unit, the user's right and left
An operation estimating unit for estimating the intention to move to the information processing device; an operation signal generation condition holding unit for holding operation signal information that can be input to the information processing apparatus; An sensation input device comprising: an operation signal generation unit that generates an operation signal in an information processing device to be output by referring to operation signal information of a condition holding unit.
ぞれ3点以上の荷重情報を計測し、 前記解析部は、計測されたデータから使用者の重心位置
および重心位置の時間変化を計算し、 前記操作推定部は、移動方向あるいは位置情報を推定す
ることを特徴とする請求項1に記載の体感入力装置。2. The measuring section measures load information at three or more points on the back side of each of the user's feet, and the analyzing section calculates the position of the center of gravity of the user and the time change of the position of the center of gravity from the measured data. It was calculated, the operation estimation unit, sensory input device according to claim 1, characterized in that for estimating the movement direction or position information.
に各足の荷重、各足の単位時間あたりの荷重変化を計算
し、 前記操作推定部は、動作の判定を推定することを特徴と
する請求項1又は2に記載の体感入力装置。3. The analysis unit further calculates a load of each foot and a load change per unit time of each foot from the measured data, and the operation estimating unit estimates a motion determination. The sensation input device according to claim 1 .
を振り出す移動の際、各足の踵から下を水平方向から傾
けることができ、 前記計測部は、各足の踵から下の水平方向からの傾きの
角度を計測することができ、 前記操作推定部は、計測された足の振り角・各足の踵か
ら下の水平方向からの傾きの角度、解析された足の振り
角の角速度・各足の荷重をもとに左右の移動方向および
移動の大きさを判定することを特徴とする請求項1に記
載の体感入力装置。4. The movement section can tilt the heel of each foot downward from the heel of each foot in a horizontal direction when the user swings his / her feet like skiing. It is possible to measure the angle of inclination from the lower horizontal direction, the operation estimating unit, the angle of inclination from the measured horizontal swing angle of each foot from the heel of each foot, the foot of the foot analyzed The sensation input device according to claim 1 , wherein the left and right moving directions and the magnitude of the movement are determined based on the angular velocity of the swing angle and the load on each foot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8039200A JP2746251B2 (en) | 1996-02-27 | 1996-02-27 | Experience input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8039200A JP2746251B2 (en) | 1996-02-27 | 1996-02-27 | Experience input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09224922A JPH09224922A (en) | 1997-09-02 |
JP2746251B2 true JP2746251B2 (en) | 1998-05-06 |
Family
ID=12546494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8039200A Expired - Lifetime JP2746251B2 (en) | 1996-02-27 | 1996-02-27 | Experience input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2746251B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4449057B2 (en) | 2004-02-10 | 2010-04-14 | 株式会社ジャパーナ | Leg strength measuring device |
JP4474609B2 (en) | 2004-02-10 | 2010-06-09 | 株式会社ジャパーナ | Ski or snowboard judgment system |
JP5271121B2 (en) * | 2009-03-09 | 2013-08-21 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP2018504682A (en) * | 2014-12-08 | 2018-02-15 | セス,ロヒット | Wearable wireless HMI device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63172322A (en) * | 1987-01-12 | 1988-07-16 | Mitsubishi Electric Corp | Data input device |
JPH01161483A (en) * | 1987-12-17 | 1989-06-26 | Toshiba Corp | Document editing device |
JPH048138U (en) * | 1990-05-01 | 1992-01-24 | ||
JPH0792468B2 (en) * | 1991-10-11 | 1995-10-09 | ヤマハ株式会社 | Motion detector |
JPH0612483A (en) * | 1992-06-26 | 1994-01-21 | Canon Inc | Method and device for speech input |
JPH06175778A (en) * | 1992-12-02 | 1994-06-24 | Shin Sangyo Souzou Center:Kk | Three-dimensional picture information terminal equipment |
JPH07200162A (en) * | 1993-12-29 | 1995-08-04 | Namco Ltd | Virtual reality experience device and game machine using the same |
-
1996
- 1996-02-27 JP JP8039200A patent/JP2746251B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH09224922A (en) | 1997-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7492362B2 (en) | Virtual space rendering/display apparatus and virtual space rendering/display method | |
JP4533087B2 (en) | Image processing method and image processing apparatus | |
US8395620B2 (en) | Method and system for tracking of a subject | |
CN110753899B (en) | Displacement orientation interaction in computer-mediated reality | |
US6078329A (en) | Virtual object display apparatus and method employing viewpoint updating for realistic movement display in virtual reality | |
TWI297866B (en) | Method for triggering input commands of a program run on a computing system, computer-readable recording medium, computing system, input device for interfacing with a computing device, and input object used as an input device for a computing device | |
US20070159455A1 (en) | Image-sensing game-controlling device | |
JP2000259856A (en) | Method and device for displaying three-dimensional computer graphics | |
US20050174361A1 (en) | Image processing method and apparatus | |
Leibe et al. | Toward spontaneous interaction with the perceptive workbench | |
JP2008500624A (en) | System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system | |
US20200286302A1 (en) | Method And Apparatus For Manipulating Object In Virtual Or Augmented Reality Based On Hand Motion Capture Apparatus | |
WO2006108279A1 (en) | Method and apparatus for virtual presence | |
US20010012011A1 (en) | Camera-based interface to a virtual reality application | |
JP2004523811A (en) | Providing input signals | |
JP3242079U (en) | Floating image display device and floating image display system | |
US20210373671A1 (en) | Floating image display, interactive method and system for the same | |
JP2009087161A (en) | Image processor and image processing method | |
JP2746251B2 (en) | Experience input device | |
Ainasoja et al. | Smartphone teleoperation for self-balancing telepresence robots | |
WO2019127325A1 (en) | Information processing method and apparatus, cloud processing device, and computer program product | |
GB2369673A (en) | Image processing apparatus calibration | |
JPH10255052A (en) | Gesture interface device | |
JP3527653B2 (en) | Method and apparatus for moving in virtual space | |
Souza et al. | Kinect to architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980113 |