[go: up one dir, main page]

JP2018073330A - Input device and virtual space display device - Google Patents

Input device and virtual space display device Download PDF

Info

Publication number
JP2018073330A
JP2018073330A JP2016216027A JP2016216027A JP2018073330A JP 2018073330 A JP2018073330 A JP 2018073330A JP 2016216027 A JP2016216027 A JP 2016216027A JP 2016216027 A JP2016216027 A JP 2016216027A JP 2018073330 A JP2018073330 A JP 2018073330A
Authority
JP
Japan
Prior art keywords
foot
right foot
left foot
load
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016216027A
Other languages
Japanese (ja)
Inventor
裕次 渡津
Yuji Totsu
裕次 渡津
拓也 久保田
Takuya Kubota
拓也 久保田
心一 萩原
Shinichi Hagiwara
心一 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissha Co Ltd
Original Assignee
Nissha Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissha Co Ltd filed Critical Nissha Co Ltd
Priority to JP2016216027A priority Critical patent/JP2018073330A/en
Publication of JP2018073330A publication Critical patent/JP2018073330A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間の中を操作者が移動しているような画像表示の足を使った入力について高い機能を持つ入力装置を提供する。【解決手段】圧力分布センサ40は、足の裏面側に配置され、面状に分布する複数の点の荷重を検知する。検出部50は、圧力分布センサ40により検知された圧力分布を入力し、右足と左足についての圧力分布のデータを作成して右足位置及び左足位置を検出する。処理部60は、検出部50の検出に用いた圧力分布のデータを用いて操作者の正面方向を決定する。【選択図】図1Provided is an input device having a high function for input using an image display foot such that an operator is moving in a virtual space. A pressure distribution sensor 40 is disposed on the back side of a foot and detects loads at a plurality of points distributed in a planar shape. The detection unit 50 receives the pressure distribution detected by the pressure distribution sensor 40, creates pressure distribution data for the right foot and the left foot, and detects the right foot position and the left foot position. The processing unit 60 determines the front direction of the operator using the pressure distribution data used for detection by the detection unit 50. [Selection] Figure 1

Description

本発明は、操作者の足によって入力を行う入力装置、及びそのような入力装置を用いて仮想空間の表示を行う仮想空間表示装置に関する。   The present invention relates to an input device that performs input by an operator's foot, and a virtual space display device that displays a virtual space using such an input device.

従来、特許文献1に記載されているように、操作者の足の動きによって表示画面の入力を行う入力装置が提案されている。特許文献1に記載されている入力装置は、トラックボールをマトリクス状に配置したもので、操作者の足から加わる圧力だけでなく、操作者が足によってトラックボールを回転させることによる入力機能も備えている。
特許文献1に記載されている入力装置は、専らランニングマシンに適用されるものとして開発され、常に真っ直ぐに前を向いて直線状に操作者が走っていることを前提に画像表示を行うのに適している。
Conventionally, as described in Patent Document 1, there has been proposed an input device that inputs a display screen by movement of an operator's foot. The input device described in Patent Document 1 has a configuration in which track balls are arranged in a matrix, and has not only a pressure applied from an operator's foot, but also an input function by the operator rotating the track ball with the foot. ing.
The input device described in Patent Document 1 was developed exclusively for use in a running machine, and is intended to display an image on the assumption that the operator is always running straight and facing straight forward. Is suitable.

特開2003−323246号公報JP 2003-323246 A

しかし、特許文献1に記載の入力装置では、コンピュータゲームなどのように、仮想の3次元空間である仮想空間の中を縦横無尽に操作者が移動しているかのように画像を表示する場合に適した入力を行うには、十分な機能を備えているとは言えない。   However, in the input device described in Patent Document 1, when an image is displayed as if the operator is moving vertically and horizontally in a virtual space that is a virtual three-dimensional space, such as a computer game. It cannot be said that it has enough functions to make a suitable input.

本発明の目的は、入力装置において、仮想空間の中を操作者が移動しているような画像表示の足を使った入力について高い機能を持たせることにある。   An object of the present invention is to provide an input device with a high function for input using an image display foot such that an operator is moving in a virtual space.

以下に、課題を解決するための手段として複数の態様を説明する。これら態様は、必要に応じて任意に組み合せることができる。
本発明の一見地に係る入力装置は、圧力分布センサと、検出部と、処理部と、を備えている。
圧力分布センサは、足の裏面側に配置され、面状に分布する複数の点の荷重を検知する。
検出部は、圧力分布センサにより検知された圧力分布を入力し、右足と左足についての圧力分布のデータを作成して右足位置及び左足位置を検出する。
処理部は、検出部の検出に用いた圧力分布のデータを用いて操作者の正面方向を決定する。
この入力装置では、処理部が検出部の検出に用いた圧力分布のデータを用いて操作者の正面方向を決定することから、仮想空間の正面と操作者の正面方向とを関連させられるので、仮想空間の中を操作者が移動しているような画像表示の入力についての機能が向上する。
Hereinafter, a plurality of modes will be described as means for solving the problems. These aspects can be arbitrarily combined as necessary.
An input device according to an aspect of the present invention includes a pressure distribution sensor, a detection unit, and a processing unit.
The pressure distribution sensor is disposed on the back side of the foot and detects loads at a plurality of points distributed in a planar shape.
The detection unit inputs the pressure distribution detected by the pressure distribution sensor, creates pressure distribution data for the right foot and the left foot, and detects the right foot position and the left foot position.
The processing unit determines the front direction of the operator using the pressure distribution data used for detection by the detection unit.
In this input device, since the processing unit determines the front direction of the operator using the pressure distribution data used for detection by the detection unit, the front of the virtual space and the front direction of the operator can be related, The function of inputting an image display as if the operator is moving in the virtual space is improved.

上述の入力装置において、検出部は、右足と左足についてそれぞれ特定の閾値以上の圧力が掛かっている第1領域と閾値より小さい圧力が掛かっている第2領域とを判別して、第1領域の形状から求めた右足の形状の面積中心である右足面積中心位置を右足位置として検出し、第1領域の形状から求めた左足の形状の面積中心である左足面積中心位置を左足位置として検出し、処理部は、右足面積中心位置と左足面積中心位置とを通る第1直線に対して特定の角度で交わる第2直線の延びる足の向きを正面方向として決定してもよい。
検出部は、右足の足裏の押圧状況から右足の荷重重心の位置である右足荷重重心位置を検出するとともに左足の足裏の押圧状況から左足の荷重重心の位置である左足荷重重心位置を検出し、処理部は、検出部により検出された右足面積中心位置及び左足面積中心位置並びに右足荷重重心位置及び左足荷重重心位置を用いて、体全体の前後方向への荷重の配分である前後荷重配分を決定してもよい。
上述の入力装置において、検出部は、右足と左足についてそれぞれ特定の閾値以上の圧力が掛かっている第1領域と閾値より小さい圧力が掛かっている第2領域とを判別して、第1領域の形状から求めた右足の形状を検出し、第1領域の形状から求めた左足の形状を検出し、処理部は、右足の形状と予め記憶しておいた特定右足形状とをフィッティングするとともに左足の形状と予め記憶しておいた特定左足形状とをフィッティングして右足の長軸方向と左足の長軸方向から正面方向を決定してもよい。
検出部は、右足の足裏の押圧状況から右足の荷重重心の位置である右足荷重重心位置を検出するとともに左足の足裏の押圧状況から左足の荷重重心の位置である左足荷重重心位置を検出し、処理部は、右足及び左足のフィッティング結果並びに右足荷重重心位置及び左足荷重重心位置を用いて、体全体の前後方向への荷重の配分である前後荷重配分を決定してもよい。
In the input device described above, the detection unit determines a first region where a pressure equal to or higher than a specific threshold is applied to each of the right foot and the left foot, and a second region where a pressure smaller than the threshold is applied. Detecting the right foot area center position, which is the center of the area of the right foot shape obtained from the shape, as the right foot position, detecting the center position of the left foot area, which is the area center of the shape of the left foot, obtained from the shape of the first region, The processing unit may determine the direction of the extending leg of the second straight line that intersects the first straight line passing through the right foot area center position and the left foot area center position at a specific angle as the front direction.
The detection unit detects the right foot load center of gravity position, which is the position of the right foot load center of gravity, from the pressing state of the right foot sole, and detects the left foot load center of gravity position, which is the position of the left foot load center of gravity, from the pressing state of the left foot sole. The processing unit uses the right foot area center position and the left foot area center position, the right foot load gravity center position, and the left foot load gravity center position detected by the detection unit to distribute the load in the longitudinal direction, which is the load distribution in the longitudinal direction of the entire body. May be determined.
In the input device described above, the detection unit determines a first region where a pressure equal to or higher than a specific threshold is applied to each of the right foot and the left foot, and a second region where a pressure smaller than the threshold is applied. The shape of the right foot obtained from the shape is detected, the shape of the left foot obtained from the shape of the first region is detected, and the processing unit fits the shape of the right foot and the specific right foot shape stored in advance and The front direction may be determined from the long-axis direction of the right foot and the long-axis direction of the left foot by fitting the shape and the previously stored specific left-foot shape.
The detection unit detects the right foot load center of gravity position, which is the position of the right foot load center of gravity, from the pressing state of the right foot sole, and detects the left foot load center of gravity position, which is the position of the left foot load center of gravity, from the pressing state of the left foot sole. Then, the processing unit may determine the front / rear load distribution, which is the load distribution in the front / rear direction of the entire body, using the fitting results of the right foot and the left foot, the right foot load gravity center position, and the left foot load gravity center position.

上述の入力装置において、検出部は、圧力分布のデータから右足の足裏の押圧状況である右足押圧状況及び左足の足裏の押圧状況である左足押圧状況を検出し、処理部は、検出部により検出された右足押圧状況と左足押圧状況とを比較して、右足と左足への荷重の配分である左右荷重配分を決定してもよい。
上述の入力装置において、検出部は、圧力分布のデータの経時変化から右足の足裏の押圧状況の経時変化である右足押圧経時変化及び左足の足裏の押圧状況の経時変化である左足押圧経時変化を検出し、処理部は、検出部により検出された右足押圧経時変化から右足の上下動を決定するとともに左足押圧経時変化から左足の上下動を決定してもよい。
本発明の他の見地に係る仮想空間表示装置は、上述の入力装置と、入力装置の処理部による決定に基づいて仮想空間の画像を表示する表示装置とを備える。
In the above input device, the detection unit detects from the pressure distribution data a right foot pressing state that is a pressing state of the right foot sole and a left foot pressing state that is a pressing state of the left foot sole, and the processing unit is a detection unit. The right foot pressing situation and the left foot pressing situation detected by the above may be compared to determine the left / right load distribution, which is the load distribution to the right foot and the left foot.
In the above-described input device, the detection unit detects the right foot pressing time-dependent change, which is a time-dependent change of the right foot sole pressing state, and the left foot pressing time-dependent change, which is a time-dependent change of the right foot sole pressing state. The change may be detected, and the processing unit may determine the vertical movement of the right foot from the change over time of the right foot press detected by the detection unit and determine the vertical movement of the left foot from the change over time of the left foot press.
A virtual space display device according to another aspect of the present invention includes the above-described input device and a display device that displays an image of the virtual space based on determination by a processing unit of the input device.

本発明に係る入力装置又は仮想空間表示装置は、仮想空間の中を操作者が移動しているような画像表示の足を使った入力の機能が向上している。   The input device or the virtual space display device according to the present invention has an improved input function using an image display foot in which the operator is moving in the virtual space.

本発明の一実施形態に係る仮想空間表示装置の構成の概要を示す概念図。The conceptual diagram which shows the outline | summary of a structure of the virtual space display apparatus which concerns on one Embodiment of this invention. 仮想空間表示装置で表示される画像の一例を示す絵画図。The pictorial diagram which shows an example of the image displayed with a virtual space display apparatus. ディスプレイと操作者の向きの関係を説明するための概念図。The conceptual diagram for demonstrating the relationship between a display and an operator's direction. 入力装置の入力状態の遷移を示す状態遷移図。The state transition diagram which shows the transition of the input state of an input device. (a)圧力分布センサに右足の踵が置かれた状態の圧力分布の検知結果を示す図、(b)右足に体重の多くが掛けられている状態の圧力分布の検知結果を示す図、(c)左足が圧力分布センサに載せられた状態の圧力分布の検知結果を示す図、(d)両足で静止して立っている状態の圧力分布の検知結果を示す図。(A) The figure which shows the detection result of the pressure distribution in the state where the heel of the right foot is put on the pressure distribution sensor, (b) The figure which shows the detection result of the pressure distribution in the state where a lot of weight is put on the right foot, c) The figure which shows the detection result of the pressure distribution in the state where the left foot is put on the pressure distribution sensor, (d) The figure which shows the detection result of the pressure distribution in a state where the both feet stand still. 左足押圧状況の一例を説明するための図。The figure for demonstrating an example of a left foot press condition. 圧力分布センサにより捉えられた右足の形状と左足の形状の一例を示す図。The figure which shows an example of the shape of the right foot captured by the pressure distribution sensor, and the shape of the left foot. 操作者の正面方向に関連する表示動作を説明するためのフローチャート。The flowchart for demonstrating the display operation relevant to an operator's front direction. 前後荷重配分を使った表示動作の一例を説明するためのフローチャート。The flowchart for demonstrating an example of the display operation | movement using front-and-back load distribution. 左右荷重配分を使った表示動作の一例を説明するためのフローチャート。The flowchart for demonstrating an example of the display operation | movement using right-and-left load distribution. 左右の足の上下動を使った表示動作の一例を説明するためのフローチャート。The flowchart for demonstrating an example of the display operation | movement using the up-and-down movement of the right and left leg | foot. (a)ディスプレイに正対している状態の左右の足の一例を示す概念図、(b)左足から右足に荷重だけを移動して立っている状態を説明するための概念図、(c)左足を右方向へ踏み出して右足がそのままの位置にある状態を説明するための概念図、(d)ディスプレイと正対するために足を戻した状態を説明するための概念図。(A) Conceptual diagram showing an example of left and right feet in a state of facing the display, (b) Conceptual diagram for explaining a state where only the load is moved from the left foot to the right foot, and (c) the left foot FIG. 4 is a conceptual diagram for explaining a state in which the right foot is left in the position as it is stepped rightward, and (d) a conceptual diagram for explaining a state in which the foot is returned to face the display. フィッティングの一例を説明するための概念図。The conceptual diagram for demonstrating an example of fitting.

1.第1実施形態
(1)仮想空間表示装置の構成
図1を用いて、本発明の一実施形態に係る仮想空間表示装置10を説明する。図1は、仮想空間表示装置の構成の概要を示す概念図である。
仮想空間表示装置10は、仮想空間に対する操作情報を入力するための入力装置20と、入力装置20に入力される操作情報に基づいて仮想空間の画像を表示する表示装置30とを備えている。
入力装置20は、圧力分布センサ40と、検出部50と、処理部60とを備えている。
1. First Embodiment (1) Configuration of Virtual Space Display Device A virtual space display device 10 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a conceptual diagram showing an outline of the configuration of the virtual space display device.
The virtual space display device 10 includes an input device 20 for inputting operation information for the virtual space, and a display device 30 for displaying an image of the virtual space based on the operation information input to the input device 20.
The input device 20 includes a pressure distribution sensor 40, a detection unit 50, and a processing unit 60.

(1−1)圧力分布センサ
圧力分布センサ40は、例えば、硬い板状の台の上に、プラスチック製のシートを敷いた構造を有している。シートには、例えば導電配線が積層されており、XY座標の各点の位置に対応するように、マトリクス状に配置された複数の感圧センサ41が形成されている。圧力分布センサ40内の各感圧センサ41は、シートの上から掛かる圧力に応じて物理量、例えば電気的な物理量の変化を示す。例えば、各感圧センサ41に掛かる圧力が高くなると、各感圧センサ41の抵抗値が低くなる。
従って、圧力分布センサ40は、面状に分布する複数の点の荷重を検知できる。
圧力分布センサ40の全ての感圧センサ41から電気的な物理量を取り出すために、例えば、圧力分布センサ40からワイヤハーネス42が延びている。このワイヤハーネス42は、検出部50のA/D変換器72に接続されている。このような構成により、圧力分布センサ40の各感圧センサ41の荷重の検知結果が検出部50に送られる。
圧力分布センサ40には、測定開始・終了ボタン領域43が設けられている。この領域に配置されている感圧センサ41に所定の閾値以上の圧力が加わると、入力装置20は、未だ測定が開始されていなければ測定を開始し、既に測定が開始されていれば測定を終了する。
(1-1) Pressure distribution sensor The pressure distribution sensor 40 has, for example, a structure in which a plastic sheet is laid on a hard plate-like table. For example, conductive wiring is laminated on the sheet, and a plurality of pressure-sensitive sensors 41 arranged in a matrix are formed so as to correspond to the positions of each point in the XY coordinates. Each pressure-sensitive sensor 41 in the pressure distribution sensor 40 indicates a change in a physical quantity, for example, an electrical physical quantity, according to the pressure applied from above the sheet. For example, when the pressure applied to each pressure sensor 41 increases, the resistance value of each pressure sensor 41 decreases.
Accordingly, the pressure distribution sensor 40 can detect loads at a plurality of points distributed in a planar shape.
In order to extract electrical physical quantities from all the pressure sensitive sensors 41 of the pressure distribution sensor 40, for example, a wire harness 42 extends from the pressure distribution sensor 40. The wire harness 42 is connected to the A / D converter 72 of the detection unit 50. With such a configuration, the load detection result of each pressure-sensitive sensor 41 of the pressure distribution sensor 40 is sent to the detection unit 50.
The pressure distribution sensor 40 is provided with a measurement start / end button region 43. When pressure equal to or greater than a predetermined threshold is applied to the pressure-sensitive sensor 41 arranged in this region, the input device 20 starts measurement if measurement has not yet started, and performs measurement if measurement has already started. finish.

(1−2)検出部
検出部50は、例えば、パーソナルコンピュータ71と、A/D変換器72とで構成される。言い換えると、検出部50は、測定値をデータに変換する入力インタフェース(A/D変換器72)と、入力されたデータを処理する計算部(例えば、パーソナルコンピュータ71のCPUとメモリ)とで構成されている。入力インタフェースであるA/D変換器72は、各感圧センサ41のアナログ値として入力される物理量をデジタル値で示されるデータに変換して計算部であるパーソナルコンピュータ71に伝達する。このようにして、検出部50は、圧力分布センサ40により検知された圧力分布の検知結果を入力して圧力分布のデータを取得する。
検出部50は、右足と左足についての圧力分布のデータから右足位置及び左足位置を検出する。また、圧力分布から右足の足裏の押圧状況である右足押圧状況及び左足の足裏の押圧状況である左足押圧状況を検出する。また、検出部50は、右足の足裏の押圧状況から右足の荷重重心の位置である右足荷重重心位置を検出する。検出部50は、同様に、左足の足裏の押圧状況から左足の荷重重心の位置である左足荷重重心位置を検出する。さらに、検出部50は、右足の足裏の押圧状況の経時変化である右足押圧経時変化及び左足の足裏の押圧状況の経時変化である左足押圧経時変化を検出する。これら右足位置及び左足位置などの検出方法の詳細な例については後述する。
検出部50は、検出した検出情報を処理部60に送信する。
(1-2) Detection Unit The detection unit 50 includes, for example, a personal computer 71 and an A / D converter 72. In other words, the detection unit 50 includes an input interface (A / D converter 72) that converts measured values into data, and a calculation unit (for example, the CPU and memory of the personal computer 71) that processes the input data. Has been. The A / D converter 72 as an input interface converts a physical quantity input as an analog value of each pressure sensor 41 into data indicated by a digital value and transmits the data to a personal computer 71 as a calculation unit. In this way, the detection unit 50 acquires the pressure distribution data by inputting the detection result of the pressure distribution detected by the pressure distribution sensor 40.
The detection unit 50 detects the right foot position and the left foot position from the pressure distribution data for the right foot and the left foot. Further, a right foot pressing situation that is a pressing situation of the right foot sole and a left foot pressing situation that is a pressing situation of the left foot sole are detected from the pressure distribution. Further, the detection unit 50 detects the right foot load gravity center position, which is the position of the load gravity center of the right foot, from the pressing state of the sole of the right foot. Similarly, the detection unit 50 detects the left foot load gravity center position, which is the position of the load gravity center of the left foot, from the pressing state of the sole of the left foot. Further, the detection unit 50 detects a change in the right foot pressing with time, which is a change over time in the pressing state of the sole of the right foot, and a change in the left foot pressing with time, which is a change over time in the pressing state of the sole of the left foot. Detailed examples of the detection method of the right foot position and the left foot position will be described later.
The detection unit 50 transmits the detected detection information to the processing unit 60.

(1−3)処理部
処理部60は、例えば、パーソナルコンピュータ71で構成される。言い換えると、処理部60は、検出部50から得られる検出情報を処理する計算部(例えば、パーソナルコンピュータ71のCPUとメモリ)と、処理結果に応じて画像情報を出力する出力インタフェース(例えば、パーソナルコンピュータ71の出力端末)とで構成されている。
処理部60は、検出部50により検出された右足位置及び左位置を用いて操作者100の正面方向を決定する。また、処理部60は、操作者100の体全体の前後方向への荷重の配分である前後荷重配分を決定する。また、処理部60は、操作者100の右足と左足への荷重の配分である左右荷重配分を決定する。さらに、処理部60は、左右の足の上下動を決定する。
そして、処理部60は、表示装置30に表示される仮想空間の画像データを生成する。処理部60は、操作者100の正面方向に仮想空間が正対するように画像データを生成する。例えば、図2に示されている町の画像200について、操作者100が町の画像200に正対した状態では、道路201が操作者100の正面の中心に存在するものとする。この場合、操作者100が図2の斜め右方向を向いて立っていると、操作者100の正面の中心には家202が存在する。このような状態で操作者100が表示装置30に向かって仮想的に歩行、すなわち、斜め右方向を向いて仮想的に歩行した場合に、処理部60は、道路201を右前方に移動したような画像データを生成する。これにより、仮想空間の直線でない道路201の上を歩くような感覚を操作者100に与えることができる。
なお、ここで仮想的に歩行する場合には、操作者100が足踏みをしている状態も含める。また、ここで示した処理部60で決定された正面方向を用いた仮想空間の画像データの生成は一例であって、このような画像データの生成に限られるものではない。
また、処理部60は、前後荷重配分を考慮した仮想空間の画像データを生成する。例えば、前に荷重配分がある場合には、足よりも頭が前に出ており、これを見下ろしていると処理部60で判断する。見下ろしていると判断した場合には、例えば、少し下方向を見ているように、つまり、地面の方を見ているように仮想空間の画像データを切り換える。例えば逆に、後ろに荷重配分がある場合には、足よりも頭が後に後退しており、これを見上げていると処理部60で判断する。見上げていると判断した場合には、例えば、少し上方向を見ているように、つまり、空の方を見上げるように仮想空間の画像データを切り換える。なお、ここで示した前後荷重配分を考慮した仮想空間の画像データの切り換えは一例であって、このような画像データの生成に限られるものではない。
(1-3) Processing Unit The processing unit 60 is configured by a personal computer 71, for example. In other words, the processing unit 60 includes a calculation unit (for example, a CPU and a memory of the personal computer 71) that processes detection information obtained from the detection unit 50, and an output interface (for example, a personal computer) that outputs image information according to the processing result. And an output terminal of the computer 71).
The processing unit 60 determines the front direction of the operator 100 using the right foot position and the left position detected by the detection unit 50. In addition, the processing unit 60 determines a front / rear load distribution that is a load distribution in the front / rear direction of the entire body of the operator 100. In addition, the processing unit 60 determines left and right load distribution that is distribution of loads to the right foot and left foot of the operator 100. Further, the processing unit 60 determines the vertical movement of the left and right feet.
Then, the processing unit 60 generates virtual space image data displayed on the display device 30. The processing unit 60 generates image data so that the virtual space faces the operator 100 in the front direction. For example, with respect to the town image 200 shown in FIG. 2, it is assumed that the road 201 exists in the center of the front of the operator 100 when the operator 100 faces the town image 200. In this case, when the operator 100 stands facing diagonally right in FIG. 2, the house 202 exists at the center of the front of the operator 100. In such a state, when the operator 100 virtually walks toward the display device 30, that is, virtually walks in the diagonally right direction, the processing unit 60 seems to have moved the road 201 to the right front. Image data is generated. Thereby, it is possible to give the operator 100 a feeling of walking on a road 201 that is not a straight line in the virtual space.
In addition, when walking virtually here, the state which the operator 100 is stepping on is also included. The generation of the image data of the virtual space using the front direction determined by the processing unit 60 shown here is an example, and is not limited to the generation of such image data.
In addition, the processing unit 60 generates image data of a virtual space in consideration of the front / rear load distribution. For example, when there is a load distribution in front, the processing unit 60 determines that the head is ahead of the foot and the person is looking down. If it is determined that the user is looking down, for example, the image data in the virtual space is switched so as to look down slightly, that is, as if looking at the ground. For example, conversely, when there is load distribution behind, the processing unit 60 determines that the head recedes behind the foot and is looking up. When it is determined that the user is looking up, for example, the image data in the virtual space is switched so as to look up slightly, that is, look up toward the sky. Note that the switching of the image data in the virtual space in consideration of the front-rear load distribution shown here is an example, and is not limited to the generation of such image data.

また、処理部60は、左右荷重配分を考慮した仮想空間の画像データを生成する。例えば、右に荷重配分がある場合には、入力装置20は、操作者100から右から左に画像をスクロールするよう指示されたと認識する。例えば、図2の道路201の右側の家202のさらに右に道路201とは異なる道路(図示せず)が仮想空間において存在すると、操作者100は、体を右に傾けて右足に体重を掛けて、その異なる道路を操作者100の正面に表示させることができる。なお、ここで示した左右荷重配分を考慮した仮想空間の画像データの切り換えは一例であって、このような画像データの生成に限られるものではない。
また、処理部60は、右足及び左足の上下動を考慮した仮想空間の画像データを生成する。例えば、処理部60は、右足と左足が同時に離れた場合には、操作者100がジャンプによる入力を行ったと認識して、そのジャンプに対応した仮想空間の画像データの生成を行う。例えば、ジャンプされたときには、ジャンプ中の飛行時間(両足が離れてから着地するまでの時間)に応じて仮想空間の中の障害物を飛び越えたりするなどの画像データ、例えば図2の仮想空間の道路201から家202の屋根の上に飛び上がったような仮想空間の画像データを生成できる。あるいは、仮想空間の画像として複数種類の画像、例えば路地裏以外に商店街の画像が準備されていた場合に、ジャンプを画像の種類の切換と認識して、路地裏の画像から商店街の画像に切り換えるように構成できる。このようなジャンプによる入力をどのような情報の入力とするかは、予め操作者100と入力装置20の提供者との間で取り決められていれば適切な使用が可能になる。
Further, the processing unit 60 generates image data of a virtual space in consideration of the left / right load distribution. For example, when there is a load distribution on the right, the input device 20 recognizes that the operator 100 has instructed to scroll the image from right to left. For example, when a road (not shown) different from the road 201 exists further to the right of the house 202 on the right side of the road 201 in FIG. 2, the operator 100 leans his body to the right and puts his weight on the right foot. The different roads can be displayed in front of the operator 100. Note that the switching of the image data in the virtual space in consideration of the left / right load distribution shown here is an example, and is not limited to the generation of such image data.
In addition, the processing unit 60 generates image data in a virtual space considering the vertical movement of the right foot and the left foot. For example, when the right foot and the left foot are separated from each other at the same time, the processing unit 60 recognizes that the operator 100 has performed an input by jumping, and generates image data of the virtual space corresponding to the jump. For example, when jumping, image data such as jumping over an obstacle in the virtual space according to the flight time during jumping (the time from when both feet are released to landing), such as the virtual space of FIG. It is possible to generate image data of a virtual space that jumps up from the road 201 onto the roof of the house 202. Alternatively, when a plurality of types of images are prepared as virtual space images, such as shopping street images other than the back alleys, jumps are recognized as image type switching, and the back alley images are converted to shopping street images. It can be configured to switch to As to what kind of information is input by such a jump, it is possible to use it appropriately if it is decided in advance between the operator 100 and the provider of the input device 20.

さらに、例えば、処理部60は、右足と左足が交互に離れた場合には、操作者100が歩行したと認識して、その歩行に対応した仮想空間の画像データの生成を行う。例えば、操作者100が歩行していると認識したときには、操作者100が仮想空間の道路201を前方に歩いているように感じられるように仮想空間の画像データを生成できる。操作者100が移動する方向は、例えば、操作者100の正面方向とする。図2には仮想空間のXY座標軸と移動方向vwが示されているが、この移動方向vwを操作者100の正面方向と一致させることで、操作者100は自分が向いている方向へ仮想空間の中を動いているような仮想体験ができる。   Further, for example, when the right foot and the left foot are alternately separated, the processing unit 60 recognizes that the operator 100 has walked and generates image data of a virtual space corresponding to the walk. For example, when it is recognized that the operator 100 is walking, the image data of the virtual space can be generated so that the operator 100 feels as if walking on the road 201 in the virtual space. The direction in which the operator 100 moves is, for example, the front direction of the operator 100. FIG. 2 shows the XY coordinate axes and the moving direction vw of the virtual space. By making this moving direction vw coincide with the front direction of the operator 100, the operator 100 moves to the virtual space in the direction in which he is facing. You can have a virtual experience as if you are moving in

(1−4)表示装置
表示装置30は、仮想空間の画像を表示するディスプレイ31を含んでいる。表示装置30は、入力装置20の処理部60から送信されてくる画像データから画像を生成してディスプレイ31に映し出す。表示装置30は、圧力分布センサ40と同様に、据え置きである。言い換えると、操作者100が移動しても、表示装置30と圧力分布センサ40は移動しない。そして、表示装置30のXY座標(図2参照)と圧力分布センサ40のXY座標との関係は固定されている。
この実施形態に係る仮想空間表示装置10においては、ディスプレイ31と操作者100の関係は、例えば、図3に示されているように操作者100の正面方向(矢印D1で示されている方向)が角度θの範囲内に収まるものとして設定されている。
(1-4) Display Device The display device 30 includes a display 31 that displays an image of the virtual space. The display device 30 generates an image from the image data transmitted from the processing unit 60 of the input device 20 and displays it on the display 31. As with the pressure distribution sensor 40, the display device 30 is stationary. In other words, even if the operator 100 moves, the display device 30 and the pressure distribution sensor 40 do not move. The relationship between the XY coordinates of the display device 30 (see FIG. 2) and the XY coordinates of the pressure distribution sensor 40 is fixed.
In the virtual space display device 10 according to this embodiment, the relationship between the display 31 and the operator 100 is, for example, the front direction of the operator 100 (the direction indicated by the arrow D1) as shown in FIG. Is set to fall within the range of the angle θ.

(2)状態の遷移
図4には、仮想空間表示装置10の状態遷移の一例が示されている。電源投入直後は、IDLE状態ST1である。IDLE状態は、測定開始・終了ボタン領域43が押されるのを持っている開始指示の入力待ちの状態である。測定開始ボタンが押されると、IDLE状態ST1からINIT状態ST2に遷移する。INIT状態ST2では、操作者100に静止して立つように求め、以後の処理のための情報として、例えば、右足の形状、左足の形状、右足の初期の右足位置及び左足の初期の左足位置が検出される。INIT状態ST2において、例えば測定開始・終了ボタン領域43の操作、別に設けられた入力装置(図示せず)の操作又は設定された初期設定時間の経過によって、INIT状態ST2からLOOK・AROUND状態ST3に遷移する。
なお、ST1〜ST3の遷移はボタンを押したり静止して立つように求めたりせず、遷移させることもできる。例えば、IDLE状態ST1で左右の足の搭乗が検出部50によって検出されればINIT状態ST2に遷移、自動的にINIT状態ST2での左右の足の形状を自動的に検出し、LOOK・AROUND状態ST3に遷移させるように構成してもよい。
LOOK・AROUND状態ST3では、操作者100はXY座標上で静止しているものとして、仮想空間の画像を表示する。つまり、操作者100はXY座標上の現在位置からほとんど移動しない。LOOK・AROUND状態ST3では、例えば、左旋回、右旋回、見下ろす表示への切り換え、又は見上げる状態への切り換えなどが行われる。LOOK・AROUND状態ST3において、操作者100が歩行していると処理部60が認識すると、LOOK・AROUND状態ST3からWALK状態ST4に遷移する。また、LOOK・AROUND状態ST3において、操作者100がジャンプしたと処理部60が認識すると、LOOK・AROUND状態ST3からJUMP状態ST5に遷移する。さらに、LOOK・AROUND状態ST3において、測定開始・終了ボタン領域43の終了ボタンが押されると、LOOK・AROUND状態ST3からENDING状態ST6に遷移する。
また、LOOK・AROUND状態ST3において、一定時間、左右の足の搭乗が無い場合も、LOOK・AROUND状態ST3からENDING状態ST6に遷移させるように構成してもよい。
(2) State Transition FIG. 4 shows an example of state transition of the virtual space display device 10. Immediately after the power is turned on, the state is the IDLE state ST1. The IDLE state is a state of waiting for input of a start instruction having the measurement start / end button area 43 pressed. When the measurement start button is pressed, the state transitions from the IDLE state ST1 to the INIT state ST2. In the INIT state ST2, the operator 100 is asked to stand still, and information for subsequent processing includes, for example, the shape of the right foot, the shape of the left foot, the initial right foot position of the right foot, and the initial left foot position of the left foot. Detected. In the INIT state ST2, the INIT state ST2 is changed to the LOOK / AROUND state ST3 by, for example, the operation of the measurement start / end button area 43, the operation of an input device (not shown) provided separately, or the elapse of a preset initial setting time. Transition.
Note that the transition from ST1 to ST3 can be made without pressing a button or asking to stand still. For example, if the detection unit 50 detects boarding of the left and right feet in the IDLE state ST1, the transition to the INIT state ST2 is automatically performed, and the shape of the left and right feet in the INIT state ST2 is automatically detected, and the LOOK / AROUND state You may comprise so that it may change to ST3.
In the LOOK / AROUND state ST3, the operator 100 displays an image of the virtual space on the assumption that the operator 100 is stationary on the XY coordinates. That is, the operator 100 hardly moves from the current position on the XY coordinates. In the LOOK / AROUND state ST3, for example, a left turn, a right turn, switching to a display to look down, or switching to a state of looking up is performed. In the LOOK / AROUND state ST3, when the processing unit 60 recognizes that the operator 100 is walking, the transition is made from the LOOK / AROUND state ST3 to the WALK state ST4. When the processing unit 60 recognizes that the operator 100 has jumped in the LOOK / AROUND state ST3, the state transits from the LOOK / AROUND state ST3 to the JUMP state ST5. Furthermore, when the end button of the measurement start / end button area 43 is pressed in the LOOK / AROUND state ST3, the state transits from the LOOK / AROUND state ST3 to the ENDING state ST6.
Further, in the LOOK / AROUND state ST3, even when the left and right feet are not boarded for a certain period of time, the transition may be made from the LOOK / AROUND state ST3 to the ENDING state ST6.

WALK状態ST4においては操作者100が例えば仮想空間の中を歩いているように画像が変化する。WALK状態ST4において、操作者100が静止して立っている姿勢に戻ったと処理部60が認識すると、WALK状態ST4からLOOK・AROUND状態ST3に遷移する。また、WALK状態ST4において、操作者100がジャンプしたと処理部60が認識すると、WALK状態ST4からJUMP状態ST5に遷移する。さらに、WALK状態ST4において、測定開始・終了ボタン領域43の終了ボタンが押されると、WALK状態ST4からENDING状態ST6に遷移する。
JUMP状態ST5においては操作者100が例えば仮想空間の中でジャンプしたように画像が変化する。JUMP状態ST5において、操作者100が静止して立っている姿勢に戻ったと処理部60が認識すると、JUMP状態ST5からLOOK・AROUND状態ST3に遷移する。操作者100のジャンプはきわめて短い時間で終了するので、この処理部60においては、JUMP状態ST5からWALK状態ST4への遷移及びENDING状態ST6への遷移は設定されていない。
ENDING状態ST6においてはデータを初期化し、IDLE状態ST1に戻ることを操作者に提示した後、IDLE状態ST1へ戻る。
In the WALK state ST4, the image changes as if the operator 100 is walking in the virtual space, for example. In the WALK state ST4, when the processing unit 60 recognizes that the operator 100 has returned to the standing posture, the state transits from the WALK state ST4 to the LOOK / AROUND state ST3. In addition, when the processing unit 60 recognizes that the operator 100 has jumped in the WALK state ST4, the state transits from the WALK state ST4 to the JUMP state ST5. Furthermore, when the end button in the measurement start / end button area 43 is pressed in the WALK state ST4, the state transits from the WALK state ST4 to the ENDING state ST6.
In the JUMP state ST5, the image changes as if the operator 100 jumped in the virtual space, for example. In the JUMP state ST5, when the processing unit 60 recognizes that the operator 100 has returned to a standing posture, the state transits from the JUMP state ST5 to the LOOK / AROUND state ST3. Since the jump of the operator 100 is completed in a very short time, the transition from the JUMP state ST5 to the WALK state ST4 and the transition to the ENDING state ST6 are not set in the processing unit 60.
In the ENDING state ST6, the data is initialized, the operator is returned to the IDLE state ST1, and then returned to the IDLE state ST1.

(3)入力装置20の動作例
(3−1)静止して立っているときの圧力分布
例えば、図4のINIT状態ST2で、操作者100が静止して立っているとき、圧力分布センサ40では、右足と左足の両方の足裏から掛かる荷重が検知される。図5(a)、図5(b)、図5(c)及び図5(d)には、圧力分布センサの上に操作者が立ち入ったときに圧力分布の状態が示している。図5(a)には、右足の踵が置かれた状態の圧力分布の検知結果P2が示されており、図5(b)には、右足の足裏全体が置かれた状態の圧力分布の検知結果P3が示されており、図5(c)には右足の足裏全体が置かれた状態の圧力分布の検知結果P4と左足の足裏の大部分が置かれた状態の圧力分布の検知結果P5が示されており、図5(d)には左右足の足裏全体が置かれた状態の圧力分布の検知結果P6,P7が示されている。図5(a)から図5(d)に示されているように、圧力分布は、操作者100の体重移動や足の動きによって時間とともに変化する。
従って、入力装置20によって入力を開始するにあたり、操作者100が静止して立っているときの基準となる右足と左足の押圧状況を決めておくことは重要である。しかし、操作者100が静止して立っていても、完全に操作者100が動きを止めることは難しく、操作者100の体は多少揺れ動いている。そのため、この実施形態では、検出部50は、予め定めた一定時間(ここでは初期状態測定時間という)の間の感圧センサ41のピーク値を検出する。検出部50は、この初期状態測定時間のピーク値で、右足の形状及び左足の形状を検出する。
入力装置20は、仮想空間の表示のために必要な情報を入力するための装置である。つまり、入力装置20では、例えば、靴を作るための足型の計測、医療のための足・脚の計測、及び歩行の計測などのような足に関するデータを取るための正確な測定を求められるものではない。従って、上述のようにピーク値を初期状態測定時間にわたって検知することで、測定された右足の形状及び左の形状が実際の右足の形状及び左足の形状から多少歪んでいてもよい。
(3) Operation example of the input device 20 (3-1) Pressure distribution when standing still For example, when the operator 100 stands still in the INIT state ST2 of FIG. 4, the pressure distribution sensor 40 Then, the load applied from the soles of both the right foot and the left foot is detected. FIG. 5A, FIG. 5B, FIG. 5C, and FIG. 5D show the state of pressure distribution when the operator enters the pressure distribution sensor. FIG. 5A shows the detection result P2 of the pressure distribution in a state where the right foot heel is placed, and FIG. 5B shows the pressure distribution in the state where the entire sole of the right foot is placed. FIG. 5C shows the pressure distribution detection result P4 in the state where the entire sole of the right foot is placed and the pressure distribution in the state where most of the sole of the left foot is placed. FIG. 5D shows pressure distribution detection results P6 and P7 in a state where the entire soles of the left and right feet are placed. As shown in FIGS. 5A to 5D, the pressure distribution changes with time according to the weight shift of the operator 100 and the movement of the foot.
Therefore, when the input device 20 starts input, it is important to determine the pressing state of the right foot and the left foot, which is a reference when the operator 100 stands still. However, even if the operator 100 stands still, it is difficult for the operator 100 to completely stop the movement, and the body of the operator 100 is slightly shaken. For this reason, in this embodiment, the detection unit 50 detects the peak value of the pressure-sensitive sensor 41 during a predetermined time (herein, referred to as initial state measurement time). The detection unit 50 detects the shape of the right foot and the shape of the left foot with the peak value of the initial state measurement time.
The input device 20 is a device for inputting information necessary for displaying a virtual space. In other words, the input device 20 is required to perform accurate measurement for taking foot-related data such as foot-shaped measurement for making shoes, foot / leg measurement for medical treatment, and walking measurement. It is not a thing. Therefore, by detecting the peak value over the initial state measurement time as described above, the measured right foot shape and left foot shape may be slightly distorted from the actual right foot shape and left foot shape.

(3−2)右足位置及び左足位置の検出
図6には、左足の足裏の押圧状況である左足押圧状況P1の一例が示されている。図6において、白いブロックの感圧センサ41には圧力が掛かっておらず、密度の高いクロスハッチングのブロックの感圧センサ41に最も大きな第4閾値以上の圧力が掛かっている。そして、白いブロックと密度の高いクロスハッチングのブロックとの間に第1閾値、第2閾値、第3閾値が設定されている。第1閾値と第2閾値の圧力が掛かる感圧センサ41に対応するブロックには密度の低い斜線ハッチングが施され、第2閾値と第3閾値の圧力が掛かる感圧センサ41に対応するブロックには密度の高い斜線ハッチングが施され、第3閾値と第4閾値の圧力が掛かる感圧センサ41に対応するブロックには密度の小さいクロスハッチングが施されている。
右足位置及び左足位置の検出には、図7に示されているように、右足の形状F1と左足の形状F2とを求める。そのためには、図6に示されているように、多段階に圧力を分類するのではなく、例えば第1閾値以上の圧力を検知した感圧センサ41がある場所の集合を第1領域Ar1と判別し、第1閾値以上の圧力を検知できなかった(第1閾値より小さい圧力が掛かっている)感圧センサ41がある場所の集合を第2領域Ar2と判別する。そして、検出部50は、第1領域Ar1を右の塊と左の塊に分離する。第1領域Ar1の右の塊を右足の形状F1とみなし、左の塊を左足の形状F2とみなす。
さらに、右足の形状F1が一様な密度で一様な厚さの板からできているものと考えて、右足の形状F1の重心の位置を計算する。同様に、左足の形状F2が一様な密度で一様な厚さの板からできているものと考えて、左足の形状F2の重心の位置を計算する。このようにして計算された右足の形状F1の重心の位置が右足の位置座標acR(右足面積中心位置)であり、左足の形状F2の重心の位置が左足の位置座標acL(左足面積中心位置)である。これら右足の位置座標acR(xr,yr)と左足の位置座標acL(xl,yl)の各成分の平均値((xr+xl)/2,(yr+yl)/2)を計算することでこれらの位置の中点(位置座標ac)が求まる。
(3-2) Detection of Right Foot Position and Left Foot Position FIG. 6 shows an example of the left foot pressing situation P1, which is the pressing situation of the sole of the left foot. In FIG. 6, no pressure is applied to the pressure sensor 41 of the white block, and the pressure equal to or greater than the fourth threshold value is applied to the pressure sensor 41 of the cross-hatched block having a high density. A first threshold value, a second threshold value, and a third threshold value are set between the white block and the dense cross-hatched block. The block corresponding to the pressure sensor 41 to which the pressure of the first threshold and the second threshold is applied is hatched with low density, and the block corresponding to the pressure sensor 41 to which the pressure of the second threshold and the third threshold is applied. The block corresponding to the pressure-sensitive sensor 41 to which the pressure of the third threshold value and the fourth threshold value is applied is subjected to cross hatching with a low density.
For detection of the right foot position and the left foot position, as shown in FIG. 7, a right foot shape F1 and a left foot shape F2 are obtained. For this purpose, as shown in FIG. 6, the pressures are not classified in multiple stages, but for example, a set of locations where the pressure-sensitive sensor 41 that has detected a pressure equal to or higher than the first threshold is located as the first region Ar1. It is determined, and a set of locations where the pressure-sensitive sensor 41 in which a pressure equal to or higher than the first threshold cannot be detected (a pressure smaller than the first threshold is applied) is determined as the second region Ar2. Then, the detection unit 50 separates the first region Ar1 into a right block and a left block. The right mass of the first region Ar1 is regarded as the right foot shape F1, and the left mass is regarded as the left foot shape F2.
Further, assuming that the shape F1 of the right foot is made of a plate having a uniform density and a uniform thickness, the position of the center of gravity of the shape F1 of the right foot is calculated. Similarly, assuming that the shape F2 of the left foot is made of a plate having a uniform density and a uniform thickness, the position of the center of gravity of the shape F2 of the left foot is calculated. The position of the center of gravity of the right foot shape F1 calculated in this way is the right foot position coordinate acR (right foot area center position), and the position of the center of gravity of the left foot shape F2 is the left foot position coordinate acL (left foot area center position). It is. By calculating the average value ((xr + xl) / 2, (yr + yl) / 2) of each component of the position coordinates acR (xr, yr) of the right foot and the position coordinates acL (xl, yl) of the left foot, the position of these positions is calculated. The midpoint (position coordinate ac) is obtained.

(3−3)操作者100の正面方向を用いた表示
操作者100の正面方向の決定とそれを使った表示のための動作の一例について図8に示されているフローチャートを用いて説明する。
ステップS1では、INIT状態ST2又はLOOK・AROUND状態ST3において、入力装置20は、操作者100の正面方向を決定する。上述の(3−2)で説明したように、検出部50は、圧力分布のデータから第1閾値以上の第1領域AR1を判別する。
ステップS2では、検出部50は、第1領域AR1を左右2つの塊に分類する。
ステップS3では、検出部50は、左右の塊の形状から重心の位置を計算して右足面積中心(図7の位置座標acR)及び左足面積中心(図7の位置座標acL)を検出する。
ステップS4では、処理部60は、右足面積中心(位置座標acR)と左足面積中心(位置座標acL)を通る第1直線L1を求める。
ステップS5では、処理部60は、右足面積中心と左足面積中心の中点(位置座標ac)において第1直線L1と直交する第2直線L2を求めて、第2直線L2がディスプレイ31に向かって延びる方向を操作者100の正面方向v0と決定する。
正面方向v0は、後ほど説明するWALK状態ST4での仮想空間内の移動方向と一致させる。
(3-3) Display Using Front Direction of Operator 100 An example of the operation for determining the front direction of the operator 100 and displaying using the front direction will be described with reference to the flowchart shown in FIG.
In step S1, in the INIT state ST2 or the LOOK / AROUND state ST3, the input device 20 determines the front direction of the operator 100. As described in (3-2) above, the detection unit 50 determines the first area AR1 that is greater than or equal to the first threshold value from the pressure distribution data.
In step S2, the detection unit 50 classifies the first area AR1 into two left and right blocks.
In step S3, the detection unit 50 calculates the position of the center of gravity from the shapes of the left and right blocks, and detects the right foot area center (position coordinates acR in FIG. 7) and the left foot area center (position coordinates acL in FIG. 7).
In step S4, the processing unit 60 obtains a first straight line L1 that passes through the right foot area center (position coordinates acR) and the left foot area center (position coordinates acL).
In step S5, the processing unit 60 obtains a second straight line L2 orthogonal to the first straight line L1 at the midpoint (position coordinates ac) of the right foot area center and the left foot area center, and the second straight line L2 is directed toward the display 31. The extending direction is determined as the front direction v0 of the operator 100.
The front direction v0 is made to coincide with the moving direction in the virtual space in the WALK state ST4 described later.

上述のように、入力装置20では、検出部50で検出された右足面積中心位置及び左足面積中心位置から、処理部60が、右足面積中心位置と左足面積中心とを通る第1直線L1を求め、さらに、第1直線L1と直交する第2直線L2を求めて操作者100の正面方向v0を定めている。
その結果、入力装置20は、操作者100の正面方向v0の決定を簡単な操作で実現することができている。上記実施形態では、第2直線L2が延びる方向を第1直線L1と直交する方向と定めているが、第2直線L2の延びる方向の定め方は直交する場合には限られない。例えば、左右の足に掛かる荷重で左右いずれかに角度を補正してもよい。
As described above, in the input device 20, the processing unit 60 obtains the first straight line L1 passing through the right foot area center position and the left foot area center from the right foot area center position and the left foot area center position detected by the detection unit 50. Furthermore, the front direction v0 of the operator 100 is determined by obtaining a second straight line L2 orthogonal to the first straight line L1.
As a result, the input device 20 can realize the determination of the front direction v0 of the operator 100 with a simple operation. In the above embodiment, the direction in which the second straight line L2 extends is defined as the direction orthogonal to the first straight line L1, but the method of determining the direction in which the second straight line L2 extends is not limited to being orthogonal. For example, the angle may be corrected to the left or right with the load applied to the left and right feet.

さらに、上述のように、処理部60は、検出部50の検出に用いた圧力分布のデータを用いて操作者100の正面方向を決定している。ここでは、操作者100の正面方向と表現しているが、例えば、足の方向又は体幹の向きのように他の表現を用いても同様であり、操作者100の視線が向かっている方向とみなしている方向である。これは、操作者100の視線が実際にその方向を向いていることを測定するのではなく、仮想空間の画像を表示するために擬似的に定義しているものである。そして、そのような正面方向の画像表示に対応する右足位置及び左足位置の検出結果を用いながら入力できる。
操作者100の凡その正面方向を決めて仮想空間の画像をそれにあわせて表示することで、操作者100は、仮想空間の中を移動しているような画像表示を見ながら入力できる。その結果、仮想空間の中を操作者100が移動しているような画像表示の足を使った入力についての機能が向上する。
Furthermore, as described above, the processing unit 60 determines the front direction of the operator 100 using the pressure distribution data used for detection by the detection unit 50. Here, it is expressed as the front direction of the operator 100. However, for example, the same applies to other expressions such as the direction of the foot or the direction of the trunk, and the direction in which the line of sight of the operator 100 is directed. It is the direction that is considered. This does not measure that the line of sight of the operator 100 is actually facing the direction, but is defined in a pseudo manner to display an image in the virtual space. And it can input, using the detection result of the right foot position and left foot position corresponding to the image display of such a front direction.
By determining the approximate front direction of the operator 100 and displaying the virtual space image accordingly, the operator 100 can input while viewing the image display as if moving in the virtual space. As a result, an input function using an image display foot such that the operator 100 is moving in the virtual space is improved.

(3−4)前後荷重配分を用いた表示
操作者100の前後荷重配分の決定とそれを使った表示のための動作の一例について図9に示されているフローチャートを用いて説明する。
ステップS11では、LOOK・AROUND状態ST3において、入力装置20は、操作者100の前後荷重配分を決定する。検出部50は、右足面積中心を検出した第1領域AR1の右の塊についての圧力分布のデータを右足の足裏の押圧状況として右足荷重重心位置(例えば、図7の位置座標gcR)を検出する。右足の圧力分布のデータについて感圧エレメント(xi,yi)に掛かる荷重をFriと表し、右足に掛かる荷重の合計値をFrと表し、感圧エレメントの個数がn個であるとするとき、右足荷重重心位置の座標(Crx,Cry)は、例えば次の(1)式から(5)式までの5つの式を用いて求められる。なお、以下の(1)式から(10)式において、数式の添え字rは右足に関する数式であることを表し、添え字lは左足に関する数式であることを表し、添え字iは項番号を表している。

Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330
ステップS12では、検出部50は、左足面積中心を検出した第1領域AR1の左の塊についての圧力分布のデータを左足の足裏の押圧状況として左足荷重重心位置(例えば、図7の位置座標gcL)を検出する。左足の圧力分布のデータについて感圧エレメント(xi,yi)に掛かる荷重をFliと表し、左足に掛かる荷重の合計値をFlと表し、感圧エレメントの個数がn個であるとするとき、左足荷重重心位置の座標(Clx,Cly)は、例えば次の(6)式から(10)式までの5つの式を用いて求められる。
Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330
(3-4) Display Using Front / Rear Load Distribution An example of the operation for determining the front / rear load distribution of the operator 100 and displaying using the same will be described with reference to the flowchart shown in FIG.
In step S11, in the LOOK / AROUND state ST3, the input device 20 determines the front / rear load distribution of the operator 100. The detection unit 50 detects the right foot load barycentric position (for example, the position coordinate gcR in FIG. 7) using the pressure distribution data of the right mass of the first area AR1 in which the center of the right foot area is detected as the pressing state of the sole of the right foot. To do. For the pressure distribution data of the right foot, when the load applied to the pressure sensitive element (xi, yi) is expressed as Fri, the total value of the load applied to the right foot is expressed as Fr, and when the number of pressure sensitive elements is n, The coordinates (Crx, Cry) of the load gravity center position can be obtained by using, for example, the following five expressions (1) to (5). In the following formulas (1) to (10), the subscript r of the mathematical expression represents a mathematical expression related to the right foot, the subscript l represents a mathematical expression related to the left foot, and the subscript i represents the item number. Represents.
Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330
In step S12, the detection unit 50 uses the pressure distribution data for the left mass of the first area AR1 that has detected the center of the left foot area as the pressing state of the left foot sole, for example, the left foot load gravity center position (for example, the position coordinates in FIG. 7). gcL) is detected. For the pressure distribution data of the left foot, the load applied to the pressure sensitive element (xi, yi) is represented as Fli, the total load applied to the left foot is represented as Fl, and the number of pressure sensitive elements is n. The coordinates (Clx, Cly) of the center of gravity position of the load are obtained using, for example, the following five expressions (6) to (10).
Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330
Figure 2018073330

ステップS13では、処理部60は、第1直線L1に基づいて不感領域Nsを定める。不感領域Nsは、例えば第1直線L1の前後に所定距離だけ離れた平行な2本の直線L3,L4を引いて、その2本の直線L3,L4の間に定められる。処理部60は、右足荷重重心位置の座標(Crx,Cry)と左足荷重重心位置の座標(Clx,Cly)の両方が前にある場合には、前荷重と決定する。処理部60は、右足荷重重心位置の座標(Crx,Cry)と左足荷重重心位置の座標(Clx,Cly)の両方が後にある場合には、後荷重と決定する。そして、上述の前荷重及び後荷重以外は全ていずれの状態でもないとして「No」と決定する。
ステップS13で「No」と決定された場合には、プロセスはステップS14に移行し、処理部60は、表示装置30に表示される仮想空間の画像を操作者100に正対する状態にする。処理部60において前荷重と判断されると、プロセスはステップS15に移行し、表示装置30においては見下ろす画像表示に切り換えられる。また、処理部60において後荷重と判断されると、プロセスはステップS16に移行し、表示装置30においては見上げる画像表示に切り換えられる。
例えば、一旦見下ろし状態の画像表示に切り換えられても、操作者100が前後どちらにも傾かない姿勢に戻れば、再びステップS11からステップS14を経て、画像を正対状態に戻して表示を行うことができる。
In step S13, the processing unit 60 determines the insensitive area Ns based on the first straight line L1. The dead area Ns is defined between two straight lines L3 and L4 by, for example, drawing two parallel straight lines L3 and L4 separated by a predetermined distance before and after the first straight line L1. When both the right foot load gravity center position coordinates (Crx, Cry) and the left foot load gravity center position coordinates (Clx, Cly) are in front, the processing unit 60 determines that the load is the front load. When both the right foot load gravity center position coordinates (Crx, Cry) and the left foot load gravity center position coordinates (Clx, Cly) are located later, the processing unit 60 determines the rear load. And it determines with "No" noting that it is not in any state except the above-mentioned pre-load and post-load.
If “No” is determined in step S <b> 13, the process proceeds to step S <b> 14, and the processing unit 60 sets the virtual space image displayed on the display device 30 to face the operator 100. If the preload is determined by the processing unit 60, the process proceeds to step S15, and the display device 30 is switched to image display looking down. Further, when it is determined that the post-load is in the processing unit 60, the process proceeds to step S16, and the display device 30 is switched to the image display to be looked up.
For example, even if it is switched to the image display in the state of looking down once, if the operator 100 returns to the posture that does not lean forward or backward, the image is returned to the directly-facing state and displayed again through steps S11 to S14. Can do.

上述のように、処理部60は、検出部50が検出した右足面積中心位置及び左足面積中心位置並びに右足荷重重心位置及び左足荷重重心位置を用いて前荷重、後荷重又は前荷重でも後荷重でもない状態であるのかを決定している。図9を用いて説明した処理部60の決定方法は、前後荷重配分の決定方法の一例である。
上記実施形態では、前後荷重配分を用いて、前荷重、後荷重及び前荷重でも後荷重でもない状態をそれぞれ見下ろしの場合、見上げる場合及び正対の場合と対応させて表示装置30による表示を行っている。正対している画像だけでなく、見下ろしている画像や見上げている画像を表示することで、3次元の仮想空間の臨場感を向上させることができている。
As described above, the processing unit 60 uses the right foot area center position and the left foot area center position detected by the detection unit 50 and the right foot load gravity center position and the left foot load gravity center position to perform a preload, a rear load, a front load, or a rear load. It is determined whether there is no state. The determination method of the processing unit 60 described with reference to FIG. 9 is an example of a determination method of front and rear load distribution.
In the above embodiment, the front and rear load distribution is used to display the front load, the rear load, and the state that is neither the front load nor the rear load, in accordance with the case of looking down, the case of looking up, and the case of facing each other. ing. By displaying not only the directly facing image but also the image looking down or the image looking up, the realism of the three-dimensional virtual space can be improved.

(3−5)左右荷重配分を用いた表示
操作者100の左右荷重配分の決定とそれを使った表示の一例について図10に示されているフローチャートを用いて説明する。
LOOK・AROUND状態ST3において、入力装置20は、操作者100の前後荷重配分を決定する。
(3-5) Display Using Left / Right Load Distribution An example of determination of the left / right load distribution of the operator 100 and a display using the same will be described with reference to the flowchart shown in FIG.
In the LOOK / AROUND state ST3, the input device 20 determines the front / rear load distribution of the operator 100.

ステップS21では、検出部50は、右足面積中心を検出した第1領域AR1の右の塊についての圧力分布のデータから右足押圧状況を検出する。
ステップS22では、検出部50は、左足面積中心を検出した第1領域AR1の左の塊についての圧力分布のデータから左足押圧状況を検出する。
ステップS23では、処理部60は、検出部50により検出された右足押圧状況及び左足押圧状況から、右足押圧状況の荷重の総和と左足押圧状況の荷重の総和を算出する。
In step S21, the detection unit 50 detects the right foot pressing state from the pressure distribution data for the right mass of the first region AR1 in which the center of the right foot area is detected.
In step S22, the detection unit 50 detects the left foot pressing state from the pressure distribution data for the left mass of the first region AR1 in which the center of the left foot area is detected.
In step S23, the processing unit 60 calculates the sum of the loads in the right foot pressing situation and the loads in the left foot pressing situation from the right foot pressing situation and the left foot pressing situation detected by the detection unit 50.

ステップS24では、処理部60は、右足押圧状況の荷重の総和SLrと左足押圧状況の荷重の総和SLlの差分dSL(=SLr−SLl)である左右荷重差を計算し、左右荷重差が左右判別閾値THrlを超えているか否かを判断する。dSL>0で且つ|dSL|>THrlであれば、処理部60は、右に傾いていると判断する。dSL<0で且つ|dSL|>THrlであれば、処理部60は、左に傾いていると判断する。そして、|dSL|≦THrlであれば、左右どちらにも傾いていないと判断する。
表示装置30においては、処理部60で左右どちらにも傾いていないと判断されると、プロセスはステップS25に移行し、画像を左右どちらにも旋回させずに表示を続ける。もし、処理部60において右に傾いていると判断されると、プロセスはステップS26に移行し、表示装置30においては右に旋回する画像表示に切り換えられる。もし、処理部60において左に傾いていると判断されると、プロセスはステップS27に移行し、表示装置30においては左に旋回する画像表示に切り換えられる。
例えば、一旦右に旋回する画像表示に切り換えられても、操作者100が左右どちらにも傾かない姿勢に戻れば、再びステップS21からステップS25を経て、左右どちらにも旋回しない画像表示に戻される。
In step S24, the processing unit 60 calculates a left-right load difference that is a difference dSL (= SLr−SLl) between the total load SLr of the right foot pressing situation and the total load SLl of the left foot pressing situation, and the left-right load difference is discriminated from left to right. It is determined whether or not the threshold value THrl is exceeded. If dSL> 0 and | dSL |> THrl, the processing unit 60 determines that it is tilted to the right. If dSL <0 and | dSL |> THrl, it is determined that the processing unit 60 is tilted to the left. If | dSL | ≦ THrl, it is determined that the robot is not inclined to the left or right.
In the display device 30, if the processing unit 60 determines that the image is not tilted to the left or right, the process proceeds to step S25, and the display is continued without turning the image to the left or right. If it is determined that the processing unit 60 is tilted to the right, the process proceeds to step S26, and the display device 30 is switched to an image display that turns to the right. If it is determined that the processing unit 60 is tilted to the left, the process proceeds to step S27, and the display device 30 is switched to an image display that turns to the left.
For example, even if it is switched to the image display that turns to the right once, if the operator 100 returns to the posture that does not tilt to the left or right, it returns to the image display that does not turn to the left or right again through steps S21 to S25. .

上述のように、処理部60は、検出部50が検出した右足押圧状況と左足押圧状況とを比較して左右荷重配分を決定している。図10を用いて説明した処理部60の決定方法は、左右荷重配分の決定方法の一例である。
例えば、圧力分布センサ40の中心よりも右寄りに操作者の重心がある場合に右旋回をし、左よりに重心がある場合に旋回すると、常に圧力分布センサ40の中心を意識しながら入力する必要があるので、センサの中心よりも左右のいずれに重心があるかを判断したのでは入力が難しくなる。上記実施形態では、左右荷重配分を用いて、入力装置20は、右旋回と左旋回を入力できるが、例えば、圧力分布センサ40の右端の近傍に立っても、右足押圧状況と左足押圧状況とを比較して左右荷重配分を決定しているので、右旋回だけでなく、右旋回でも左旋回でもどちらも行うことができる。このように、左右荷重配分を使った入力が操作者100にとって扱い易いものとなる。
As described above, the processing unit 60 determines the right / left load distribution by comparing the right foot pressing state and the left foot pressing state detected by the detection unit 50. The determination method of the processing unit 60 described with reference to FIG. 10 is an example of a determination method of left and right load distribution.
For example, when the operator makes a right turn when the center of gravity of the operator is on the right side of the center of the pressure distribution sensor 40 and turns when the center of gravity is on the left side of the pressure distribution sensor 40, the input is always made while paying attention to the center of the pressure distribution sensor 40. Since it is necessary, it is difficult to input if it is determined whether the center of gravity is located on the left or right side of the center of the sensor. In the above embodiment, the input device 20 can input a right turn and a left turn using the left / right load distribution. For example, even when standing in the vicinity of the right end of the pressure distribution sensor 40, the right foot pressing situation and the left foot pressing situation. Since the left and right load distribution is determined by comparing with the right and left, it is possible to perform both the right turn and the left turn as well as the right turn. Thus, the input using the left / right load distribution is easy for the operator 100 to handle.

(3−6)左右の足の上下動を用いた表示
操作者100の左右の足の上下動の決定とそれを使った表示の一例について図11に示されているフローチャートを用いて説明する。
LOOK・AROUND状態ST3において、入力装置20は、操作者100の上下動を決定する。もし、入力装置20において歩行状態と判断されれば、LOOK・AROUND状態ST3からWALK状態ST4に遷移して表示が行われ、入力装置20においてジャンプしている状態と判断されれば、LOOK・AROUND状態ST3からJUMP状態ST5に遷移して表示が行われる。
検出部50は、所定周期で繰り返し得られる圧力分布のデータを記憶している。そして、ステップS31では、記憶している圧力分布データの経時変化から、検出部50は、右足の足裏の押圧状況の経時変化である右足押圧経時変化を検出する。同様に、ステップS31では、検出部50は、記憶している圧力分布データの経時変化から、左足の足裏の押圧状況の経時変化である左足押圧経時変化を検出する。
(3-6) Display Using Vertical Movement of Left and Right Feet An example of determination of vertical movement of the left and right feet of the operator 100 and an example of display using the same will be described with reference to the flowchart shown in FIG.
In the LOOK / AROUND state ST3, the input device 20 determines the vertical movement of the operator 100. If the input device 20 is determined to be in a walking state, a transition is made from the LOOK / AROUND state ST3 to the WALK state ST4, and if the input device 20 is determined to be in a jumping state, the LOOK / AROUND state is displayed. A transition is made from the state ST3 to the JUMP state ST5 and display is performed.
The detection unit 50 stores pressure distribution data obtained repeatedly at a predetermined cycle. In step S31, the detection unit 50 detects a change in the right foot pressing with time, which is a change in the pressing state of the sole of the right foot, with the passage of time in the stored pressure distribution data. Similarly, in step S31, the detection unit 50 detects a left foot pressing temporal change, which is a temporal change in the pressing state of the sole of the left foot, from the temporal change of the stored pressure distribution data.

ステップS32では、処理部60は、例えば、右足押圧経時変化から右足押圧状況の荷重の総和の経時変化を求め、左足押圧経時変化から左足押圧状況の荷重の総和の経時変化を求め、左右の足のそれぞれについて直近の荷重の総和のピーク値の5%以下になった時点で足が離れたことを検出する。
ステップS33では、処理部60は、ジャンプ判定時間の間に、左右両方の足が圧力分布センサ40から離れたと判断された場合には、ジャンプパターンと判断する。また、ステップS33では、処理部60は、1回目の歩行判定時間の間に左右のどちらか片足が圧力分布センサ40から離れ且つ1回目に続く2回目の歩行判定時間の間に離れた片足が圧力分布センサ40を押圧するとともに逆の足が圧力分布センサ40から離れた場合には、歩行パターンと判断する。つまり、処理部60は、実質的に同時に左右の足が圧力分布センサ40から離れたのか、片足ずつ交互に圧力分布センサ40から離れたのかを判断する。歩行する場合には、例えば、右足だけが圧力分布センサ40を押圧し、次に両足で圧力分布センサ40を押圧し、さらにその次に左足だけが圧力分布センサ40を押圧するのが普通であるが、走っているときのように、右足と左足の着地の間に両足が圧力分布センサ40を押圧しない場合も含めてもよい。ジャンプパターン及び歩行パターンと判断されない場合が全て直立パターンになるが(ステップS33)、片足でしばらく立っている場合も直立パターンに含めることができ、この場合には右又は左に旋回することになる。
In step S32, for example, the processing unit 60 obtains the temporal change in the total load of the right foot pressing situation from the temporal change in the right foot press, obtains the temporal change in the total load of the left foot pressing situation from the temporal change in the left foot, and For each of the above, it is detected that the foot has left when the peak value of the sum total of the most recent loads becomes 5% or less.
In step S <b> 33, when it is determined that both the left and right feet are separated from the pressure distribution sensor 40 during the jump determination time, the processing unit 60 determines a jump pattern. In step S33, the processing unit 60 determines that either the left or right leg is separated from the pressure distribution sensor 40 during the first walking determination time and the one leg left during the second walking determination time following the first time. When the pressure distribution sensor 40 is pressed and the opposite foot is separated from the pressure distribution sensor 40, it is determined as a walking pattern. That is, the processing unit 60 determines whether the left and right feet are separated from the pressure distribution sensor 40 substantially at the same time or alternately from the pressure distribution sensor 40 one foot at a time. When walking, for example, it is common that only the right foot presses the pressure distribution sensor 40, then presses the pressure distribution sensor 40 with both feet, and then only the left foot presses the pressure distribution sensor 40. However, the case where both feet do not press the pressure distribution sensor 40 between the landing of the right foot and the left foot, such as when running, may be included. The cases where the jump pattern and the walking pattern are not determined are all in the upright pattern (step S33), but the standing pattern for a while with one foot can be included in the upright pattern, and in this case, it turns right or left. .

処理部60で直立パターンと判断されると、プロセスはステップS34に移行し、表示装置30においては、操作者100が仮想空間内のその場所から移動していないものとして仮想空間の画像の表示を続ける。もし、処理部60におい歩行パターンと判断されると、プロセスはステップS35に移行し、表示装置30においては操作者100が右足と左足を交互に動かす上下動の速さを歩行している速度と認識して操作者100が仮想空間内をその歩行速度に合わせて正面方向v0へ移動していると感じられる画像を表示する。もし、処理部60においてジャンプパターンと判断されると、プロセスはステップS36に移行し、表示装置30においては操作者100のジャンプに合わせて画像表示が切り換えられる。
例えば、一旦歩行パターンと判断されて画像表示が切り換えられても、操作者100が直立姿勢に戻れば、再びステップS31からステップS34を経て、直立パターンの画像表示に戻される。このような変化は、WALK状態ST4からLOOK・AROUND状態ST3への遷移を伴う。例えば、一旦ジャンプパターンと判断されて画像表示が切り換えられても、操作者100が直立姿勢に戻れば、再びステップS31からステップS34を経て、直立パターンの画像表示に戻される。このような変化は、JUMP状態ST5からLOOK・AROUND状態ST3への遷移を伴う。
右の足が離れた後、着地したとき、又は着地して一定時間経過してとき、又は次に右の足が離れる瞬間に、図7に記載の右足の形状F1が更新され、それに伴って他の値も更新される。
左の足が離れた後、着地したとき、又は着地して一定時間経過したとき、又は次に左の足が離れる瞬間に、図7に記載の左足の形状F2が更新され、それに伴って他の値も更新される。
If the processing unit 60 determines that the pattern is an upright pattern, the process proceeds to step S34, and the display device 30 displays an image of the virtual space on the assumption that the operator 100 has not moved from the location in the virtual space. to continue. If the walking pattern is determined in the processing unit 60, the process proceeds to step S35, and in the display device 30, the speed at which the operator 100 is walking is the speed of the up and down movement that alternately moves the right foot and the left foot. Recognizing and displaying an image that allows the operator 100 to feel that the operator 100 is moving in the front direction v0 in accordance with the walking speed in the virtual space. If the processing unit 60 determines that the pattern is a jump pattern, the process proceeds to step S36, and the display device 30 switches the image display according to the jump of the operator 100.
For example, even if it is determined that the pattern is a walking pattern and the image display is switched, if the operator 100 returns to the upright posture, the process returns to the image display of the upright pattern again through steps S31 to S34. Such a change is accompanied by a transition from the WALK state ST4 to the LOOK / AROUND state ST3. For example, even if the jump pattern is once determined and the image display is switched, if the operator 100 returns to the upright posture, the display returns to the image display of the upright pattern again through steps S31 to S34. Such a change is accompanied by a transition from the JUMP state ST5 to the LOOK / AROUND state ST3.
The right foot shape F1 shown in FIG. 7 is updated when the right foot leaves and then lands, when a certain time has elapsed since landing or when the right foot leaves the next time, and accordingly, Other values are also updated.
The shape F2 of the left foot shown in FIG. 7 is updated when the left foot leaves, then lands, or after a certain period of time has elapsed since landing, or the next time the left foot leaves, The value of is also updated.

上述のように、処理部60は、検出部50により検出された右足押圧経時変化から右足の上下動を決定するとともに左足押圧経時変化から左足の上下動を決定している。
図11を用いて説明した処理部60の決定方法は、左右の足の上下動の決定方法の一例である。上記実施形態では、左右の足の上下動を用いて、歩行パターン、直立パターン及びジャンプパターンのいずれのパターンに当て嵌まるかを判断して、3次元の仮想空間の中での操作者100の動きを入力している。仮想空間の中の位置を操作者100が能動的に動かすことができるので、3次元の仮想空間の臨場感を向上させることができている。
As described above, the processing unit 60 determines the vertical movement of the right foot from the change over time of the right foot press detected by the detection unit 50 and determines the vertical movement of the left foot from the change over time of the left foot press.
The determination method of the processing unit 60 described with reference to FIG. 11 is an example of a determination method of the vertical movement of the left and right feet. In the above embodiment, the movement of the operator 100 in the three-dimensional virtual space is determined by determining whether the walking pattern, the upright pattern, or the jump pattern is applied using the vertical movement of the left and right feet. Is entered. Since the operator 100 can actively move the position in the virtual space, the sense of presence in the three-dimensional virtual space can be improved.

(4)変形例
(4−1)変形例A
なお、上記実施形態では、表示装置30と圧力分布センサ40が据え置きの場合であって、表示装置30のXY座標と圧力分布センサ40のXY座標との関係が固定である場合を例に挙げて説明した。しかし、表示装置30のXY座標と圧力分布センサ40のXY座標との関係は固定である場合に限られない。
表示装置30が例えばヘッドマウントディスプレイなど、体の動作とともに移動するディスプレイを有している場合であってもよく、移動するようなディスプレイに備えられているジャイロセンサからの検出情報に応じて表示装置30のXY座標と圧力分布センサ40のXY座標との関係を適宜調整するように構成することもできる。
(4) Modification (4-1) Modification A
In the above embodiment, the display device 30 and the pressure distribution sensor 40 are stationary, and the relationship between the XY coordinates of the display device 30 and the XY coordinates of the pressure distribution sensor 40 is fixed as an example. explained. However, the relationship between the XY coordinates of the display device 30 and the XY coordinates of the pressure distribution sensor 40 is not limited to being fixed.
For example, the display device 30 may have a display that moves with the movement of the body, such as a head-mounted display, and the display device 30 corresponds to detection information from a gyro sensor included in the moving display. The relationship between the XY coordinates of 30 and the XY coordinates of the pressure distribution sensor 40 may be adjusted as appropriate.

(4−2)変形例B
上記実施形態では、右足面積中心位置及び左足面積中心位置から第1直線及び第2直線を決定して操作者100の正面方向を求める場合について説明した。しかし、本発明はそのような例に限定されない。
INIT状態ST2で得られた操作者100の足の形状でフィッティングすることで左右の長軸方向の単位ベクトルvrとvlを求め、それらから、次の(11)式で操作者100の正面方向v0の単位ベクトルを求めてもよい。

Figure 2018073330
フィッティングによる正面方向v0の単位ベクトルの求め方の一例について図13を用いて説明する。パーソナルコンピュータ71のメモリには、INIT状態ST2で得られた操作者100の右足の形状及び左足の形状が特定右足形状SF1及び特定左足形状SF2として記憶される。フィッティングは、例えば、LOOK・AROUND状態ST3での右足の形状F1と特定右足形状SF1とを重ねたときに、特定右足形状SF1を回転させたり移動させたりして最も重なり部分の面積が大きくなる状態を処理部60において決定することで行われる。なお、左右の長軸方向の単位ベクトルvrとvlは、特定右足形状SF1と特定左足形状SF2に対して予め設定されている。
この場合も右足面積中心と左足面積中心を求めて上述のように前後荷重配分を決定してもよいが、右足の形状F1に重なった特定右足形状SF1と左足の形状F2に重なった特定左足形状SF2の右足面積中心と左足面積中心は、右足の形状F1と左足の形状F2から求まる右足面積中心と左足面積中心の近傍にそれぞれ位置する。従って、右足及び左足のフィッティング結果と右足荷重重心位置及び左足荷重重心位置を用いて、前後荷重配分を決定してもよい。
(4−3)変形例C
上記実施形態では、右足荷重重心位置と左足荷重重心位置(図7の位置座標gcR,gcL)を使って前後荷重配分を決定したが、本発明はそのような実施例に限定されない。
例えば、右足荷重重心位置と左足荷重重心位置から全体の重心位置(例えば、図7の位置座標gc)を決定して、全体の重心位置と右足面積中心位置及び左足面積中心位置との関係から前後荷重配分を決定してもよい。例えば、全体の重心位置が不感領域Nsよりも前にあれば前荷重、不感領域Nsよりも後にあれば後荷重と決定するなどである。 (4-2) Modification B
In the above embodiment, the case where the first straight line and the second straight line are determined from the right foot area center position and the left foot area center position to determine the front direction of the operator 100 has been described. However, the present invention is not limited to such an example.
By fitting with the shape of the foot of the operator 100 obtained in the INIT state ST2, the unit vectors vr and vl in the left and right major axis directions are obtained, and the front direction v0 of the operator 100 is obtained from the following equation (11). May be obtained.
Figure 2018073330
An example of how to obtain the unit vector in the front direction v0 by fitting will be described with reference to FIG. In the memory of the personal computer 71, the shape of the right foot and the shape of the left foot of the operator 100 obtained in the INIT state ST2 are stored as the specific right foot shape SF1 and the specific left foot shape SF2. In the fitting, for example, when the right foot shape F1 and the specific right foot shape SF1 are overlapped in the LOOK / AROUND state ST3, the specific right foot shape SF1 is rotated or moved to maximize the area of the overlapping portion. Is determined by the processing unit 60. Note that the unit vectors vr and vl in the left and right major axis directions are set in advance for the specific right foot shape SF1 and the specific left foot shape SF2.
In this case, the right and left load area centers may be obtained by determining the right foot area center and the left foot area center as described above. However, the specific right foot shape SF1 that overlaps the right foot shape F1 and the specific left foot shape that overlaps the left foot shape F2. The right foot area center and the left foot area center of SF2 are respectively located in the vicinity of the right foot area center and the left foot area center obtained from the right foot shape F1 and the left foot shape F2. Therefore, the front / rear load distribution may be determined using the fitting results of the right foot and the left foot, the right foot load gravity center position, and the left foot load gravity center position.
(4-3) Modification C
In the above embodiment, the front / rear load distribution is determined using the right foot load gravity center position and the left foot load gravity center position (position coordinates gcR, gcL in FIG. 7), but the present invention is not limited to such an embodiment.
For example, the overall gravity center position (for example, the position coordinate gc in FIG. 7) is determined from the right foot load gravity center position and the left foot load gravity center position, and the relationship between the overall gravity center position, the right foot area center position, and the left foot area center position is The load distribution may be determined. For example, if the entire center of gravity position is before the insensitive area Ns, it is determined as a preload, and if it is after the insensitive area Ns, it is determined as a postload.

(4−4)変形例D
例えば、図12(a)、図12(b)、図12(c)及び図12(d)を用いて、不感インターバルについて簡単に説明する。図12(a)では、操作者100は、ディスプレイ31に正対して、右足FR1と左足FL1にほぼ均等に体重を掛けて静止して立っている。次に、図12(b)に示されている状態では、左足FL1から右足FR2に荷重だけを移動して静止して立っている。そのため、図12(b)の状態では、仮想空間の画像が右旋回する。図12(b)において、右旋回が矢印AM1で示され、荷重の移動が矢印AM2で示されている。図12(c)には、例えば、仮想空間の画像の右旋回によって平衡感覚を失った操作者100が左足FL3を右方向へ踏み出し、右足FR3がそのままの位置にある場合が示されている。このままでは、仮想空間の画像が思っていなかった変化をするため、操作者100が慌てて図12(d)に示されているようにディスプレイ31と正対するために足を戻した。もし、図12(c)の状態を入力装置20が入力の変化と認識すると、仮想空間の画像の切り換わりが頻繁に起こりすぎて却って見難くなる。そこで、入力装置20は、ジャンプ以外の短時間の変化を無視するために、不感インターバルが設定されてもよい。すなわち、片足が離れていない状態では、不感インターバルを超えて入力が続かない限り、新たな入力とは認識しないように入力装置20が設定される。このような不感インターバルを設定すれば、図12(c)の操作者100が誤った動作をしても、仮想空間の画像を変化させずに保つことができる。
(4-4) Modification D
For example, the dead interval will be briefly described with reference to FIGS. 12 (a), 12 (b), 12 (c), and 12 (d). In FIG. 12 (a), the operator 100 stands still with the body weight almost evenly applied to the right foot FR1 and the left foot FL1 facing the display 31. Next, in the state shown in FIG. 12B, only the load is moved from the left foot FL1 to the right foot FR2, and the vehicle stands still. Therefore, in the state of FIG. 12B, the image of the virtual space turns to the right. In FIG. 12B, the right turn is indicated by an arrow AM1, and the movement of the load is indicated by an arrow AM2. FIG. 12C shows a case where, for example, the operator 100 who has lost the sense of equilibrium due to the right turn of the image in the virtual space steps on the left foot FL3 in the right direction and the right foot FR3 is in the same position. . In this state, since the image in the virtual space changes unexpectedly, the operator 100 hurries back to face the display 31 as shown in FIG. If the input device 20 recognizes the state of FIG. 12C as a change in input, the image of the virtual space is frequently switched, and it becomes difficult to see. Therefore, the input device 20 may set a dead interval in order to ignore short-time changes other than jumps. That is, in a state where one foot is not separated, the input device 20 is set so that it is not recognized as a new input unless the input continues beyond the dead interval. If such a dead interval is set, even if the operator 100 in FIG. 12C performs an erroneous operation, the image in the virtual space can be kept unchanged.

2.実施形態の特徴
入力装置20(入力装置の一例)は、圧力分布センサ40(圧力分布センサの一例)と、検出部50(検出部の一例)と、処理部60(処理部の一例)と、を備える。
圧力分布センサ40は、足の裏面側に配置され、面状に分布する複数の点の荷重を検知する。
検出部50は、圧力分布センサ40により検知された圧力分布を入力し、右足と左足についての圧力分布のデータを作成して右足位置及び左足位置を検出する。
処理部60は、検出部50の検出に用いた圧力分布のデータを用いて操作者100(操作者の一例)の正面方向を決定する。
この入力装置20では、処理部60が検出部50の検出に用いた圧力分布のデータを用いて操作者100の正面方向を決定することから、仮想空間の正面と操作者100の正面方向とを関連させられるので、仮想空間の中を操作者100が移動しているような画像表示の入力についての機能が向上する。
2. Features of Embodiments An input device 20 (an example of an input device) includes a pressure distribution sensor 40 (an example of a pressure distribution sensor), a detection unit 50 (an example of a detection unit), a processing unit 60 (an example of a processing unit), Is provided.
The pressure distribution sensor 40 is disposed on the back side of the foot and detects loads at a plurality of points distributed in a planar shape.
The detection unit 50 receives the pressure distribution detected by the pressure distribution sensor 40, creates pressure distribution data for the right foot and the left foot, and detects the right foot position and the left foot position.
The processing unit 60 determines the front direction of the operator 100 (an example of the operator) using the pressure distribution data used for detection by the detection unit 50.
In the input device 20, since the processing unit 60 determines the front direction of the operator 100 using the pressure distribution data used for detection by the detection unit 50, the front of the virtual space and the front direction of the operator 100 are determined. Since they are related to each other, the function of inputting an image display as if the operator 100 is moving in the virtual space is improved.

3.他の実施形態
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施例及び変形例は必要に応じて任意に組み合せ可能である。
3. Other Embodiments Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. In particular, a plurality of embodiments and modifications described in this specification can be arbitrarily combined as necessary.

本発明は、操作者の足によって入力を行う入力装置、及びそのような入力装置を用いて仮想空間の表示を行う仮想空間表示装置に広く適用できる。   The present invention can be widely applied to an input device that performs input by an operator's foot and a virtual space display device that displays a virtual space using such an input device.

10 :仮想空間表示装置
20 :入力装置
30 :表示装置
31 :ディスプレイ
40 :圧力分布センサ
41 :感圧センサ
42 :ワイヤハーネス
43 :測定開始・終了ボタン領域
50 :検出部
60 :処理部
71 :パーソナルコンピュータ
72 :A/D変換器
100 :操作者
200 :画像
201 :道路
202 :家
10: Virtual space display device 20: Input device 30: Display device 31: Display 40: Pressure distribution sensor 41: Pressure sensor 42: Wire harness 43: Measurement start / end button region 50: Detection unit 60: Processing unit 71: Personal Computer 72: A / D converter 100: Operator 200: Image 201: Road 202: House

Claims (8)

足の裏面側に配置され、面状に分布する複数の点の荷重を検知する圧力分布センサと、
前記圧力分布センサにより検知された圧力分布を入力し、右足と左足についての前記圧力分布のデータを作成して右足位置及び左足位置を検出する検出部と、
前記検出部の検出に用いた前記圧力分布のデータを用いて操作者の正面方向を決定する処理部と、
を備える入力装置。
A pressure distribution sensor that is disposed on the back side of the foot and detects a load of a plurality of points distributed in a planar shape;
A detection unit that inputs the pressure distribution detected by the pressure distribution sensor, creates data of the pressure distribution for the right foot and the left foot, and detects the right foot position and the left foot position;
A processing unit that determines the front direction of the operator using the data of the pressure distribution used for the detection of the detection unit;
An input device comprising:
前記検出部は、前記右足と前記左足についてそれぞれ特定の閾値以上の圧力が掛かっている第1領域と前記閾値より小さい圧力が掛かっている第2領域とを判別して、前記第1領域の形状から求めた前記右足の形状の面積中心である右足面積中心位置を前記右足位置として検出し、前記第1領域の形状から求めた前記左足の形状の面積中心である左足面積中心位置を前記左足位置として検出し、
前記処理部は、前記右足面積中心位置と前記左足面積中心位置とを通る第1直線に対して特定の角度で交わる第2直線の延びる足の向きを前記正面方向として決定する、
請求項1に記載の入力装置。
The detection unit discriminates a first region where a pressure equal to or higher than a specific threshold is applied to the right foot and the left foot, and a second region where a pressure smaller than the threshold is applied, and the shape of the first region The right foot area center position, which is the center of the area of the right foot shape obtained from the above, is detected as the right foot position, and the left foot area center position, which is the center of the area of the left foot shape obtained from the shape of the first region, is detected as the left foot position. Detect as
The processing unit determines the direction of the extending leg of the second straight line that intersects at a specific angle with respect to the first straight line passing through the right foot area center position and the left foot area center position as the front direction.
The input device according to claim 1.
前記検出部は、前記右足の足裏の押圧状況から前記右足の荷重重心の位置である右足荷重重心位置を検出するとともに前記左足の足裏の押圧状況から前記左足の荷重重心の位置である左足荷重重心位置を検出し、
前記処理部は、前記検出部により検出された前記右足面積中心位置及び前記左足面積中心位置並びに前記右足荷重重心位置及び前記左足荷重重心位置を用いて、体全体の前後方向への荷重の配分である前後荷重配分を決定する、
請求項2に記載の入力装置。
The detection unit detects a right foot load gravity center position, which is a position of the right foot load center of gravity, from a pressing situation of the right foot sole and a left foot, which is a position of the left foot load gravity center, from the pressing situation of the left foot sole. Detect the center of gravity of the load,
The processing unit uses the right foot area center position and the left foot area center position detected by the detection unit, and the right foot load gravity center position and the left foot load gravity center position to distribute the load in the front-rear direction of the entire body. Determine a certain longitudinal load distribution,
The input device according to claim 2.
前記検出部は、前記右足と前記左足についてそれぞれ特定の閾値以上の圧力が掛かっている第1領域と前記閾値より小さい圧力が掛かっている第2領域とを判別して、前記第1領域の形状から求めた前記右足の形状を検出し、前記第1領域の形状から求めた前記左足の形状を検出し、
前記処理部は、前記右足の形状と予め記憶しておいた特定右足形状とをフィッティングするとともに前記左足の形状と予め記憶しておいた特定左足形状とをフィッティングして前記右足の長軸方向と前記左足の長軸方向から前記正面方向を決定する、
請求項1に記載の入力装置。
The detection unit discriminates a first region where a pressure equal to or higher than a specific threshold is applied to the right foot and the left foot, and a second region where a pressure smaller than the threshold is applied, and the shape of the first region Detecting the shape of the right foot obtained from the above, detecting the shape of the left foot obtained from the shape of the first region,
The processing unit fits the shape of the right foot and the specific right foot shape stored in advance, and fits the shape of the left foot and the specific left foot shape stored in advance to obtain the longitudinal direction of the right foot Determining the front direction from the longitudinal direction of the left foot;
The input device according to claim 1.
前記検出部は、前記右足の足裏の押圧状況から前記右足の荷重重心の位置である右足荷重重心位置を検出するとともに前記左足の足裏の押圧状況から前記左足の荷重重心の位置である左足荷重重心位置を検出し、
前記処理部は、前記右足及び前記左足のフィッティング結果並びに前記右足荷重重心位置及び前記左足荷重重心位置を用いて、体全体の前後方向への荷重の配分である前後荷重配分を決定する、
請求項4に記載の入力装置。
The detection unit detects a right foot load gravity center position, which is a position of the right foot load center of gravity, from a pressing situation of the right foot sole and a left foot, which is a position of the left foot load gravity center, from the pressing situation of the left foot sole. Detect the center of gravity of the load,
The processing unit determines a front / rear load distribution, which is a load distribution in the front / rear direction of the entire body, using the fitting result of the right foot and the left foot, and the right foot load gravity center position and the left foot load gravity center position,
The input device according to claim 4.
前記検出部は、前記圧力分布のデータから前記右足の足裏の押圧状況である右足押圧状況及び前記左足の足裏の押圧状況である左足押圧状況を検出し、
前記処理部は、前記検出部により検出された前記右足押圧状況と前記左足押圧状況とを比較して、前記右足と前記左足への荷重の配分である左右荷重配分を決定する、
請求項1〜5のいずれかに記載の入力装置。
The detection unit detects a right foot pressing situation that is a pressing situation of the sole of the right foot and a left foot pressing situation that is a pressing situation of the sole of the left foot from the data of the pressure distribution,
The processing unit compares the right foot pressing state and the left foot pressing state detected by the detection unit, and determines left and right load distribution that is distribution of load to the right foot and the left foot.
The input device according to claim 1.
前記検出部は、前記圧力分布のデータの経時変化から前記右足の足裏の押圧状況の経時変化である右足押圧経時変化及び前記左足の足裏の押圧状況の経時変化である左足押圧経時変化を検出し、
前記処理部は、前記検出部により検出された前記右足押圧経時変化から前記右足の上下動を決定するとともに前記左足押圧経時変化から前記左足の上下動を決定する、
請求項1〜6のいずれかに記載の入力装置。
The detection unit detects a change in the right foot pressing over time from the time distribution of the pressure distribution data and a time change in the left foot pressing over time from a change in the right foot pressing over time. Detect
The processing unit determines the vertical movement of the right foot from the right foot press temporal change detected by the detection unit and determines the left foot vertical movement from the left foot press temporal change,
The input device according to claim 1.
請求項1〜7のいずれかに記載の入力装置と、
前記入力装置の前記処理部による決定に基づいて仮想空間の画像を表示する表示装置と
を備える、仮想空間表示装置。
An input device according to any one of claims 1 to 7,
A virtual space display device comprising: a display device that displays an image of a virtual space based on the determination by the processing unit of the input device.
JP2016216027A 2016-11-04 2016-11-04 Input device and virtual space display device Pending JP2018073330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016216027A JP2018073330A (en) 2016-11-04 2016-11-04 Input device and virtual space display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016216027A JP2018073330A (en) 2016-11-04 2016-11-04 Input device and virtual space display device

Publications (1)

Publication Number Publication Date
JP2018073330A true JP2018073330A (en) 2018-05-10

Family

ID=62112893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016216027A Pending JP2018073330A (en) 2016-11-04 2016-11-04 Input device and virtual space display device

Country Status (1)

Country Link
JP (1) JP2018073330A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111198615A (en) * 2020-03-04 2020-05-26 重庆一七科技开发有限公司 Portable wireless device for virtual reality experience
WO2020121536A1 (en) * 2018-12-14 2020-06-18 オリンパス株式会社 User interface device, medical system, manipulation control method, and manipulation control program
WO2021090697A1 (en) * 2019-11-07 2021-05-14 株式会社ワコム Input system for foot, position designation tool for foot, position detection device for foot, method for inputting designated position using input system for foot, and image processing system using input system for foot
CN115328295A (en) * 2021-05-10 2022-11-11 深圳市洲明科技股份有限公司 A method and display system for capturing position movement
JP2023551638A (en) * 2020-10-27 2023-12-12 カカオ ブイエックス カンパニー, リミテッド Method for providing center of gravity information using video and device therefor

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09168529A (en) * 1995-12-19 1997-06-30 Anima Kk Floor reaction force measuring device
JP2004102800A (en) * 2002-09-11 2004-04-02 Makoto Sato Body direction detector, method for detecting body direction, and virtual environment pseudo-experience system
JP2005309537A (en) * 2004-04-16 2005-11-04 Fuji Xerox Co Ltd Information providing device
US20080191864A1 (en) * 2005-03-31 2008-08-14 Ronen Wolfson Interactive Surface and Display System
JP2012157581A (en) * 2011-02-01 2012-08-23 Panasonic Corp Exercise function measuring system
JP2013135874A (en) * 2013-02-25 2013-07-11 Nintendo Co Ltd Game program, game device, game system and game control method
WO2014045321A1 (en) * 2012-09-21 2014-03-27 テルモ株式会社 Information processing device, method for controlling information processing device, pressure distribution measurement system, and storage medium
WO2014049639A1 (en) * 2012-09-25 2014-04-03 テルモ株式会社 Foot pressure distribution measurement system and information processing device
JP2015052999A (en) * 2013-09-09 2015-03-19 富士通株式会社 Personal feature extraction program, personal feature extraction device, and personal feature extraction method
JP2016174699A (en) * 2015-03-19 2016-10-06 大日本印刷株式会社 Game controller

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09168529A (en) * 1995-12-19 1997-06-30 Anima Kk Floor reaction force measuring device
JP2004102800A (en) * 2002-09-11 2004-04-02 Makoto Sato Body direction detector, method for detecting body direction, and virtual environment pseudo-experience system
JP2005309537A (en) * 2004-04-16 2005-11-04 Fuji Xerox Co Ltd Information providing device
US20080191864A1 (en) * 2005-03-31 2008-08-14 Ronen Wolfson Interactive Surface and Display System
JP2012157581A (en) * 2011-02-01 2012-08-23 Panasonic Corp Exercise function measuring system
WO2014045321A1 (en) * 2012-09-21 2014-03-27 テルモ株式会社 Information processing device, method for controlling information processing device, pressure distribution measurement system, and storage medium
WO2014049639A1 (en) * 2012-09-25 2014-04-03 テルモ株式会社 Foot pressure distribution measurement system and information processing device
JP2013135874A (en) * 2013-02-25 2013-07-11 Nintendo Co Ltd Game program, game device, game system and game control method
JP2015052999A (en) * 2013-09-09 2015-03-19 富士通株式会社 Personal feature extraction program, personal feature extraction device, and personal feature extraction method
JP2016174699A (en) * 2015-03-19 2016-10-06 大日本印刷株式会社 Game controller

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020121536A1 (en) * 2018-12-14 2020-06-18 オリンパス株式会社 User interface device, medical system, manipulation control method, and manipulation control program
WO2021090697A1 (en) * 2019-11-07 2021-05-14 株式会社ワコム Input system for foot, position designation tool for foot, position detection device for foot, method for inputting designated position using input system for foot, and image processing system using input system for foot
JP7628957B2 (en) 2019-11-07 2025-02-12 株式会社ワコム Foot input system, foot position indicator, foot position detection device, indicator position input method using foot input system, and image processing system using foot input system
CN111198615A (en) * 2020-03-04 2020-05-26 重庆一七科技开发有限公司 Portable wireless device for virtual reality experience
JP2023551638A (en) * 2020-10-27 2023-12-12 カカオ ブイエックス カンパニー, リミテッド Method for providing center of gravity information using video and device therefor
CN115328295A (en) * 2021-05-10 2022-11-11 深圳市洲明科技股份有限公司 A method and display system for capturing position movement

Similar Documents

Publication Publication Date Title
JP2018073330A (en) Input device and virtual space display device
Nilsson et al. Tapping-in-place: Increasing the naturalness of immersive walking-in-place locomotion through novel gestural input
US20220346490A1 (en) Enhancing Exercise Through Augmented Reality
US9205327B2 (en) Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method
JP6131706B2 (en) Walking posture meter and program
US20210275098A1 (en) Methods and devices for information acquisition, detection, and application of foot gestures
US9480918B2 (en) Computer-readable storage medium having information processing program stored therein and information processing apparatus
KR102255055B1 (en) Virtual Exercise Device and Virtual Exercise System
JP2018166640A (en) Walking support system, walking support method, and walking support program
CN106572816A (en) Gait analysis system and gait analysis program
JP6796197B2 (en) Information processing equipment, information processing methods and programs
TW201842432A (en) Method, electronic apparatus and recording medium for automatically configuring sensors
US20180070877A1 (en) Compass-sensor embedded footwear system and operation method thereof
CN109791512A (en) Method and device for acquiring, detecting and applying foot position information
JP2014140640A (en) Stabilometer, centroid oscillation evaluation method, personal authentication device and personal authentication method
US20190302901A1 (en) Methods and devices for information acquisition, detection, and application of foot gestures
CN106714914A (en) Device for exercise posture analysis and method for generating exercise posture analysis information
Ang et al. Swing-in-place (SIP): a less fatigue walking-in-place method with side-viewing functionality for mobile virtual reality
JPWO2014049639A1 (en) Foot pressure distribution measuring system and information processing apparatus
WO2014181605A1 (en) Walking posture meter and program
Matsumoto et al. A posture detection system using consumer wearable sensors
JP6538013B2 (en) Virtual Space Experience System
Zhao et al. Real-time recognition of in-place body actions and head gestures using only a head-mounted display
US11703955B2 (en) Methods and devices for information acquisition, detection, and application of foot gestures
WO2022250098A1 (en) Information processing device, electronic appliance, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190402