[go: up one dir, main page]

JPH10113343A - Method and apparatus and system for recognizing actions and actions - Google Patents

Method and apparatus and system for recognizing actions and actions

Info

Publication number
JPH10113343A
JPH10113343A JP9178030A JP17803097A JPH10113343A JP H10113343 A JPH10113343 A JP H10113343A JP 9178030 A JP9178030 A JP 9178030A JP 17803097 A JP17803097 A JP 17803097A JP H10113343 A JPH10113343 A JP H10113343A
Authority
JP
Japan
Prior art keywords
subject
recognition
action
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9178030A
Other languages
Japanese (ja)
Other versions
JP3570163B2 (en
Inventor
Munetoshi Unuma
宗利 鵜沼
Yoshiaki Usami
芳明 宇佐美
Tsutomu Nishioka
勉 西岡
Satoru Yashiki
屋敷  知
Shiro Nonaka
士郎 野中
Shigeru Obo
茂 於保
Katsuo Tashiro
勝男 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP17803097A priority Critical patent/JP3570163B2/en
Publication of JPH10113343A publication Critical patent/JPH10113343A/en
Application granted granted Critical
Publication of JP3570163B2 publication Critical patent/JP3570163B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Emergency Alarm Devices (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of Distances Traversed On The Ground (AREA)
  • Indicating Or Recording The Presence, Absence, Or Direction Of Movement (AREA)

Abstract

(57)【要約】 【課題】人間や動物或いは機械等の移動体について、そ
の移動体の動作や行動を自動認識する方法及び装置を提
供する。 【解決手段】被験者1の動作や行動に伴う状態変化を計
測する測定器2,3を取り付け、現在被験者1が行って
いる動作或いは行動の特徴量を特徴量抽出部5により計
測信号から抽出し、動作或いは行動を認識するための信
号処理装置7で、前以て記憶している動作或いは行動の
特徴量データベース6に含まれている参照データと抽出
した特徴量との相関をとり、最も相関の高い特徴量の意
味する動作或いは行動を認識結果として出力する。
(57) [Problem] To provide a method and an apparatus for automatically recognizing the operation and behavior of a mobile object such as a human, an animal, or a machine. A measuring device (2, 3) for measuring a state change accompanying an action or a behavior of a subject (1) is attached. In the signal processing device 7 for recognizing the operation or the action, the correlation between the reference data included in the feature amount database 6 of the operation or the action stored in advance and the extracted feature amount is calculated. Is output as a recognition result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人間或は動物或は
機械等の状態が変化する物体(以下では被験体と総称す
る)の動作及び行動計測に係り、特に、その動作及び行
動の認識方法、及びその方法を用いた装置、及びその装
置を含むシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the measurement of the movement and behavior of an object (hereinafter referred to as a subject) whose state changes, such as a human, an animal, or a machine. The present invention relates to a method, an apparatus using the method, and a system including the apparatus.

【0002】なお、本明細書においては、被験体の動作
或は行動を「動作/行動」と略記しする。
[0002] In the present specification, the action or action of a subject is abbreviated as "action / action".

【0003】[0003]

【従来の技術】人間の動作・作業の計測に関する基本的
な従来技術は、“図説エルゴノミクス”野呂影勇、日本
規格協会、1990年2月14日発行、538頁から5
44頁に記載されている。この従来技術には、VTRや
直接目視による人間の動作や作業の計測方法が開示され
ている。
2. Description of the Related Art The basic prior art relating to measurement of human movement and work is described in "Illustrated Ergonomics" by Kageyu Noro, Japan Standards Association, February 14, 1990, pp. 538 to 5
It is described on page 44. This prior art discloses a method of measuring human motion or work by VTR or direct visual observation.

【0004】また、加速度センサを用いて人間の動作や
作業を計測する従来技術が、特公平7−96014号公報に開
示されている。この従来技術では、各種動作毎に、人体
に取り付けられた加速度センサから得られる振動波形を
A/D変換し、得られた離散的なA/D変換値振動パタ
ーンテーブルとして用意し、入力振動波形をA/D変換
した結果と上記振動パターンテーブルとを所定のタイミ
ングで計時部から出力されるタイミング信号に同期して
比較判定している。本従来技術によれば、振動パターン
テーブルを制作した動作と同じ動作、あるいは、同じ動
作速度において認識処理を行うことができる。
[0004] A conventional technique for measuring human motion or work using an acceleration sensor is disclosed in Japanese Patent Publication No. 7-96014. In this prior art, a vibration waveform obtained from an acceleration sensor attached to a human body is subjected to A / D conversion for each operation, and an obtained discrete A / D conversion value vibration pattern table is prepared. Is compared with the vibration pattern table at a predetermined timing in synchronization with a timing signal output from the clock unit. According to this conventional technique, the recognition processing can be performed at the same operation as the operation for producing the vibration pattern table or at the same operation speed.

【0005】[0005]

【発明が解決しようとする課題】VTRや直接目視によ
り被験者の動作や行動・作業を観測する、前者の従来技
術では、以下のような問題点がある。
The former prior art for observing a subject's movement, action, or work by VTR or direct visual observation has the following problems.

【0006】(1)VTRの解析或は直接目視は、観測
者が被験者の身体の位置や行っている作業を時々刻々記
録する必要があり、観測者に非常な手間がかかる。
(1) The analysis or direct observation of the VTR requires the observer to record the position of the body of the subject and the work being performed from time to time, which requires a great deal of time for the observer.

【0007】(2)死角になる部分はVTRあるいは直
接目視により観測されない。
(2) The blind spot is not observed by the VTR or directly visually.

【0008】(3)被験者が移動する場合、観測者は被
験者を追跡しなければならない。
(3) When the subject moves, the observer must track the subject.

【0009】(4)被験者がVTRや観測者の視線を意
識してしまう。
(4) The subject becomes conscious of the line of sight of the VTR and the observer.

【0010】(5)被験者の関節の位置の計測では、単
に関節の位置を計測しそれを再現するだけで、行動や作
業を自動的に認識することはできず、再現した動作を人
間が再認識しなければならない。
(5) In the measurement of the position of the joint of the subject, merely measuring the position of the joint and reproducing the same cannot automatically recognize the action or work, and the reproduced operation is performed by a human. You have to be aware.

【0011】また、後者の従来技術では、以下のような
問題点がある。
The latter conventional technique has the following problems.

【0012】(6)歩行動作や走行動作ではありがちな
ピッチの違いによって、例えば「のろのろ歩く」と「速
足で歩く」とのように同じ「歩く」動作でも、その速度
が異なる場合、振動パターンテーブルと入力振動波形と
では時間軸方向の長さが異なるため相関が検出できず、
違う動作と誤認識してしまう。したがって、ピッチの異
なる動作を正しく認識するには、異なるピッチに応じた
振動パターンテーブルを新たに追加する必要がある。さ
らに、通常ピッチは連続的に変化するため、より正確に
認識を行うためには、多くの振動パターンが必要とな
る。よって、より正確な認識を行うには、非常に大きな
振動パターンテーブルが必要になるという問題がある。
(6) Due to the difference in pitch that is common in walking and running motions, if the speed is different even in the same “walking” motion such as “sloppy walking” and “walking fast,” the vibration pattern table And the input vibration waveform have different lengths in the time axis direction, so no correlation can be detected.
They mistakenly recognize it as a different operation. Therefore, in order to correctly recognize an operation having a different pitch, it is necessary to newly add a vibration pattern table corresponding to a different pitch. Furthermore, since the pitch usually changes continuously, many vibration patterns are required for more accurate recognition. Therefore, there is a problem that a very large vibration pattern table is required for more accurate recognition.

【0013】(7)「歩きながら団扇であおぐ」とか
「走っている電車の中を歩く」等のように複数の動作が
組み合っているような動作を認識する場合でも、「歩き
ながら団扇であおぐ」,「走っている電車の中を歩く」を
それぞれ1つの振動パターンとして登録する必要があ
る。さらに、「歩きながら団扇であおぐ」場合には、足
を地面についた瞬間に団扇が下に向かってあおがれてい
るか、上に向かっているかによって振動波形が異なるた
め、それぞれの場合についても振動パターンを新たに登
録しておく必要がある。この場合も実際の認識には、非
常に大きな振動パターンテーブルが必要になるという問
題がある。
(7) Even when recognizing an operation in which a plurality of actions are combined, such as "gauging with a fan while walking" or "walking in a running train", "gauging with a fan while walking" And "walk in the running train" need to be registered as one vibration pattern. Furthermore, in the case of "floating with a fan while walking", the vibration waveform differs depending on whether the fan is lifted downward or upward when the foot touches the ground. It is necessary to register a new pattern. Also in this case, there is a problem that a very large vibration pattern table is required for actual recognition.

【0014】(8)人体に加わっている加速度のみを測
定し、これをデータとして認識を行っている。このた
め、身体をねじる等の角加速度に特徴が現れる動作の認
識が難しい。
(8) Only the acceleration applied to the human body is measured, and this is recognized as data. For this reason, it is difficult to recognize a motion that has a characteristic in angular acceleration such as twisting the body.

【0015】(9)認識の対象が間欠的な動作に限定さ
れている。一般的に人間の行動は、複数の動作を行って
1つの行動が達成される。例えば「イスに座る」場合に
は、「歩く」→「止まる」→「座る」のように動作が移
り変わる。このような複数の動作からなる1つの行動
を、正しく認識するような技術については、全く開示さ
れていない。
(9) Recognition targets are limited to intermittent operations. Generally, a human action is achieved by performing a plurality of actions. For example, in the case of “sit on a chair”, the operation changes as “walk” → “stop” → “sit”. There is no disclosure of a technique for correctly recognizing one action including a plurality of actions.

【0016】(10)従来の認識手法においては、認識
結果を分かり易く表現する手法については考慮されてい
ない。
(10) In the conventional recognition method, no consideration is given to a method of expressing the recognition result in an easily understandable manner.

【0017】本発明は上述したような問題点を考慮して
なされたもので、人間や動物や機械などの動く物体(被
験体)の動作や行動をより正しく認識することができる
認識方法、および、その方法を用いた装置、および、そ
の装置を含むシステムを提供することを目的とする。
The present invention has been made in consideration of the above-described problems, and has a recognition method capable of more accurately recognizing the motion and behavior of a moving object (subject) such as a human, an animal, and a machine. , An apparatus using the method, and a system including the apparatus.

【0018】より具体的には、本発明の目的は、以下の
ような技術的課題を実現することができる認識方法及び
装置及びシステムを提供することにある。
More specifically, an object of the present invention is to provide a recognition method, apparatus, and system capable of realizing the following technical problems.

【0019】(1)観測者に負担のかからないように動
作や行動或は作業を自動認識する。 (2)物体の影などによる死角の影響がない。
(1) Automatically recognize an action, action or work so as not to burden the observer. (2) There is no influence of blind spots due to the shadow of the object.

【0020】(3)被験体が移動しても観測に支障をき
たさない。
(3) Observation is not hindered even if the subject moves.

【0021】(4)被験体に負担をかけない。(4) No burden is imposed on the subject.

【0022】(5)単なる動作計測に留まらず、計測結
果から被験体の動作或は行動、更には作業内容を認識あ
るいは推定可能とする。
(5) It is possible to recognize or estimate the motion or action of the subject and the work content from the measurement result, in addition to the simple motion measurement.

【0023】(6)動作の速度に影響されない。(6) It is not affected by the operation speed.

【0024】(7)複数の動作が重ね合わされた場合で
も認識を可能とする。
(7) Recognition is possible even when a plurality of operations are superimposed.

【0025】(8)加速度以外の現象も参考して、より
多くの種類の動作を認識する。
(8) Recognize more types of operations by referring to phenomena other than acceleration.

【0026】(9)間欠的な動作計測に留まらず、動作
の履歴により被験者(被験物)の行動さらには作業内容
を認識あるいは連想あるいは推定する。
(9) Recognizing, associating or estimating the behavior of the subject (workpiece) and the work content based on the history of the operation, instead of the intermittent operation measurement.

【0027】(10)動作/行動の認識結果をコンピュ
ータアニメーションを用いて分かり易く表現する。コン
ピュータアニメーションの制御は、動作/行動の認識結
果をもとに制御する。
(10) Express the recognition result of the action / action in an easy-to-understand manner using computer animation. The computer animation is controlled based on the recognition result of the action / action.

【0028】[0028]

【課題を解決するための手段】上記目的を達成するため
に、本発明による被験体の動作/行動を認識する認識装
置は、前記被験体に取り付けられ、当該被験体の動作/
行動に伴う状態変化を観測する計測手段と、前記観測結
果における特徴量を抽出する特徴量抽出手段と、当該認
識装置により認識すべき動作/行動についての特徴量を
記憶する記憶手段と、前記観測結果から抽出した特徴量
と記憶してある特徴量とから、前記被験体の動作/行動
を認識する認識手段と、前記認識結果を出力する出力手
段とを有する。
In order to achieve the above object, a recognition device for recognizing a motion / behavior of a subject according to the present invention is attached to the subject, and the motion / recognition device of the subject is provided.
Measuring means for observing a state change accompanying an action, feature quantity extracting means for extracting a feature quantity in the observation result, storage means for storing a feature quantity of an action / action to be recognized by the recognition device; It has a recognizing means for recognizing the motion / action of the subject from the feature quantity extracted from the result and the stored feature quantity, and an output means for outputting the recognition result.

【0029】より具体的には、本発明による認識方法及
び装置及びシステムは、例えば以下のような手段を備え
る。
More specifically, the recognition method, apparatus and system according to the present invention include, for example, the following means.

【0030】(1)被験体の動作や行動に伴う状態変化
を自動的に計測する計測器を被験体に取り付け、計測デ
ータを観測者に送信する。
(1) A measuring instrument for automatically measuring a state change accompanying the movement or action of the subject is attached to the subject, and the measurement data is transmitted to the observer.

【0031】(2)映像や視覚によらない、加速度セン
サや速度センサ或は位置センサ等により、被験体の状態
変化を計測する。
(2) A change in the state of the subject is measured by an acceleration sensor, a speed sensor, a position sensor, or the like, which does not rely on video or vision.

【0032】(3)観測結果を、無線等により伝送す
る。
(3) The observation result is transmitted by radio or the like.

【0033】(4)動作や行動に伴う、状態変化が顕著
に表れる、少数の観測点で状態変化を計測する。
(4) The state change is measured at a small number of observation points where the state change accompanying the action or action is noticeable.

【0034】(5)予め動作或は行動の特徴量を抽出し
ておき、計測データから抽出した特徴量と比較し、相関
の高い特徴量が表している動作或は行動を認識結果とし
て出力する。
(5) A feature amount of an action or action is extracted in advance, compared with the feature quantity extracted from the measurement data, and an action or action represented by a feature quantity having a high correlation is output as a recognition result. .

【0035】(6)1つの動作を表すものとして予め測
定されている波形を、該動作の開始から終了までの時間
(動作時間)で正規化する。正規化する場合には動作の
開始から終了までの時間を“1”とするもので、例えば
歩行の場合は2歩が1周期となる。その後、関数化ある
いはフーリエ変換やウェーブレット変換等により各動作
の特徴的な成分を抽出し、関数化した場合にはその係数
を、フーリエ変換などをした場合には抽出した成分を、
参照すべき動作の特徴量として登録する。次に、動作を
認識する場合には、入力波形から動作の開始と終了を認
識し、この動作の継続時間により入力波形を正規化し、
その後上述したような関数化あるいはフーリエ変換やウ
ェーブレット変換等を行うことで係数や特徴成分を抽出
し、この抽出した係数や成分を予め登録してある特徴量
と比較することで、認識を行う。 (7)異なる動作の特徴量同士を重ね合わせた結果を用
いて、観測結果の認識を行う。例えば「歩く」動作の特
徴量と「団扇をあおぐ」動作の特徴量とを重ねあわせ
る。
(6) A waveform previously measured as representing one operation is normalized by the time (operation time) from the start to the end of the operation. In the case of normalization, the time from the start to the end of the operation is set to "1". For example, in the case of walking, two steps are one cycle. After that, characteristic components of each operation are extracted by functionalization or Fourier transform, wavelet transform, etc., and the coefficients are converted when the functions are converted, and the extracted components are converted when the Fourier transform is performed.
It is registered as a feature value of an operation to be referred to. Next, when recognizing the operation, the start and end of the operation are recognized from the input waveform, and the input waveform is normalized by the duration of the operation,
After that, coefficients or feature components are extracted by performing the above-described functionalization, Fourier transform, wavelet transform, or the like, and recognition is performed by comparing the extracted coefficients or components with a previously registered feature amount. (7) Recognition of the observation result is performed by using a result obtained by superimposing feature amounts of different operations. For example, the feature amount of the “walking” motion and the feature amount of the “fan fan” are superimposed.

【0036】(8)動作や行動を観測する場合には、加
速度データばかりでなく、被験体の動作や行動に伴う速
度,位置,角加速度,角速度,回転角,生体情報等の他
の物理量に関するデータも合わせて取得して、認識処理
に利用する。
(8) When observing a motion or action, not only acceleration data but also other physical quantities such as speed, position, angular acceleration, angular velocity, rotation angle, and biological information associated with the motion or action of the subject. Data is also acquired and used for recognition processing.

【0037】(9)動作の履歴より連想される行動を連
想動作として登録しておき、観測され認識された動作の
履歴と前記連想動作とを比較することで、被験体の行動
を連想する。
(9) The action associated with the action history is registered as the associative action, and the action history of the subject is compared by comparing the observed and recognized action history with the associative action.

【0038】(10)コンピュータアニメーションの生
成手法の特徴量成分の選択や強さの制御を、被験者の動
作/行動の認識結果を用いて行う。
(10) The selection of the feature amount component and the control of the strength of the computer animation generation method are performed using the recognition result of the motion / action of the subject.

【0039】上記各手段によれば、例えば以下のような
効果を達成することができる。
According to each of the above means, for example, the following effects can be achieved.

【0040】(1)自動的に測定データが送られてくる
ため、観測者に負担をかけない。
(1) Since the measurement data is automatically sent, no burden is imposed on the observer.

【0041】(2)死角が生じないセンサである。(2) A sensor that does not generate blind spots.

【0042】(3)無線のため、被験体が何処に移動し
ようが、観測者は追跡する必要はない。
(3) Due to the radio, no matter where the subject moves, the observer need not track.

【0043】(4)観測点が少ないため被験体に負担を
かけない。更に、目視等をしていないので、被験体に観
測者の視線の影響を与えない。
(4) No burden is imposed on the subject because the number of observation points is small. Further, since the visual observation is not performed, the subject is not affected by the line of sight of the observer.

【0044】(5)自動認識のため、計測した生データ
を直接観測者が扱う必要がない。
(5) Because of the automatic recognition, there is no need for the observer to directly handle the measured raw data.

【0045】(6)時間軸が正規化されているため、動
作速度に影響されず認識が行える。 (7)特徴量の組み合わせも考慮するため、より複雑な
動作も認識できる。
(6) Since the time axis is normalized, recognition can be performed without being affected by the operation speed. (7) Since a combination of feature amounts is also taken into consideration, a more complicated operation can be recognized.

【0046】(8)加速度以外の物理量も用いて認識を
行うため、加速度にはあまり特徴が現れない動作におい
ても認識ができる。
(8) Recognition is performed using a physical quantity other than acceleration, so that it is possible to recognize even an operation in which a feature does not appear much in acceleration.

【0047】(9)複数の動作の組み合わせにより行わ
れる行動(以下では作業と呼ぶ)も認識できる。
(9) An action performed by a combination of a plurality of actions (hereinafter referred to as a task) can also be recognized.

【0048】(10)認識結果を分かり易く観測者に提
示することができる。
(10) The recognition result can be presented to the observer in an easy-to-understand manner.

【0049】[0049]

【発明の実施の形態】以下、本発明の一実施形態を図1
により説明する。本実施形態では被験者1を、動作或は
行動(以下では動作/行動と略記する)の認識の対象と
して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIG.
This will be described below. In the present embodiment, the subject 1 will be described as a target of recognition of an action or action (hereinafter abbreviated as action / action).

【0050】本実施形態での動作及び行動の認識装置
は、被験者1に取り付けられた計測器2,3と、計測器
2,3からの計測結果をデジタル化するA/D変換器4
と、デジタル化した計測結果から特徴量を抽出する特徴
量抽出部5と、予め計測され抽出された各種動作および
行動の特徴量を格納した特徴量データベース6と、特徴
量抽出部5で抽出された特徴量が示す動作/行動を特徴
量データベース6に格納されたデータを用いて認識する
信号処理部7と、認識結果を出力する出力部8とを有す
る。
The apparatus for recognizing actions and actions according to the present embodiment includes measuring instruments 2 and 3 attached to the subject 1 and an A / D converter 4 for digitizing the measurement results from the measuring instruments 2 and 3.
A feature value extraction unit 5 for extracting feature values from digitized measurement results, a feature value database 6 storing feature values of various operations and actions measured and extracted in advance, and a feature value extraction unit 5 A signal processing unit 7 for recognizing an action / action indicated by the obtained feature amount using data stored in the feature amount database 6, and an output unit 8 for outputting a recognition result.

【0051】特徴量抽出部5及び信号処理部7は、例え
ば、以下に説明するような特徴量抽出処理および動作/
行動の認識処理を実行するプログラムを記憶するための
メモリと、該プログラムを実行するためのDSPあるい
はMPUとを備える情報処理装置により実現される。ま
た、出力部8は、例えば液晶パネルやCRTを備える表
示装置により実現される。
The feature quantity extraction unit 5 and the signal processing unit 7 perform, for example, feature quantity extraction processing and operation /
The present invention is realized by an information processing apparatus including a memory for storing a program for executing an action recognition process, and a DSP or an MPU for executing the program. The output unit 8 is realized by, for example, a display device including a liquid crystal panel or a CRT.

【0052】本実施形態では、動作/行動に伴う状態変
化を計測するための計測器2,3が被験者1に取り付け
られている。図1の例では、腰の位置に取り付けられた
状態変化の計測器2と、腕に取り付けられた状態変化の
計測器3とが示されている。これら状態変化の測定器
は、状態変化が顕著に現れる場所に取り付ける。例え
ば、観測しようとする状態変化が足に現れるような場合
には、状態変化の測定器を足に取り付けると良い。ま
た、計測器の数は1個でも複数個でも構わない。
In the present embodiment, the measuring instruments 2 and 3 for measuring the state change accompanying the operation / behavior are attached to the subject 1. In the example of FIG. 1, a state change measuring instrument 2 attached to the waist position and a state change measuring instrument 3 attached to the arm are shown. These state change measuring instruments are attached to places where the state change is prominent. For example, when a state change to be observed appears on the foot, it is preferable to attach a state change measuring device to the foot. The number of measuring instruments may be one or more.

【0053】状態変化の計測器2,3で計測された結果
は、A/D変換器4により時々刻々とデジタル信号に変
換される。変換されたデジタル信号は、信号の特徴量抽
出部5により処理され、当該信号に特有な特徴が抽出さ
れる。この特徴抽出処理の様子を図2を用いて説明す
る。
The results measured by the state change measuring devices 2 and 3 are converted into digital signals every moment by the A / D converter 4. The converted digital signal is processed by the signal characteristic amount extraction unit 5, and a characteristic characteristic of the signal is extracted. This feature extraction process will be described with reference to FIG.

【0054】ここでは状態変化を測定する測定器とし
て、図2に示すように、腰に取り付けられた加速度セン
サを例にとり説明する。この加速度センサは、人体の身
長方向に沿った加速度を計測する。加速度センサからの
出力結果20は、人間の「歩く」,「走る」,「しゃがむ」,
「横になる」の動作で得られたそれぞれに特有の時系列
データ例21〜24を示している。本例の場合、データ
21,22では歩行或は走行による周期的な加速度変化
が、データ23では単発の変化が、データ24において
は横になったために重力加速度が測定されず、加速度が
無い状態が観測されている。
Here, as an example of a measuring device for measuring a state change, an acceleration sensor attached to the waist as shown in FIG. 2 will be described. This acceleration sensor measures the acceleration of the human body along the height direction. The output results 20 from the acceleration sensor are human “walking”, “running”, “squatting”,
The time-series data examples 21 to 24 unique to each obtained by the operation of “landing” are shown. In the case of this example, the data 21 and 22 indicate a periodic acceleration change due to walking or running, the data 23 indicates a single-shot change, and the data 24 indicates a horizontal change. Is observed.

【0055】上記データをA/D変換器4でデジタル化
した後、信号解析の一手法である時間−周波数解析(一
例としてフーリエ変換)した結果、周波数スペクトラム
25が得られる。上記各データ21〜24に対応する解
析結果は、周波数スペクトラム26,27,28,29
のようになる。各解析結果の棒グラフは、フーリエ変換
して得られた周波数成分のスペクトル強度を表してい
る。各動作の周波数特性は各々異なり、この違いが各動
作の特徴量となる。
After the above data is digitized by the A / D converter 4, a frequency spectrum 25 is obtained as a result of time-frequency analysis (Fourier transform as an example) which is one method of signal analysis. The analysis results corresponding to the above data 21 to 24 are frequency spectra 26, 27, 28, 29
become that way. The bar graph of each analysis result represents the spectrum intensity of the frequency component obtained by performing the Fourier transform. The frequency characteristics of each operation are different from each other, and this difference is a feature amount of each operation.

【0056】本実施形態では、動作/行動を認識するた
めの信号処理部7での参照データとなる特徴量を、予
め、その状態が知られている動作や行動に係るデータか
ら抽出し、登録しておく。この参照データを登録する場
合には、図1の経路9を介して、動作/行動の特徴量の
データベース6に蓄える(図2の処理30)。
In the present embodiment, a feature quantity serving as reference data in the signal processing unit 7 for recognizing an action / action is extracted from data relating to the action or action whose state is known in advance and registered. Keep it. When registering this reference data, the reference data is stored in the database 6 of the feature amount of the action / action via the path 9 in FIG. 1 (process 30 in FIG. 2).

【0057】動作/行動を認識するための信号処理部7
では、特徴量抽出部5より時々刻々と送られてくる、現
在の被験者1の動作/行動に起因する特徴量データ10
を受け入れ、このデータ10と既にデータベース6に登
録されている各種動作/行動の特徴量の参照データ11
とを比較する。すなわち、現在送られて来ている特徴量
とデータベース6に蓄えられている各種特徴量との相関
を取り、最も相関が高い特徴量に対応する動作/行動
が、被験者1が現在行っている動作/行動として判定さ
れ、その判定結果は出力部8により出力される。
Signal processing unit 7 for recognizing operation / action
Then, the feature amount data 10 which is sent from the feature amount extraction unit 5 every moment and originates from the current motion / action of the subject 1
And the reference data 11 of the feature amounts of various actions / actions already registered in the database 6
Compare with In other words, the currently transmitted feature amount is correlated with the various feature amounts stored in the database 6, and the operation / action corresponding to the feature amount having the highest correlation is the operation currently performed by the subject 1. / Action, and the output is output by the output unit 8.

【0058】本発明において相関のとる方法は特に限定
されるものではないが、例えば図29に示すような方法
がある。本方法では、最初、被験者1の動作/行動に対
応する測定波形のスペクトラムである特徴量データ10
に対応する、以下の数1を満足するように正規化された
周波数成分F(m)を求めておく。同様に、相関をとる
相手となる参照データ11に対応する、以下の数2を満
足するように正規化された各周波数成分G(m)を求め
ておく。
In the present invention, the method for obtaining the correlation is not particularly limited, but for example, there is a method as shown in FIG. In this method, first, feature amount data 10 which is a spectrum of a measured waveform corresponding to the movement / action of the subject 1
, A frequency component F (m) normalized so as to satisfy the following expression 1 is obtained. Similarly, each frequency component G (m) corresponding to the reference data 11 to be correlated and normalized so as to satisfy the following Expression 2 is obtained.

【0059】[0059]

【数1】 (Equation 1)

【0060】[0060]

【数2】 (Equation 2)

【0061】次に、上記両データ10,11の相関を示
す関数として以下の数3により関数H(m)を定義す
る。
Next, a function H (m) is defined by the following equation 3 as a function indicating the correlation between the two data 10 and 11.

【0062】[0062]

【数3】 H(m)=G(m):(F(m)>G(m)の場合)or =F(m):(G(m)≦F(m)の場合) …(数3) 関数H(m)は両データの重なりあった部分290を指
すものであり、H(m)が以下の数4を満足した場合に
は、相関があると判断する。
H (m) = G (m): (if F (m)> G (m)) or = F (m): (if G (m) ≦ F (m)) (number) 3) The function H (m) indicates the overlapping portion 290 of both data, and if H (m) satisfies the following equation 4, it is determined that there is a correlation.

【0063】[0063]

【数4】 (Equation 4)

【0064】ここでH(m)の最大値は1.0 である。
よって、全く同じものであることが要求されている場合
には、α=1.0 とするが、ある程度似ているものが要
求されている場合には、αを1.0 よりも少し小さい値
とする。なお、複数の参照データとの比較を行う場合に
は、H(m)の積分値の一番大きなものを、被験者1が
行っている動作/行動とするか、あるいは積分値の値に
応じて可能性のある候補として決定する。
Here, the maximum value of H (m) is 1.0.
Therefore, when it is required that they are exactly the same, α is set to 1.0, but when something similar is required to some extent, α is set to a value slightly smaller than 1.0. And When comparing with a plurality of reference data, the largest integrated value of H (m) is determined as the action / action performed by the subject 1, or according to the value of the integrated value. Determined as a possible candidate.

【0065】さらに、上記数4ではスペクトラムの全て
の周波数成分は同じ重みをもつように設定されている
が、各成分毎に異なる重み付けをしても良い。例えば、
動作固有のスペクトラムがでる場合には、その部分の重
みを大きくするとか、雑音がある場合にはその成分の重
みを小さくするなどしてもよい。β(m)をそれぞれの
周波数成分mに固有な重み関数とすると、相関を示す関
数H(m)は以下のように定義することができる。
Further, in Equation (4), all frequency components of the spectrum are set to have the same weight, but different weights may be assigned to each component. For example,
If a spectrum specific to the operation is generated, the weight of the portion may be increased, or if there is noise, the weight of the component may be reduced. Assuming that β (m) is a weight function unique to each frequency component m, a function H (m) indicating a correlation can be defined as follows.

【0066】[0066]

【数5】 H(m)=G(m)β(m):(F(m)>G(m)の場合)or =F(m)β(m):(G(m)≦F(m)の場合) …(数5) このように本実施形態によれば、状態変化を測定しその
測定結果を単なる測定値として利用するのではなく、状
態変化の測定値から認識処理を行うことにより、状態変
化から被験者の動作/行動を自動認識できるといった効
果がある。
H (m) = G (m) β (m): (when F (m)> G (m)) or = F (m) β (m): (G (m) ≦ F ( In the case of m)) (Equation 5) According to the present embodiment, recognition processing is performed from the measured value of the state change, instead of measuring the state change and using the measurement result as a mere measured value. Accordingly, there is an effect that the movement / action of the subject can be automatically recognized from the state change.

【0067】さらに、本実施形態によれば、被験者の身
体に取り付けられた少数(本実施形態では最低1個所)
の状態変化の測定器により測定された測定結果より、被
験者の身体全体としての動きを認識でき、少ない測定器
により身体全体のマクロ的な動作を推測できるといった
効果がある。
Further, according to the present embodiment, a small number (at least one in this embodiment) attached to the body of the subject
There is an effect that the motion of the subject as a whole can be recognized from the measurement result measured by the measuring device of the state change of the subject, and the macro motion of the whole body can be estimated by a small number of measuring devices.

【0068】さらに、本実施形態によれば、測定器を取
り付けるべき測定個所が少ないため、被験者に負担をか
けないといった効果がある。
Furthermore, according to the present embodiment, there are fewer measuring points to which the measuring device is to be attached, so that there is an effect that the subject is not burdened.

【0069】さらに、本実施形態によれば、被験者の動
作/行動の状態を、他の場所に伝送する場合、状態変化
を測定した測定値(測定サイクル毎の測定値)をそのま
ま伝送するのに比べ、認識後は各動作/行動サイクル毎
に認識結果を伝送すればよく、情報量を減縮できるとい
った効果もある。
Further, according to the present embodiment, when transmitting the state of the movement / action of the subject to another place, the measured value obtained by measuring the state change (measured value for each measurement cycle) is transmitted as it is. In comparison, after recognition, it is sufficient to transmit a recognition result for each operation / action cycle, which has the effect of reducing the amount of information.

【0070】本実施形態では、特徴量抽出部5が周波数
解析としてフーリエ変換を行う場合の例を説明したが、
本発明で用いることができる周波数解析法はこれに限定
されるものではない。例えばウェーブレット変換をはじ
めとする時間周波数解析等の他の周波数解析を行い、そ
の変換結果から特徴量を抽出しても構わない。
In the present embodiment, an example has been described in which the feature extraction unit 5 performs a Fourier transform as a frequency analysis.
The frequency analysis method that can be used in the present invention is not limited to this. For example, another frequency analysis such as a time-frequency analysis including a wavelet transform may be performed, and the feature amount may be extracted from the result of the conversion.

【0071】ウェーブレット変換を用いた例を図3によ
り説明する。210は、最上段に図示されている被験者
の動作に対応して測定された加速度変化である。この波
形をウェーブレット変換すると、Level(ウェーブレット
成分)に特徴的な値が表れる。例えば、「歩く」動作の
場合には、213のLevel Cに特徴的な値214が表れ
る。同様に「しゃがむ」場合には、211のLevel Aの
215のように、「走る」場合には、212のLevel B
及び213のLevel Cに216のような値が表れる。本
例の場合では、これらがそれぞれの動作を表す特徴量で
あり、この特徴量により動作/行動を認識することがで
きる。
An example using the wavelet transform will be described with reference to FIG. 210 is a change in acceleration measured in response to the motion of the subject shown at the top. When this waveform is subjected to wavelet transform, a characteristic value appears in Level (wavelet component). For example, in the case of the “walking” motion, a characteristic value 214 appears at 213 Level C. Similarly, in the case of “squatting”, as in the case of Level A 215 of 211, and in the case of “running”, the level B of 212 is performed.
And 213, a value such as 216 appears in Level C. In the case of the present example, these are feature amounts representing the respective actions, and the action / action can be recognized based on the feature quantities.

【0072】なお、特徴量としてウェーブレット成分を
用いた場合の相関の取り方は、上記周波数成分を特徴量
として用いた場合と同様である。ただし、周波数成分で
の相関の取り方では各周波数成分の強度の値で相関を取
るが、ウェーブレット成分の場合には、各レベル毎の時
間に関する強度の相関をとり、さらにレベルの相関も取
る。
The way of obtaining the correlation when the wavelet component is used as the feature is the same as that when the frequency component is used as the feature. However, in the method of obtaining the correlation with the frequency component, the correlation is obtained with the value of the intensity of each frequency component. In the case of the wavelet component, the correlation of the intensity with respect to time for each level is obtained, and the correlation of the level is also obtained.

【0073】また、本実施形態ではデジタル化した信号
を用いた周波数解析によって得られる特徴量について説
明したが、本発明で用いることができる特徴量はこれに
限定されるものではない。本発明において特徴量とは、
その量を用いて動作や行動が区別できるものであれば他
の形態の特徴量を用いても良い。例えば、測定器2,3
から出力されたアナログ信号の周波数特性を複数のフィ
ルタ回路からなるスペクトラムアナライザによって抽出
し、抽出したアナログ値の周波数成分を特徴量として、
各成分毎にアナログの比較器で比較することで、相関を
求める構成としても良い。また、測定器の出力信号に対
して予め定めた次数の関数をフィッテイグし、その関数
に含まれる係数の組み合わせにより特徴量をあらわすよ
うな構成としても良い。
In the present embodiment, the feature obtained by frequency analysis using a digitized signal has been described. However, the feature that can be used in the present invention is not limited to this. In the present invention, the feature amount is
Other forms of feature quantity may be used as long as the action or action can be distinguished using the quantity. For example, measuring instruments 2 and 3
The frequency characteristic of the analog signal output from is extracted by a spectrum analyzer composed of a plurality of filter circuits, and the frequency component of the extracted analog value is used as a feature amount.
The configuration may be such that the correlation is obtained by comparing each component with an analog comparator. Alternatively, a configuration may be employed in which a function of a predetermined order is fitted to the output signal of the measuring instrument, and the feature amount is represented by a combination of coefficients included in the function.

【0074】また、本実施形態では相関関係を用いて動
作/行動の認識を行っているが、相関関係を求める代わ
りにニューラルネットを用いても、本実施形態と同様な
効果を得ることができる。この場合、動作/行動を認識
するための信号処理部7は、ニューラルネットで構成す
る。また、動作/行動の特徴量のデータベース6を作る
際には、既知の動作/行動について予め抽出された特徴
量をニューラルネットへの教師信号としてニューラルネ
ットへ覚え込ませる。認識の際には、観測した測定値か
ら特徴量抽出部5により特徴量を抽出し、ニューラルネ
ットで構成される信号処理部7へ入力し、認識を行う。
In this embodiment, the operation / action is recognized by using the correlation. However, the same effect as that of this embodiment can be obtained by using a neural network instead of obtaining the correlation. . In this case, the signal processing unit 7 for recognizing the operation / action is configured by a neural network. Further, when creating the database 6 of the feature amount of the action / action, the feature quantity extracted in advance for the known action / action is memorized in the neural network as a teacher signal to the neural network. At the time of recognition, the feature amount is extracted from the observed measurement value by the feature amount extraction unit 5 and input to the signal processing unit 7 composed of a neural network for recognition.

【0075】また、本実施形態では、説明の簡略化のた
めに垂直方向1軸の測定結果を利用した場合を例に説明
したが、横方向の加速度あるいは前後方向の加速度等、
上記垂直方向以外の加速度変化の測定からも特徴量を抽
出して、それぞれの値からあるいはそれらを複合的に判
断して認識しても構わない。
Further, in the present embodiment, the case where the measurement result of one axis in the vertical direction is used for simplification of the explanation has been described as an example.
The feature amount may be extracted from the measurement of the acceleration change in the direction other than the vertical direction, and may be recognized based on the respective values or in a composite manner.

【0076】また、本実施形態では、状態変化の測定器
として人体の身長方向での加速度を感知する加速度セン
サを例に取り、加速度の変化より特徴量を抽出する例を
説明したが、加速度センサの代わりに速度センサ或は位
置センサを用い、速度或は位置の変化より加速度を算出
(1次或は2次微分)しても、上記と同様な効果を達成
することができる。
In this embodiment, an example is described in which an acceleration sensor that senses the acceleration of a human body in the height direction is taken as an example of a state change measuring device, and a feature amount is extracted from a change in acceleration. If a speed sensor or a position sensor is used instead of and the acceleration is calculated (first-order or second-order differentiation) from a change in speed or position, the same effect as described above can be achieved.

【0077】また、本実施形態では加速度変化の特徴量
を抽出していたが、速度変化より特徴量を抽出して、速
度変化より抽出し登録されたデータベースの特徴量との
相関を取っても、本実施形態と同様に実施することがで
きる。この場合、加速度センサを用いた場合は、1次積
分を行い速度を算出し実施し、位置センサを用いた場合
は1次微分を行い速度を算出し実施する。また同様に、
位置変化より特徴量を抽出して、位置変化より抽出し登
録されたデータベースの特徴量との相関を取っても良
い。この場合、加速度センサを用いた場合は、2次積分
を行い位置を算出し、速度センサを用いた場合は1次積
分を行い位置を算出する。
In the present embodiment, the feature amount of the acceleration change is extracted. However, the feature amount is extracted from the speed change, and the correlation with the feature amount of the database extracted and registered from the speed change is obtained. The present embodiment can be implemented in the same manner as the present embodiment. In this case, when an acceleration sensor is used, first-order integration is performed to calculate and execute the speed. When a position sensor is used, first-order differentiation is performed to calculate and execute the speed. Similarly,
The feature amount may be extracted from the position change, and the correlation with the feature amount of the database extracted and registered from the position change may be taken. In this case, when the acceleration sensor is used, the position is calculated by performing the second-order integration, and when the speed sensor is used, the position is calculated by performing the first-order integration.

【0078】また、本実施形態では、被験体として人間
を例に挙げて説明したが、もちろん人間以外の動物や多
関節型のロボット等についても、同様に動作や行動の認
識を行うことができる。
Although the present embodiment has been described by taking a human as an example of a subject, it is needless to say that motion and behavior can be similarly recognized for non-human animals and articulated robots. .

【0079】また、本実施形態では「歩く」,「走る」
といった被験体の全体の動きの認識を例として説明して
いるが、被験体の特定の場所に取り付けられた状態変化
の測定器により、前記特定の場所の状態変化を測定し
て、その状態変化の特徴量から、前記特定の場所の動き
や動作/行動を認識することも、本実施形態と同様な方
法で可能である。
In the present embodiment, "walk" and "run"
Although the recognition of the entire movement of the subject is described as an example, the state change of the specific place is measured by a state change measuring instrument attached to a specific place of the subject, and the state change is measured. It is also possible to recognize the movement and the action / behavior of the specific place from the feature amounts of the above in the same manner as in this embodiment.

【0080】例えば、腕時計に取り付けられた状態変化
の測定器により、手と一緒に動く腕時計の状態変化より
特徴量を抽出し、前以て記録してある、手の動きによる
腕時計から計測された特徴量と比較することにより、手
の動きや動作/行動を認識することが可能である。同様
に、靴や靴下に取り付けられた状態変化の測定器により
足の動きや動作/行動を認識したり、帽子やメガネに取
り付けられた状態変化の測定器により頭の動きや動作/
行動を認識することも可能である。
For example, by using a state change measuring device attached to a wristwatch, a feature amount is extracted from a state change of a wristwatch that moves together with the hand, and the characteristic amount is measured from a wristwatch due to hand movement recorded in advance. By comparing with the feature amount, it is possible to recognize the movement or movement / action of the hand. Similarly, a state change measuring device attached to shoes or socks recognizes the movement or movement / action of a foot, and a state change measurement device attached to a hat or glasses measures head movement or movement / motion.
It is also possible to recognize actions.

【0081】また、本実施形態では「歩く」,「走る」
といった被験体の全体としての動きの認識を例として説
明しているが、被験体が動かす機器に状態変化の測定器
を取り付け、被験体が動かした機器の状態変化を測定
し、その状態変化の特徴量から機器の動きや動作を認識
することも、本実施形態と同様な方法で可能である。
In this embodiment, "walk" and "run"
As an example, the recognition of the movement of the subject is explained as an example.However, a state change measuring device is attached to the device moved by the subject, the state change of the device moved by the subject is measured, and the state change is measured. It is also possible to recognize the movement or operation of the device from the feature amount by the same method as in the present embodiment.

【0082】例えば、筆記用具、あるいはコンピュータ
システムにおいて筆記用具の代わりに用いられる入力装
置(例えばマウス等)に状態変化の測定器を取り付けれ
ば、筆記用具の状態変化より、その状態変化の特徴量を
抽出し、文字や図形を書いた場合の特徴量、あるいは、
サインをした場合の特徴量と比較することにより文字認
識や図形認識、さらにサインの認識も可能である。
For example, if a state change measuring instrument is attached to a writing implement or an input device (for example, a mouse or the like) used in place of the writing implement in a computer system, the characteristic amount of the state change can be calculated from the state change of the writing implement. Extracted and featured when writing characters and figures, or
Character recognition, figure recognition, and signature recognition are also possible by comparing the feature amount when a signature is made.

【0083】次に、被験者の動作速度が変る場合に用い
ることができる認識方法を実現するための認識装置の一
実施形態を、図4及び図5を用いて説明する。
Next, an embodiment of a recognition apparatus for realizing a recognition method that can be used when the movement speed of the subject changes will be described with reference to FIGS.

【0084】一般に人間や動物等が動作を行う場合、例
えば同じ「歩く」でも、「ゆっくり歩いたり」,「早く歩
いたり」する。そのため1歩を歩くためにかかる所要時
間の長さが変化する。時間が変化するということは、周
波数が変化するということになり、前以て蓄えてある動
作の特徴量を比較した場合、正常に認識されなくなると
いう場合もある。この問題を解決するのが本実施形態で
ある。
In general, when a human or an animal performs an action, for example, the same “walk” may be “walk slowly” or “walk fast”. Therefore, the length of time required to walk one step changes. When the time changes, the frequency changes, and when the feature amounts of the motions stored in advance are compared, they may not be recognized properly. The present embodiment solves this problem.

【0085】本実施形態での認識装置は、図4に示すよ
うに、上記図1の装置において、A/D変換器4と特徴
量抽出部5との間に、測定対象となる動作時間の計測お
よび該動作時間による正規化処理を行う正規化部221
を設けている。
As shown in FIG. 4, the recognition apparatus according to the present embodiment has a configuration in which the operation time of the measurement target is set between the A / D converter 4 and the feature quantity extraction unit 5 in the apparatus shown in FIG. A normalization unit 221 for performing a measurement and a normalization process based on the operation time
Is provided.

【0086】本実施形態では、測定の対象となる動作
(例えば歩行)の周期となる動作所要時間を、図5
(a)の222に示すように定義し、1歩にかかる時間
よりも長い時間の窓関数で観測波形を切り出し周波数解
析すると、図5(b)のような、歩いた場合の1歩に相
当する基本周波数スペクトル224が得られる。ここで
動作速度が変化するということは、このスペクトル22
4が左右に移動するということである。
In the present embodiment, the required operation time, which is the period of the operation (eg, walking) to be measured, is shown in FIG.
When defined as indicated by 222 in FIG. 5A and an observed waveform is cut out with a window function longer than the time required for one step and frequency analysis is performed, it corresponds to one step when walking as shown in FIG. Is obtained. Here, the fact that the operating speed changes means that this spectrum 22
4 moves left and right.

【0087】そこで本実施形態では、A/D変換器4に
よる変換処理後、正規化部221において動作の所要時
間を計測する。具体的には、動作が周期運動であれば、
前述の基本周波数(動作所要時間222)より求める。
また、「しゃがむ」などの周期運動でない場合には、図
3の219及び220の加速度変化のエッジ部分の長
さ、あるいは、ウェーブレット変換のあるLevel に表れ
る(この例では、LevelA)信号(217及び218)
の距離より求めることができる。
Therefore, in this embodiment, after the conversion processing by the A / D converter 4, the normalization unit 221 measures the time required for the operation. Specifically, if the motion is a periodic motion,
It is determined from the above-described fundamental frequency (operation required time 222).
If the motion is not a periodic motion such as “squatting”, the length of the edge portion of the acceleration change at 219 and 220 in FIG. 3 or a certain level (in this example, Level A) signal (217 and 218)
From the distance.

【0088】この動作の所要時間分だけ観測波形を切り
出すことによって正規化し、その結果を周波数解析した
結果が図5(c)である。このような処理は、時間正規
化処理と呼ばれるものであり、時間伸縮関数と呼ばれる
関数を用いることでも実現することができる。
FIG. 5C shows a result obtained by normalizing the cutout of the observation waveform for the time required for this operation, and frequency-analyzing the result. Such a process is called a time normalization process, and can also be realized by using a function called a time expansion / contraction function.

【0089】正規化処理後のスペクトラムでは、図5
(c)に示すように、第1高調波に動作の基本周波数ス
ペクトル225が表れる。これは、224以降の高周波
成分を224が第1高調波になるように平行移動したも
のと同じであるため、図5(b)のスペクトラムを特徴量
として得た後に、平行移動する等の補正処理を行う構成
としても良い。この結果、図5(c)の横軸は1歩を基
準にした周波数となる。上述した正規化処理は、動作/
行動の特徴量のデータベース6を作る場合、および、デ
ータベース6の参照データを利用して観測波形を認識す
る場合のどちらにおいても行われる。
In the spectrum after the normalization processing, FIG.
As shown in (c), the fundamental frequency spectrum 225 of the operation appears at the first harmonic. This is the same as the translation of the high-frequency components after 224 so that 224 becomes the first harmonic. Therefore, after obtaining the spectrum of FIG. The processing may be performed. As a result, the horizontal axis in FIG. 5C is the frequency based on one step. The above-described normalization processing is performed by
This is performed both in the case where the database 6 of the feature amount of the action is created and in the case where the observed waveform is recognized using the reference data of the database 6.

【0090】本実施形態によれば、信号処理部7には動
作時間に依存しない、動作毎の区切りとして特徴量が入
力されてくるために、動作時間に左右されず正確な認識
処理を行うことができる。さらに、観測した、動作時間
を出力することにより、例えば「ゆっくり歩いている」
あるいは「速く歩いている」等の、より詳細な動作の区
別も可能である。
According to the present embodiment, since the feature amount is input to the signal processing unit 7 as a delimiter for each operation, independent of the operation time, it is possible to perform an accurate recognition process independent of the operation time. Can be. Further, by outputting the observed operation time, for example, "walking slowly"
Alternatively, more detailed movements such as "walking fast" can be distinguished.

【0091】次に、動作速度が変化した場合の他の実施
形態を図6を用いて説明する。
Next, another embodiment in which the operating speed changes will be described with reference to FIG.

【0092】本実施形態の認識装置は、図6に示すよう
に上記図1の装置において、A/D変換器4と特徴量抽
出部5との間に観測波形の伸縮処理を行う伸縮部231
を設け、さらに、該A/D変換器4と特徴量データベー
ス6との間に特徴量抽出部5を設けている。ここでは、
特徴量データベース6の構築は、上記図1と同様の方法
で行う。
As shown in FIG. 6, the recognizing device of this embodiment is the expansion / contraction unit 231 for performing the expansion / contraction processing of the observed waveform between the A / D converter 4 and the feature quantity extraction unit 5 in the apparatus of FIG.
And a feature amount extraction unit 5 is provided between the A / D converter 4 and the feature amount database 6. here,
The construction of the feature amount database 6 is performed in the same manner as in FIG.

【0093】本実施形態では、観測波形を認識しうる場
合には伸縮部231により該観測波形の変形を行う。具
体的には、観測波形の時間軸を伸び縮みさせる処理を行
う。時間軸を伸ばすと言うことは、動作時間が長くなる
(遅くなる)ことに相当し、縮めるということは動作時
間が短くなる(早くなる)ことを意味する。この伸縮処
理を予め定めたいろいろな伸縮値で行った後に、各処理
結果毎に特徴量抽出部5により特徴量を抽出し、信号処
理部7により認識処理を行う。
In the present embodiment, when the observed waveform can be recognized, the observed waveform is deformed by the expansion / contraction unit 231. Specifically, a process for expanding and contracting the time axis of the observed waveform is performed. Extending the time axis is equivalent to increasing (decreasing) the operation time, and contracting is decreasing (decreasing) the operation time. After performing this expansion / contraction processing with various predetermined expansion / contraction values, the characteristic amount is extracted by the characteristic amount extraction unit 5 for each processing result, and the recognition processing is performed by the signal processing unit 7.

【0094】認識処理部7では、観測波形を時間軸で伸
縮した各種波形に対応する特徴量が入力され、その中で
一番相関のある特徴量に対応する動作が認識結果として
出力される。この場合の伸縮率も併せて出力することに
より、特徴量データベース6に蓄えられている動作との
動作時間の違いも認識することができる。
In the recognition processing section 7, feature amounts corresponding to various waveforms obtained by expanding and contracting the observed waveform on the time axis are input, and an operation corresponding to the most correlated feature amount is output as a recognition result. By also outputting the expansion / contraction ratio in this case, it is possible to recognize the difference in the operation time from the operation stored in the feature amount database 6.

【0095】本実施例によれば、動作速度が変化しても
正しい認識が行うことができる効果がある。さらに、動
作時間(動作速度)も認識できるといった効果もある。
According to this embodiment, there is an effect that correct recognition can be performed even if the operation speed changes. Further, there is an effect that the operation time (operation speed) can be recognized.

【0096】本実施形態では観測波形を時間軸に沿って
伸縮したが、本発明では識別しようとする動作に固有の
特徴量が大きく変えられない限り、該観測波形に関する
他の特性を伸縮させても構わない。例えば、観測波形の
信号強度を伸縮させ、この伸縮させた観測波形を用いて
認識処理を行い、さらに、認識が成功した時に用いた伸
縮率を表示する構成としても良い。
In the present embodiment, the observed waveform is expanded or contracted along the time axis. However, in the present invention, other characteristics related to the observed waveform are expanded or contracted unless the characteristic amount unique to the operation to be identified is largely changed. No problem. For example, a configuration may be used in which the signal strength of the observed waveform is expanded and contracted, recognition processing is performed using the expanded and contracted observation waveform, and the expansion and contraction ratio used when recognition is successful is displayed.

【0097】次に、複数の特徴量を選択し、それらを重
ね合せて生成した新たな特徴量に基づいて認識処理を行
う実施形態について、図7を用いて説明する。
Next, an embodiment in which a plurality of feature values are selected and recognition processing is performed based on a new feature value generated by superimposing them will be described with reference to FIG.

【0098】上記図1,図4,図6の実施形態では、観
測した特徴量と前以て蓄えられているデータベース6と
からそれぞれ1つずつの特徴量を選択し、これら選択し
た特徴量間での相関をとって認識処理を行っていた。こ
れに対し本実施形態では、複数の特徴量を組み合わせて
認識を行う。
In the embodiments shown in FIGS. 1, 4 and 6, one feature amount is selected from each of the observed feature amounts and the database 6 stored in advance. The recognition process was performed by correlating with the above. On the other hand, in the present embodiment, recognition is performed by combining a plurality of feature amounts.

【0099】人間が行動を行う場合、「歩きながら手を
振ったり」,「電車の中を歩く」等の行動をする場合があ
る。ところが上記図1等の実施形態では、「歩きながら
手を振ったり」,「電車の中を歩く」等を1つの動作とし
てとらえ、その動作全体の特徴量を抽出し、それぞれを
動作/行動のデータベース6に蓄える必要があった。し
かし、「歩きながら手を振ったり」,「電車の中を歩いた
り」は、周波数領域で考えると、「歩く」及び「手を振
る」それぞれの特徴量の重ね合わせである。同様に「電
車の中を歩く」は、「電車の振動」及び「歩く」の特徴
量の重ね合せと考えることができる。
When a person performs an action, the action may be such as "waving hands while walking" or "walking in a train". However, in the embodiment shown in FIG. 1 and the like, “waving while walking”, “walking in a train” and the like are regarded as one operation, and the feature amount of the entire operation is extracted. It had to be stored in the database 6. However, "waving hands while walking" and "walking in a train" are, when considered in the frequency domain, the superposition of the characteristic amounts of "walking" and "waving hands". Similarly, “walking in a train” can be considered as a superposition of the feature amounts of “train vibration” and “walking”.

【0100】そこで、本実施形態では、このように複数
の特徴量が重ね合わさった動作においては図7に示すよ
うな処理を用いて、動作/行動の認識を行う。
Therefore, in the present embodiment, in the operation in which a plurality of feature amounts are superimposed as described above, the operation / action is recognized using the processing shown in FIG.

【0101】最初に、認識処理において重ね合わせる特
徴量A301,特徴量B302,特徴量C303を選択
する。前述の例では、「歩く」,「手を振る」,「電車の振
動」の特徴量に相当する。
First, a feature A301, a feature B302, and a feature C303 to be superimposed in the recognition process are selected. In the example described above, they correspond to the feature amounts of “walk”, “wave”, and “train vibration”.

【0102】次に、これらの特徴量A,B,Cを用い
て、特徴量の組み合わせ部304により重ね合せ処理を
行う。例えば、特徴量を周波数解析で行った場合であれ
ば、この処理は、各周波数スペクトルの重ね合わせにな
る。
Next, a superimposition process is performed by the feature amount combination unit 304 using these feature amounts A, B, and C. For example, if the feature is performed by frequency analysis, this processing is to superimpose each frequency spectrum.

【0103】最後に、上記重ね合わせ処理により生成さ
れた新たな特徴量(A+B+C)と、特徴量抽出部5に
より抽出された観測信号に対応する特徴量10とに基づ
いて、動作/行動を認識するための信号処理部7におい
て認識処理を行い、その認識結果を出力部8より出力す
る。
Finally, the action / action is recognized based on the new feature amount (A + B + C) generated by the above-mentioned superimposition process and the feature amount 10 corresponding to the observation signal extracted by the feature amount extraction unit 5. The signal processing unit 7 performs a recognition process, and outputs the recognition result from the output unit 8.

【0104】なお、上記重ね合せ処理では、新たに生成
される特徴量をQとすると、
In the above-described superimposition processing, if a newly generated feature is Q,

【0105】[0105]

【数6】 Q=A+B+C …(数6) としていたが、各特徴量に重みを持たせ、Q = A + B + C (Equation 6) Each feature is given a weight,

【0106】[0106]

【数7】 Q=αA+βB+γC …(数7) ただし、α,β,γは各特徴量の重みとし、各特徴量の
重み(強さ)を制御することも可能である。
Q = αA + βB + γC (Equation 7) Here, α, β, and γ are weights of the respective feature amounts, and the weights (strengths) of the respective feature amounts can be controlled.

【0107】本実施形態においては、複数の特徴量を組
み合わせ、新たな特徴量を生成し、認識処理が行えるの
で、いろいろな特徴量が組み合わされた複雑な動作/行
動についても認識処理を行えるという効果がある。
In this embodiment, since a plurality of feature values are combined, a new feature value is generated, and the recognition process can be performed, the recognition process can be performed even for a complicated action / action in which various feature values are combined. effective.

【0108】次に、状態変化の測定器を複数取り付ける
場合の実施形態を図8を用いて説明する。
Next, an embodiment in which a plurality of state change measuring instruments are attached will be described with reference to FIG.

【0109】上記図1の実施形態では、状態変化の測定
器の取り付けられている所は図8の腰31の位置で、測
定軸は32(身体の身長方向)となっていた。この場
合、人間の身長方向の状態変化しか測定することができ
ない。人間の重心は、ほぼ腰の位置にあると言われてい
る。従って、立った状態で、手を上げた場合、重心を保
つために手を上げた反対の方向に腰の位置がわずかに移
動する。それを観測するためには、34の軸方向の状態
変化の測定器が必要となる。同様に、首を前や後ろに倒
した状態を測定するためには、33の方向軸の測定器が
必要となる。更には、腰の回転なども測定するためには
軸方向32周りの回転方向37等も測定する必要があ
る。更に詳細な情報が必要な場合には、左手のひじ35
での動き36等も測定する必要がある。
In the embodiment shown in FIG. 1, the place where the state change measuring device is attached is the position of the waist 31 in FIG. 8, and the measuring axis is 32 (the height direction of the body). In this case, it is possible to measure only a state change in the human height direction. It is said that the center of gravity of a human is almost at the waist position. Therefore, when the user raises his hand while standing, the waist position slightly moves in the direction opposite to the direction in which the hand is raised to maintain the center of gravity. In order to observe it, a measuring device for a state change in the axial direction of 34 is required. Similarly, in order to measure the state in which the neck is tilted forward or backward, a measuring instrument having 33 directional axes is required. Furthermore, in order to measure the rotation of the waist, it is necessary to measure the rotation direction 37 around the axial direction 32 and the like. If more detailed information is needed, the elbow 35
It is also necessary to measure the movement 36 and the like at the time.

【0110】よって、軸方向32で被験者のおおまかな
動作/行動、例えば「歩く」,「走る」などを認識し、軸方
向33,34あるいは軸方向32周りの回転方向37に
より、更に細い付加動作、例えば、「右手を上げる」,
「首を倒す」,「腰を捻る」などを認識することにより、
「歩きながら、右手を上げる」とか、「走りながら首を
倒す」,「立って腰を捻る」等といった複合動作/行動を
認識できるようになる。本実施形態によれば、複数の状
態変化の測定器を設けることにより、それぞれの測定器
により測定され認識された結果を組み合わせることが出
来るようになり、更に詳細な動作や行動を認識できると
いった効果がある。
Therefore, the rough motion / action of the subject, for example, “walk”, “run”, etc., is recognized in the axial direction 32, and the thinner additional motion is performed by the axial direction 33, 34 or the rotation direction 37 around the axial direction 32. For example, "raise right hand",
By recognizing "falling the neck", "twisting the waist", etc.,
It is possible to recognize complex actions / actions such as "raising your right hand while walking", "falling your neck while running", "twisting while standing". According to the present embodiment, by providing a plurality of state change measuring devices, it is possible to combine the results measured and recognized by each measuring device, and it is possible to recognize more detailed operations and actions. There is.

【0111】本実施形態では、身体の各部の空間的な動
きを検出する場合について説明したが、本発明において
測定器の設定場所及び測定する状態変化の種類はこれら
に限定されるものではない。例えば測定器の設定場所と
しては、上記した部分のほかに、顔の各部に取り付けて
表情の変化に伴う顔の各部の動きを、上記状態変化とし
てとらえる構成としても良い。さらに、顔や身体の各部
の空間的な動きを検出する代わりに、その変化をもたら
す筋肉の状態を直接検出する測定器を用いても良い。
In this embodiment, the case where the spatial movement of each part of the body is detected has been described. However, in the present invention, the setting place of the measuring instrument and the type of the state change to be measured are not limited to these. For example, as a setting place of the measuring instrument, in addition to the above-described parts, a configuration may be adopted in which the movement of each part of the face accompanying a change in the expression is captured as the above-mentioned state change by attaching to each part of the face. Furthermore, instead of detecting the spatial movement of each part of the face or body, a measuring device that directly detects the state of the muscle causing the change may be used.

【0112】次に、加速度以外の物理量或は生体情報も
利用して行動/動作の特徴量を総合的に判断し、動作/
行動を認識するシステムの実施形態について図9を参照
して説明する。
Next, the physical quantity other than the acceleration or the physical quantity or the biological information is used to comprehensively determine the characteristic quantity of the action / action.
An embodiment of a system for recognizing actions will be described with reference to FIG.

【0113】本実施形態の認識システムは、図9に示す
ように、被験者に取り付けられた計測手段により測定さ
れた様々な情報に基づいて認識処理を行う認識装置40
1〜404と、これら認識装置の認識結果を用いて総合
的な認識処理を実行する認識装置405と、その認識結
果を出力する出力部8とを有する。
As shown in FIG. 9, the recognition system of this embodiment performs a recognition process on a recognition device 40 based on various information measured by measuring means attached to a subject.
1 to 404, a recognition device 405 that executes comprehensive recognition processing using the recognition results of these recognition devices, and an output unit 8 that outputs the recognition result.

【0114】認識装置401は、例えば上記図1の実施
形態に示されている、被験者に取り付けられた加速度セ
ンサによりもたらされる加速度情報から認識処理を実行
する装置である。
The recognition device 401 is a device that executes a recognition process from acceleration information provided by an acceleration sensor attached to a subject, for example, as shown in the embodiment of FIG.

【0115】認識装置402は、速度による認識装置で
ある。例えば、被験者である人間の速度の変化を検出す
ることにより、その人間が歩いているか、あるいは、乗
り物に乗っているか等を判断する。
The recognition device 402 is a speed-based recognition device. For example, by detecting a change in the speed of a human being as a subject, it is determined whether the human is walking or riding on a vehicle.

【0116】認識装置403は、位置による認識装置で
あり、被験者の位置や被験者がどのような軌跡を描いて
移動するかなどにより、行動を認識する。
The recognizing device 403 is a position-based recognizing device, and recognizes an action based on the position of the subject and what kind of trajectory the subject moves.

【0117】認識装置404は、生体情報による認識装
置である。生体情報とは、脈拍,血圧,体温,血糖値,
呼吸,筋電,心電,血流,脳波などである。例えば被験
者が人間であるとすると、その行動に伴い前述した生体
情報も変化する。本装置では、この変化により人間がど
のような状態に置かれているかを認識する。例えば、運
動をすれば、心拍数が増え呼吸数も増える。血圧を測定
する位置によっては、姿勢の違いを判定することもでき
る。動作量や精神状態,体調等は体温変化により判る。
眠っているか起きているかは脳波で判る。体調等は血糖
値で判る。運動状態は筋電の変化で判る。
The recognizing device 404 is a recognizing device based on biological information. Biological information includes pulse, blood pressure, body temperature, blood glucose,
These include respiration, myoelectricity, electrocardiography, blood flow, and brain waves. For example, if the subject is a human, the above-described biological information changes with the action. The apparatus recognizes the state of the person based on the change. For example, exercise can increase your heart rate and your respiratory rate. Depending on the position where the blood pressure is measured, a difference in posture can be determined. The amount of movement, mental state, physical condition, etc. can be determined from changes in body temperature.
You can tell if you are asleep or awake by brain waves. Physical condition can be determined by blood sugar level. Exercise status can be determined by changes in myoelectricity.

【0118】認識装置402,403,404において
は、観測した各種情報は波形の形で観測される。この波
形をA/D変換し、さらに認識装置401において加速
度から特徴量を求めたように、それぞれの認識装置にお
いても特徴量を抽出し、それをもとにして認識処理を行
う。
In the recognition devices 402, 403, and 404, the observed various information is observed in the form of a waveform. A / D conversion of this waveform is performed, and the characteristic amount is also extracted in each of the recognition devices as in the case where the characteristic amount is obtained from the acceleration in the recognition device 401, and recognition processing is performed based on the extracted characteristic amount.

【0119】ただし、上述した各認識装置それぞれ単独
では、認識結果にあいまい性があり、正確な認識処理が
できない場合がある。そこで、本実施形態では、認識装
置405により、各種の認識装置401〜404の認識
結果を利用して、さらに、総合的に被験者の動作/行動
を判断し、その認識結果を出力部8により出力する。
However, there is a case where the recognition result is ambiguous and accurate recognition processing cannot be performed by each of the above-described recognition devices alone. Therefore, in the present embodiment, the recognition device 405 uses the recognition results of the various recognition devices 401 to 404 to further comprehensively determine the motion / action of the subject, and outputs the recognition result to the output unit 8. I do.

【0120】本実施形態によれば、複数のセンシング方
法により認識された結果より総合的に判断し、より正確
な認識結果を得ることができる。
According to the present embodiment, it is possible to make comprehensive judgments based on the results recognized by a plurality of sensing methods and obtain more accurate recognition results.

【0121】次に、被験者の動作及び行動の認識と、動
作/行動している被験者の位置を計測とを組み合わせた
装置の実施形態を図10及び図11を用いて説明する。
図10は本実施形態による装置の構成図、図11は本実
施形態での位置計測についての説明図である。
Next, an embodiment of an apparatus in which the recognition of the movement and behavior of the subject and the measurement of the position of the moving / behaving subject will be described with reference to FIGS. 10 and 11. FIG.
FIG. 10 is a configuration diagram of an apparatus according to the present embodiment, and FIG. 11 is an explanatory diagram of position measurement in the present embodiment.

【0122】本実施形態の認識装置は、図10に示すよ
うに、上記図1の実施形態の装置に、被験者1の位置を
計測する位置計測部41を追加したものである。ここ
で、上記図1の実施形態と同じ構成については同じ符号
を付し、その説明を省略する。位置計測部41は、例え
ば、以下に説明するようなセルラーシステムを利用した
装置により実現される。また、その他にも、位置を計測
する装置としては、被験者1に発信機を取り付け、そこ
から発せられる電波を複数の受信地点より電波の渡来方
向を観測し求める方法や、基準となる複数の発信源から
渡来する電波を観測しそれをもとに自分の位置を割り出
す方法(GPS,オメガ,ロラン,デッカ等)や、レー
ザや磁場・超音波による方法などがある。いずれを用い
ても、本実施形態と同様の効果をもたらす。
As shown in FIG. 10, the recognition apparatus of the present embodiment is obtained by adding a position measuring unit 41 for measuring the position of the subject 1 to the apparatus of the embodiment shown in FIG. Here, the same components as those in the embodiment of FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted. The position measurement unit 41 is realized by, for example, an apparatus using a cellular system as described below. In addition, as a device for measuring the position, a transmitter is attached to the subject 1, a method of obtaining the radio wave emitted from the subject by observing the direction of arrival of the radio wave from a plurality of receiving points, and a plurality of reference transmissions There are methods such as observing radio waves coming from a source and determining their own position based on them (GPS, Omega, Loran, Decca, etc.), and methods using lasers, magnetic fields, and ultrasonic waves. Either of them has the same effect as the present embodiment.

【0123】セルラーシステムとは、図11に示すよう
に、例えばアンテナ51により通信が行われる領域50
の中に限られ、別の領域で通信を行うためには、これま
で通信を行っていた領域に隣接する、別のアンテナによ
り通信を切替え通信を行うシステムである。ここで一つ
のアンテナで通信可能な領域50をセル或はゾーンと言
う。このシステムでは、交信できるセルが非常に狭いた
めに、交信を行っているアンテナを特定することによ
り、発信者のいる領域を特定することができる。それぞ
れのセルを1−1〜3−3とし、被験者を52,53,
54とする。
As shown in FIG. 11, a cellular system is, for example, an area 50 in which communication is performed by an antenna 51.
In order to perform communication in another area, the communication system switches communication by another antenna and communicates with another area adjacent to the area where communication has been performed so far. Here, the area 50 in which communication is possible with one antenna is called a cell or a zone. In this system, since the cells that can be communicated with are very narrow, it is possible to identify the area where the caller is located by identifying the antenna that is communicating. Each cell is 1-1 to 3-3, and the subjects are 52, 53,
54.

【0124】本実施形態では、それぞれの被験者には、
上記図10の装置のうち計測器2,3と処理部4〜7が
取り付けられており、信号処理部7からの認識結果を、
セルラーシステムを介して伝送しているものとする。す
なわち、本実施形態において位置計測部41は、認識結
果を被験者1が所属するセルのアンテナへ送る送信部
と、前記アンテナを介して送られてきた認識結果を受信
する受信部とから実現される。
In the present embodiment, each subject is given
The measuring devices 2 and 3 and the processing units 4 to 7 in the apparatus shown in FIG. 10 are attached, and the recognition result from the signal processing unit 7 is
It is assumed that data is transmitted via a cellular system. That is, in the present embodiment, the position measuring unit 41 is realized by a transmitting unit that sends the recognition result to the antenna of the cell to which the subject 1 belongs, and a receiving unit that receives the recognition result sent via the antenna. .

【0125】被験者52の行動(この例では「しゃが
む」)は、上記図1の実施形態で説明した手法で認識さ
れ、セル1−1にあるアンテナを介して送られてくる。
従って、被験者52は、セル1−1の領域内で「しゃが
んでいる」と認識される。同様に、被験者53はセル2
−2内で「走っている」と認識され、被験者54はセル
3−2内で「歩いている」と認識される。
The behavior of the subject 52 (in this example, “squatting”) is recognized by the method described in the embodiment of FIG. 1, and sent via the antenna in the cell 1-1.
Therefore, the subject 52 is recognized as “squatting” in the area of the cell 1-1. Similarly, subject 53 is cell 2
-2 is recognized as "running", and the subject 54 is recognized as "walking" in the cell 3-2.

【0126】このように本実施形態によれば、「何処の
位置で」,「どのような動作/行動をしているか」といっ
たことが認識できるという効果がある。
As described above, according to the present embodiment, there is an effect that "where" and "what kind of operation / action" can be recognized.

【0127】次に、認識結果の履歴をもとに、被験者の
行動や作業状況或は被験者の置かれている環境や位置を
推測するシステムの実施形態について、図12〜図14
を用いて説明する。
Next, an embodiment of a system for estimating the behavior and work status of the subject or the environment and the position where the subject is placed based on the history of the recognition results will be described with reference to FIGS.
This will be described with reference to FIG.

【0128】本実施形態のシステムは、図12に示すよ
うに、単一の動作/行動を認識する認識装置61と、認
識された動作/行動の履歴を記憶する記憶装置62と、
連想パターンのデータベースが予め格納されている記憶
装置63と、記憶装置62,63のデータを利用して被
験者の行動や作業状況あるいは被験者の置かれている環
境を連想或は推測する連想処理装置64と、その連想或
は推測結果を出力する出力装置65とを有する。
As shown in FIG. 12, the system according to the present embodiment comprises a recognition device 61 for recognizing a single operation / action, a storage device 62 for storing a history of recognized operations / actions,
A storage device 63 in which an associative pattern database is stored in advance, and an associative processing device 64 that uses the data in the storage devices 62 and 63 to associate or guess the behavior and work status of the subject or the environment in which the subject is placed. And an output device 65 for outputting the association or estimation result.

【0129】動作/行動の認識装置61は、前述した図
1或は図10の認識装置と同じ構成を有するものとす
る。ただし、これら装置の出力部8はここでは省略する
ことができる。上述した実施形態で説明したように認識
装置61は、ある時間内に起こる単一の動作/行動だけ
認識する。従って、幾つかの動作/行動の積み重ねで完
結する作業などを認識するのには適していない。
The motion / behavior recognition device 61 has the same configuration as the recognition device shown in FIG. 1 or FIG. However, the output unit 8 of these devices can be omitted here. As described in the above embodiment, the recognition device 61 recognizes only a single action / action that occurs within a certain time. Therefore, it is not suitable for recognizing a work completed by stacking several actions / actions.

【0130】そこで本実施形態では、認識装置61で認
識した動作/行動を順次、動作/行動の履歴を記憶する
記憶装置62に記憶する。記憶された動作/行動の履歴
は、例えば図13のデータ71のように、時系列に並べ
られ記録される。
Therefore, in the present embodiment, the actions / actions recognized by the recognition device 61 are sequentially stored in the storage device 62 for storing the history of the actions / actions. The stored action / action history is arranged and recorded in chronological order, for example, as data 71 in FIG.

【0131】記憶された履歴情報71は、連想処理装置
64により連想パターンの記憶装置63に記憶されてい
る記憶パターンを参照しながら監視される。ここで、連
想パターンとは、図14に示すように、認識不能な動作
をも含む複数の動作の組み合わせと、この組み合わせか
ら連想される一つの作業との対応関係を示すパターンを
言う。
The stored history information 71 is monitored by the associative processing device 64 while referring to the storage pattern stored in the storage device 63 for the associative pattern. Here, the associative pattern refers to a pattern indicating a correspondence between a combination of a plurality of actions including an unrecognizable action and one task associated with the combination, as shown in FIG.

【0132】本実施形態の動作をプラント監視員の点検
作業を例にとって説明する。プラント監視員の点検作業
の場合、ある領域(地域)内での点検作業の内容はかな
り限られている。従って、少ない動作/行動の組み合わ
せで作業内容を推測することができる。図14の81は
その例で、「梯子を登る」,「歩く」,「認識不能」と
いった動作の並びである。なお「認識不能」とは、何か
動作は行っているがそれが複雑なため、認識装置61で
はその動作を特定することが出来ない動作を指す。
The operation of the present embodiment will be described by taking an inspection work of a plant supervisor as an example. In the case of inspection work by a plant supervisor, the content of the inspection work in a certain area (region) is considerably limited. Therefore, the work content can be estimated with a small combination of actions / actions. Reference numeral 81 in FIG. 14 shows an example of such a sequence of operations such as “climbing a ladder”, “walking”, and “unrecognizable”. Note that “unrecognizable” refers to an operation in which the recognition device 61 cannot identify the operation because the operation is performed but the operation is complicated.

【0133】さらに、もしこの領域内で、梯子を登って
「何か」行うべき作業が、「制御盤操作」しかなかった
ら、「認識不能」は「制御盤操作」と推測する。更に、
「梯子を登る」動作から「高所で」と言う、被験者(プ
ラント監視員)が置かれている環境も推測される。従っ
て、「梯子を登る」,「歩く」,「認識不能」から連想
および推測される作業は「高所での制御盤操作」と認識
される。また、同様に、「階段を下りる」,「歩く」,
「しゃがむ」,「認識不能」の動作パターン83の場合
には、例えば「床面でのバルブ操作」と連想させる。
Further, in this area, if the only operation to be performed on the ladder is "something", "operation of control panel" is assumed to be "unrecognizable" as "operation of control panel". Furthermore,
The environment in which the subject (plant supervisor) is said to be "at a high place" from the operation of "climbing the ladder" is also assumed. Therefore, the work associated and estimated from “climbing the ladder”, “walking”, and “unrecognizable” is recognized as “control panel operation at a high place”. Similarly, "go down the stairs", "walk",
In the case of the operation pattern 83 of “squatting” and “unrecognizable”, for example, it is associated with “valve operation on the floor surface”.

【0134】これらの連想パターンを参考にしながら連
想処理装置64は、動作/行動の履歴を記憶する記憶装
置62を常に監視している。例えば、図7の区間A(7
2)のように連想パターン81と同じ動作パターンが監
視データ中に表れた場合には、この区間で被験者1は
「高所での制御盤操作」を行っているという認識結果を
連想処理装置64は出力する。同様に、区間B(73)
では、連想パターン83と同じ動作パターンが表れてい
るため、この区間で被験者は「床面でバルブ操作」を行っ
ていると認識される。
While referring to these association patterns, the association processing device 64 constantly monitors the storage device 62 for storing the history of operation / action. For example, section A (7
When the same operation pattern as the associative pattern 81 appears in the monitoring data as in 2), the recognition result indicating that the subject 1 is performing “control panel operation at a high place” in this section is used as the associative processing device 64. Will output. Similarly, section B (73)
Since the same operation pattern as the association pattern 83 appears, it is recognized that the subject is performing “valve operation on the floor” in this section.

【0135】更に、作業内容ばかりではなく、位置も特
定することができる。例えば認識装置61として上記図
10の認識装置を使用し、その位置計測器41として上
記図11に示したセルラー方式を用いた場合、精密な位
置計測は不可能で、あくまでもある領域内に存在すると
分かる程度の位置測定精度である。ところが、本実施形
態と組み合わせることにより、もしも「高所で制御盤操
作」する場所が、その領域内に1個所しか無い場合に、
「高所で制御盤操作」と認識されれば、すなわち被験者
のいるその場所は、「高所で制御盤操作をする場所」と
特定することができる。
Further, not only the work content but also the position can be specified. For example, when the recognition device shown in FIG. 10 is used as the recognition device 61 and the cellular method shown in FIG. 11 is used as the position measuring device 41, accurate position measurement is impossible, and the position measurement device 41 exists only in a certain area. This is a position measurement accuracy that can be understood. However, in combination with this embodiment, if there is only one place in the area where "control panel operation is performed at a high place",
If it is recognized as "control panel operation at a high place", that is, the place where the subject is located can be specified as "a place to operate the control panel at a high place".

【0136】本実施形態によれば、複数の動作の履歴及
び組み合せパターンにより、被験者の行動や作業の状況
及び置かれている環境を認識できるといった効果があ
る。
According to the present embodiment, there is an effect that the behavior of the subject, the situation of the work, and the environment where the subject is placed can be recognized based on a plurality of operation histories and combination patterns.

【0137】更に、複雑な動作のために、波形認識の手
法では認識できなかった動作でも、動作の履歴及び起こ
るであろう作業の内容から、その動作内容を推測できる
といった効果がある。
Further, even if the operation cannot be recognized by the waveform recognition method due to the complicated operation, there is an effect that the operation content can be inferred from the operation history and the contents of the work to be performed.

【0138】更に、作業を行う場所が決まっている場合
には、被験者の作業を認識することにより、その認識結
果を利用して、被験者が作業を行っている正確な場所を
特定できるといった効果もある。
Further, when the place where the work is to be performed is determined, there is also an effect that by recognizing the work of the subject, it is possible to use the recognition result to specify the exact place where the subject is performing the work. is there.

【0139】次に、本発明を適用した、標準的な動作と
計測動作の違いを被験者に提示することができる装置の
実施形態を、図15及び図16を用いて説明する。
Next, an embodiment of a device to which the present invention is applied and which can present the difference between a standard operation and a measurement operation to a subject will be described with reference to FIGS.

【0140】本実施形態は、事故などにより足などに障
害を受けた場合のリハビリテーションに利用できるもの
である。ここで言う標準的な動作とは、障害を受ける前
の歩行動作等を言い、計測動作とは、障害を受けている
現在の被験者の歩行動作等を言うものとする。
The present embodiment can be used for rehabilitation when a foot or the like is damaged by an accident or the like. Here, the standard operation refers to a walking operation or the like before receiving an obstacle, and the measurement operation refers to a walking operation or the like of a current subject who is experiencing an obstacle.

【0141】本実施形態の装置は、図15に示すよう
に、被験者1に取り付けられた計測器2,3と、計測器
2,3からの計測結果をデジタル化するA/D変換器4
と、デジタル化した計測結果から特徴量を抽出する特徴
量抽出部5と、予め計測され抽出された各種標準動作や
行動の特徴量を格納する標準動作特徴量データベース9
1と、特徴量抽出部5で抽出された特徴量が示す動作と
標準動作特徴量データベース91に格納された標準動作
との違いを検出する信号処理部92と、検出された標準
動作との違いを出力する出力部93とを有する。
As shown in FIG. 15, the apparatus according to the present embodiment comprises measuring instruments 2 and 3 attached to a subject 1 and an A / D converter 4 for digitizing the measurement results from the measuring instruments 2 and 3.
A feature amount extraction unit 5 for extracting feature amounts from digitized measurement results, and a standard operation feature amount database 9 for storing various standard operation and action feature amounts measured and extracted in advance.
1, a signal processing unit 92 for detecting a difference between an operation indicated by the feature amount extracted by the feature amount extraction unit 5 and a standard operation stored in the standard operation feature amount database 91, and a difference from the detected standard operation. And an output unit 93 that outputs

【0142】標準動作特徴量データベース91には、被
験者の事故前の標準動作の特徴量を抽出して登録してお
くのが最適であるが、それがない場合には、多数の被験
者の平均的な動作から求めた特徴量を標準動作として用
いてもよい。信号処理部92は、上記のような標準動作
と現在被験者が行っている動作との違いを、例えば図1
6に示すように算出する。ここで標準動作とは、図16
(ア)に示すような周波数スペクトル101であるとす
る。
It is optimal to extract and register the feature values of the standard motion of the subject before the accident in the standard motion feature database 91, but if there is no such feature, the average of many subjects is averaged. A feature amount obtained from a simple operation may be used as a standard operation. The signal processing unit 92 compares the difference between the standard operation described above and the operation currently performed by the subject, for example, in FIG.
It is calculated as shown in FIG. Here, the standard operation is shown in FIG.
It is assumed that the frequency spectrum 101 is as shown in FIG.

【0143】一般的にはリハビリが未だ進んでいない状
態では、動作がスムーズに行えない。このために、例え
ば図16(a)の周波数スペクトラム102のように、
スペクトル成分106及び107に、対応する標準動作
のスペクトラム成分との差異が大きく現れる。周波数ス
ペクトル101と周波数スペクトル102の差分(絶対
値)結果が周波数スペクトラム104である。この差分
結果には動作がスムーズに行えないためにスペクトル成
分108及び109が表れている。被験者には、このス
ペクトラムの差分結果を出力部93によって提示し、標
準動作との違いを視覚的に示すことができる。
In general, when the rehabilitation has not progressed, the operation cannot be performed smoothly. For this purpose, for example, as shown in the frequency spectrum 102 of FIG.
The spectral components 106 and 107 greatly differ from the corresponding standard operation spectrum components. The result (absolute value) of the difference between the frequency spectrum 101 and the frequency spectrum 102 is the frequency spectrum 104. This difference result shows the spectral components 108 and 109 because the operation cannot be performed smoothly. The subject can be presented with the difference result of the spectrum by the output unit 93 to visually show the difference from the standard operation.

【0144】被験者は、上記のような突出したスペクト
ル成分が差分結果に表れないようにリハビリを行う。す
なわち、図16(b)の周波数スペクトル103のよう
に、標準的な周波数スペクトル101とできるだけ同じ
スペクトラムが得られるように、リハビリを続ける。リ
ハビリが完了すると、被験者の動作が標準的な動作とほ
ぼ等しくなり、周波数スペクトル105に示すように、
目立った差分スペクトルは表れなくなる。
The subject performs rehabilitation so that such prominent spectral components do not appear in the difference result. That is, the rehabilitation is continued so that the same spectrum as the standard frequency spectrum 101 can be obtained as much as the frequency spectrum 103 in FIG. When the rehabilitation is completed, the motion of the subject becomes almost equal to the standard motion, and as shown in the frequency spectrum 105,
No noticeable difference spectrum appears.

【0145】本実施形態では、患者のリハビリを例に取
り説明したが、スポーツ選手の動作の矯正等にも同様の
用法を用い実施することができる。
In the present embodiment, the rehabilitation of the patient has been described as an example. However, the same usage can be used for correcting the movement of the athlete.

【0146】本実施形態によれば、自動的に、リハビリ
の進度や動作の矯正の進度が提示出来るといった効果が
ある。
According to the present embodiment, there is an effect that the progress of rehabilitation and the progress of motion correction can be automatically presented.

【0147】次に、本発明を適用した、標準的な動作と
計測動作との違いを検出し、該検出した違いの原因を被
験者に提示することができる認識装置の実施形態を、図
17を用いて説明する。
Next, FIG. 17 shows an embodiment of a recognition apparatus to which the present invention is applied and which can detect a difference between a standard operation and a measurement operation and can present the cause of the detected difference to a subject. It will be described using FIG.

【0148】本実施形態の認識装置は、図17に示すよ
うに、上記図15の認識装置において、異常動作の特徴
量データベース111と、異常動作の原因を認識するた
めの信号処理部(以下では第2の信号処理部と呼ぶ)1
12とを付加したものである。なお、ここで言う「異常
動作」とは、例えば、事故などにより足などに障害を受
けたために、足の上げ方が標準的な歩行と異なる動作を
言う。異常動作の特徴量データベース111には、種々
な異常動作の特徴量が記憶されている。例えば、図16
の周波数スペクトル104が、右足のつま先の上げ方が
標準動作と異なるために表れたとすると、スペクトル成
分の差分結果109及び108は、「右足のつま先の上
げ方」が異常なために表れる特徴量となる。このように
種々な異常動作を予め観測し、その特徴量を抽出してお
くことで、異常動作の特徴量データベース111を構築
しておく。
As shown in FIG. 17, the recognizing device of this embodiment differs from the recognizing device shown in FIG. 15 in that a feature amount database 111 for abnormal operation and a signal processing unit (hereinafter, referred to as "recognizing") cause for abnormal operation. (Referred to as a second signal processing unit) 1
12 is added. Note that the “abnormal operation” here refers to an operation in which the way of raising the foot is different from the standard walking because the foot or the like is damaged by an accident or the like. The abnormal operation feature amount database 111 stores various abnormal operation feature amounts. For example, FIG.
If the frequency spectrum 104 of the right foot is raised because the way to raise the toe of the right foot is different from the standard operation, the difference results 109 and 108 of the spectral components are the feature amounts that appear because the “how to raise the toe of the right foot” is abnormal. Become. In this way, by observing various abnormal operations in advance and extracting their characteristic amounts, a characteristic amount database 111 for abnormal operations is constructed.

【0149】この異常動作の特徴量データベース111
を参照して、異常動作の原因を認識する第2の信号処理
部112が、被験者に動作に現れている異常動作の原因
を認識する。処理の内容は、前述した、動作/行動の認
識手法と同様で、計測動作と標準動作の違いを算出する
信号処理部92で算出した計測動作と標準動作の差と、
異常動作特徴量データベース111に蓄えられている異
常動作の特徴量との相関を求め、最も相関が高い特徴量
が示している異常原因を、文字或はグラフィックス等を
用いて、認識結果として出力部113より出力する。
The feature amount database 111 of this abnormal operation
, The second signal processing unit 112 that recognizes the cause of the abnormal operation recognizes the cause of the abnormal operation that appears in the operation of the subject. The content of the process is the same as the above-described motion / behavior recognition method, and the difference between the measurement operation and the standard operation calculated by the signal processing unit 92 that calculates the difference between the measurement operation and the standard operation;
The correlation with the characteristic amount of the abnormal operation stored in the abnormal operation characteristic amount database 111 is obtained, and the abnormality cause indicated by the characteristic amount having the highest correlation is output as a recognition result using characters or graphics. Output from the unit 113.

【0150】本実施形態では、患者のリハビリを例に取
り説明したが、スポーツ選手の動作の矯正等にも同様の
用法を用い実施することができる。
In this embodiment, the rehabilitation of the patient has been described as an example. However, the same usage can be applied to the correction of the movement of the athlete.

【0151】本実施形態によれば、自動的に、異常動作
の原因を認識できるといった効果がある。
According to the present embodiment, there is an effect that the cause of the abnormal operation can be automatically recognized.

【0152】次に、本発明を適用した動作及び行動認識
装置を、作業性評価システム或は作業内容評価システム
の作業データ収集用に用いた場合のシステムの実施形態
を、図18を用いて説明する。
Next, an embodiment of a system in which the motion and action recognition apparatus to which the present invention is applied is used for collecting work data of a workability evaluation system or a work content evaluation system will be described with reference to FIG. I do.

【0153】作業評価或は作業内容評価は、生産管理工
学などで盛んに研究されている分野である。作業評価/
作業内容評価を行うためには、作業データの収集を行わ
なければならない。従来、この作業データの収集は人手
に頼らなければならず、多大の労力を必要とした。本実
施形態では、人手に頼らなければならなかった作業デー
タの収集を、自動的に行うことを目的とするものであ
る。
Work evaluation or work content evaluation is a field that has been actively studied in production management engineering and the like. Work evaluation /
In order to evaluate work contents, work data must be collected. Heretofore, collection of this work data had to rely on humans, and required a great deal of labor. In the present embodiment, the purpose is to automatically collect work data that had to rely on manual labor.

【0154】本実施形態のシステムは、例えば図18に
示すように、各被験者A,B,Cにそれぞれ取り付けら
れた認識装置120,121,122と、各認識装置か
らの認識結果を格納するデータベース123,124,
125と、各データベースに格納された各被験者の動作
や行動の履歴を受け入れる作業性評価システム126及
び作業内容評価システム127とから構成される。
As shown in FIG. 18, for example, the system according to the present embodiment includes recognition devices 120, 121, and 122 attached to subjects A, B, and C, respectively, and a database that stores recognition results from the recognition devices. 123, 124,
125, and a workability evaluation system 126 and a work content evaluation system 127 that accept the history of the operation and behavior of each subject stored in each database.

【0155】被験者A,被験者B,被験者Cに取り付け
られた動作及び行動の認識装置120,121,122は、
本発明が適用された認識装置であり、時々刻々と各被験
者の動作/行動を自動的に認識するもので、具体的には
上記図1や上記図10の装置を用いることができる。認
識結果は、伝送経路128を介して、各被験者の動作及
び行動の履歴を記憶するデータベース123,124,
125に蓄える。この伝送経路128は有線である必要
はなく、無線を用いても構わない。無線を用いて認識結
果を送る場合には、被験者が自由に動き回れるといった
効果が生まれてくる。
The motion and behavior recognition devices 120, 121, 122 attached to the subjects A, B, and C
This is a recognition device to which the present invention is applied, which automatically recognizes the movement / action of each subject every moment. Specifically, the device shown in FIG. 1 or FIG. 10 can be used. The recognition results are transmitted via the transmission path 128 to the databases 123 and 124 that store the history of the operation and behavior of each subject.
Store in 125. The transmission path 128 does not need to be wired, and may be wireless. When the recognition result is transmitted by wireless, the effect that the subject can freely move around is produced.

【0156】動作/行動の履歴が記憶されているデータ
ベースに蓄えられた値は、作業性評価システム126或
は作業内容評価システム127が参照し、それぞれのシ
ステムでの評価が行われる。
The workability evaluation system 126 or the work content evaluation system 127 refers to the value stored in the database in which the history of the operation / action is stored, and is evaluated in each system.

【0157】本実施形態によれば、作業データの収集が
自動的に行えるために、大幅な労力の削減をはかること
ができる。
According to the present embodiment, work data can be automatically collected, so that significant labor can be reduced.

【0158】なお、本実施形態においては、作業データ
の収集に本発明を適用した装置を利用したものであり、
実際に使用される作業性評価システム126および作業
内容評価システム127の具体的内容については全く限
定するものではない。
In this embodiment, an apparatus to which the present invention is applied for collecting work data is used.
The specific contents of the workability evaluation system 126 and the work content evaluation system 127 that are actually used are not limited at all.

【0159】次に、本発明を適用した動作及び行動の認
識装置を、人員の適正配分システム或は適正作業時間配
分システムの作業データ収集用に用いた場合のシステム
の実施形態を、図19を用いて説明する。
Next, FIG. 19 shows an embodiment of a system in which the operation and action recognition apparatus to which the present invention is applied is used for collecting work data of a proper staff distribution system or a proper work time distribution system. It will be described using FIG.

【0160】ここで言う人員の適正配分システムとは、
作業員の作業の負荷などを考慮して、各工区毎に配分す
る人員の数を制御するシステムのことを言う。また、適
正作業時間配分システムは、作業員の作業の負荷に応じ
作業時間を制御するシステムのことを言う。何れのシス
テムでも、多数の作業者の作業内容をリアルタイムで把
握する必要がある。本実施形態は、多数の作業者の作業
内容をリアルタイムで把握することが容易となるシステ
ムを提供することを目的とする。
Here, the appropriate personnel distribution system is as follows.
It refers to a system that controls the number of personnel to be allocated to each work section, taking into account the work load of the workers. The appropriate work time distribution system refers to a system that controls work time according to the work load of a worker. In any system, it is necessary to grasp the work contents of many workers in real time. An object of the present embodiment is to provide a system that makes it easy to grasp the work contents of many workers in real time.

【0161】本実施形態のシステムは、例えば図19に
示すように、上記図18に示されていた認識装置12
0,121,122およびデータベース123,124,
125に加えて、これらデータベースに収集されたデー
タを利用する人員の適正配分システム134および適正
作業時間の配分システム141と、各被験者A,B,C
に取り付けられている、これら配分システムからの指示
を受け付ける指示受付装置131,135,138とか
ら構成されている。
The system according to the present embodiment is, for example, as shown in FIG. 19, the recognition device 12 shown in FIG.
0, 121, 122 and databases 123, 124,
125, an appropriate personnel distribution system 134 and an appropriate work time distribution system 141 using the data collected in these databases, and the subjects A, B, and C
And instruction receiving devices 131, 135, and 138 that receive instructions from these distribution systems.

【0162】各被験者に取り付けられている動作及び行
動の認識装置120,121,122は、時々刻々と各被
験者の動作/行動を自動的に認識し、各被験者の動作及
び行動の履歴をデータベース123,124,125に
蓄える。この認識結果を伝送する経路は無線を用いても
構わない。この場合、被験者は自由に動き回れるといっ
た効果が生まれてくる。
The motion and action recognition devices 120, 121, and 122 attached to each subject automatically recognize the motion / action of each subject at every moment, and store the history of the motion and action of each subject in the database 123. , 124, 125. The path for transmitting the recognition result may be wireless. In this case, the effect that the subject can freely move around is created.

【0163】動作/行動の履歴が記憶されているデータ
ベースに蓄えられた値を、人員の適正配分システム13
4或は適正作業時間の配分システム141が参照し、各
システムは、各作業員の作業負荷状況を予め定めた方法
により判断する。例えば、人員の適正配分システム13
4は、ある作業員の作業に過剰な負荷がかかっていると
データから判断した場合には、負荷のかかっていない別
の作業員を選択し、その選択した作業員を経路130を
介して呼び出し、付加のかかっている作業員の作業の応
援にあたらせるよう指示を出す。
The values stored in the database storing the operation / action history are stored in the appropriate personnel distribution system 13.
4 or the appropriate work time distribution system 141, and each system determines the work load situation of each worker by a predetermined method. For example, an appropriate personnel distribution system 13
When it is determined from the data that the work of a certain worker is excessively loaded, another worker selects an unloaded worker and calls the selected worker via the route 130. , And give instructions to support the work of the added worker.

【0164】また、適正作業時間の配分システム141
は、ある作業員の作業の積算負荷がある値を越えたこと
を感知すると、値を超えた作業員には休息を促し、別の
作業員に作業をあたらせる指令を経路142を介して、
それぞれ指示受付装置へ送ることができる。
Also, a proper work time distribution system 141
When it is detected that the cumulative load of a certain worker's work exceeds a certain value, the worker who exceeds the value is urged to take a rest, and a command to give the work to another worker is given via the path 142.
Each can be sent to the instruction receiving device.

【0165】本実施形態によれば、多数の作業者の作業
内容をリアルタイムで把握でき、その作業状況により作
業員を最適に配置できるといった効果がある。
According to the present embodiment, there is an effect that the work contents of many workers can be grasped in real time, and the workers can be optimally arranged according to the work situation.

【0166】次に、本発明を適用した認識装置を利用し
て、特定の動作及び行動を行った場合にその旨を通知す
ることができるシステムの実施形態を、図20を用いて
説明する。
Next, a description will be given of an embodiment of a system capable of notifying that a specific operation or action has been performed by using a recognition apparatus to which the present invention has been applied, with reference to FIG.

【0167】本実施形態のシステムは、保護が必要な社
会的弱者や独り作業員が、何らかの原因で危険な状態に
なった時に、保護者あるいは管理者にその旨を自動通報
するためのものである。なお、本実施形態では、上記図
12の実施形態での装置に含まれているものと同じ構成
を一部含んでいる。これら同じ構成については上記図1
2と同じ符号を付し、詳細な説明を省略する。
The system according to the present embodiment is for automatically reporting to a parent or an administrator when a vulnerable person or a worker who needs protection is in danger for some reason. is there. In the present embodiment, a part of the same configuration as that included in the apparatus in the embodiment of FIG. 12 is included. These same configurations are described in FIG.
The same reference numerals as in 2 denote the same parts, and a detailed description thereof will be omitted.

【0168】本実施形態のシステムは、図20に示すよ
うに、動作/行動の認識装置61と、認識された動作/
行動の履歴を記憶する記憶装置62と、特定動作パター
ンを記憶する記憶装置145と、これら両記憶装置6
2,145に記憶されたデータを利用して被験者の特定
動作や行動を連想或は推測する連想処理装置64と、連
想或は推測の結果に応じて保護者へ特定のメッセージを
通報する通報装置146と、該メッセージを受信する受
信装置147とを有する。
As shown in FIG. 20, the system according to the present embodiment includes an operation / action recognition device 61 and a recognized operation / action.
A storage device 62 for storing a history of actions, a storage device 145 for storing a specific operation pattern, and both storage devices 6
2. An associative processing device 64 for associating or estimating a specific action or behavior of a subject by using data stored in 2,145, and a notifying device for notifying a parent or guardian of a specific message in accordance with the result of associating or estimating. 146 and a receiving device 147 for receiving the message.

【0169】動作/行動の認識装置61は、前述した図
1の認識装置に相当する。この認識装置は、ある限られ
た時間内に起こる単一の動作/行動だけを認識するもの
で、幾つかの動作/行動の積み重ねで完結するような行
動や作業などを認識するには適していない。そこで、認
識した動作/行動は時々刻々と、動作/行動の履歴を記
憶する記憶装置62に記憶される。
The action / action recognition device 61 corresponds to the above-described recognition device shown in FIG. This recognition device recognizes only a single action / action that occurs within a limited time, and is suitable for recognizing an action or task that is completed by stacking several actions / actions. Absent. Thus, the recognized operation / action is stored in the storage device 62 that stores the history of the operation / action every moment.

【0170】さらに、上記記憶された履歴情報は、連想
処理装置64により、特定動作パターンの記憶装置14
5に記憶されている記憶パターンを参照しながら、常に
監視される。ここで言う特定動作パターンとは、「突然
倒れた」とか「高所から落ちた」といった行動等を認識
するための複数の動作の組み合わせパターンである。例
えば「突然倒れた」という行動は、「歩行あるいは立っ
たままで静止」→「短い時間で横になる」→「横になっ
たままで静止」という動作パターンによって認識され
る。また、「高い所から落ちた」という行動は、「上に
登る」→「落ちる」→「いろいろぶつかる」→「地面に
到着」→「動かない」という動作パターンによって認識
できる。
Further, the stored history information is stored in the storage device 14 of the specific operation pattern by the associative processing device 64.
5 is constantly monitored while referring to the storage pattern stored in the storage pattern 5. The specific operation pattern referred to here is a combination pattern of a plurality of operations for recognizing an action such as “suddenly falling” or “falling from a high place”. For example, the action of "suddenly falling" is recognized by the motion pattern of "walking or standing still" → "lying down in a short time" → "still lying down". In addition, the action of “falling from a high place” can be recognized by the action pattern of “climb up” → “fall” → “hit various things” → “arriving on the ground” → “do not move”.

【0171】なお、「上に登る」という動作は、例えば
重力加速度よりも大きな上方向の加速度が続くことを検
出することで認識できる。また、「落ちる」,「いろいろ
ぶつかる」,「地面に到着」という動作はそれぞれ、「全
ての方向の加速度がゼロ(自由落下のため)」,「いろい
ろな方向から短時間に強い加速度を受ける」,「かなり強
い加速度を受ける」ということを検出することで認識で
きる。
The operation of “climbing up” can be recognized by detecting that an upward acceleration larger than, for example, the gravitational acceleration continues. The actions "fall", "collide variously", and "arrive on the ground" are respectively "zero acceleration in all directions (because of free fall)" and "strong acceleration in various directions in a short time". , It can be recognized by detecting that "substantial acceleration is received".

【0172】このような動作パターンを用いて被験者の
行動を認識することにより、本実施形態では動作や行動
の誤認を排除することができる。例えば「センサを身体
から外してテーブルに乱暴に置いた場合」を考えてみ
る。この場合、センサはかなり大きな加速度を検出する
が、単一動作を認識する認識装置では、これまでの動作
の履歴を知らないため、このセンサ出力から被験者が
「落ちた」あるいは「倒れた」と認識する可能性が高く
なる。一方、連想処理装置によれば、上記大きな加速度
の検出の前後の動作を調べることができるため、被験者
の状況の把握ができ、より正しい認識を得ることができ
る。例えば、センサが身体に取り付けられている場合に
はありえない加速度等を検出することにより「装置を外
した」という動作を予め認識しておけば、単一動作だけ
を認識した場合に発生するような誤認を避けることがで
きる。
By recognizing the behavior of the subject using such a motion pattern, in the present embodiment, it is possible to eliminate a motion or a false recognition of the behavior. For example, consider a case where the sensor is removed from the body and placed roughly on the table. In this case, the sensor detects a fairly large acceleration, but a recognition device that recognizes a single motion does not know the history of the motion so far. The possibility of recognition increases. On the other hand, according to the associative processing device, the operation before and after the detection of the large acceleration can be checked, so that the situation of the subject can be grasped and more correct recognition can be obtained. For example, if an operation such as “dismounting the device” is recognized in advance by detecting an acceleration or the like that is impossible when the sensor is attached to the body, such a case occurs when only a single operation is recognized. Misunderstandings can be avoided.

【0173】これらの特定動作パターンを連想処理装置
64が、記憶装置62に記憶されている履歴情報の中か
ら発見すると、保護者への通報装置146を介し保護者
へ、例えば発見した特定動作パターンの内容を通報する
ように指令を出す。保護者は通報の受信装置147によ
り、この通報を受信して、被験者の置かれている状況を
把握することができる。
When the associative processing device 64 finds these specific operation patterns from the history information stored in the storage device 62, the associative processing device 64 informs the parents via the notification device 146 to the parents. Issue a command to report the contents of The guardian can receive the notification by the notification receiving device 147 and grasp the situation where the subject is placed.

【0174】本実施形態によれば、保護が必要な社会的
弱者や、独り作業員が、何らかの原因で危険な状態にな
った時に、その保護者あるいは管理者にその旨を自動通
報することができるといった効果がある。
According to this embodiment, when a socially vulnerable person who needs protection or a single worker becomes in danger for some reason, the guardian or manager can be automatically notified of the danger. There is an effect that can be done.

【0175】また、本実施形態の認識装置に、上記図1
0で説明した被験者の位置を計測する位置計測手段41
を取り付けるか、あるいは、上記図12の連想処理装置
64のように被験者の動作履歴から被験者の位置を特定
するようにし、異常時には当該位置情報を付加して通報
することにより、被験者が「何処で」,「何が起こった
か」を把握できるという効果が生まれる。
Further, the recognition apparatus of this embodiment has
Position measuring means 41 for measuring the position of the subject described in FIG.
Alternatively, the position of the subject is specified from the operation history of the subject as in the associative processing device 64 in FIG. 12 described above. , And the effect that "what happened" can be grasped.

【0176】更に、上記のような位置計測手段41を設
けることで、特定動作パターンが観測されても、その観
測された位置に応じて、通報するかしないかを選択でき
るように構成してもよい。例えば、病院の診察室や自宅
のベッドで横になったときなどに、被験者が倒れたとし
て誤報を発することをなくす効果が生まれる。
Further, by providing the position measuring means 41 as described above, even if a specific operation pattern is observed, it is possible to select whether or not to notify according to the observed position. Good. For example, when lying down in a consultation room in a hospital or a bed at home, an effect is produced that a false report is not issued as a subject falls down.

【0177】次に、本発明による動作及び行動の認識装
置を行動分析・行動追跡・行動監視に適用したシステム
の実施形態を、図21を用いて説明する。
Next, an embodiment of a system in which the motion and action recognition apparatus according to the present invention is applied to action analysis, action tracking, and action monitoring will be described with reference to FIG.

【0178】本実施形態では動物の行動分析を例にして
説明する。この分野では、従来、動物の移動軌跡に関し
て種々の研究例がある。ところが、従来の研究例では、
動物の動作/行動については人間の目視による観測方法
しかなく、人間が観測できない場所にいる動物の動作や
行動に関しては、明らかにされていない部分が多い。本
実施形態のシステムは、この動作/行動の追跡を自動的
に行うことができるものである。
In the present embodiment, the behavior analysis of an animal will be described as an example. In this field, there have been various researches on the trajectories of animals. However, in conventional research cases,
The movement / behavior of an animal is only a visual observation method of a human being, and the movement and behavior of an animal in a place where a human cannot observe is not clarified in many parts. The system according to the present embodiment can automatically track the operation / action.

【0179】本実施形態のシステムは、図21に示すよ
うな構成を有している。本図において、151及び15
2は、行動分析・行動追跡・行動監視の対象となる
“鳥”である。それぞれの鳥には、その鳥の状態変化を
計測すると共に、該計測結果を無線を用いて送信する計
測・通信器150が取り付けられている。人工衛星15
3は、それぞれの鳥から送られてくる状態変化の測定値
を受信するとともに、鳥がデータを送信した位置を計測
する。
The system according to the present embodiment has a configuration as shown in FIG. In this figure, 151 and 15
Reference numeral 2 denotes a “bird” to be subjected to behavior analysis, behavior tracking, and behavior monitoring. Each bird is provided with a measurement / communication device 150 that measures a change in the state of the bird and transmits the measurement result by wireless. Artificial satellite 15
Numeral 3 receives the state change measurement value sent from each bird and measures the position where the bird has transmitted data.

【0180】位置を測定する方法としては、例えば計測
・通信器150にGPS受信機を内蔵させ、行動のデー
タを衛星153に送信する際に、行動データと共にGP
S受信機により計測した鳥の現在位置を示す位置データ
を併せて送信する方法がある。また、複数の衛星153
で、鳥から送信される電波を受信し三角測量により鳥の
位置検出を行う方法をとっても良い。
As a method of measuring the position, for example, a GPS receiver is built in the measurement / communication device 150, and when transmitting the activity data to the satellite 153, the GPS is transmitted together with the activity data.
There is a method of transmitting the position data indicating the current position of the bird measured by the S receiver together. In addition, a plurality of satellites 153
Then, a method of receiving a radio wave transmitted from a bird and detecting the position of the bird by triangulation may be employed.

【0181】人工衛星153で収集及び計測したデータ
は、例えば上記図1の動作及び行動の認識装置154に
送られ、短い期間内での鳥の動作/行動が認識される。
例えば、鳥の姿勢があまり変わらずに位置が移動しない
場合には睡眠中であると認識し、鳥の姿勢が変わらずに
その位置だけが大きく変化する場合には飛行中であると
認識し、鳥の姿勢が大きく変化し位置はあまり変化しな
い場合には捕食中であると認識する。
The data collected and measured by the artificial satellite 153 is sent to, for example, the motion and behavior recognition device 154 shown in FIG. 1, and the motion / behavior of the bird within a short period is recognized.
For example, if the position of the bird does not move so much and does not move, it is recognized that the bird is sleeping, and if only the position of the bird changes significantly without changing the posture of the bird, it is recognized that it is flying, When the posture of the bird changes greatly and the position does not change much, it is recognized that the bird is preying.

【0182】本実施形態のシステムでは、さらに、認識
されたこれらの鳥の動作や行動等の情報は、行動分析部
155,行動追跡部156,行動監視部157に送られ
る。行動分析部155では、例えば、観測対象となる鳥
の目覚め,移動,捕食,睡眠等の時刻を調べる等して、
鳥の行動パターンの分析を行う。行動追跡部156で
は、鳥の行動範囲や捕食するために移動する移動軌跡が
分析される。行動監視部157では、鳥の各個体毎の現
在位置や行動などを把握することで、行動監視が行われ
る。
In the system according to the present embodiment, information on the recognized movement and behavior of these birds is sent to the behavior analysis unit 155, the behavior tracking unit 156, and the behavior monitoring unit 157. In the behavior analysis unit 155, for example, the time of awakening, movement, predation, sleep, etc. of the bird to be observed is checked,
Analyze bird behavior patterns. The behavior tracking unit 156 analyzes the range of movement of the bird and the movement trajectory that moves for predation. The behavior monitoring unit 157 performs behavior monitoring by grasping the current position, behavior, and the like of each individual bird.

【0183】最後に、CRT等の表示装置158に、上
述した装置で得られた各分析結果を一覧して分かるよう
に表示する。本図に示すのは、人工衛星153で計測し
たある個体の移動軌跡上に、その鳥が行った行動を重ね
て表示した例である。本例によれば、鳥の各個体が「い
つ」,「何処で」,「どのような行動」を行ったかが自動的
に分かる。
Finally, the analysis results obtained by the above-described devices are displayed in a list on a display device 158 such as a CRT. The figure shows an example in which the action performed by the bird is superimposed and displayed on the movement locus of a certain individual measured by the artificial satellite 153. According to this example, it is automatically known when, where, and what kind of action each bird individual has performed.

【0184】本実施形態によれば、観測対象物の移動軌
跡及び動作/行動を、人間が行けない場所でも自動的に
観測できるという効果がある。
According to the present embodiment, there is an effect that the movement trajectory and the movement / behavior of the observation target can be automatically observed even in a place where humans cannot go.

【0185】更に、本実施形態によれば、観測者が直接
目視で対象を観察する必要がないため、人間の視線によ
る動物行動の変化もなく、自然の姿の動作や行動が観測
できるといった効果もある。
Further, according to the present embodiment, it is not necessary for the observer to directly observe the object with the naked eye, so that there is no change in the animal behavior due to the human line of sight, and the movement and behavior of the natural figure can be observed. There is also.

【0186】次に、本発明による動作/行動の認識方法
を利用したジェスチャ認識装置についての実施形態を、
図22を用いて説明する。
Next, an embodiment of a gesture recognition apparatus using the action / action recognition method according to the present invention will be described.
This will be described with reference to FIG.

【0187】ジェスチャとは、ある特定の意味を示す動
作を予め決めておき、この決められた動作を行う事によ
り、伝えたい意味を伝達する手段を言う。この場合、演
ずる動作が一般的に意味するものとジェスチャで伝えた
い意味がちがっていてもかまわない。例えば、「右方向
を指で指し示した」場合に、予めこのジェスチャは、
「左方向に進めの意味」と取り決めておけば、このジェ
スチャを解釈する人は、“左方向へ”進んで行くことと
なる。
[0187] The gesture means means for transmitting a meaning to be conveyed by preliminarily determining an operation indicating a specific meaning and performing the predetermined operation. In this case, the action to be performed may be different from the general meaning and the meaning desired to be conveyed by gesture. For example, in the case of "pointing the right direction with a finger", this gesture is
If it is agreed that "meaning to the left", the person interpreting this gesture will proceed "to the left".

【0188】本実施形態の装置は、上記図1の装置にお
いて、ジェスチャの意味とそれに対応する動作/行動と
を対応づける変換テーブルのデータベース161と、信
号処理部7で認識された動作/行動と前記変換テーブル
とから被験者1のジェスチャの意味を認識するジェスチ
ャの認識部162とを付加し、出力部163から認識さ
れたジェスチャの意味する内容を出力するものである。
The apparatus of this embodiment is different from the apparatus of FIG. 1 in that a conversion table database 161 for associating the meaning of a gesture with the corresponding action / action, the action / action recognized by the signal processing unit 7 is used. A gesture recognition unit 162 for recognizing the meaning of the gesture of the subject 1 is added from the conversion table, and the output unit 163 outputs the meaning of the recognized gesture.

【0189】本実施形態において、被験者1が行うジェ
スチャは計測部2,3により計測され、その計測信号は
A/D変換器4によりデジタル化され、デジタル化され
た信号から特徴量抽出部5により特徴量が抽出される。
このようにして抽出されたジェスチャ動作に対応する特
徴量は、動作/行動を認識するための信号処理装置7に
送られ、一般的に意味する動作/行動として認識され
る。ここで認識された結果は、ジェスチャの認識装置1
62に送られる。
In the present embodiment, the gesture performed by the subject 1 is measured by the measuring units 2 and 3, and the measured signal is digitized by the A / D converter 4, and the characteristic amount extracting unit 5 extracts the digitized signal. The feature amount is extracted.
The feature amount corresponding to the gesture motion extracted in this manner is sent to the signal processing device 7 for recognizing the motion / action, and is recognized as a motion / action generally meaning. The result recognized here is the gesture recognition device 1
62.

【0190】ジェスチャの認識装置162は、予め決め
られた動作/行動の意味する内容がテーブルとして記憶
されているジェスチャの変換テーブルデータベース16
1を参照しながら入力され、ジェスチャの意味を認識す
る。この変換テーブルの中身は、先程の例では「右方向
を指で指し示した」→「左方向に進め」となっている。
このようにして認識されたジェスチャの意味する内容が
判定され、出力部163により出力される。
The gesture recognizing device 162 includes a gesture conversion table database 16 in which the meaning of a predetermined action / action is stored as a table.
1, and the meaning of the gesture is recognized. The contents of this conversion table are, in the previous example, “pointed right with a finger” → “progress left”.
The meaning of the gesture recognized in this way is determined and output by the output unit 163.

【0191】本実施形態によれば、予め決められたジェ
スチャを行うことにより、そのジェスチャに対応して定
められている特定の意味を伝達することが可能となる。
According to the present embodiment, by performing a predetermined gesture, it is possible to transmit a specific meaning determined corresponding to the gesture.

【0192】更に、ジェスチャは予め意味が決められた
動作なので、このジェスチャを認識することにより、動
作の意味する曖昧さがなくなるといった効果もある。
Further, since the gesture is an action whose meaning is determined in advance, there is an effect that recognizing this gesture eliminates the ambiguity of the action.

【0193】次に、本発明を適用した動作及び行動の認
識装置に無線手段を付加した装置の実施形態を、図23
を用いて説明する。
Next, an embodiment of a device in which a wireless means is added to the operation and behavior recognition device to which the present invention is applied will be described with reference to FIG.
This will be described with reference to FIG.

【0194】本実施形態の装置では、認識に係る作用効
果は上記図1の実施形態の装置と同じであるが、付加さ
れた無線機能により、検出した被験者1の状態変化に関
するデータを伝送する点が異なるものである。
In the apparatus of this embodiment, the operation and effect relating to recognition are the same as those of the apparatus of the above-described embodiment of FIG. 1, except that data relating to the detected state change of the subject 1 is transmitted by the added wireless function. Are different.

【0195】本実施形態の認識装置は、図23に示すよ
うに、被験者1に取り付けるべき被験者側装置173と
測定者側装置177との2つの部分からなる。被験者側
装置173は、被験者1に取り付けられた状態変化の計
測部171(上記図1の計測器2,3に相当)と、その
計測部171により計測された信号を送信するための無
線送信部172とを有している。このため、被験者1が
持ち歩かなければならない装置は、計測部171と送信
部172の2種類だけとなり小型化ができるため、被験
者がより自由に動き回ることができる。
As shown in FIG. 23, the recognition device of the present embodiment comprises two parts: a subject side device 173 to be attached to the subject 1 and a measurer side device 177. The subject side device 173 includes a state change measuring unit 171 (corresponding to the measuring devices 2 and 3 in FIG. 1) attached to the subject 1 and a wireless transmission unit for transmitting a signal measured by the measuring unit 171. 172. For this reason, there are only two types of devices that the subject 1 must carry, the measuring unit 171 and the transmitting unit 172, and the device can be miniaturized, so that the subject can move around more freely.

【0196】無線伝送される信号178は、例えば、状
態変化の計測部171により測定された信号そのもの
(アナログ信号)としても良いし、A/D変換してデジ
タル信号にして送っても良い。また、本実施形態で用い
る信号の種類は特に限定されないが、例えば電波や赤外
線等を用いることができる。
The signal 178 transmitted by radio may be, for example, the signal itself (analog signal) measured by the state change measuring unit 171 or may be A / D converted and sent as a digital signal. Although the type of signal used in the present embodiment is not particularly limited, for example, radio waves, infrared rays, or the like can be used.

【0197】測定者側装置177に送られた測定結果
は、受信部174により受信され、動作及び行動の認識
部175により認識される。認識部175は、例えば上
記図1の実施形態でのA/D変換器4,信号の特徴量抽
出部5,動作/行動の特徴量データベース6、及び動作
/行動を認識するための信号処理部7から構成される。
認識部175での認識結果は出力部176へ送られ、出
力される。
The measurement result sent to the measurer-side device 177 is received by the receiving unit 174, and is recognized by the operation and action recognition unit 175. The recognizing unit 175 is, for example, the A / D converter 4, the signal characteristic amount extracting unit 5, the operation / action characteristic amount database 6, and the signal processing unit for recognizing the operation / action in the embodiment of FIG. 7 is comprised.
The recognition result in the recognition unit 175 is sent to the output unit 176 and output.

【0198】本実施形態によれば、状態変化の測定部1
71により測定された結果を無線により伝送するため、
被験者1は自由に動き回ることができ、被験者1に大き
な負担をかけないといった効果がある。
According to the present embodiment, the state change measuring section 1
To transmit the result measured by 71 wirelessly,
The subject 1 can move around freely, and has the effect of not imposing a large burden on the subject 1.

【0199】更に、被験者側に取り付ける装置は、状態
変化の測定部とその信号を送信する送信部のみから構成
されるため、小型軽量化がはかれるといった効果もあ
る。
Further, since the device attached to the subject is composed of only the measuring unit for state change and the transmitting unit for transmitting the signal, there is also an effect that the size and weight can be reduced.

【0200】次に、本発明を適用した動作及び行動の認
識装置に無線手段を付加した装置の他の実施形態を図2
4を用いて説明する。
Next, another embodiment of a device in which a radio means is added to an operation / action recognition device to which the present invention is applied is shown in FIG.
4 will be described.

【0201】本実施形態は、被験者側装置で被験者の動
作や行動を認識し、その認識結果を無線通信にて測定者
側装置へ送るものである。上記図23の装置と同じ構成
については、同じ符号を付しその説明を省略する。
In the present embodiment, the subject's device recognizes the motion or action of the subject and sends the recognition result to the subject's device by wireless communication. The same components as those of the apparatus of FIG. 23 are denoted by the same reference numerals, and description thereof will be omitted.

【0202】被験者側装置184の状態変化の計測部1
71により計測された信号は、動作/行動の認識部17
5により認識される。この認識結果は無線送信部181
から送信され、測定者側装置185へ送られる。測定者
側装置185に送られた認識結果は直接出力部176に
より出力される。
[0202] Measuring unit 1 for state change of subject side device 184
The signal measured by 71 is used as an operation / action recognition unit 17.
5. This recognition result is transmitted to the wireless transmission unit 181.
And sent to the measurer side device 185. The recognition result sent to the measurer-side device 185 is directly output by the output unit 176.

【0203】ここで、無線伝送する情報183は認識さ
れた結果であり、測定情報に比べかなり圧縮された状態
となっている。このため、無線の帯域或は伝送のために
占有する時間がかなり小さくてすむ。さらに、被験者1
は、装置を持って自由に動き回ることができる。
Here, the information 183 to be transmitted by radio is a result of recognition, and is considerably compressed compared to the measurement information. For this reason, the time occupied by the wireless band or transmission can be considerably reduced. In addition, subject 1
Can move around freely with the device.

【0204】本実施形態によれば、状態変化の測定器に
より測定された結果を無線により伝送するため、被験者
は自由に動き回ることができ、被験者に負担をかけない
といった効果がある。
According to the present embodiment, since the result measured by the state change measuring device is wirelessly transmitted, the subject can freely move around and there is an effect that the subject is not burdened.

【0205】更に、無線伝送する情報が少ないため、無
線帯域の狭帯域化或は無線チャネルの占有時間の減少或
は伝送速度の高速化といった効果もある。
Further, since the amount of information to be transmitted by radio is small, there is an effect that the radio band is narrowed, the occupation time of the radio channel is reduced, or the transmission speed is increased.

【0206】上記図23,24の実施形態では、無線機
能を備えることによって被験者がもち歩くべき装置の小
型化をはかったが、この無線機能を実現する送信部/受
信部の代わりに、可搬式のデータ記憶装置とそのデータ
の読み出し装置とをそれぞれ、被験者側と測定者側とに
設ける構成としても良い。この構成によれば、測定され
た被験者の動作データあるいは動作の認識データを一時
的に記憶しておき、観測者側では被験者が立ち寄った際
にでも、前記データの読み出し装置によって前記データ
記憶装置からデータを直接読みだすことができる。
In the above-described embodiments of FIGS. 23 and 24, the device to be walked by the subject is reduced in size by providing a wireless function. However, a portable unit is used instead of the transmitting / receiving unit for realizing the wireless function. The data storage device and the data reading device may be provided on the subject side and the measurer side, respectively. According to this configuration, the measured motion data of the subject or the recognition data of the motion is temporarily stored, and even when the subject drops in on the observer side, the data reading device reads the data from the data storage device. Data can be read directly.

【0207】次に、本発明を適用した動作/行動の認識
装置にプリペード機能を付加したシステムの実施形態
を、図25を用いて説明する。
Next, an embodiment of a system in which a prepaid function is added to a motion / action recognition apparatus to which the present invention is applied will be described with reference to FIG.

【0208】本実施形態のシステムは、図25に示すよ
うに、被験者側の装置として、被験者の動作/行動を認
識する認識装置192と、プリペード機能を実現するた
めの料金残高の記憶装置195及び料金残高の計算装置
196とを有する。また、本実施形態のシステムは、観
測者側の装置として、認識結果を受け付ける受付装置1
93と、受け付けた認識結果に応じて、料金残高の減数
指令あるいは料金残高の確認指令等を出力するプリペー
ド機能制御装置197とを有する。
As shown in FIG. 25, the system according to the present embodiment includes, as devices on the subject side, a recognition device 192 for recognizing the motion / action of the subject, a storage device 195 for a charge balance for realizing the prepaid function, and A charge balance calculation device 196. Further, the system according to the present embodiment has a receiving device 1 that receives a recognition result as a device on the observer side.
93, and a prepaid function control device 197 that outputs a charge balance reduction command or a charge balance confirmation command according to the received recognition result.

【0209】ここでは実施形態の一応用例として、遊技
場での遊技の例を取り説明する。遊技場での動作/行動
認識装置192は、ジェスチャ入力のために使用される
ものとし、例えば上記図1或は上記図22の装置により
実現されるものとする。
Here, as an application example of the embodiment, an example of a game in a game hall will be described. The motion / behavior recognition device 192 in the amusement arcade is used for gesture input, and is realized by, for example, the device shown in FIG. 1 or FIG.

【0210】本例では、遊技者(被験者)があるジェス
チャを行うと、そのジェスチャを認識装置192が認識
し、そのジェスチャの認識結果が遊技装置(観測者側装
置)への入力指令となり、遊技者が遊技を楽しむと言う
ものである。例えば、遊技者が「ある技のジェスチャ」
をすると、該遊技装置に表示されるキャラクタがその技
を実行し戦うといったことである。
In this example, when the player (subject) makes a certain gesture, the recognition device 192 recognizes the gesture, and the recognition result of the gesture becomes an input command to the gaming device (observer side device), People enjoy playing games. For example, a player may say "a gesture of a skill"
Then, the character displayed on the gaming device executes the technique and fights.

【0211】また、遊技をする場合には料金を支払う
が、本実施形態では、遊技者側の装置にプリペード機能
を実現するための装置195,196を内蔵している。
本実施形態では、被験者が遊技を開始すると、認識装置
192がこれを検出し、その認識結果を遊技装置側の受
付装置193へ送る。遊技装置側では、受付装置193
で受け付けた認識結果に対応する遊技の種類等に応じ
て、プリペード機能制御装置197が、遊技者の料金残
高の減数指令や料金残高の確認指令等の指令を遊技者側
へ送る。遊技者側では、料金残高の計算装置196が送
られてきた指令に応じて、料金残高の記憶装置195に
蓄えられている残高の減数等を行う。
In the present embodiment, a fee is paid when playing a game, but in the present embodiment, devices 195 and 196 for realizing a prepaid function are built in the device on the player side.
In the present embodiment, when the test subject starts a game, the recognition device 192 detects this and sends the recognition result to the reception device 193 on the game device side. On the gaming device side, the reception device 193
The prepaid function control device 197 sends to the player a command such as a command to reduce the charge balance of the player or a command to confirm the charge balance in accordance with the type of the game corresponding to the recognition result received in the step. On the player side, the balance stored in the charge balance storage device 195 is reduced in response to the command sent by the charge balance calculation device 196.

【0212】なお、図示されていないが、被験者側の装
置には警告手段が設けられており、記憶装置195に記
憶されている残高がある値以下になった場合に、遊技者
への警告を発するよう構成されている。また、遊技者は
遊技を開始する前に、予め定められた料金を遊技装置側
へ支払い、その支払った金額に応じた、料金残高の記憶
装置195の初期値を設定するよう構成されている。
Although not shown, the device on the subject side is provided with a warning means, and when the balance stored in the storage device 195 becomes lower than a certain value, a warning is issued to the player. It is configured to emit. Further, the player pays a predetermined fee to the gaming device before starting the game, and sets an initial value of the fee balance storage device 195 according to the paid amount.

【0213】本実施形態によれば、遊技をするためのジ
ェスチャ入力機能とプリペード機能とを融合することが
できる。従って、多くの装置を遊技者が携帯しなくても
遊技を自由に楽しめるといった効果がある。
According to the present embodiment, the gesture input function for playing a game and the prepaid function can be combined. Therefore, there is an effect that the player can enjoy the game freely without having to carry many devices.

【0214】次に、動作/行動の認識装置にクレジット
機能を付加したシステムの実施形態を、図26を用いて
説明する。本実施形態において、上記図25のものと同
じ装置については、同じ符号を付しその詳細な説明は省
略する。
Next, an embodiment of a system in which a credit function is added to an operation / action recognition device will be described with reference to FIG. In this embodiment, the same devices as those in FIG. 25 are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0215】本実施形態のシステムは、被験者側の装置
として、動作/行動の認識装置192及び料金支払指令装
置198を有し、観測者側の装置として、認識結果の受
付装置193及び支払指令の受信装置199を有してい
る。なお、ここでも、システムの一例として、上記図2
5の実施形態で説明した、遊技場での遊技の例を取り説
明する。
The system of this embodiment has an operation / action recognition device 192 and a fee payment command device 198 on the subject side, and a recognition result receiving device 193 and a payment command receiving device on the observer side. A receiving device 199 is provided. Here, as an example of the system, FIG.
An example of a game at a game hall described in the fifth embodiment will be described.

【0216】本実施形態においては、被験者側に取り付
けるべき装置がクレジットカード機能を内蔵している。
すなわち、遊技者が遊技を行うと、認識装置192がそ
の遊技の種類などを認識し、その認識結果に応じた料金
の支払指令が、料金支払指令装置198より発せられ
る。この支払命令は、観測者側の受信装置199により
受信され、該当するクレジット会社への支払料金やクレ
ジット番号の通知等の処理がクレジット処理装置200
により実行される。
In the present embodiment, the device to be attached to the subject has a built-in credit card function.
That is, when the player plays a game, the recognition device 192 recognizes the type of the game and the like, and a fee payment command device 198 issues a fee payment command according to the recognition result. This payment instruction is received by the receiver 199 on the observer side, and processing such as notification of the payment fee and credit number to the corresponding credit company is performed by the credit processing device 200.
Is executed by

【0217】本実施形態によれば、遊技をするためのジ
ェスチャ入力機能とクレジット機能とを融合することが
できる。従って、多くの装置を遊技者が携帯しなくても
良いといった効果がある。
According to this embodiment, the gesture input function for playing a game and the credit function can be combined. Therefore, there is an effect that the player does not need to carry many devices.

【0218】次に、本発明を適用した動作/行動の認識
装置に預かり金機能を付加したシステムの実施形態を、
図27を用いて説明する。本実施形態において、上記図
25の実施形態と同じ装置については、同じ符号を付し
その詳細な説明は省略する。本実施形態のシステムは、
被験者側の装置として、動作/行動の認識装置192及び
預かり金返却指令装置202を有し、観測者側の装置と
して、認識結果の受付装置193及び預かり金支払装置
203を有している。なお、ここでも、システムの一例
として、上記図25の実施形態で説明した、遊技場での
遊技の例を取り説明する。
Next, an embodiment of a system in which a deposit function is added to an operation / action recognition apparatus to which the present invention is applied, will be described.
This will be described with reference to FIG. In this embodiment, the same devices as those in the embodiment of FIG. 25 are denoted by the same reference numerals, and detailed description thereof will be omitted. The system of the present embodiment includes:
The device on the subject side includes an operation / action recognition device 192 and a deposit return instruction device 202, and the observer-side device includes a recognition result receiving device 193 and a deposit payment device 203. Here, as an example of the system, the example of the game in the game hall described in the embodiment of FIG. 25 will be described.

【0219】ここでは、遊技者がジェスチャの入力装置
(認識装置192)を借り出して遊技を行い、遊技終了
後にはこれらを返却するものとする。このように遊技で
使用する装置の一部を貸出する際に、貸し出した装置が
返却されない場合には、ペナルティをかけると回収率が
上がる効果があることが知られている。その一つとして
預かり金制度がある。本実施形態のシステムはこれを支
援するもので、遊技者がジェスチャ入力装置192を借
り受ける時に預かり金を支払い、ジェスチャ入力装置1
92を返却した時点で預かり金の返却を受ける制度であ
る。
Here, it is assumed that the player borrows a gesture input device (recognition device 192) to play a game, and returns these after the game is over. It is known that when renting a part of a device used in a game, if the lent device is not returned, a penalty is applied to increase the collection rate. One of them is a deposit system. The system of the present embodiment supports this by paying a deposit when the player borrows the gesture input device 192, and the gesture input device 1
This is a system in which the deposit is returned when 92 is returned.

【0220】本システムにおいて遊技者は、ジェスチャ
入力装置192を借り受け、観測者側に預かり金を支払
う。ジェスチャ入力装置192を返却すると、ジェスチ
ャ入力装置192と共に被験者側の装置として取り付け
られている預かり金返却指令装置202より指令が、観
測者側の預かり金支払い装置203に発せられる。預か
り金支払い指令装置203はその指令を受信し、遊技者
に預かり金を返却する。
In the present system, the player borrows the gesture input device 192 and pays the deposit to the observer. When the gesture input device 192 is returned, a command is issued to the deposit payment device 203 on the observer side from the deposit return instruction device 202 attached as a device on the subject side together with the gesture input device 192. The deposit payment instruction device 203 receives the instruction and returns the deposit to the player.

【0221】本実施形態によれば、動作/行動の認識装
置の回収率が上がるといった効果がある。
According to the present embodiment, there is an effect that the collection rate of the motion / action recognition device is increased.

【0222】なお、本実施形態のシステムは、ジェスチ
ャ入力装置を格納すると共に、所定の金額の預かり金を
受け入れて、その1つを払い出すジェスチャ入力装置の
自動貸出装置、および、貸し出されたジェスチャ入力装
置を受け入れ、預かり金と同じ金額の金を払い出すジェ
スチャ入力装置の自動回収装置のいずれにも適用するこ
とができる。
Note that the system of this embodiment stores the gesture input device, accepts a deposit of a predetermined amount, and pays out one of the deposits, and the borrowed gesture. The present invention can be applied to any automatic collection device of the gesture input device that accepts the input device and pays out the same amount of money as the deposit.

【0223】次に、本発明を適用した動作/行動の認識
装置に領域への侵入或は退出を確認する機能を付加した
システムの実施形態を、図28を用いて説明する。本実
施形態において、上記図25の装置と同じものについて
は、同じ符号を付しその詳細な説明は省略する。
Next, an embodiment of a system in which a function for confirming intrusion or exit from an area is added to an operation / action recognition apparatus to which the present invention is applied will be described with reference to FIG. In the present embodiment, the same components as those in FIG. 25 are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0224】本実施形態のシステムは、被験者側の装置
として、動作/行動の認識装置192及び領域侵入或は退
出装置への応答装置205を有し、観測者側の装置とし
て、認識結果の受付装置193、領域侵入或は退出確認
装置206及び告知装置207とを有している。なお、こ
こでも、システムの一例として、上記図25の実施形態
で説明した、遊技場での遊技の例を取り説明する。
The system of the present embodiment has a motion / action recognition device 192 and a response device 205 to a region intrusion or exit device as a device on the subject side, and receives a recognition result as a device on the observer side. It has a device 193, a region intrusion or exit confirmation device 206, and a notification device 207. Here, as an example of the system, the example of the game in the game hall described in the embodiment of FIG. 25 will be described.

【0225】ここでは、遊技者がジェスチャの入力装置
(被験者側装置)を借り出して遊技を行い、遊技終了後に
はこれらを返却するものとする。ところで、認識装置1
92の回収に際しては、遊技者に返却を促す提示をする
と回収率が上がる効果がある。例えば、遊技をする領域
から他の領域に退出しようとした場合に、もしも、ジェ
スチャ入力装置を持ったまま退出しようとすると、これ
を検出して警告を発する方法がある。本実施形態は、こ
れを自動的に行う事を目的とする。
[0225] Here, the player uses the gesture input device.
The game is performed by renting out the (subject-side device) and returning the game after the game is over. By the way, the recognition device 1
At the time of collection of 92, if a presentation for prompting the player to return is presented, there is an effect of increasing the collection rate. For example, there is a method of detecting a warning and issuing a warning if an attempt is made to leave the game input area while holding the gesture input device when trying to leave the area where the game is played. The purpose of this embodiment is to perform this automatically.

【0226】ジェスチャ入力装置には、ジェスチャの認
識を行う認識装置192と、領域侵入或は退出装置への
反応装置205とが内蔵されている。一方、観測者側の
領域侵入或は退出確認装置206からは、極く近い領域
にのみ届く電波が発せられている。
The gesture input device has a built-in recognition device 192 for recognizing a gesture and a reaction device 205 for a region intrusion or exit device. On the other hand, a radio wave reaching only an extremely close area is emitted from the observer side intrusion or exit confirmation device 206.

【0227】遊技者が、ジェスチャ入力装置を付けたま
ま、その領域を退出しようとすると、領域の境界に取り
付けられている領域侵入或は退出確認装置206より発
している信号を応答装置205が受信し、その応答信号
を確認装置206に返す。確認装置206は、その信号
を受信することで、被験者がジェスチャ入力装置をもっ
たまま、この遊技領域から退出しようとしていることを
検出することができる。この検出結果を受けて、告知装
置207は被験者に対し警告を発する。
When the player tries to leave the area with the gesture input device attached, the response apparatus 205 receives a signal emitted from the area intrusion or exit confirmation apparatus 206 attached to the boundary of the area. Then, the response signal is returned to the confirmation device 206. By receiving the signal, the confirmation device 206 can detect that the subject is about to leave the game area while holding the gesture input device. Upon receiving this detection result, the notification device 207 issues a warning to the subject.

【0228】本実施形態によれば、動作/行動の認識装
置の回収率が上がるといった効果がある。
According to the present embodiment, there is an effect that the collection rate of the motion / action recognition device is increased.

【0229】ここで、周期運動を例にとり、動作の認識
の例を詳細に説明する。
Here, taking a periodic motion as an example, an example of recognition of a motion will be described in detail.

【0230】周期運動の認識の基礎となる歩行周期の抽
出方法の説明図を図47に示す。歩行周期とは、踵接地
(振れ戻った足の踵が接地した瞬間)から同側脚の踵接
地までの経過時間であり、左右の脚を同じ速さで運ぶと
すると2歩進むのに必要な時間が歩行周期となる。平坦
地において様々な歩行速度や歩行状態(「歩く」,「走
る」等)における身体の上下方向の加速度信号の周波数
特性を観測したところ、標準的な歩行や走行において
は、図47(a)の2001のような歩行周期を中心周
波数とする1本の非常に強いスペクトルが存在すること
が分かった。従って、標準的な歩行や走行の動作につい
ては、このスペクトルを単純な閾値処理で抽出すること
により歩行周期を容易に求めることが出来る。ところ
が、歩行周期約1.5秒以上で極端にゆっくり歩いたり
(健常者の平均的な歩行周期1.03秒,高齢者の歩行
周期1.43 秒)、足を引き摺って歩いたりした場合、
図47(b)に示すように、歩行周期の周波数2002
以外にもスペクトルが現れ、極端な場合2006のよう
に歩行周期のスペクトル強度よりも大きくなる場合があ
ることが判明した。(図47(a)及び図47(b)
は、直流成分を除く各スペクトルを最大スペクトル強度
で正規化している。)しかし、幸いにして観測した歩行
周期0.35〜2.0秒(「走る」〜「極端にゆっくり歩
く」)の歩行動作においては、走行周期の周波数よりも
低い周波数に強いスペクトルが存在しないことが分かり
次の処理を行う事が可能である。以下図47(c)を参
照して説明する。
FIG. 47 is an explanatory diagram of a method of extracting a walking cycle, which is a basis for recognizing a periodic motion. The walking cycle is the elapsed time from the heel contact (the moment when the heel of the back foot touches the ground) to the heel contact of the same leg, and it is necessary to take two steps if the left and right legs are carried at the same speed. Time is the walking cycle. Observation of the frequency characteristics of the acceleration signal in the vertical direction of the body at various walking speeds and walking states (“walking”, “running”, etc.) on a flat ground shows that in the standard walking and running, FIG. It has been found that there is one very strong spectrum whose center frequency is the walking cycle such as 2001. Therefore, for a standard walking or running operation, the walking cycle can be easily obtained by extracting this spectrum by simple threshold processing. However, when walking extremely slowly with a walking cycle of about 1.5 seconds or more (average walking cycle of a healthy person is 1.03 seconds, walking cycle of an elderly person is 1.43 seconds), or a person drags his foot,
As shown in FIG. 47 (b), the frequency 2002 of the walking cycle
In addition, it has been found that a spectrum appears in some cases, and in an extreme case, the spectrum intensity becomes larger than the spectrum intensity in the walking cycle as in 2006. (FIG. 47 (a) and FIG. 47 (b)
Normalizes each spectrum excluding the DC component with the maximum spectrum intensity. However, fortunately, in the walking movement of 0.35 to 2.0 seconds (“running” to “extremely slow walking”) observed in the walking cycle, no strong spectrum exists at a frequency lower than the frequency of the running cycle. Therefore, the following processing can be performed. This will be described below with reference to FIG.

【0231】(1)直流成分(第0次の高調波)を除く
全ての周波数スペクトルの平均値Tを求める。
(1) The average value T of all the frequency spectra excluding the DC component (0th harmonic) is obtained.

【0232】[0232]

【数8】 (Equation 8)

【0233】(2)平均値T(2003)より大きいス
ペクトルを残す閾値処理を行うために
(2) To perform threshold processing that leaves a spectrum larger than the average value T (2003)

【0234】[0234]

【数9】 n≠0かつP(n)>T …(数9) の条件を連続的に満たす区間(ai,bi)を求める。## EQU9 ## A section (a i , b i ) that continuously satisfies the condition of n ≠ 0 and P (n)> T (Equation 9) is obtained.

【0235】ここで、閾値をパワースペクトルの平均値
Tとしたのは、動作の種類により、歩行周期を示すスペ
クトル強度及びそれ以外のスペクトル強度が共に変動す
るため、固定閾値では歩行周期スペクトルを抽出出来な
い場合があるためである。
Here, the threshold value is set to the average value T of the power spectrum. Since the spectrum intensity indicating the walking cycle and the other spectrum intensities vary depending on the type of operation, the walking cycle spectrum is extracted with the fixed threshold value. This is because it may not be possible.

【0236】なお、本実施例では、平均値Tを閾値とし
ているが、計測データの雑音の状態においてTにある係
数を掛けた閾値で判定処理を行う場合も考えられる。
In the present embodiment, the average value T is used as the threshold value. However, in the noise state of the measurement data, the determination process may be performed using a threshold value obtained by multiplying T by a certain coefficient.

【0237】(3)(数9)を満たす区間の中で、最も
低い周波スペクトル群(i=0)の区間内で最大スペク
トル強度P(j)2005及びその周波数j2004を
求める。
(3) Among the sections satisfying (Equation 9), the maximum spectrum intensity P (j) 2005 and its frequency j2004 are obtained in the section of the lowest frequency spectrum group (i = 0).

【0238】[0238]

【数10】 S=P(j)=max[P(a0),P(b0)] …(数10) ここで、Sは歩行周期のスペクトル強度を表す値であ
る。また、周波数jは1秒間の歩数であるので2歩で1
周期である歩行周期GC は、
S = P (j) = max [P (a 0 ), P (b 0 )] (Equation 10) Here, S is a value representing the spectral intensity of the walking cycle. Also, since the frequency j is the number of steps per second, it is 1 in 2 steps.
Walking cycle G C is a cycle,

【0239】[0239]

【数11】 [Equation 11]

【0240】のようにして求めることができる。It can be obtained as follows.

【0241】図47(a)及び(b)では2001及び
2002が抽出した歩行周波数を示すスペクトルであ
る。歩行周期0.35〜2.0秒に於いて本手法の抽出手
法と並行してストップウォッチを用いた計測を行った
が、ストップウォッチで計測した値とほぼ一致してい
る。
In FIGS. 47A and 47B, 2001 and 2002 are extracted spectra showing the walking frequencies. The measurement using the stopwatch was performed in the walking cycle of 0.35 to 2.0 seconds in parallel with the extraction method of the present method, and the value almost coincided with the value measured by the stopwatch.

【0242】「歩く」,「走る」の違いは、両足共に地
面から離れる区間の存在の有無である。両足が離れ自由
落下の区間に入ると身体に取り付けられた加速度センサ
により観測される加速度は約0G、つまりほぼ無重力の
状態として観測されるであろう。そこでこの無重力状態
が有るか否かを判断することにより「歩く」と「走る」の
違いを認識することが出来ると考えた。標準的な「歩
く」及び「走る」の観測波形を図48(a)及び(b)
に示す。図48(a)の「歩く」の場合、重力加速度
1.0G を中心に振幅約0.3G の加速度変化を示して
いる。従って、身体に受ける加速度の最小値は約0.7
G となっており無重力状態は存在していない。図48
(b)の「走る」では、振幅が1.0G 程度まで大きく
なり、0.0Gの無重力の状態が存在している。この無
重力状態を認識するために、歩行周期の認識に用いた、
歩行周期のスペクトル強度を利用した。なぜなら、加速
度変化が仮に歩行周期のみを表現するサインカーブであ
るとすると、得られる歩行周期のスペクトル強度は、歩
行周期の振幅の値となるからである。現実には、FFT
を行う窓関数の幅と歩行周期とのサンプリング関係,サ
インカーブよりずれた加速度変化の影響、更に加速度セ
ンサ内の微小分銅の慣性力の影響等により完全には一致
せず、「走る」の判定は、歩行周期の振幅を0.8G で
行っている。しかし、静止状態から「歩く」そして「走
る」への歩行状態の推移の判定に、この歩行周期のスペ
クトル強度が利用出来ることに着目しスペクトル強度で
の認識を採用した。もちろん、測定波形の最小加速度値
を見つけることでも判定が可能であるが、雑音による誤
認識の問題を考慮する必要がある。
The difference between "walk" and "run" is the presence or absence of a section where both feet are separated from the ground. When the feet are separated and enter the free fall section, the acceleration measured by the acceleration sensor attached to the body will be observed as about 0 G, that is, almost zero gravity. Therefore, it was thought that the difference between "walking" and "running" can be recognized by judging whether or not this weightless state exists. Fig. 48 (a) and (b) show standard observation waveforms of "walking" and "running".
Shown in In the case of “walking” in FIG. 48 (a), an acceleration change with an amplitude of about 0.3G is shown around the gravitational acceleration 1.0G. Therefore, the minimum value of acceleration applied to the body is about 0.7.
G and no weightless state exists. FIG.
In “run” in (b), the amplitude increases to about 1.0 G, and a weightless state of 0.0 G exists. In order to recognize this weightless state, we used the recognition of the walking cycle,
The spectral intensity of the walking cycle was used. This is because if the acceleration change is a sine curve representing only the walking cycle, the obtained spectrum intensity of the walking cycle is the amplitude of the walking cycle. In reality, FFT
Sampling relationship between window function width and walking cycle, the effect of acceleration change deviating from the sine curve, and the effect of the inertia force of the minute weight in the acceleration sensor, etc., do not completely match and judge "run" Performs the walking cycle with an amplitude of 0.8G. However, focusing on the fact that the spectrum intensity of this walking cycle can be used to determine the transition of the walking state from the stationary state to “walk” and “run”, recognition based on the spectrum intensity was employed. Of course, the determination can be made by finding the minimum acceleration value of the measured waveform, but it is necessary to consider the problem of erroneous recognition due to noise.

【0243】観察の結果、静止状態から「歩く」そして
「走る」へと激しい動作へ推移するに従い、認識した歩
行周期のスペクトル強度が動作の推移に伴い強くなる事
が判った。そこで、「歩く」,「走る」といった2値的
な認識ではなく、歩行周期のスペクトル強度を参考にし
て歩行の状態を細分化し認識することを試みた。図49
に歩行周期のスペクトル強度に対する認識項目の確度の
割り当ての様子を示す。各認識項目の認識確度wn は、
歩行周期のスペクトル強度Sの関数として表し、スペク
トル強度の取り得る値SU において、
As a result of the observation, it was found that the spectrum intensity of the recognized walking cycle became stronger as the movement changed from a stationary state to a violent movement from "walking" to "running". Therefore, instead of binary recognition such as "walking" and "running", an attempt was made to subdivide and recognize the walking state with reference to the spectral intensity of the walking cycle. FIG.
Fig. 7 shows how the accuracy of the recognition item is assigned to the spectrum intensity of the walking cycle. The recognition accuracy w n of each recognition item is
Expressed as a function of the spectral intensity S of the walking cycle, and at a possible value S U of the spectral intensity,

【0244】[0244]

【数12】 wn:SU→〈0,1〉 …(数12) のように0と1との間の任意の値を取るとする。以後こ
れを認識確度の評価関数とする。評価関数は2つの種類
を用いる。1つは「歩行」や「走る」を評価する関数で
あり、ある値以上のスペクトル強をより強くなると「走
行」の状態、「走る」の状態と評価する、
## EQU12 ## It is assumed that an arbitrary value between 0 and 1 is taken as in w n : S U → <0,1> (Equation 12). Hereinafter, this is used as an evaluation function of the recognition accuracy. Two types of evaluation functions are used. One is a function that evaluates “walking” and “running.” If the spectrum intensity above a certain value becomes stronger, it is evaluated as a “running” state and a “running” state.

【0245】[0245]

【数13】 (Equation 13)

【0246】のような関数を用いる。もう1つの関数
は、「のんびり」や「力強く」を評価する関数であり、
ある値でピークを持つ、
The following function is used. The other function is a function that evaluates “relaxing” or “powerful”
Having a peak at a certain value,

【0247】[0247]

【数14】 [Equation 14]

【0248】のような関数を用いた。また、各パラメー
タの値は、健常な被験者数名の様子を観察しながら決め
たものである。横軸が歩行周期のスペクトル強度、縦軸
が認識確度となっている。認識する動作は、「静止」,
「歩行」,「走る」。また、「静止」状態から標準的な
「歩く」までの過程の度合いを表現する「のんびり」。
更に、標準的な「歩く」から「走る」までの過程の度合
いを表現する「力強く」の5種類である。
The following function was used. The values of the parameters are determined while observing the state of several healthy subjects. The horizontal axis is the spectrum intensity of the walking cycle, and the vertical axis is the recognition accuracy. Recognized actions are "still",
"Walk" and "run". "Relaxing" expresses the degree of the process from the "stationary" state to the standard "walking".
Furthermore, there are five types of “powerful” that express the degree of the process from the standard “walk” to “run”.

【0249】「静止」の認識は、歩行周期のスペクトル
強度が0.006G 以下の状態とした。これは、静止状
態で計測した加速度の最大スペクトル強度が0.004
G 程度有り雑音を歩行周期と誤認識させないための閾
値処理である。
[0249] The recognition of "stillness" was made in a state where the spectral intensity of the walking cycle was 0.006G or less. This is because the maximum spectral intensity of the acceleration measured in the stationary state is 0.004.
G This is a threshold process for preventing noise with about G from being erroneously recognized as a walking cycle.

【0250】「歩行」の認識は、静止状態の閾値より認
識確度を増加させ、歩行周期のスペクトル強度が0.0
3G 以上では1.0 になるようにした(2101)。
「走行」とは「走る」も含む全ての歩行動作を示すと定義
する。従って、周期運動と認識されると常に「走行」の
認識確度は0以上となる。これは、歩行周期2.0 秒と
いう極端にゆっくりな歩行を行い、更に身体の上下運動
を極力抑えた歩行の場合の歩行周期のスペクトル強度が
0.03Gであり、静止状態(0.006G)と歩行状態
(0.03G)の曖昧な区間を表現するためにこのような
処理を行っている。従って、「歩行」の評価関数は、
Recognition of "walking" increases the recognition accuracy from the threshold value in the stationary state, and the spectral intensity of the walking cycle is 0.0.
In the case of 3G or more, it is set to 1.0 (2101).
“Running” is defined as indicating all walking actions including “running”. Therefore, the recognition accuracy of "running" is always 0 or more when the motion is recognized as a periodic motion. This is because the walking intensity is 2.03 seconds, and the spectral intensity of the walking period is 0.03G in the case of walking while suppressing the vertical movement of the body as much as possible, and the stationary state (0.006G) And walking state
Such processing is performed in order to express an ambiguous section of (0.03G). Therefore, the evaluation function of “walking” is

【0251】[0251]

【数15】 w歩行(S:0.006,0.03) …(数15) を用いた。[Equation 15] w walking (S: 0.006, 0.03) (Equation 15)

【0252】「のんびり」の認識は、静止状態の閾値よ
り単調増加させ、0.1G で最大確度1.0 にし、以後
0.3G まで単調減少させ0.3G で確度を0.0 にし
ている(2102)。これは、被験者がのんびり歩いた
場合のスペクトル強度が約0.1G 、標準的に歩いた場
合が0.3G であったためにこのようにした。評価関数
は、
Recognition of "relaxation" is monotonically increased from the threshold value in the stationary state, the maximum accuracy is set to 1.0 at 0.1G, and thereafter monotonically reduced to 0.3G, and the accuracy is set to 0.0 at 0.3G. (2102). This was done because the spectral intensity when the subject walked leisurely was about 0.1 G, and when the subject walked normally was 0.3 G. The evaluation function is

【0253】[0253]

【数16】 wのんびり(S:0.006,0.1,0.3) …(数16) となる。(16) w leisurely (S: 0.006, 0.1, 0.3) (Formula 16)

【0254】「力強く」の認識は、標準的な歩き(0.
3G)から増加させ、0.5Gで最大確度に、そして、
0.8Gで確度0.0にしている(2103)。これも
「のんびり」と同様、被験者の行った「力強く歩く」と
「走る」を観察して決定した。評価関数は、
Recognition of “strong” is based on the standard walking (0.
3G), increasing to 0.5G for maximum accuracy, and
The accuracy is set to 0.0 at 0.8 G (2103). This was also determined by observing the subject's "strong walking" and "running" as in the case of "relaxing". The evaluation function is

【0255】[0255]

【数17】 w力強く(S:0.3,0.5,0.8) …(数17) となる。(17) w is strong (S: 0.3, 0.5, 0.8) (Equation 17)

【0256】「走る」は、0.5Gより増加させ、0.8
G以上は認識確度を1.0 にしている(2104)。両
足とも地面に付かない時間が存在する、「非常に静かな
走り」を行った場合に観測した、スペクトル強度が約0.
8G であったためこの値とした。評価関数は、
"Run" is increased from 0.5G to 0.8G.
For G and above, the recognition accuracy is set to 1.0 (2104). When there is time when both feet do not touch the ground, the spectrum intensity observed when performing `` very quiet running '' is about 0,0.
This value was used because it was 8G. The evaluation function is

【0257】[0257]

【数18】 w走る(S:0.5,0.8) …(数18) を用いた。[Expression 18] w running (S: 0.5, 0.8) (Equation 18) was used.

【0258】認識は、抽出した歩行周期のスペクトル強
度の値より上記の評価関数を用い、各認識項目の確度を
決定する。例えば、歩行周期のスペクトル強度が0.6
G である場合、「歩行」の確度が1.0 で「走る」を
含む歩行状態である事を示し、「力強く」の確度が0.
67 、「走る」の確度が0.33 の動作を被験者が行
っていると認識される。
For recognition, the accuracy of each recognition item is determined by using the above evaluation function based on the extracted spectrum intensity value of the walking cycle. For example, when the spectral intensity of the walking cycle is 0.6
G indicates that the accuracy of “walking” is 1.0 and the walking state includes “running”, and the accuracy of “strong” is 0.
67, it is recognized that the subject is performing a motion having a certainty of “run” of 0.33.

【0259】立位(「立っている」)と這位(「横にな
っている」)は、加速度センサで観測した加速度変化の
平均値で認識する。加速度センサは、その構造上1軸方
向の加速度変化に観測する。加速度センサの感度方向と
重力方向を一致させた傾き角0度の場合、重力加速度と
等しい1.0G が観測されている。傾きを増やすと角度
にほぼ比例しながら徐々に加速度が小さくなり、加速度
センサの感度方向と重力方向が直交した傾き角90度に
なると、重力加速度は観測されなくなる。従って、静止
状態であれば、観測された加速度値により加速度センサ
の傾き(=身体の傾き)を計測することが出来る。ま
た、身体を動かした状態では、重力以外の加速度が外力
として身体に加わらないと仮定すると、観測される加速
度の時間平均値が重力加速度になると考えられる。従っ
て、加速度変化の平均値を求め重力加速度と比較する事
により身体の傾きを求める事ができる。加速度変化の平
均値は、周波数解析したときの直流成分(第0次高調
波)として出力されており、これを利用する。求めた身
体の傾きより立位・這位を判定する。
The standing position (“standing”) and the crawling position (“lying”) are recognized by the average value of the acceleration change observed by the acceleration sensor. The acceleration sensor observes a change in acceleration in one axial direction due to its structure. In the case of a tilt angle of 0 degree in which the sensitivity direction of the acceleration sensor and the gravity direction are matched, 1.0 G equal to the gravitational acceleration is observed. When the inclination is increased, the acceleration gradually decreases in almost proportion to the angle. When the inclination angle becomes 90 degrees where the sensitivity direction of the acceleration sensor and the gravity direction are orthogonal, the gravitational acceleration is not observed. Therefore, in a stationary state, the inclination of the acceleration sensor (= the inclination of the body) can be measured from the observed acceleration value. In addition, assuming that no acceleration other than gravity is applied to the body as an external force in a state in which the body is moved, the time average value of the observed acceleration is considered to be the gravitational acceleration. Therefore, the inclination of the body can be determined by calculating the average value of the acceleration change and comparing the average value with the gravitational acceleration. The average value of the change in acceleration is output as a DC component (0th harmonic) at the time of frequency analysis, and is used. The standing / crawl position is determined from the obtained body inclination.

【0260】本発明による認識手法は、「力強く」の確
度が0.67 、「走る」の確度が0.33 といったよう
に各認識項目の認識確度を出力する。従って、出力結果
だけを見ただけでは被験者がどのような動作を行ってい
るかが分かり難い形になっている。そこで、本実施形態
では、動作の認識結果を、数値や言葉で表すのではな
く、CG(Computer Graphics)を用いてアニメーション
で表示する手法について述べ、直感的で分かり易い表示
方法を説明する。
The recognition method according to the present invention outputs the recognition accuracy of each recognition item such that the accuracy of “powerful” is 0.67 and the accuracy of “run” is 0.33. Therefore, it is difficult to understand what the subject is doing just by looking at the output result. Therefore, in the present embodiment, a method of displaying an action recognition result by animation using CG (Computer Graphics) instead of numerical values or words is described, and a display method that is intuitive and easy to understand is described.

【0261】図30は、動作/行動の認識装置により認
識された結果を多関節構造体の動作/行動の表現方法を
用い、コンピュータグラフィックスを用いたアニメーシ
ョンで表示するシステムの構成図である。
FIG. 30 is a block diagram of a system for displaying the result recognized by the motion / action recognition device in an animation using computer graphics using the method of expressing the motion / action of the articulated structure.

【0262】本構成図は、被験者1に取り付けられた計
測器2,3と計測器により計測された結果をもとに動作
/行動を認識する動作/行動の認識装置1033及び認
識に用いるための動作あるいは行動の特徴量データベー
ス1030と、認識結果1034をもとに認識結果を2次元
あるいは3次元の画像として表示するため多関節構造体
の動作/行動の表現装置1035及び動作/行動を表現
するために必要な動作/行動の特徴量を記憶するデータ
ベース1031と、表現した結果を画像として表示する
ための出力装置1032により構成される。
This configuration diagram is an operation / action recognition device 1033 for recognizing an operation / action based on the measuring devices 2 and 3 attached to the subject 1 and the result measured by the measuring device, and an operation / action recognition device 1033. In order to display the recognition result as a two-dimensional or three-dimensional image based on the feature amount database 1030 of the action or action and the recognition result 1034, the action / action expression device 1035 of the articulated structure and the action / action are expressed. A database 1031 for storing feature values of actions / actions necessary for the operation and an output device 1032 for displaying an expressed result as an image.

【0263】先ず、被験者1に取り付けられた計測器2
あるいは3より送られた計測結果は動作/行動の認識装
置1033に送られ、動作あるいは行動の特徴量データ
ベース1030に蓄えられている特徴量と比較され認識
結果が出力される(1034)。例えばこの例では「歩
く」動作とする。この結果は多関節構造体の動作/行動
の表現装置1035へ出力される。
First, the measuring instrument 2 attached to the subject 1
Alternatively, the measurement result sent from 3 is sent to the action / action recognition device 1033, and is compared with the feature amount stored in the action / action feature amount database 1030, and the recognition result is output (1034). For example, in this example, a “walking” operation is performed. This result is output to the motion / behavior expression device 1035 of the articulated structure.

【0264】表現装置1035は、認識装置1033の
認識結果である動作の特徴に基づいて、その特徴に応じ
た特徴データを記憶部1031から取り出して多関節構
造体(本例では人間)の動作情報を生成し、ディスプレ
イ1032にアニメーション表示する。
The expression device 1035 retrieves feature data corresponding to the feature from the storage unit 1031 based on the feature of the motion as the recognition result of the recognition device 1033, and obtains the motion information of the articulated structure (human in this example). Is generated, and an animation is displayed on the display 1032.

【0265】特徴に応じた人間の動作を、コンピュータ
グラフィックスを用いて表現する手法は、本願発明の発
明者らが執筆した“コンピュータアニメーションにおけ
る感情を伴った人間の歩行動作の生成方法”電子情報通
信学会論文誌、D−II、Vol.J76-D-II,No.8,pp.1
822−1831,1993年8月或いはUSPatent 5,4
83,630号公報に記載されている。この文献では、人間の
様々な歩行動作から、各歩行の特徴を表す特徴量成分を
抽出し、抽出した様々な特徴量成分を組み合わせたり、
特徴量成分の強さを制御することにより、様々な動作を
コンピュータアニメーションにより表現する手法につい
て述べられている。
A method of expressing a human motion corresponding to a feature using computer graphics is described in “Method of Generating Human Walking Motion with Emotion in Computer Animation” written by the inventors of the present invention. IEICE Transactions, D-II, Vol.J76-D-II, No.8, pp.1
822-1831, August 1993 or US Patent 5,4
No. 83,630. In this document, from various walking actions of a human, feature amount components representing features of each walking are extracted, and various extracted feature amount components are combined,
It describes a method of expressing various operations by computer animation by controlling the strength of a feature amount component.

【0266】本発明では、上記文献に記載されている手
法を用いて、認識した動作の特徴に応じたアニメーショ
ンの表示を行う。
In the present invention, an animation corresponding to the feature of the recognized motion is displayed using the technique described in the above-mentioned document.

【0267】本発明の発明者らにおいて執筆された上記
文献に開示された手法は、動作の特徴量を制御すること
により様々な周期動作を生成することが出来る。以下
に、処理の概要を簡単に説明する。
The method disclosed in the above-mentioned document written by the inventors of the present invention can generate various periodic motions by controlling the feature amount of the motion. Hereinafter, an outline of the processing will be briefly described.

【0268】図31は、動作の特徴量を用いた人間の動
作の生成方法を表す概略図である。図31では、右膝の
関節の動き1044j(t)を表す例について説明して
いるが、その他の関節の動きも同じ手法により生成し身
体全体の関節の動きを生成する。
FIG. 31 is a schematic diagram showing a method of generating a human motion using the feature amount of the motion. FIG. 31 illustrates an example representing the movement 1044j (t) of the right knee joint. However, the movement of the other joints is generated by the same method to generate the movement of the joint of the entire body.

【0269】先ず、様々な歩行動作を行った時の関節の
曲げ角度を実測し、「標準的な歩行」B(ω)と実測を行
った歩行動作の関節の動きJ(ω)の周波数特性の差を
抽出し、
First, the bending angle of the joint when performing various walking motions is actually measured, and the frequency characteristics of the “standard walking” B (ω) and the joint motion J (ω) of the actually measured walking motion are measured. Extract the difference between

【0270】[0270]

【数19】 G(ω)=B(ω)−J(ω) …(数19) 実測した動作を表す特徴量G(ω)として抽出する。こ
の特徴量を特徴量のデータベース1041として、図3
0の記憶部1031に蓄える。この手法では「歩く」,
「走る」などのように動詞的表現の他に「元気に」,
「落ち込んで」などのような副詞的表現や歩行の個性な
ども抽出することができる。
G (ω) = B (ω) −J (ω) (Equation 19) Extracted as a feature amount G (ω) representing an actually measured operation. This feature amount is used as a feature amount database 1041 in FIG.
0 in the storage unit 1031. In this method, "walk",
In addition to verb expressions such as "run",
Adverbial expressions such as “depressed” and personality of walking can be extracted.

【0271】動作の生成は、生成しようとする動作の特
徴量を組み合わせ新たな特徴量を創り出し、その特徴量
から関節の動きj(t)を生成する逆変換処理を行う。
この時以下の式(数20)に示すように、複数の特徴量
を重ね合わせたり、それぞれの特徴量の重み(強さ)を
制御することにより、実測した動作以外の動作も生成す
ることが出来る。
The motion is generated by creating a new feature by combining the features of the motion to be generated, and performing an inverse transformation process of generating a joint motion j (t) from the features.
At this time, as shown in the following equation (Equation 20), by superimposing a plurality of feature amounts or controlling the weight (strength) of each feature amount, an operation other than the actually measured operation can be generated. I can do it.

【0272】[0272]

【数20】 (Equation 20)

【0273】例えば、「歩く」と「元気に」(元気に歩
くより抽出した、副詞的な特徴量)を重ね合わせた場
合、実測した「元気に歩く」が生成される。ここで、特
徴量「元気に」の重みを制御することにより、例えば、
重みを1以下にすれば、「標準に歩く」と「元気に歩
く」の中間の動作が、1以上にすれば、「元気に」が強
調されて「非常に元気に歩く」といったように副詞の内
挿や外挿といった表現ができる。さらに、実測していな
い新たな動作も生成できる。例えば、「標準的に歩く」
に「走る」の特徴量を加えて作った「走る」という動作
に「元気に」加えることにより「元気に走る」といった
実測していない動作を新たに生成することができる。こ
の手法の特徴は、様々な人間の動作を特徴量の選択及び
組み合わせ更にその重みを制御することにより簡単に生
成することができるところにある。これら動作情報の生
成は、図30に示した動作情報生成装置1035で生成
される。
For example, when “walking” and “vigorously” (adverbative features extracted from walking vigorously) are superimposed, actually measured “walking fine” is generated. Here, by controlling the weight of the feature quantity “energically”, for example,
If the weight is set to 1 or less, an intermediate action between “walking normally” and “walking well” is set to 1 or more. Expressions such as interpolation and extrapolation can be made. Further, a new operation that has not been actually measured can be generated. For example, "standard walking"
By adding the “run” action to the “run” action created by adding the “run” feature to the “run” action, an unmeasured action such as “run well” can be newly generated. The feature of this method is that various human actions can be easily generated by selecting and combining feature amounts and controlling the weights. The operation information is generated by the operation information generation device 1035 shown in FIG.

【0274】動作の特徴量を用いた人間の動作の生成方
法における特徴量の選択及び特徴量の重みを、加速度セ
ンサを用いた動作の認識手法で得られた各動作の認識確
度を用いて制御することにより、認識結果をCGアニメ
ーションで表示することができる。認識結果をCGアニ
メーション表示する概略図を図32に示す。例えば、認
識結果が図32(1050)で示すように、歩行の認識
確度がw歩行、各認識項目Rn の認識確度がwn であっ
たとする。先ず、特徴量のデータベース1041より認識項
目Rn に対応する特徴量Gn(ω)を選択する。これらの
値より前述の式のように特徴量の重ね合わせを行うが、
歩行の認識表現のためにw歩行により
In the method of generating a human motion using the feature amount of the motion, the selection of the feature amount and the weight of the feature amount are controlled by using the recognition accuracy of each motion obtained by the motion recognition method using the acceleration sensor. By doing so, the recognition result can be displayed by CG animation. FIG. 32 is a schematic diagram showing a CG animation display of the recognition result. For example, as shown in FIG. 32 (1050), the recognition accuracy of walking is w walking , and the recognition accuracy of each recognition item R n is w n . First, a feature value G n (ω) corresponding to the recognition item R n is selected from the feature value database 1041. Based on these values, the feature values are superimposed as in the above equation.
By w walking for recognition expression of walking

【0275】[0275]

【数21】 j(t)=F-1[J(ω)]=F-1[w歩行・{B(ω)+Σwn・Gn(ω)}] …(数21) のように合成された特徴量全体の制御を行う。この制御
により、認識確度が1より小さくなると身体全体の動き
がだんだん小さくなり、歩行の認識確度が0になると全
ての関節角が0となり直立状態が表現される。
J (t) = F -1 [J (ω)] = F -1 [w walking / {B (ω) + {w n · G n (ω)}]... Control of the entire feature amount is performed. With this control, when the recognition accuracy is smaller than 1, the movement of the entire body gradually decreases, and when the walking recognition accuracy becomes 0, all joint angles become 0 and an upright state is expressed.

【0276】更に、認識した歩行周期と同じ歩行周期で
動くように周波数ωを選択することによりCGアニメー
ションを生成し被験者と同じ歩行周期で足を運ぶCGキ
ャラクタが生成できる。これにより、認識結果の動作速
度も表現することができる。本発明の認識手法を用い動
作を認識し、その結果をCGアニメーションにより表示
した表示画面の一例を図33,図34,図35,図36
に示す。それぞれの図の(a)は加速度センサから測定
した加速度値の測定波形、(b)は測定加速度の平均
値、(c)は認識結果、(e)は体動スペクトル、
(f)は歩行周期スペクトル、(g)は認識結果のアニ
メーション表示できる。
Further, by selecting the frequency ω so as to move in the same walking cycle as the recognized walking cycle, a CG animation can be generated, and a CG character that walks in the same walking cycle as the subject can be generated. Thereby, the operation speed of the recognition result can also be expressed. FIGS. 33, 34, 35, and 36 show examples of display screens in which the operation is recognized using the recognition method of the present invention and the result is displayed by CG animation.
Shown in (A) of each figure is a measured waveform of the acceleration value measured from the acceleration sensor, (b) is an average value of the measured acceleration, (c) is a recognition result, (e) is a body motion spectrum,
(F) shows a walking cycle spectrum, and (g) shows an animation of a recognition result.

【0277】先ず図33の例を説明する。(a)の測定
波形1060は、横軸が時間、縦軸が加速度である。こ
の例では、初め静止状態にいた被験者が徐々に歩き始め
最後に力強く歩く動作を行っている。静止状態から元気
に歩くに従って振幅が大きくなるのが判る。(b)は、
(a)の加速度波形の平均値である。この例では、被験
者は常に立った状態であるので重力加速度であるほぼ
1.0G の値を常に示している(1061)。(e)
は、測定波形を周波数解析した体動スペクトルを表して
いる。横軸が周波数、縦軸がスペクトル強度となってい
る。スペクトル強度の一番強い周波数1072が歩行周
期を表すスペクトルであり(f)は歩行周期と認識され
たスペクトルを抜け出して表示したものである。図33
中の(e)と(f)は、縦軸のスケールが異なるだけで同
じスペクトルである。(e)は最大スペクトル強度がグ
ラフの最大スケールになるように正規化している。現在
時点が(a)のグラフ中の1071であるとき、(e)
が認識結果のスペクトルを示すように表示を行う。また
(e)のグラフは、横軸が時間、縦軸に認識項目を配置
してある。認識項目は、下から順に、「歩行」107
5,「力強く」1074,「のんびり」1073であ
る。各認識の認識確度(重み)は、色の濃さで表してい
る。色が白い場合認識確度は0.0 、黒い場合は、認識
確度が1.0 であることを表している。静止状態の区間
1067では、認識された認識項目が無いため何も表示
されていない。歩き始めの区間1068では、「歩行」
と「のんびり」の色が徐々に黒くなり、各認識項目の認識
確度が高くなっているのが判る。更に、歩き始めと元気
にの境界付近1070に達すると「のんびり」の色が徐
々に白くなっている。これは、標準的な歩行に近づいた
ためであり「のんびり」の認識確度が徐々に下がってい
るのを表している。境界を越えると「力強く」の認識確
度が徐々に増加し「力強く歩く」状態を認識しているの
が判る。認識結果をアニメーション表示しているのが
(g)である。このアニメーションは、現在(グラフ
(a)の1071の時点)の認識結果を表示しており
「元気に歩く」動作表示している。
First, the example of FIG. 33 will be described. In the measurement waveform 1060 in (a), the horizontal axis represents time, and the vertical axis represents acceleration. In this example, the subject who is initially in a stationary state gradually starts walking and finally performs a strong walking motion. It can be seen that the amplitude increases as the person walks from a standstill state. (B)
It is an average value of the acceleration waveform of (a). In this example, since the subject is always standing, it always shows a value of approximately 1.0 G, which is the gravitational acceleration (1061). (E)
Represents a body motion spectrum obtained by frequency-analyzing the measured waveform. The horizontal axis is frequency and the vertical axis is spectrum intensity. The frequency 1072 having the highest spectral intensity is a spectrum representing the walking cycle, and (f) is a spectrum extracted from the spectrum recognized as the walking cycle. FIG.
(E) and (f) in the same spectrum are different only in the scale of the vertical axis. (E) is normalized so that the maximum spectral intensity is on the maximum scale of the graph. When the current time point is 1071 in the graph of (a), (e)
Are displayed so as to show the spectrum of the recognition result. In the graph of (e), the horizontal axis represents time, and the vertical axis represents recognition items. The recognition items are “walk” 107 in order from the bottom.
5, “powerful” 1074 and “relaxed” 1073. The recognition accuracy (weight) of each recognition is represented by the color density. When the color is white, the recognition accuracy is 0.0, and when the color is black, the recognition accuracy is 1.0. Nothing is displayed in the stationary section 1067 because there is no recognized recognition item. In the section 1068 at the beginning of walking, "walking"
It can be seen that the color of "Relaxed" gradually becomes black, and the recognition accuracy of each recognition item is increased. Furthermore, when the color reaches 1070 near the boundary between the start of walking and the energy, the color of “relaxing” gradually becomes white. This is due to approaching the standard walking, and indicates that the recognition accuracy of “relaxation” is gradually decreasing. It can be seen that the recognition accuracy of "powerful" gradually increases beyond the boundary, and that the player recognizes the "powerful walking" state. (G) shows an animation of the recognition result. This animation displays the recognition result at the present time (at the point 1071 in the graph (a)), and displays the action of “walking fine”.

【0278】また、(h)には、詳細に図示はしていな
いが、横軸を時間、縦軸を周波数とし、各画素の濃度で
スペクトル強度を表す体動スペクトログラムが表示され
る。図34は「走る」を認識した例である。測定波形
(a)の振幅がかなり大きくなっているのが判る。
(f)の特徴量の歩行周期のスペクトル強度1080
は、図34のそれに比べかなり大きい。認識結果は
(g)のように「走る」状態をアニメーション表示して
いる。図35は「のんびり歩く」場合の認識例である。
Although not shown in detail in (h), a body motion spectrogram is displayed in which the horizontal axis represents time and the vertical axis represents frequency, and the spectral intensity is represented by the density of each pixel. FIG. 34 is an example in which “run” is recognized. It can be seen that the amplitude of the measured waveform (a) is considerably large.
The spectrum intensity 1080 of the walking period of the feature quantity (f)
Is considerably larger than that of FIG. The recognition result shows an animation of the "running" state as shown in (g). FIG. 35 is an example of recognition in the case of “walking leisurely”.

【0279】「のんびり歩く」つまり「静かにゆっくり
歩いている」状態なので(f)のように測定波形の振幅
も大きくない。抽出した特徴量の基本周波数のスペクト
ル強度も図35の1081のようにかなり小さくなって
いる。認識結果は、図35の(g)のように「のんびり
した歩き」(「とぼとぼした歩き」)をアニメーション
で表現している。これは、「歩く」の特徴量に「とぼと
ぼ」の特徴量を認識した認識確度に応じて重ね合わせて
表現している。図36は「倒れた」場合の認識例であ
る。倒れた地点を点線1082で示す。点線1082を
境に、観測波形は、0.0G へと急激に減少し、加速度
の平均値も徐々に0.0G へ推移している。これは、立
位の状態から臥位の状態になり、加速度センサの測定軸
が重力方向と直交してしまい重力加速度が観測できなく
なったためである。認識結果は図36の(g)のように
臥位の状態をアニメーションで表示している。
Since the state is “walking slowly”, that is, “walking slowly and quietly”, the amplitude of the measured waveform is not large as shown in FIG. The spectrum intensity of the fundamental frequency of the extracted feature amount is also considerably small as indicated by 1081 in FIG. As a result of the recognition, as shown in (g) of FIG. 35, “a leisurely walk” (“a bumpy walk”) is expressed by animation. This is expressed by overlapping the feature amount of “walking” with the recognition accuracy of recognizing the feature amount of “tobo-to-bo”. FIG. 36 is an example of recognition in the case of “falling down”. The point of the fall is indicated by a dotted line 1082. At the boundary of the dotted line 1082, the observed waveform sharply decreases to 0.0G, and the average value of the acceleration also gradually changes to 0.0G. This is because the state changes from the standing position to the lying position, the measurement axis of the acceleration sensor is orthogonal to the direction of gravity, and the gravitational acceleration cannot be observed. The recognition result displays the recumbent state as an animation as shown in FIG.

【0280】なお、本実施形態において、例えばリハビ
リテーションの訓練の状況を認識(診断)及びその表示
などに用いる場合、認識した結果をそのままアニメーシ
ョン表示するのではなく、例えば、足を引き摺る動作が
認識された場合、その認識確度(重み)を強調しアニメ
ーション表示することにより、足を引き摺る動作を強調
して表示することも可能である。この場合、不具合個所
が強調されて分かり易く表現される。勿論、リハビリテ
ーション以外のあらゆる、動作/行動の認識において
も、強調処理を行い、認識結果を分かり易くするという
のもかまわない。
In the present embodiment, when the status of rehabilitation training is used for recognition (diagnosis) and its display, for example, the recognized result is not displayed as an animation as it is, but, for example, an action of dragging a foot is recognized. In this case, the recognition accuracy (weight) is emphasized and an animation is displayed, so that the action of dragging the foot can be emphasized and displayed. In this case, the defective part is emphasized and is easily understood. Of course, in any motion / action recognition other than rehabilitation, the emphasis processing may be performed to make the recognition result easier to understand.

【0281】このように本実施形態によれば、動作或い
は行動の認識結果を直感的に分かり易いアニメーション
として表現することが可能となり、観測者に分かり易く
認識結果を提示出来るといった効果がある。
As described above, according to this embodiment, it is possible to intuitively express a recognition result of an action or an action as an easily understandable animation, and it is possible to present the recognition result in an easy-to-understand manner to an observer.

【0282】なお、表示装置に多関節構造体をアニメー
ションで表示することを説明したが、動作の特徴を表す
静止画のポーズでもかまわない。例えば、「歩く」の場
合、歩いている人間を横から撮影しその静止画を「歩
く」場合の特徴量(特徴画像)とし、認識結果が「歩
く」と判定された場合、この画像を読み出し表示する。
この場合、前記アニメーション表示に比べ演算量が少な
いため、処理速度の遅い計算機においても表示が可能で
あるといった効果がある。
Although the description has been given of the case where the multi-joint structure is displayed as an animation on the display device, a still image pose representing a feature of the operation may be used. For example, in the case of "walking", a walking person is photographed from the side, and the still image is used as a feature amount (feature image) in the case of "walking". When the recognition result is determined to be "walking", the image is read out. indicate.
In this case, since the amount of calculation is smaller than that of the animation display, there is an effect that the display can be performed even on a computer having a slow processing speed.

【0283】次に、被験者の位置及び動作或いは行動を
認識した結果を表示する実施形態について説明する。図
37は、被験者の位置及び動作或いは行動を認識した結
果を表示するための構造図である。1100は動作/行
動の認識装置である。これは、例えば図1において説明
した手法により、人間の動作或いは行動を認識する。1
101は多関節構造体の動作或いは行動の表現処理部で
ある。これは、例えば図31により説明した手法によ
り、1100において認識した多関節構造体の動作或い
は行動の認識結果をもとに、多関節構造体の動作或いは
行動をアニメーション表示する機能を有する。1102
は、被験者の位置の計測装置である。これは、図11に
おいて説明した手法などにより被験者の位置を特定す
る。1103は、地理情報或いは建物内情報を表示する
処理部である。ここで言う地理情報とは、山野の標高デ
ータ,道路や線路データ,建物や構造物の位置や形状デ
ータなどであり、建物内情報とは、建築物の間取りや機
器の配置などの情報である。これらの情報は、データベ
ース1104に格納されている。1105は表示装置で
ある。1102により計測された被験者の位置の周囲の
地理或いは建物内情報を1103の地理情報或いは建物
内情報を表示する手法で2次元或いは3次元で表現し、
この中の観測者の位置に1101の多関節構造体の動作
或いは行動の表現処理を用い、多関節構造体のアニメー
ションを表示させる。
Next, a description will be given of an embodiment for displaying the result of recognizing the position and the motion or action of the subject. FIG. 37 is a structural diagram for displaying the result of recognizing the position and movement or action of the subject. Reference numeral 1100 denotes a motion / action recognition device. This recognizes the motion or action of a person, for example, by the method described with reference to FIG. 1
Reference numeral 101 denotes an expression processing unit for the motion or action of the multi-joint structure. This has a function of displaying an animation of the operation or action of the articulated structure based on the recognition result of the operation or action of the articulated structure recognized in 1100 by the method described with reference to FIG. 31, for example. 1102
Is a device for measuring the position of the subject. In this case, the position of the subject is specified by the method described with reference to FIG. A processing unit 1103 displays geographic information or information in a building. The geographical information referred to here is altitude data of mountains, road and track data, the position and shape data of buildings and structures, and the in-building information is information such as floor plans of buildings and arrangement of equipment. . These pieces of information are stored in the database 1104. Reference numeral 1105 denotes a display device. The geography or the information in the building around the position of the subject measured by 1102 is expressed in two dimensions or three dimensions by a method of displaying the geographic information or the information in the building of 1103,
An animation of the articulated structure is displayed at the position of the observer in the motion or action of the articulated structure 1101 at the position of the observer.

【0284】図38は、被験者の位置及び動作/行動を
認識した結果をもとに表示した表示画面の一例であり、
病院内の患者等の位置や行動を表示している例である。
この例では、建物内の配置情報などが描かれているが、
被験者が外に出れば、野外の道路や公園などを表現する
のも同様に出来る。1105は、表示画面である。食堂
(1106),談話室(1107),個室(1108)
の配置情報は、図37の地理情報或いは建物内情報のデ
ータベース(1104)をもとに造られる。内部にいる
人間1110,1111,1112,1114,111
5,1109は、各人被験者の位置の計測装置(110
2)と動作/行動の認識装置(1100)を携帯してお
り、1116或いは、1113のPHSの基地局から送
信される電波の強さ等を参照に被験者の位置の計測装置
(37の1102)により位置を計測される。また、動
作/行動の認識装置(37の1100)により動作或い
は行動を認識され、多関節構造体の動作/行動の表現部
によりアニメーション表示されている。この例では、被
験者1109は、個室1の前を元気に歩いており、被験
者1114と被験者1115は食堂で座っている。
FIG. 38 is an example of a display screen displayed based on the result of recognizing the position and the movement / action of the subject.
This is an example in which the position and behavior of a patient or the like in a hospital are displayed.
In this example, the layout information inside the building is drawn,
If the subject goes outside, it can also represent outdoor roads and parks. Reference numeral 1105 denotes a display screen. Dining room (1106), lounge (1107), private room (1108)
Is created based on the geographical information or the in-building information database (1104) in FIG. Inside humans 1110, 1111, 1112, 1114, 111
5, 1109 is a measuring device (110
2) and a motion / behavior recognition device (1100), and the subject's position measuring device (1102 of 37) with reference to the strength of radio waves transmitted from the PHS base station of 1116 or 1113 The position is measured by Further, the motion or action is recognized by the motion / action recognition device (1100 of 37), and an animation is displayed by the motion / action expression unit of the articulated structure. In this example, the subject 1109 is walking fine in front of the private room 1, and the subject 1114 and the subject 1115 are sitting in the dining room.

【0285】このように本実施形態によれば、被験者が
どこでどのような動作或いは行動を行っているかを非常
に分かり易く表現することが可能となり、観測者に分か
り易く認識結果を提示出来るといった効果がある。
As described above, according to this embodiment, it is possible to express in a very easy-to-understand manner where and what kind of motion or action the subject is performing, and to present the recognition result in an easy-to-understand manner to the observer. There is.

【0286】また、本実施形態によればテレビカメラな
どによる観測に起りがちな死角などの影響が起りにく
く、いかなる場所においても良好に観測できるといった
効果がある。
Further, according to the present embodiment, there is an effect that the influence of a blind spot or the like, which tends to occur in observation by a television camera or the like, hardly occurs, and it is possible to observe well in any place.

【0287】さらに、本実施形態によればテレビカメラ
では、距離が離れると被験者が小さくなり観測し難くな
るが、本実施形態を用いれば観測結果のデータを伝送が
出来る領域内であれば、いかなる場所においても良好に
観測できるといった効果がある。
Further, according to the present embodiment, in the television camera, when the distance is large, the subject becomes small and it is difficult to observe the subject. However, if the present embodiment is used, any subject can be used as long as the observation result data can be transmitted. There is an effect that observation can be performed well in a place.

【0288】さらに、本実施形態によればテレビカメラ
による観測によれば、画像を監視することにより、「だ
れかどこにいた」といった事も明らかになり、プライバ
シーの侵害の可能性も生じる。ところが例えば、図38
の被験者1114及び1115の例において、1114及び
1115、更には他の被験者のアニメーションキャラク
タの形状を同一とし、各個人の歩き方の癖などを除いて
動作或いは行動をアニメーション表示をすることによ
り、食堂の1114及び1115の位置に2人座ってい
るのは判るが、それ以外の個人情報を知ることは出来ず
プライバジーの保護が出来るといった効果もある。
Further, according to the present embodiment, according to the observation by the television camera, by monitoring the image, it becomes clear that "somebody was there", and there is a possibility of privacy infringement. However, for example, FIG.
In the example of the subjects 1114 and 1115, the shapes of the animated characters of 1114 and 1115 and the other subjects are the same, and the motion or action is animated except for the individual habit of walking, so that the dining room can be displayed. It can be seen that two persons are sitting at the positions 1114 and 1115, but there is also an effect that it is not possible to know other personal information and protect privacy.

【0289】異常事態発生時の自動通報の表示例を図3
9を用いて説明する。異常事態とは、患者が「倒れた」
や「苦しんでいる」などの状態を指す。被験者1112
が、個室4の前で倒れている状態である。前記実施形態
では、プライバシー保護の観点から個人情報を隠す表示
方法を示したが、本例は、異常事態が発生したら個人情
報を積極的に開示する例である。異常事態の認識は、図
20で説明した手法を用いる。図20の説明において
は、特定の動作/行動の認識として説明したが、本実施
形態は病院を例にしており、特定動作/行動とは、患者
の異常事態を差す。図20の手法については既に説明し
たので省略する。異常事態が発生したら、被験者の位置
及び動作或いは行動を1112のようにアニメーション
表示するとともに、被験者が形態している装置のID番
号を参考に1117のように個人の名前や、病歴,担当
医,保護者等を表示する。
FIG. 3 shows a display example of an automatic report when an abnormal situation occurs.
9 will be described. An abnormal situation is when a patient "falls"
And "suffering". Subject 1112
However, it is in a state of falling down in front of the private room 4. In the above-described embodiment, a display method for hiding personal information from the viewpoint of privacy protection has been described. However, this example is an example in which personal information is positively disclosed when an abnormal situation occurs. The abnormal situation is recognized using the method described with reference to FIG. In the description of FIG. 20, a description has been given of recognition of a specific operation / action. However, the present embodiment exemplifies a hospital, and the specific operation / action refers to an abnormal situation of a patient. The method of FIG. 20 has already been described, and will not be described. When an abnormal situation occurs, the position and the motion or the behavior of the subject are displayed as an animation like 1112, and the name of the individual, the medical history, the physician, Displays the guardian and the like.

【0290】この実施形態により、異常事態が発生した
場合においては、観察者は即座に、置かれている状況
や、その人の個人情報を即座に把握することができ、他
の人のプライバジーを守りつつ、異常事態発生者には、
其の対策のための個人情報を即座に提示できるといった
効果がある。
According to this embodiment, when an abnormal situation occurs, the observer can immediately grasp the situation and personal information of the person, and can observe the privacy of another person. While protecting,
There is an effect that personal information for the countermeasure can be immediately presented.

【0291】図40は、病院スタッフの位置や動作或い
は行動を表示する例である。上記の実施形態において、
異常事態が発生した場合、対応可能なスタッフ選択する
必要がある。そこで、病院スタッフの位置や動作或いは
行動を表示した例である。病院スタッフは、1118で
あり病院スタッフを示す帽子をアニメーションキャラク
タに取り付けてある。この例では、スタッフ1118
は、歩いており、十分対応可能な状態といえるが、例え
ば、動作認識の結果が、手術や他の患者の対応を表して
いれば、直接各スタッフの確認をとらずとも、この画面
を見ながら、他の近隣のスタッフを探すことが可能とな
る。
FIG. 40 shows an example of displaying the position, operation or action of the hospital staff. In the above embodiment,
When an abnormal situation occurs, it is necessary to select staff who can respond. Therefore, this is an example in which the position, operation, or behavior of the hospital staff is displayed. The hospital staff is 1118, and a hat indicating the hospital staff is attached to the animated character. In this example, staff 1118
Can be said to be walking and fully responsive.For example, if the result of motion recognition indicates surgery or the response of other patients, this screen can be viewed without directly checking each staff member. Meanwhile, it becomes possible to find other nearby staff.

【0292】本実施形態によれば、対応可能な人間を、
直接確認をとらずとも判断できるといった効果がある。
According to the present embodiment, a person who can respond is
This has the effect that it is possible to judge without directly confirming.

【0293】なお、上記実施形態では、判断を観察して
いる人間が行うように記載したが、患者の位置・異常事
態の起った原因・病歴・担当医及び周囲にいるスタッフ
の位置・作業状態・専門などをもとに各種最適化アルゴ
リズムにより計算機が自動的に判断し最適なスタッフを
選択することも可能である。
In the above embodiment, the judgment is made by the observer. However, the position of the patient, the cause of the abnormal situation, the medical history, the position of the attending physician, and the position and work of the staff in the vicinity are described. It is also possible for the computer to automatically judge by various optimization algorithms on the basis of the state, specialty, etc., and to select the optimal staff.

【0294】異常事態発生時に異常事態が発生するまで
の経緯を表示するためのシステムの構成図を図41を用
い説明する。異常事態を認識するのは図20の手法を用
いる。図41の構成図は、異常事態認識後に処理を行う
ための構成図である。
FIG. 41 is a block diagram of a system for displaying a process until an abnormal situation occurs when an abnormal situation occurs. The method of FIG. 20 is used to recognize an abnormal situation. The configuration diagram of FIG. 41 is a configuration diagram for performing processing after recognition of an abnormal situation.

【0295】被験者の位置・動作/行動を記録する記憶
装置(1120)には、動作/行動の認識装置(110
0)により認識された、動作/行動の種類と、被験者の
位置の計測装置(1102)により計測された位置情報、
更に認識を行った時刻が記録される。図42には、被験
者の位置・認識した動作/行動の情報を、記憶装置に記
憶した一例として示す。上段(1122)が動作/行動の
項目、下段(1123)が、時刻(t)及び位置座標
(x,y,z)を表している。これらの値は、認識され
る毎に随時追加されていく。この例では、最後に認識さ
れた記憶した位置が1125であり、左上に行くに従い
古くなる。
The storage device (1120) for recording the position / action / action of the subject has an action / action recognition device (110).
0), the type of action / action and position information measured by the measuring device (1102) for the position of the subject,
Further, the time at which recognition was performed is recorded. FIG. 42 shows an example in which information on the position / recognized action / action of the subject is stored in the storage device. The upper row (1122) indicates the item of the action / action, and the lower row (1123) indicates the time (t) and the position coordinates (x, y, z). These values are added as needed each time they are recognized. In this example, the last recognized stored position is 1125, and becomes older as it goes to the upper left.

【0296】ここで、例えば、事情事態の特定パターン
が「倒れる」「横になる」「横になる」…であるとす
る。このパターンが現れると、異常事態の認識装置(1
125)は、異常事態の経緯を表示するために移動も含
む多関節構造体の動作/行動の表現処理部(1126)
を用いアニメーション処理を行う。
Here, for example, it is assumed that the specific pattern of the situation is “fall down”, “lie down”, “lie down”. When this pattern appears, the abnormal situation recognition device (1
125) An expression / processing unit (1126) for displaying the operation / action of the multi-joint structure including movement for displaying the history of the abnormal situation.
To perform animation processing.

【0297】1126を用いて表示した、異常事態が発
生した経緯を表示する表示例を図43に示す。観測者が
倒れた地点は1112である。異常事態の認識装置(112
5)が、図42の1121の特定動作パターンを認識する
と、被験者の位置・動作/行動を記録する記憶装置(1
120)よりある一定時間溯り(この例では、1124の
「元気に歩く」の状態)その時の位置情報と、被験者の
動作/行動をもとに順次新しい時刻へ向かってアニメー
ションを開始する。従って、この例では、1130の区間に
おいては「元気に歩き」、区間1131では「歩く」、
区間1132においては「立ち止まり」、区間1133
では「倒れ」、区間1134では「横になり」動かなく
なるアニメーションが生成できる。なお、上記の過程を
繰り返すことにより、異常事態に陥った経緯を繰り返し
て表示することも可能である。
FIG. 43 shows a display example for displaying the history of occurrence of the abnormal situation, which is displayed using 1126. The point where the observer fell was 1112. Abnormal situation recognition device (112
When the specific operation pattern 1121 in FIG. 42 is recognized, the storage device (1) that records the position / operation / action of the subject
120), the animation is sequentially started toward a new time based on the positional information at that time (in this example, the state of “walking well” of 1124) and the movement / action of the subject. Therefore, in this example, in the section of 1130, "walk well", in the section 1131, "walk",
In section 1132, “stop”, section 1133
In this case, an animation can be generated in which the user “falls down” and the section 1134 “turns down” and does not move. By repeating the above process, it is also possible to repeatedly display the circumstances that led to the abnormal situation.

【0298】本実施形態によれば、異常事態に陥った経
緯を過去に溯って表示することができるため、異常事態
の経緯から判断出来る異常事態の詳細な把握,異常事態
の対処方法の検討が行い易くなる効果がある。
According to the present embodiment, the history of the abnormal situation can be displayed retrospectively, so that it is necessary to understand the abnormal situation in detail, which can be determined from the history of the abnormal situation, and to examine a method for dealing with the abnormal situation. This has the effect of making it easier to do.

【0299】次に、動作/行動の認識結果を元に位置計
測装置により求めた測定値の精度を向上させるシステム
の構成についての実施形態を図44及び図45を用いて
説明する。図44は、動作/行動の認識結果を元に位置
計測精度を向上させるためのシステム構成図、図45
は、動作/行動の認識結果を元に位置計測精度を向上さ
せる説明図である。
Next, an embodiment of a system configuration for improving the accuracy of the measurement value obtained by the position measurement device based on the recognition result of the action / action will be described with reference to FIGS. 44 and 45. FIG. 44 is a system configuration diagram for improving the position measurement accuracy based on the recognition result of the action / action, and FIG.
FIG. 5 is an explanatory diagram for improving position measurement accuracy based on a recognition result of an action / action.

【0300】動作/行動の認識装置1100については
説明の詳細を省略する。被験者の位置計測装置1102
では、複数の基地局より発せられる電波の電界強度分布
を前以って計測或いはシミュレーションにより求め、被
験者の持つ端末で複数の基地局の電波を受信し、それぞ
れの電界強度を計測し、計測した電界強度と前以って求
めてある電界強度分布を比較位置の候補を算出する。例
えば、図45の例で被験者の持つ端末が、基地局A(1
150)の電波を電界強度XdBで受信し、基地局B(11
51)の電波をYdBで受信したとする。前以って、計測
或いはシミュレーションを行い求めた基地局A(115
0)の電界強度分布及び基地局B(1151)の電界強度
分布1153は1152及び1153のようになる。従
って、両局からの電界強度の条件を満足する部分は11
54の領域となり、被験者はこの領域のどこかに存在す
るということになる。しかし、端末側での電界強度の測
定精度,電波の乱反射などのためにこの領域はかなり大
きくおおまかな位置しか特定することができない。そこ
で、地理情報或いは建物内情報からの位置の推定方法1
140では、1102により求めた被験者の存在領域か
ら、動作/作動の認識装置1100より求めた被験者の
動作/行動と地理情報或いは建物内情報1104により詳細
な場所を特定する。例えば、図45の例で、被験者11
56が、「階段を登る」という動作が認識されたとする
と、地理情報或いは建物内情報1104より階段のある
場所を検索し、被験者1156は、領域1154の中の
階段のある場所(1155の場所)であると特定でき
る。また、被験者が1157のように、地形などにより
影響されない場所にいる場合には、少なくとも階段上で
ないことは明らかであるし、階段を登り終えた時間と歩
行動作を行っている時間から位置を推定する事も出来
る。
The description of the operation / action recognition apparatus 1100 is omitted. Subject position measuring device 1102
In, the distribution of the electric field strength of radio waves emitted from a plurality of base stations was obtained in advance by measurement or simulation, the radio waves of the plurality of base stations were received by the terminal of the subject, and the respective electric field strengths were measured and measured. The electric field intensity and the electric field intensity distribution obtained in advance are calculated as candidates for the comparison position. For example, in the example of FIG. 45, the terminal of the subject is the base station A (1
150) is received at an electric field strength of X dB, and the base station B (11
It is assumed that the radio wave of 51) is received in YdB. Base station A (115
The electric field intensity distribution of 0) and the electric field intensity distribution 1153 of the base station B (1151) are as shown by 1152 and 1153. Therefore, the portion satisfying the condition of the electric field strength from both stations is 11
There are 54 areas, which means that the subject exists somewhere in this area. However, due to the measurement accuracy of the electric field strength on the terminal side, the irregular reflection of radio waves, and the like, this region can be specified only at a relatively large and rough position. Accordingly, a method 1 for estimating a position from geographical information or information in a building
At 140, a detailed location is specified from the subject's presence area obtained at 1102, based on the subject's action / action obtained by the action / action recognition device 1100 and geographic information or building information 1104. For example, in the example of FIG.
If it is recognized that the operation of “climbing the stairs” is recognized, the subject 1156 searches for the place with the stairs from the geographic information or the in-building information 1104, and the subject 1156 finds the place with the stairs in the area 1154 (the place with the 1155). Can be specified. In addition, when the subject is in a place that is not affected by the terrain, such as 1157, it is apparent that the subject is not at least on the stairs, and the position is estimated from the time of finishing climbing the stairs and the time of performing the walking motion. You can do it.

【0301】この事について図46を用い更に詳しく説
明する。図46は、動作及び行動の認識結果により位置
を特定した結果を元に位置を補正する手法を説明する説
明図である。この図では1165に示す方位とする。こ
の例では、セルラーシステムの基地局A(1150)に
より発せられる電波により大凡な絶対位置を測定する装
置と被験者に付けられた歩数を計測する装置及び方位や
進行方向の変化を計測する装置により相対位置を計測す
る装置にさらに、上記説明した動作及び行動の認識結果
により位置を特定する装置を用い被験者の位置を計測す
る。前述したように、セルラーシステムでは、測定精度
があまり高くない。従って、電界強度の条件が同一エリ
ア内であれば、被験者が移動してもそれを計測すること
ができない。そこで、相対位置を計測する手段が必要に
なる。相対位置を計測する装置は、歩数の数を数え被験
者の平均的な歩幅から移動距離を計測し、被験者に取り
付けられた方位センサ或いはジャイロなどにより被験者
の移動方向を計測する。測定した移動距離と移動方向を
積分することにより被験者の相対的な移動位置が計測で
きる。これにより電界強度の条件が同一エリア内であっ
ても被験者の移動を計測することができる。被験者の絶
対的な位置は、セルラーシステムで計測した絶対位置を
初期値とし、相対位置を計測する計測装置により計測さ
れた相対値を積分し求める。ところが、被験者の初期の
位置を決定する、絶対位置を計測する計測装置の測定精
度が悪い。従って、最初の誤差が後々まで影響すること
になる。さらに、相対位置を測定する装置においても、
サンプリング間隔や測定誤差,積分誤差により誤差が蓄
積されてくる。そこで、動作及び行動の認識結果により
位置を特定する装置を用い被験者の位置を補正する。
This will be described in more detail with reference to FIG. FIG. 46 is an explanatory diagram illustrating a method of correcting a position based on a result of specifying a position based on a recognition result of an action and an action. In this figure, the direction is indicated by 1165. In this example, a device that measures an approximate absolute position by a radio wave emitted from a base station A (1150) of a cellular system, a device that measures the number of steps attached to a subject, and a device that measures a change in azimuth and traveling direction are used. Further, the position of the subject is measured by using the device for measuring the position and the device for specifying the position based on the recognition result of the operation and the action described above. As described above, the measurement accuracy is not very high in the cellular system. Therefore, if the condition of the electric field strength is within the same area, it cannot be measured even if the subject moves. Therefore, means for measuring the relative position is required. The device for measuring the relative position counts the number of steps, measures the moving distance from the average step length of the subject, and measures the moving direction of the subject using a direction sensor or a gyro attached to the subject. By integrating the measured moving distance and moving direction, the relative moving position of the subject can be measured. Thus, the movement of the subject can be measured even when the condition of the electric field strength is within the same area. The absolute position of the subject is obtained by integrating the relative value measured by a measuring device that measures the relative position with the absolute position measured by the cellular system as an initial value. However, the measurement accuracy of the measuring device that determines the initial position of the subject and measures the absolute position is poor. Therefore, the first error will affect later. Furthermore, in a device for measuring a relative position,
Errors accumulate due to sampling intervals, measurement errors, and integration errors. Therefore, the position of the subject is corrected using a device that specifies the position based on the recognition result of the action and the action.

【0302】図46の例では、動作及び行動の認識結果
が「階段を昇り終えた」と認識されれば、被験者は、階
段の上端である1160の位置であると特定できる。こ
れは、セルラーシステムにより計測した計測結果115
4よりもはるかに位置精度は高い。これを絶対位置の初
期値として、相対位置を計測する計測装置により被験者
の位置を追尾する。
In the example of FIG. 46, if the recognition result of the action and the action is recognized as “finished up the stairs”, the subject can be specified as the position of 1160 which is the upper end of the stairs. This is the measurement result 115 measured by the cellular system.
The position accuracy is much higher than 4. Using this as the initial value of the absolute position, the position of the subject is tracked by a measuring device that measures the relative position.

【0303】絶対位置の初期値1160からは、被験者
の方位センサ或いはジャイロにより被験者が南の方向に
進んでいると計測される。また、歩数の計測装置により
距離が算出され1163の移動軌跡が求められる。区間
1165では、被験者が西に方向を変えている。これ
は、方位センサ或いはジャイロにより計測されさらに歩
数により区間1165の移動軌跡が算出される。それ以
後も同様に軌跡を算出し、現在の被験者の位置1161
を求めることができる。
[0303] From the initial value 1160 of the absolute position, it is measured that the subject is traveling in the south direction by the subject's azimuth sensor or gyro. Further, the distance is calculated by the measuring device for the number of steps, and the movement locus of 1163 is obtained. In section 1165, the subject is turning west. This is measured by a direction sensor or a gyro, and the movement locus of the section 1165 is calculated from the number of steps. Thereafter, the trajectory is calculated in the same manner, and the current position of the subject 1161 is calculated.
Can be requested.

【0304】なお、上記実施形態では、絶対位置を計測
する手段として、セルラーシステムを例に説明している
が、その他の絶対位置を計測するシステム、例えば、G
PS等でも同様である。
In the above embodiment, a cellular system is described as an example of the means for measuring the absolute position. However, other systems for measuring the absolute position, for example, G
The same applies to PS and the like.

【0305】上記実施形態では、標準的な歩幅より距離
を算出しているが、動作及び行動の認識結果により、例
えば「のんびり歩く」や「走る」等を認識し、その認識
項目と認識確度よりその動作及び行動状態での歩幅を算
出し、歩数より距離を求めることもできる。この場合、
標準的な歩幅で求めた距離よりも更に精度が向上する。
In the above-described embodiment, the distance is calculated from the standard step length. However, for example, “relaxed walking” or “running” is recognized based on the recognition result of the motion and the action, and the recognition item and the recognition accuracy are used. It is also possible to calculate the step length in the motion and the action state and obtain the distance from the number of steps. in this case,
The accuracy is further improved than the distance obtained with the standard stride.

【0306】上記実施形態では、標準的な歩幅より距離
を算出しているが、被験者の進行方向の加速度或いは速
度をセンサにより計測し、加速度の場合には重積分、速
度の場合には、積分することにより距離を算出してもか
まわない。
In the above embodiment, the distance is calculated from the standard stride length. However, the acceleration or speed in the traveling direction of the subject is measured by a sensor. By doing so, the distance may be calculated.

【0307】上記実施形態では、絶対位置を計測する計
測装置と動作及び行動の認識装置を組み合わせた装置に
より求めた位置を初期状態の位置としているが、相対位
置の計測装置で計測中に、位置を特定できるような動作
或いは行動を被験者が行った場合、その動作或いは行動
を元に地理情報或いは建物内情報を参考に位置を再度特
定し、その値を初期値としてもかまわない。この場合、
サンプリング間隔や測定誤差,積分誤差による誤差の蓄
積をなくすことができる。これはセルラーシステムのサ
ービスエリア外などで計測する場合に特に有効である。
絶対位置を計測する手段がないため相対位置を計測する
手段のみにより位置を計測することになり、誤差の蓄積
が問題になるが、本手法を用い逐次補正することにより
誤差の蓄積をなくすことができる。
In the above embodiment, the position obtained by the device combining the measuring device for measuring the absolute position and the device for recognizing the operation and the behavior is set as the initial position, but the position is measured during the measurement by the relative position measuring device. When the subject performs an action or action that can specify the position, the position may be specified again with reference to the geographic information or the information in the building based on the action or action, and the value may be used as the initial value. in this case,
Accumulation of errors due to sampling intervals, measurement errors, and integration errors can be eliminated. This is particularly effective when measuring outside the service area of the cellular system.
Since there is no means for measuring the absolute position, the position is measured only by means for measuring the relative position, and the accumulation of errors becomes a problem.However, it is possible to eliminate the accumulation of errors by sequentially correcting using this method. it can.

【0308】本実施形態では、複数の基地局を持つセル
ラーシステムを用いて位置を計測する手法について述べ
たが、衛星を用いて測位するGPSやその他の計測装置
と組み合せ、位置精度を向上させることも可能である。
In the present embodiment, a method of measuring a position using a cellular system having a plurality of base stations has been described. However, the present invention is to improve the position accuracy by combining with a GPS or other measuring device that performs positioning using a satellite. Is also possible.

【0309】また、描画方法においては、本実施形態に
より求めた被験者の位置を画面内に置き、被験者の移動
に伴い随時被験者の位置と同期して描画範囲を描画する
ことも可能である。
In the drawing method, the position of the subject obtained by the present embodiment can be placed on the screen, and the drawing range can be drawn at any time in synchronization with the position of the subject as the subject moves.

【0310】さらに、本実施形態により求めた被験者の
位置により被験者のナビゲーションをするシステムも同
様の手法により可能である。
Further, a system for navigating a subject based on the position of the subject determined according to the present embodiment is also possible by the same method.

【0311】本実施形態によれば、従来の位置計測装置
により計測した計測位置をさらに精度よく補正すること
ができるといった効果がある。
According to the present embodiment, there is an effect that the measurement position measured by the conventional position measurement device can be corrected more accurately.

【0312】以上の実施形態による動作又は行動の認識
装置は、測定器2を傷病人や老人に着けてもらうこと
で、病院内,老人ホーム内又は家庭において老人等の介
護に役立てることができる。また、乳幼児に測定器2を
着用させ、特定の行動時に警報を鳴らすようにすれば、
家庭等での乳幼児の監視にも役立てることができる。
The movement or behavior recognition apparatus according to the above embodiment can be used for nursing care of an elderly person in a hospital, a nursing home, or at home by having the measuring device 2 worn by a sick person or an elderly person. In addition, if the baby wears the measuring device 2 and sounds an alarm at a specific action,
It can also be useful for monitoring infants at home.

【0313】[0313]

【発明の効果】本発明によれば、被験者あるいは被験物
体の状態変化を測定しその測定結果を単なる測定値とし
て利用するのではなく、該状態変化の測定値の特徴量を
用いて認識処理を自動的に行うため、被験者の動作或い
は行動をより正しく認識することができる。
According to the present invention, instead of measuring the state change of a subject or a test object and using the measurement result as a mere measurement value, recognition processing is performed using the characteristic amount of the measurement value of the state change. Since the operation is performed automatically, the movement or action of the subject can be more correctly recognized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による動作及び行動の認識装置の一実施
形態の構成を示すブロック図。
FIG. 1 is a block diagram showing the configuration of an embodiment of a motion and behavior recognition device according to the present invention.

【図2】腰に取り付けられた加速度センサからの出力例
を示す説明図。
FIG. 2 is an explanatory diagram showing an output example from an acceleration sensor attached to the waist.

【図3】ウェーブレット変換を用いた時間周波数解析結
果の一例を示す説明図。
FIG. 3 is an explanatory diagram showing an example of a time-frequency analysis result using a wavelet transform.

【図4】本発明による認識装置の他の実施形態の構成を
示すブロック図。
FIG. 4 is a block diagram showing the configuration of another embodiment of the recognition device according to the present invention.

【図5】(a)は、図4の実施形態における観測波形の
一例を示すグラフ、(b)は、図5(a)のデータのス
ペクトラム解析結果を示すグラフ、(c)は、正規化処
理後のスペクトラム解析結果を示すグラフ。
5A is a graph showing an example of an observed waveform in the embodiment of FIG. 4, FIG. 5B is a graph showing a spectrum analysis result of the data of FIG. 5A, and FIG. 7 is a graph showing a spectrum analysis result after processing.

【図6】本発明による認識装置の他の実施形態の構成を
示すブロック図。
FIG. 6 is a block diagram showing the configuration of another embodiment of the recognition device according to the present invention.

【図7】本発明による認識装置の他の実施形態の要部構
成を示すブロック図。
FIG. 7 is a block diagram showing a main configuration of another embodiment of the recognition device according to the present invention.

【図8】状態変化の測定点及び計測軸の例を示す説明
図。
FIG. 8 is an explanatory diagram showing an example of measurement points and measurement axes of a state change.

【図9】本発明を適用した認識システムの実施形態の構
成を示すブロック図。
FIG. 9 is a block diagram showing the configuration of an embodiment of a recognition system to which the present invention has been applied.

【図10】位置計測装置と組み合わせた動作及び行動の
認識装置の実施形態の構成を示すブロック図。
FIG. 10 is a block diagram showing the configuration of an embodiment of an operation and action recognition device combined with a position measurement device.

【図11】図10の実施形態における位置計測方法を示
す説明図。
FIG. 11 is an explanatory view showing a position measuring method in the embodiment of FIG. 10;

【図12】作業履歴より作業状況或いは被験者が置かれ
ている環境を推測して出力するシステムの実施形態の構
成を示すブロック図。
FIG. 12 is a block diagram showing a configuration of an embodiment of a system for estimating and outputting a work situation or an environment where a subject is placed from a work history.

【図13】図12の実施形態において蓄えられた動作或
いは行動の履歴を示す説明図。
FIG. 13 is an explanatory view showing a history of actions or actions stored in the embodiment of FIG. 12;

【図14】図12の実施形態における連想パターンの例
を示す説明図。
FIG. 14 is an explanatory diagram showing an example of an associative pattern in the embodiment of FIG. 12;

【図15】標準動作と計測動作の違いを表示する認識装
置の実施形態の構成を示すブロック図。
FIG. 15 is a block diagram illustrating a configuration of an embodiment of a recognition device that displays a difference between a standard operation and a measurement operation.

【図16】(a)は、測定動作と標準動作の差の算出例
を示す説明図、(b)は、測定動作と標準動作の差の他
の算出例を示す説明図。
16A is an explanatory diagram illustrating a calculation example of a difference between the measurement operation and the standard operation, and FIG. 16B is an explanatory diagram illustrating another calculation example of the difference between the measurement operation and the standard operation.

【図17】標準動作と計測動作の違いより、違いの原因
を出力する認識装置の実施形態の構成を示すブロック
図。
FIG. 17 is a block diagram illustrating a configuration of an embodiment of a recognition device that outputs a cause of a difference based on a difference between a standard operation and a measurement operation.

【図18】本発明による認識装置を作業性評価システム
或いは作業内容評価システムの作業データ収集用に用い
たシステムの実施形態の構成を示すブロック図。
FIG. 18 is a block diagram showing a configuration of an embodiment of a system in which a recognition device according to the present invention is used for collecting work data of a workability evaluation system or a work content evaluation system.

【図19】本発明による認識装置を人員の適正配分シス
テム或いは適正作業時間配分システムの作業データ収集
用に用いたシステムの実施形態の構成を示すブロック
図。
FIG. 19 is a block diagram showing a configuration of an embodiment of a system in which the recognition device according to the present invention is used for collecting work data of a proper staff distribution system or a proper work time distribution system.

【図20】特定の動作及び行動を行った場合にその旨を
通知する認識装置の実施形態の構成を示すブロック図。
FIG. 20 is a block diagram showing the configuration of an embodiment of a recognition device that notifies a user when a specific operation or action is performed.

【図21】本発明による認識装置を行動分析・行動追跡
・行動監視に適用したシステムの実施形態の構成を示す
説明図。
FIG. 21 is an explanatory diagram showing the configuration of an embodiment of a system in which the recognition device according to the present invention is applied to behavior analysis, behavior tracking, and behavior monitoring.

【図22】本発明を適用したジェスチャ認識装置の実施
形態の構成を示すブロック図。
FIG. 22 is a block diagram showing a configuration of an embodiment of a gesture recognition device to which the present invention has been applied.

【図23】本発明による認識装置に無線装置を付加した
一実施形態の構成を示すブロック図。
FIG. 23 is a block diagram showing a configuration of an embodiment in which a wireless device is added to the recognition device according to the present invention.

【図24】本発明による認識装置に無線装置を付加した
他の実施形態の構成を示すブロック図。
FIG. 24 is a block diagram showing a configuration of another embodiment in which a wireless device is added to the recognition device according to the present invention.

【図25】本発明による認識装置にプリペイド機能を付
加したシステムの構成例を示すブロック図。
FIG. 25 is a block diagram showing a configuration example of a system in which a prepaid function is added to the recognition device according to the present invention.

【図26】本発明による認識装置にクレジット機能を付
加したシステムの構成例を示すブロック図。
FIG. 26 is a block diagram showing a configuration example of a system in which a credit function is added to the recognition device according to the present invention.

【図27】本発明による認識装置に預かり金機能を付加
したシステムの構成例を示すブロック図。
FIG. 27 is a block diagram showing a configuration example of a system in which a deposit function is added to the recognition device according to the present invention.

【図28】本発明による認識装置に領域への侵入或は退
出を確認する機能を付加したシステムの構成例を示すブ
ロック図。
FIG. 28 is a block diagram showing a configuration example of a system in which a recognition device according to the present invention is provided with a function of confirming entry or exit from an area.

【図29】特徴量から相関をとる方法の一例を示す説明
図。
FIG. 29 is an explanatory diagram showing an example of a method for obtaining a correlation from a feature amount.

【図30】動作及び行動の認識装置により認識された結
果を多関節構造体の動作及び行動の表現方法を用いて表
示するシステムの構成図。
FIG. 30 is a configuration diagram of a system that displays a result recognized by the motion and action recognition device by using a method of expressing the motion and action of the articulated structure.

【図31】多関節構造体の動作及び行動の表現方法の説
明図。
FIG. 31 is an explanatory diagram of a method of expressing the motion and behavior of the articulated structure.

【図32】複数の特徴量の重ね合わせとして認識された
場合の動作及び行動の表現方法の説明図。
FIG. 32 is an explanatory diagram of a method of expressing an action and an action when the action and the action are recognized as a superposition of a plurality of feature amounts.

【図33】認識結果の表示画面の例を示す図。FIG. 33 is a diagram showing an example of a display screen of a recognition result.

【図34】認識結果の表示画面の例を示す図。FIG. 34 is a diagram showing an example of a display screen of a recognition result.

【図35】認識結果の表示画面の例を示す図。FIG. 35 is a diagram showing an example of a display screen of a recognition result.

【図36】認識結果の表示画面の例を示す図。FIG. 36 is a diagram showing an example of a display screen of a recognition result.

【図37】被験者の位置及び動作或いは行動を認識した
結果を表示するためのシステムの構成図。
FIG. 37 is a configuration diagram of a system for displaying a result obtained by recognizing a position and a motion or a behavior of a subject.

【図38】被験者の位置及び動作或いは認識した結果を
もとに表示した例を示す図。
FIG. 38 is a diagram showing an example in which a display is made based on the position and motion of a subject or a result of recognition.

【図39】異常事態発生時の自動通報の表示例を示す
図。
FIG. 39 is a diagram showing a display example of an automatic notification when an abnormal situation occurs.

【図40】スタッフの配置表示例を示す図。FIG. 40 is a diagram showing a display example of staff arrangement.

【図41】異常事態発生時に、異常事態が発生するまで
の経緯を表示するためのシステムの構成図。
FIG. 41 is a configuration diagram of a system for displaying a process until an abnormal situation occurs when an abnormal situation occurs.

【図42】被験者の位置及び認識した動作及び行動を記
憶する記憶装置に記憶したデータの一例を示す図。
FIG. 42 is a diagram showing an example of data stored in a storage device for storing the position of the subject and the recognized actions and actions.

【図43】異常事態が発生した経緯を表示する表示例を
示す図。
FIG. 43 is a view showing a display example for displaying a history of occurrence of an abnormal situation.

【図44】動作及び行動の認識結果を元に位置計測精度
を向上させるシステムの構成図。
FIG. 44 is a configuration diagram of a system that improves the position measurement accuracy based on the recognition results of actions and actions.

【図45】動作及び行動の認識結果を元に位置計測精度
を向上させる説明図。
FIG. 45 is an explanatory diagram for improving the position measurement accuracy based on the recognition result of the action and the action.

【図46】動作及び行動の認識結果により位置を特定し
た結果を元に位置を補正する手法を説明する説明図。
FIG. 46 is an explanatory diagram illustrating a method of correcting a position based on a result of specifying a position based on a recognition result of an action and an action.

【図47】動作又は行動の加速度周波数のスペクトル強
度を表す図。
FIG. 47 is a view showing a spectrum intensity of an acceleration frequency of an action or an action.

【図48】動作又は行動の加速度の測定波形を表す図。FIG. 48 is a view showing a measured waveform of an acceleration of an action or action.

【図49】スペクトル強度と、認識確度との関係を表す
図。
FIG. 49 is a diagram showing a relationship between spectrum intensity and recognition accuracy.

【符号の説明】[Explanation of symbols]

1…被験者、2…状態変化の測定器(腰用)、3…状態
変化の測定器(腕用)、4…A/D変換器、5…信号の
特徴量抽出部、6…動作或いは行動の特徴量、7…動作
或いは行動を認識するための信号処理部、8…認識結果
を出力する出力部、41…被験者の位置計測部、62…
動作或いは行動の履歴を記憶する記憶装置、63…連想
パターンの記憶装置、64…連想処理装置、126…作
業性評価システム、127…作業内容評価システム、1
34…人員の適正配分システム、141…適正作業時間
の配分システム、146…保護者への通報装置、147
…通報の受信装置、162…ジェスチャの認識装置。
DESCRIPTION OF SYMBOLS 1 ... Subject, 2 ... Measuring device of state change (for waist), 3 ... Measuring device of state change (for arm), 4 ... A / D converter, 5 ... Signal feature extraction part, 6 ... Operation or behavior 7, a signal processing unit for recognizing an action or action; 8, an output unit for outputting a recognition result; 41, a position measuring unit of a subject; 62,
Storage device for storing the history of the operation or action; 63, a storage device for the association pattern; 64, an association processing device; 126, a workability evaluation system;
34: proper distribution system for personnel, 141: distribution system for proper work time, 146: reporting device to parents, 147
… Report receiving device, 162… gesture recognition device.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI // G06T 15/70 G06F 15/62 340K (72)発明者 屋敷 知 東京都千代田区神田駿河台四丁目6番地 株式会社日立製作所システム事業部内 (72)発明者 野中 士郎 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 於保 茂 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 田代 勝男 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification symbol FI // G06T 15/70 G06F 15/62 340K (72) Inventor Satoshi Yashiki 4-6-1 Kanda Surugadai, Chiyoda-ku, Tokyo Hitachi, Ltd. Within the Systems Division (72) Inventor Shiro Nonaka 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture Within Hitachi Research Laboratory, Hitachi, Ltd. (72) Inventor Shigeru Obo 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture (72) Inventor Katsuo Tashiro 5-2-1 Omikacho, Hitachi City, Ibaraki Pref. Hitachi, Ltd. Omika Plant

Claims (38)

【特許請求の範囲】[Claims] 【請求項1】被験体の動作又は行動を認識する認識装置
において、 前記被験体に取り付けられ、当該被験体の動作又は行動
に伴う状態変化を観測する計測手段と、 前記観測結果における特徴量を抽出する特徴量抽出手段
と、 当該認識装置により認識すべき動作又は行動についての
特徴量を記憶する記憶手段と、 前記観測結果から抽出した特徴量と記憶してある特徴量
とから、前記被験体の動作又は行動を認識する認識手段
と、 前記認識結果を出力する出力手段とを有することを特徴
とする認識装置。
1. A recognition device for recognizing an operation or behavior of a subject, comprising: a measuring unit attached to the subject for observing a state change accompanying the operation or behavior of the subject; A feature amount extraction unit to be extracted; a storage unit that stores a feature amount of an action or an action to be recognized by the recognition device; and the feature amount extracted from the observation result and the stored feature amount, A recognition device comprising: recognition means for recognizing the operation or action of the above; and output means for outputting the recognition result.
【請求項2】請求項1において、 前記特徴量抽出手段は、前記観測結果の時系列データか
ら、当該データに含まれている1以上の周波数成分を前
記特徴量として抽出することを特徴とする認識装置。
2. The method according to claim 1, wherein the feature value extracting unit extracts, from the time series data of the observation result, one or more frequency components included in the data as the feature value. Recognition device.
【請求項3】請求項1において、 前記特徴量抽出手段は、前記観測結果を時間−周波数変
換することにより前記特徴量を抽出することを特徴とす
る認識装置。
3. The recognition apparatus according to claim 1, wherein the feature amount extracting unit extracts the feature amount by performing time-frequency conversion on the observation result.
【請求項4】請求項3において、 前記時間−周波数変換には、フーリエ変換及びウェーブ
レット変換のいずれか一方を用いることを特徴とする認
識装置。
4. The apparatus according to claim 3, wherein one of a Fourier transform and a wavelet transform is used for the time-frequency transform.
【請求項5】請求項3において、 前記観測結果から前記動作又は行動の時間的特性を特徴
づける動作時間を求める動作時間測定手段と、 前記求めた動作時間により、前記観測結果をその時間軸
上で正規化する正規化手段とをさらに有し、 前記特徴量抽出手段は、前記正規化された観測結果を時
間−周波数変換して前記特徴量を抽出することを特徴と
する認識装置。
5. The operation time measuring means for obtaining an operation time characterizing a temporal characteristic of the operation or action from the observation result, and the observation result is displayed on the time axis by the obtained operation time. A recognition unit for extracting the feature amount by performing time-frequency conversion on the normalized observation result.
【請求項6】請求項3において、 前記観測結果から前記動作又は行動の時間的特性を特徴
づける動作時間を求める動作時間測定手段と、 前記特徴量抽出手段が抽出した特徴量を前記動作時間を
用いて補正し、該補正結果を新たな特徴量とする特徴量
補正手段とをさらに有し、 前記認識手段は、前記補正後の特徴量と記憶してある特
徴量とから、前記被験体の動作又は行動を認識すること
を特徴とする動作認識装置。
6. The operation time measuring means for obtaining an operation time characterizing a temporal characteristic of the action or action from the observation result, and the feature quantity extracted by the feature quantity extraction means is used as the operation time. And using the corrected result as a new feature amount. The recognition unit further includes a feature amount correction unit configured to obtain the new feature amount from the corrected feature amount and the stored feature amount. An action recognition device for recognizing an action or action.
【請求項7】請求項5または6において、 前記出力手段は、前記認識結果に加えて、当該認識され
た動作又は行動について計測された前記動作時間を出力
することを特徴とする動作認識装置。
7. The motion recognition apparatus according to claim 5, wherein the output unit outputs the operation time measured for the recognized motion or action, in addition to the recognition result.
【請求項8】請求項3において、 前記観測結果をその時間軸に沿って伸縮する伸縮手段を
さらに有し、 前記特徴量抽出手段は、前記伸縮手段によって伸縮され
た観測結果から特徴量を抽出することを特徴とする認識
装置。
8. The method according to claim 3, further comprising an expansion / contraction unit that expands / contracts the observation result along a time axis, wherein the characteristic amount extraction unit extracts a characteristic amount from the observation result expanded / contracted by the expansion / contraction unit. A recognition device characterized in that:
【請求項9】請求項3において、 前記観測結果をその測定強度軸に沿って伸縮する伸縮手
段をさらに有し、 前記特徴量抽出手段は、前記伸縮手段によって伸縮され
た観測結果から特徴量を抽出することを特徴とする認識
装置。
9. The method according to claim 3, further comprising an expansion / contraction means for expanding / contracting the observation result along the measurement intensity axis, wherein the feature amount extraction means extracts a characteristic amount from the observation result expanded / contracted by the expansion / contraction means. A recognition device characterized by extracting.
【請求項10】請求項8または9において、 前記出力手段は、前記伸縮手段の処理で用いた伸縮率に
関する値を出力することを特徴とする認識装置。
10. The recognition apparatus according to claim 8, wherein said output means outputs a value relating to an expansion / contraction ratio used in the processing of said expansion / contraction means.
【請求項11】請求項1において、 前記記憶装置に記憶されている特徴量のうちの複数を選
択し、該複数の特徴量を重ね合わせて新たな特徴量を生
成する特徴量合成手段をさらに有し、 前記認識手段は、前記生成した特徴量と前記観測結果に
対応する特徴量とから、前記被験体の動作又は行動を、
前記選択した特徴量に対応する複数の動作又は行動を組
み合わせた動作又は行動として認識することを特徴とす
る認識装置。
11. The feature amount synthesizing unit according to claim 1, further comprising: selecting a plurality of feature amounts stored in the storage device, and superimposing the plurality of feature amounts to generate a new feature amount. Has, the recognition means, from the generated feature amount and the feature amount corresponding to the observation result, the operation or behavior of the subject,
A recognition apparatus characterized in that a plurality of actions or actions corresponding to the selected feature amount are recognized as an action or action obtained by combining them.
【請求項12】請求項11において、 前記特徴量合成手段は、前記選択した複数の特徴量を重
ね合わせる場合には、各特徴量に重みを与えることを特
徴とする認識装置。
12. The recognition apparatus according to claim 11, wherein said feature amount combining means weights each feature amount when overlapping said plurality of selected feature amounts.
【請求項13】請求項12において、 前記出力部は、前記特徴量合成手段で重ね合わせる各特
徴量に与えた重みを出力することを特徴とする認識装
置。
13. The recognition apparatus according to claim 12, wherein the output unit outputs a weight given to each of the feature amounts superimposed by the feature amount synthesizing unit.
【請求項14】請求項1において、 前記認識手段は、動作又は行動を認識する際に、前記観
測結果に対応する特徴量と前記記憶装置に記憶されてい
る特徴量との相関を求め、この求められた相関の高さに
応じて認識を行うことを特徴とする認識装置。
14. The apparatus according to claim 1, wherein the recognizing means obtains a correlation between a feature amount corresponding to the observation result and a feature amount stored in the storage device when recognizing an action or an action. A recognition device that performs recognition in accordance with a calculated correlation height.
【請求項15】請求項1において、 前記認識手段は、前記動作又は行動の認識を行うための
ニューラルネットで構成されることを特徴とする認識装
置。
15. The recognition apparatus according to claim 1, wherein said recognition means is constituted by a neural network for recognizing said action or action.
【請求項16】請求項1において、 前記被験体の位置を計測する位置計測手段をさらに有す
ることを特徴とする認識装置。
16. The recognition apparatus according to claim 1, further comprising a position measuring means for measuring a position of the subject.
【請求項17】請求項1において、 前記計測手段が観測する状態変化とは、前記被験体を構
成する一つ以上の部分の位置変化、および、当該位置変
化以外の各部分の構造における状態変化のうちの少なく
とも一方であることを特徴とする認識装置。
17. The state change observed by the measurement means according to claim 1, wherein the state change in one or more parts constituting the subject and a state change in the structure of each part other than the position change. A recognition device characterized by at least one of the following.
【請求項18】請求項1において、 前記計測手段が観測する状態変化とは、 前記被験体の動作又は行動を代表する一つ以上の点にお
ける、加速度,角加速度,速度,角速度,位置,回転、
および曲げ角と、 前記被験体を構成する一つ以上の部分の、加速度,角加
速度,速度,角速度,位置,回転、および曲げ角と、 前記被験体を構成する一つ以上の関節の、加速度,角加
速度,速度,角速度,位置,回転、および曲げ角と、 前記被験体の生体情報として一つ以上の場所で測定され
た、脈拍,血圧,体温,血糖値,呼吸,筋電,心電,血
流、および脳波とのうちの少なくとも一つ以上の組み合
せであることを特徴とする認識装置。
18. The method according to claim 1, wherein the state change observed by the measuring means is acceleration, angular acceleration, velocity, angular velocity, position, rotation at one or more points representing the motion or action of the subject. ,
And the bending angle, and the acceleration, angular acceleration, velocity, angular velocity, position, rotation, and bending angle of one or more parts constituting the subject, and the acceleration of one or more joints constituting the subject. , Angular acceleration, velocity, angular velocity, position, rotation, and bending angle, and pulse, blood pressure, body temperature, blood glucose, respiration, myoelectricity, electrocardiogram measured at one or more locations as the subject's biological information , A blood flow, and an electroencephalogram.
【請求項19】1以上の動作又は行動から構成される被
験体の行動,作業、及び当該被験体が置かれている状況
を認識する認識システムにおいて、 前記被験体の動作又は行動を認識する認識装置と、 前記認識装置により認識された動作又は行動を順次受け
入れ、その履歴を記憶する第1の記憶装置と、 認識すべき行動,作業及び状況とそれぞれに対応する動
作又は行動の時系列パターンとを記憶しておく第2の記
憶装置と、 前記認識された動作又は行動の履歴と前記記憶されてい
る時系列パターンとから、前記被験体の行っている行
動,作業および状況を推測する推測装置と、 前記推測結果を出力する出力装置とを有することを特徴
とする認識システム。
19. A recognition system for recognizing a behavior, a task, and a situation in which the subject is placed, the recognition system recognizing the motion or the behavior of the subject. A device, a first storage device for sequentially accepting the actions or actions recognized by the recognition device and storing the history thereof, an action to be recognized, a task and a situation, and a time-series pattern of the action or action corresponding to each. A storage device that stores the following: an estimating device for estimating the behavior, work, and situation of the subject from the history of the recognized operation or behavior and the stored time-series pattern. And an output device for outputting the estimation result.
【請求項20】被験体の動作又は行動とそれに対応する
標準動作又は行動との違いを検出する認識装置におい
て、 前記被験体に取り付けられ、当該被験体の動作又は行動
に伴う状態変化を観測する計測手段と、 前記観測結果における特徴量を抽出する特徴量抽出手段
と、 予め定めておいた標準動作又は行動についての特徴量を
記憶する記憶手段と、 前記観測結果から抽出した特徴量と記憶してある特徴量
とから、前記被験体の動作又は行動とそれに対応する標
準動作又は行動との違いを検出する差異検出手段と、 前記検出結果を出力する出力手段とを有することを特徴
とする認識装置。
20. A recognition device for detecting a difference between an operation or behavior of a subject and a standard operation or behavior corresponding thereto, wherein the recognition device is attached to the subject and observes a state change accompanying the operation or behavior of the subject. Measuring means; feature quantity extracting means for extracting feature quantities in the observation result; storage means for storing feature quantities for predetermined standard actions or actions; and storing the feature quantities extracted from the observation results. A difference detecting means for detecting a difference between the motion or action of the subject and a standard motion or action corresponding to the motion or action of the subject, and an output means for outputting the detection result. apparatus.
【請求項21】請求項20において、 前記差異検出手段で検出された差異における特徴量を抽
出する第2の特徴量抽出手段と、 観測される動作又は行動と標準動作又は行動との間での
認識すべき差異における特徴量と、その特徴量に対応す
る前記差異の発生原因とを記憶する第2の記憶手段と、 前記第2の特徴量抽出手段により検出された差異の特徴
量と、前記第2の記憶手段に記憶されている特徴量およ
び発生原因とから、前記差異の発生原因を特定する原因
特定手段とをさらに有し、 前記出力手段は、前記特定された観測動作又は行動と標
準動作又は行動との差異の発生原因を少なくとも出力す
ることを特徴とする認識装置。
21. The method according to claim 20, wherein a second feature value extracting means for extracting a feature value in the difference detected by the difference detecting means, and A second storage unit that stores a feature amount of the difference to be recognized and a cause of the difference corresponding to the feature amount; a feature amount of the difference detected by the second feature amount extraction unit; The apparatus further comprises: cause identification means for identifying the cause of the difference based on the feature amount and the cause of occurrence stored in the second storage means. A recognition apparatus for outputting at least a cause of occurrence of a difference from an action or an action.
【請求項22】1人以上の作業員の動作又は行動により
進行する作業を認識するための認識システムであって、 前記各作業員の動作又は行動を認識する認識装置と、 前記認識された前記各作業員の動作又は行動を入力デー
タとし、該入力データをもとに、前記作業について予め
定められた評価項目の評価を行う評価装置とを有するこ
とを特徴とする認識システム。
22. A recognition system for recognizing a work progressing by an action or action of at least one worker, comprising: a recognition device for recognizing the action or action of each worker; A recognition system, comprising: an evaluation device that uses a movement or action of each worker as input data and evaluates a predetermined evaluation item for the work based on the input data.
【請求項23】請求項22において、 前記各作業員が携帯すべき指示受付装置をさらに備え、 前記評価装置は、前記作業員が携帯している前記指示受
付装置へ、前記評価結果に応じて予め定められている指
示を送る指示送信部を有することを特徴とする認識シス
テム。
23. The apparatus according to claim 22, further comprising an instruction receiving device to be carried by each worker, wherein the evaluation device sends the instruction receiving device carried by the worker according to the evaluation result. A recognition system, comprising: an instruction transmission unit for transmitting a predetermined instruction.
【請求項24】請求項23において、 前記評価装置は、前記評価結果に基づいて前記作業の計
画を修正する作業計画修正部をさらに有し、 前記指示送信部は、前記修正された作業計画に応じた動
作又は行動を前記各作業員が行うための指示を、該当す
る作業員の指示受付装置へそれぞれ送信することを特徴
とする認識システム。
24. The evaluation device according to claim 23, wherein the evaluation device further includes a work plan correction unit that corrects the work plan based on the evaluation result. A recognition system, wherein an instruction for each worker to perform a corresponding action or action is transmitted to an instruction receiving device of the worker.
【請求項25】被験体の動作又は行動を監視するための
認識システムであって、 被験体側装置と監視者側装置とからなり、 前記被験体側装置は、前記被験体の動作又は行動を認識
する認識部と、報告するべき特定動作又は行動について
の参照データを記憶する記憶部と、前記認識された動作
又は行動と前記参照データとから、前記被験体の動作又
は行動が報告されるべきものかを判定する判定部と、前
記判定結果に応じた報告を送信する通報部とを備え、 前記監視者側装置は、前記通報部から送信されてきた報
告を受信する受信部と、その報告に応じた出力を行う出
力部とを備えることを特徴とする認識システム。
25. A recognition system for monitoring the operation or behavior of a subject, comprising a subject-side device and a monitor-side device, wherein the subject-side device recognizes the operation or behavior of the subject. A recognition unit, a storage unit that stores reference data about a specific operation or action to be reported, and whether the operation or behavior of the subject is to be reported from the recognized operation or behavior and the reference data. A monitoring unit that transmits a report according to the determination result, wherein the monitor-side device receives a report transmitted from the reporting unit, and responds to the report. A recognition unit comprising: an output unit configured to perform an output.
【請求項26】請求項25において、 前記被験体側装置は、前記認識された動作又は行動の履
歴を記憶する履歴記憶部をさらに備え、 前記記憶部は、特定の動作又は行動の組み合わせから構
成された報告すべき特定行動パターンについて予め定め
られている参照データを記憶し、 前記判定部は、前記履歴記憶部に記憶されている履歴と
前記参照データとから、前記被験体の動作又は行動の組
み合わせパターンが報告されるべきものかを判定するこ
とを特徴とする認識システム。
26. The apparatus according to claim 25, wherein the subject-side device further comprises a history storage unit for storing a history of the recognized operation or action, wherein the storage unit is configured by a specific operation or action combination. The reference data is stored in advance for a specific behavior pattern to be reported, the determination unit, from the history and the reference data stored in the history storage unit, the combination of the operation or behavior of the subject A recognition system for determining whether a pattern is to be reported.
【請求項27】請求項26において、 前記被験体側装置は、前記判定部が前記報告すべき動作
又は行動の組み合わせが検出されたと判定した場合で
も、その検出時刻が予め定めた範囲内である場合には、
前記通報部からの報告を禁止する通報制御部をさらに備
えることを特徴とする認識システム。
27. The object-side device according to claim 26, wherein the detection time is within a predetermined range even when the determination unit determines that the combination of the action or action to be reported is detected. In
A recognition system further comprising a report control unit that prohibits a report from the report unit.
【請求項28】請求項26において、 前記被験体側装置は、当該被験体の位置を測定する位置
測定部をさらに有し、 前記通報制御部は、前記判定部が前記報告すべき動作又
は行動の組み合わせが検出されたと判定した場合でも、
前記検出が行われた時刻が予め定めた第1の範囲内であ
るという条件、および、前記検出が行われた時点での前
記被験体の位置が予め定めた第2の範囲内であるという
条件のうち少なくともいずれか一方の条件を満たしてい
る場合には、前記通報部からの報告を禁止することを特
徴とする認識システム。
28. The object-side device according to claim 26, wherein the subject-side device further includes a position measuring unit that measures a position of the subject, and the notification control unit is configured to determine the operation or behavior to be reported by the determination unit. Even if it is determined that a combination has been detected,
A condition that the time at which the detection is performed is within a predetermined first range, and a condition that the position of the subject at the time of the detection is within a predetermined second range Wherein at least one of the conditions is satisfied, the report from the notification unit is prohibited.
【請求項29】被験体の動作又は行動を認識する認識シ
ステムであって、 前記被験体の動作又は行動を認識する認識装置と、 前記被験体の位置を測定する位置測定装置と、 前記認識結果と前記位置測定結果とから、前記被験体の
移動の軌跡とその途中で行った動作又は行動とを示す情
報を表示する表示装置とを有することを特徴とする認識
システム。
29. A recognition system for recognizing a motion or behavior of a subject, a recognition device for recognizing the motion or behavior of the subject, a position measuring device for measuring a position of the subject, and the recognition result. And a display device for displaying information indicating a locus of movement of the subject and an action or action performed in the course of the movement from the position measurement result.
【請求項30】被験体の動作によって行われるジェスチ
ャを認識する認識装置において、 認識すべきジェスチャについて予め定められている参照
データを記憶する第1の記憶手段と、 前記参照データに基づき、前記被験体の行った動作に対
応するジェスチャを認識する認識手段と、 前記認識すべきジェスチャとジェスチャが示す意味との
対応関係を予め記憶しておく第2の記憶手段と、 前記記憶されている対応関係から、前記認識されたジェ
スチャが示す意味を特定する意味特定手段と、 前記特定されたジェスチャの意味を出力する出力手段と
を有することを特徴とする認識装置。
30. A recognition device for recognizing a gesture performed by an operation of a subject, wherein the first storage means stores reference data predetermined for a gesture to be recognized; Recognizing means for recognizing a gesture corresponding to an action performed by the body; second storing means for preliminarily storing the correspondence between the gesture to be recognized and the meaning indicated by the gesture; and the stored correspondence And a means for specifying the meaning of the recognized gesture, and an output means for outputting the meaning of the specified gesture.
【請求項31】被験体の状態変化を測定する計測部と、
計測データに基づいて前記被験体の動作又は行動を認識
する認識部と、認識結果を出力する出力部とを備える認
識装置であって、 前記被験体に取り付けられる被験体側部分と、当該被験
体とは離れた場所に配置される測定者側部分との2つか
ら構成され、 前記被験体側部分には、前記計測部と無線通信によりデ
ータを送信する送信部とが少なくとも含まれており、 前記測定者側部分には、前記データを受信する受信部と
前記出力部とが少なくとも含まれており、 前記無線により送られるデータは、前記観測者側部分に
前記認識部が含まれている場合は前記測定部の測定デー
タであり、前記被験体側部分に前記認識部が含まれてい
る場合にはその認識結果を示すデータであることを特徴
とする認識装置。
31. A measuring unit for measuring a change in state of a subject,
A recognition device that recognizes the operation or behavior of the subject based on the measurement data, and a recognition device including an output unit that outputs a recognition result, a subject-side portion attached to the subject, and the subject Is composed of two parts: a measurer-side part disposed at a distant place, and the subject-side part includes at least the measuring unit and a transmitting unit that transmits data by wireless communication. The observer-side part includes at least a receiving unit that receives the data and the output unit, and the data transmitted by radio is the same as the observer-side part when the recognition unit is included. A recognition device, which is measurement data of a measurement unit, and is data indicating a recognition result when the recognition unit is included in the subject side portion.
【請求項32】被験者の動作又は行動を認識する認識部
を少なくとも備える被験者側装置と、 前記認識部による認識結果を受け付ける受付部及び受け
付けた認識結果に応じて動作する機器を少なくとも備え
る観測者側装置とからなる認識システムであって、 前記被験者側装置は、料金残高を記憶する記憶部と、入
力される指示に応じて前記記憶部の記憶している料金残
高を更新する計算部とをさらに有し、 前記観測者側装置は、前記受付部が受け付けた認識結果
に応じて、前記計算部へ料金残高の変更を行わせる指示
を出力する制御部をさらに有することを特徴とする認識
システム。
32. A subject-side device having at least a recognition unit for recognizing the motion or action of the subject, an observer having at least a receiving unit for receiving a recognition result by the recognition unit, and a device operating in accordance with the received recognition result. A recognition system, comprising: a storage unit that stores a charge balance; and a calculation unit that updates a charge balance stored in the storage unit in response to an input instruction. The recognition system further comprising: a control unit configured to output an instruction to cause the calculation unit to change a charge balance according to the recognition result received by the reception unit.
【請求項33】被験者の動作又は行動を認識する認識部
を少なくとも備える被験者側装置と、前記認識部による
認識結果を受け付ける受付部及び受け付けた認識結果に
応じて動作する機器を少なくとも備える観測者側装置と
からなる認識システムであって、 前記被験者側装置は、前記認識部の認識結果に応じて料
金支払の指示を出力する支払指令部をさらに有し、 前記観測者側装置は、前記支払指令を受け付け、その支
払金額分のクレジット請求処理を、予め登録しておいた
前記被験者が所有するクレジット口座に対して行うクレ
ジット請求部をさらに有することを特徴とする認識シス
テム。
33. A subject-side device having at least a recognition unit for recognizing a motion or action of a subject, an observer having at least a receiving unit for receiving a recognition result by the recognition unit, and a device operating in accordance with the received recognition result. A recognition system including a device, wherein the subject-side device further includes a payment command unit that outputs a charge payment instruction according to a recognition result of the recognition unit, and the observer-side device includes the payment command. And a credit requesting unit for receiving a credit request for the payment amount for a credit account owned by the subject registered in advance.
【請求項34】被験者の動作又は行動を認識する認識部
を少なくとも備える被験者側装置と、前記認識部による
認識結果を受け付ける受付部及び受け付けた認識結果に
応じて動作する機器を少なくとも備える観測者側装置と
からなる認識システムであって、 前記被験者側装置は、当該被験者が予め預けておいた預
かり金の返却を指令する返却指令部をさらに有し、 前記観測者側装置は、前記返却指令部からの指令を受け
付けた後に前記預かり金の支払を行わせるための指令を
出力する支払部をさらに有することを特徴とする認識シ
ステム。
34. A subject-side device having at least a recognizing unit for recognizing an action or behavior of a subject, an accepting unit for receiving a recognition result by the recognizing unit, and an observer side having at least a device operating in accordance with the received recognition result. A recognition system comprising a device, wherein the subject-side device further includes a return command unit that commands a return of a deposit deposited by the subject in advance, and the observer-side device includes the return command unit. A recognition system further comprising: a payment unit that outputs a command for causing the deposit to be paid after receiving a command from the company.
【請求項35】被験者の動作又は行動を認識する認識部
を少なくとも備える被験者側装置と、前記認識部による
認識結果を受け付ける受付部及び受け付けた認識結果に
応じて動作する機器を少なくとも備える観測者側装置と
からなる認識システムであって、 前記被験者側装置は、予め定めた応答信号を発生する応
答部をさらに有し、 前記観測者側装置は、侵入或は退出が制限されている領
域へ出入口に配置され、その領域への侵入或は退出を前
記応答信号を受信することで確認する侵入確認部をさら
に有することを特徴とする認識システム。
35. A subject side device including at least a recognizing unit for recognizing a motion or action of a subject, an observer side including at least a receiving unit for receiving a recognition result by the recognizing unit and a device that operates in accordance with the received recognition result. A recognition system comprising a device, wherein the subject-side device further has a response unit that generates a predetermined response signal, wherein the observer-side device has an entrance to an area where entry or exit is restricted. A recognition system further comprising an intrusion confirmation unit, which is disposed in the area and confirms intrusion or egress into the area by receiving the response signal.
【請求項36】被験体の動作又は行動を認識する認識方
法において、 前記被験体に装着された計測手段により、当該被験体の
動作又は行動に伴う状態変化を観測し、 前記計測手段の出力データに含まれている特徴量を抽出
し、 前記抽出した特徴量と認識すべき動作又は行動について
予め定められている参照データとから、前記被験体の動
作又は行動を認識することを特徴とする認識方法。
36. A recognition method for recognizing a motion or a behavior of a subject, wherein a measurement unit attached to the subject observes a state change accompanying the motion or the behavior of the subject, and outputs data of the measurement unit. Extracting the feature amount included in the object, and recognizing the motion or action of the subject from the extracted feature amount and reference data predetermined for the action or action to be recognized. Method.
【請求項37】人の動作又は行動を認識する認識装置に
おいて、 人に取り付けられ、当該人の動作又は行動に伴う加速度
の変化を計測する加速度センサと、 前記加速度センサで計測した加速度の時系列データか
ら、当該データに含まれている1以上の周波数成分を抽
出し、抽出した周波数成分に基づいて、 前記加速度センサを取り付けた人の動作又は行動を認識
する認識手段と、 前記認識結果を出力する出力手段とを有することを特徴
とする認識装置。
37. A recognition device for recognizing a motion or action of a person, comprising: an acceleration sensor attached to the person for measuring a change in acceleration accompanying the motion or action of the person; and a time series of the acceleration measured by the acceleration sensor. One or more frequency components included in the data are extracted from the data, and recognition means for recognizing a motion or action of a person who has attached the acceleration sensor based on the extracted frequency components, and outputs the recognition result. A recognizing device comprising:
【請求項38】被験体の動作又は行動を認識する認識装
置において、 前記被験体に取り付けられ、当該被験体の動作又は行動
に伴う被験体の加速度の状態変化を観測する計測手段
と、 前記観測加速度の結果から被験体の動作又は行動に特有
の加速度の特徴量を抽出する特徴量抽出手段と、 抽出された前記特徴量に基づき、前記被験体のコンピュ
ータグラフィックスモデルの動きを生成する処理手段
と、 生成された前記動きをアニメーション表示する表示処理
部とを有することを特徴とする認識装置。
38. A recognizing device for recognizing a motion or a behavior of a subject, comprising: a measuring unit attached to the subject for observing a change in the acceleration of the subject accompanying the motion or the behavior of the subject; A feature amount extracting unit that extracts a feature amount of acceleration specific to the motion or action of the subject from a result of the acceleration; and a processing unit that generates a motion of the computer graphics model of the subject based on the extracted feature amount. And a display processing unit for displaying an animation of the generated motion.
JP17803097A 1996-07-03 1997-07-03 Method and apparatus and system for recognizing actions and actions Expired - Lifetime JP3570163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17803097A JP3570163B2 (en) 1996-07-03 1997-07-03 Method and apparatus and system for recognizing actions and actions

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-173453 1996-07-03
JP17345396 1996-07-03
JP17803097A JP3570163B2 (en) 1996-07-03 1997-07-03 Method and apparatus and system for recognizing actions and actions

Publications (2)

Publication Number Publication Date
JPH10113343A true JPH10113343A (en) 1998-05-06
JP3570163B2 JP3570163B2 (en) 2004-09-29

Family

ID=26495423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17803097A Expired - Lifetime JP3570163B2 (en) 1996-07-03 1997-07-03 Method and apparatus and system for recognizing actions and actions

Country Status (1)

Country Link
JP (1) JP3570163B2 (en)

Cited By (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11194033A (en) * 1997-12-30 1999-07-21 Jatco Corp Portable position detector and position management system
JP2000076584A (en) * 1998-08-31 2000-03-14 Matsushita Electric Works Ltd Terminal equipment for vehicle operation management system
JP2000097720A (en) * 1998-09-25 2000-04-07 Toshiba Corp Position detecting system
JP2000097722A (en) * 1998-09-26 2000-04-07 Jatco Corp Portable position detector and position managing system
JP2000155757A (en) * 1998-11-18 2000-06-06 Fujitsu Ltd Mobile object characteristic extraction device, characteristic extraction method, and program recording medium therefor
WO2000032360A1 (en) 1998-11-30 2000-06-08 Sony Corporation Robot device and control method thereof
JP2000245713A (en) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd Behavior recognizing device
JP2000285221A (en) * 1999-03-29 2000-10-13 Sony Corp Method and device for processing signal
JP2001059742A (en) * 1999-08-25 2001-03-06 Sharp Corp Walk data measuring instrument
JP2001167398A (en) * 1999-12-08 2001-06-22 Ship Res Inst Ministry Of Transport Traffic control system
JP2001198110A (en) * 2000-01-18 2001-07-24 Microstone Corp Body action sensing device
JP2001311628A (en) * 2000-02-17 2001-11-09 Mitsubishi Electric Research Laboratories Inc Method and device for navigation in indoor environment
JP2002048589A (en) * 2000-08-03 2002-02-15 Tohoku Denshi Sangyo Kk Moving path estimation device for moving objects
JP2002065640A (en) * 2000-08-28 2002-03-05 Hitachi Ltd Body motion sensing system, health management system and work management system
JP2002217811A (en) * 2001-01-15 2002-08-02 Hitachi Ltd State detection method, state detection device, mobile terminal device, and movement state observation system
WO2002069803A1 (en) * 2001-03-06 2002-09-12 Microstone Co., Ltd. Body motion detector
JP2002263086A (en) * 2001-03-06 2002-09-17 Microstone Corp Exercise measuring device
JP2002297611A (en) * 2001-03-29 2002-10-11 Toshiba Corp Map information acquiring method, position information acquiring method, map information acquiring device, client device, map information storage device, and program
JP2002328134A (en) * 2001-04-27 2002-11-15 Nec Tokin Corp Attitude state and orientation detection device
WO2002099614A1 (en) * 2001-06-01 2002-12-12 Sony Corporation User input apparatus
JP2003024287A (en) * 2001-07-12 2003-01-28 Shin Sangyo Souzou Kenkyu Kiko Monitor device for body state
JP2003220039A (en) * 2002-01-29 2003-08-05 Junichi Ninomiya Remote observation system and remote observation method for physical abnormality based on biological information and acceleration information of patient
JP2003325717A (en) * 2002-05-15 2003-11-18 Casio Comput Co Ltd Exercise history recording device and exercise history recording program
JP2004085511A (en) * 2002-08-29 2004-03-18 Hitachi Ltd Method and system for estimating moving speed and position of moving object and navigation system
JP2004081632A (en) * 2002-08-27 2004-03-18 Univ Nihon Method and apparatus for monitoring human operating condition
JP2004138513A (en) * 2002-10-18 2004-05-13 Hitachi Ltd Indoor position detecting device and indoor position detecting method
JP2004157614A (en) * 2002-11-01 2004-06-03 Advanced Telecommunication Research Institute International Behavior analysis device
JP2004287539A (en) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd Communication support system
JP2005038018A (en) * 2003-07-15 2005-02-10 Asahi Kasei Electronics Co Ltd Number of step arithmetic device
JP2005110850A (en) * 2003-10-06 2005-04-28 Hitachi Metals Ltd Body motion evaluation method, swing motion evaluation method, and body motion measurement system
JP2005514683A (en) * 2001-12-06 2005-05-19 ニューヨーク・ユニバーシティ Logic device, data structure, system and method for multi-linear representation of multimodal data populations for synthesis, recognition and compression
JP2005152633A (en) * 2003-11-21 2005-06-16 Polar Electro Oy Apparatus, method and computer program distribution medium for measuring physical activity level of human being
JP2005257644A (en) * 2004-03-15 2005-09-22 Intelligent Cosmos Research Institute Device, method, and program for detecting position
JPWO2004014230A1 (en) * 2002-08-09 2005-11-24 松下電器産業株式会社 Equilibrium analysis device, equilibrium analysis method, program thereof, and recording medium
JP2006101973A (en) * 2004-10-01 2006-04-20 Microstone Corp Apparatus for health management
JP2006317405A (en) * 2005-05-16 2006-11-24 Ntt Docomo Inc Specific signal pattern detection apparatus and method
JP2007160076A (en) * 2005-11-15 2007-06-28 Univ Nihon Human posture motion discrimination device and energy consumption calculation device
JP2007187555A (en) * 2006-01-13 2007-07-26 Nippon Telegr & Teleph Corp <Ntt> Motion recognition system and motion recognition method
JP2007282787A (en) * 2006-04-14 2007-11-01 Nintendo Co Ltd Game apparatus and game program
JP2008097144A (en) * 2006-10-06 2008-04-24 Nec Corp Portable information terminal and portable information terminal control program
JP2008107866A (en) * 2006-10-23 2008-05-08 Chem Grouting Co Ltd Motion analysis method and analysis system
JP2008128939A (en) * 2006-11-24 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> Things determining apparatus, things determining method, program, and recording medium
JP2009039466A (en) * 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International Action identification device, action identification system, and action identification method
JP2009039157A (en) * 2007-08-06 2009-02-26 Sony Corp Biological motion information display processor, biological motion information processing system and biological motion information display processing method
JP2009050721A (en) * 2008-11-25 2009-03-12 Hitachi Metals Ltd Swing movement assessment method, swing movement assessment apparatus, swing movement assessment system, and swing movement assessment program
JP2009106377A (en) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd Gait information display system
JP2009118513A (en) * 2009-01-07 2009-05-28 Sony Corp Information processing apparatus and method, and program
JP2009525107A (en) * 2006-02-02 2009-07-09 インペリアル イノベーションズ リミテッド Gait analysis
JP2009150663A (en) * 2007-12-18 2009-07-09 Sumitomo Electric Ind Ltd LOCATION DEVICE, COMPUTER PROGRAM, AND LOCATION METHOD
JP2009538636A (en) * 2006-03-08 2009-11-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for monitoring functional use of limbs
JP2009282442A (en) * 2008-05-26 2009-12-03 Hyogo College Of Medicine Finger hygiene enforcement system
US7674967B2 (en) 2005-03-22 2010-03-09 Sony Corporation Body movement detecting apparatus and method, and content playback apparatus and method
WO2010052849A1 (en) * 2008-11-04 2010-05-14 パナソニック株式会社 Measurement device, insulin infusion device, measurement method, method for controlling insulin infusion device, and program
JP2010113647A (en) * 2008-11-10 2010-05-20 Casio Hitachi Mobile Communications Co Ltd Pedometer and program
JP2010125239A (en) * 2008-11-29 2010-06-10 Nihon Univ Human posture motion discrimination device
JP2010148604A (en) * 2008-12-24 2010-07-08 Hitachi-Ge Nuclear Energy Ltd Action recognition apparatus, action recognition system, and action recognition method
JP2010161991A (en) * 2009-01-16 2010-07-29 Fujitsu Ltd Work recording device, work recording system, and work recording program
JP2010190861A (en) * 2009-02-20 2010-09-02 Toshiba Corp State recognition device and state recognition method
JP2010198595A (en) * 2009-01-28 2010-09-09 Sony Corp Information processing apparatus, information processing method, and program
JP2010198461A (en) * 2009-02-26 2010-09-09 Nec Corp System, terminal, method and program for measurement of interest level
US7811203B2 (en) 2005-09-29 2010-10-12 Hitachi, Ltd. Walker behavior detection apparatus
WO2010137325A1 (en) * 2009-05-27 2010-12-02 パナソニック株式会社 Behavior recognition device
JP2010279638A (en) * 2009-06-08 2010-12-16 Nikon Corp Life log recording apparatus
JP2010286344A (en) * 2009-06-11 2010-12-24 Kddi Corp Method and system for estimating movement state of portable terminal device
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
WO2011027557A1 (en) * 2009-09-04 2011-03-10 パナソニック株式会社 Device for collecting position calibration information, method for collecting position calibration information, and program for collecting position calibration information
JP2011065423A (en) * 2009-09-17 2011-03-31 Hitachi Ltd Health management system, computer, and information management method
JP2011123832A (en) * 2009-12-14 2011-06-23 Nippon Telegr & Teleph Corp <Ntt> Behavior/state monitoring method and program
JP2011120684A (en) * 2009-12-09 2011-06-23 Nec Corp Action determination device, action determination system, action determination method, and program
JP2011120871A (en) * 2009-09-01 2011-06-23 Adidas Ag Method and system for monitoring physiological and athletic performance characteristics of subject
JP2011141381A (en) * 2010-01-06 2011-07-21 Ricoh Co Ltd Stereoscopic image display device and stereoscopic image display method
JP2011156132A (en) * 2010-02-01 2011-08-18 Nec Corp Mode identification device, mode identification method, and program
JP2011177278A (en) * 2010-02-26 2011-09-15 Tokyo Institute Of Technology Gait disorder automatic analysis system
WO2011114620A1 (en) * 2010-03-16 2011-09-22 日本電気株式会社 Interest level measurement system
JP2011210119A (en) * 2010-03-30 2011-10-20 Sony Corp Information processing device, image output method and program
JP2011206274A (en) * 2010-03-30 2011-10-20 Nec Corp Action determination device, action determination system, terminal device, action determination method, and program
JP2011240047A (en) * 2010-05-20 2011-12-01 Rie:Kk Biological information detector and system and method for monitoring subject
JP2012503796A (en) * 2008-09-26 2012-02-09 マイクロソフト コーポレーション Compensating for expected motion of equipment
JP2012042470A (en) * 2010-08-16 2012-03-01 Fujitsu Ltd Method of identifying event occurrence from sensor data stream
JP2012093936A (en) * 2010-10-27 2012-05-17 Casio Comput Co Ltd Animal monitor support apparatus, animal monitor support method, monitor support server, monitor support terminal and program
JP2012128750A (en) * 2010-12-17 2012-07-05 Casio Comput Co Ltd Moving image generation device, moving image generation method and program
JP2012130522A (en) * 2010-12-21 2012-07-12 Fujitsu Ltd Action recognizing apparatus, action recognizing method, and action recognizing program
JP2012245062A (en) * 2011-05-25 2012-12-13 Fujitsu Ltd Apparatus, method and program for detecting body movement
JP2012245212A (en) * 2011-05-30 2012-12-13 Honda Motor Co Ltd Walking assist device
JP2012245211A (en) * 2011-05-30 2012-12-13 Honda Motor Co Ltd Walking state estimating device and walking assist device using the same
KR101210277B1 (en) 2008-12-23 2012-12-18 한국전자통신연구원 System for activity monitoring and information transmission method for activity monitoring
WO2013080809A1 (en) * 2011-11-29 2013-06-06 Ricoh Company, Limited Device control system, device control method, and computer-readable recording medium
JP2013130495A (en) * 2011-12-22 2013-07-04 Hitachi Ltd Information processor and information processing method
JP2014500740A (en) * 2010-11-01 2014-01-16 ナイキ インターナショナル リミテッド Wearable device assembly with athletic function
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
JP2014056585A (en) * 2009-01-28 2014-03-27 Sony Corp Information processing apparatus, information processing method, and program
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
FR2999717A1 (en) * 2012-12-17 2014-06-20 Etienne Vautherin Method for characterization of state of traveler between mobile state and autonomous state, involves triggering signal state change when frequency component of greater amplitude corresponds to frequency included in preset interval
JP2014115943A (en) * 2012-12-12 2014-06-26 Kddi Corp Animation content generation device, animation content generation method, and computer program
JP2014515101A (en) * 2011-03-31 2014-06-26 クアルコム,インコーポレイテッド Device, method and apparatus for inferring the location of a portable device
WO2014097348A1 (en) * 2012-12-18 2014-06-26 富士通株式会社 Method for controlling information processing device, control program, and information processing device
KR101448106B1 (en) * 2011-02-17 2014-10-08 주식회사 라이프사이언스테크놀로지 Analisys Method of Rehabilitation status using Electromyogram
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
JP2014217753A (en) * 2013-05-06 2014-11-20 ザ・ボーイング・カンパニーTheBoeing Company Ergonomic data collection and analysis
JP2014531237A (en) * 2011-09-14 2014-11-27 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Patient environment with accelerometer
JP2015014587A (en) * 2013-06-06 2015-01-22 株式会社リコー Information processor, position determination method and position determination program
JP2015505694A (en) * 2011-12-07 2015-02-26 アクセス ビジネス グループ インターナショナル リミテッド ライアビリティ カンパニー Behavior tracking and correction system
JP2015046173A (en) * 2009-07-23 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
US9119762B2 (en) 2011-05-30 2015-09-01 Honda Motor Co., Ltd. Walking assist device, walking assist method, walking state estimating device and walking state estimating method
JP2015166816A (en) * 2014-03-04 2015-09-24 富士通株式会社 Display device, display control program, and display control method
KR20150117603A (en) * 2014-04-10 2015-10-20 더 보잉 컴파니 Identifying movements using a motion sensing device coupled with an associative memory
US9241037B2 (en) 2010-12-28 2016-01-19 Nec Corporation Server device, behavior promotion and suppression system, behavior promotion and suppression method, and recording medium
JP2016035760A (en) * 2015-10-07 2016-03-17 ソニー株式会社 Information processor, information processing method and computer program
US9289649B2 (en) 2011-11-01 2016-03-22 Nike, Inc. Wearable device assembly having athletic functionality and trend tracking
JP2016043121A (en) * 2014-08-25 2016-04-04 国立研究開発法人農業・食品産業技術総合研究機構 Animal's behavior determination device, behavior determination method, and program
US9383220B2 (en) 2010-11-01 2016-07-05 Nike, Inc. Activity identification
JP2016153797A (en) * 2016-04-01 2016-08-25 ラピスセミコンダクタ株式会社 Semiconductor device and electronic terminal
JP2016165477A (en) * 2016-04-06 2016-09-15 セイコーエプソン株式会社 Status detection method and recording medium
US9474955B2 (en) 2010-11-01 2016-10-25 Nike, Inc. Wearable device assembly having athletic functionality
JP2016534584A (en) * 2013-06-28 2016-11-04 フェイスブック,インク. User activity tracking system and apparatus
JP2016191710A (en) * 2016-06-14 2016-11-10 株式会社横須賀テレコムリサーチパーク Positioning device and positioning program
JP2016197437A (en) * 2016-07-07 2016-11-24 カシオ計算機株式会社 Watch device, watch method, and program
JP2016212793A (en) * 2015-05-13 2016-12-15 ヤフー株式会社 Prediction device, terminal, prediction method, and prediction program
JP2016221130A (en) * 2015-06-03 2016-12-28 株式会社ユピテル Device and program
WO2017037915A1 (en) * 2015-09-03 2017-03-09 三菱電機株式会社 Behavior identification device, air conditioner, and robot control device
JP2017070603A (en) * 2015-10-08 2017-04-13 株式会社ジェイアイエヌ Information processing method, information processing apparatus, and program
US9720443B2 (en) 2013-03-15 2017-08-01 Nike, Inc. Wearable device assembly having athletic functionality
WO2017175720A1 (en) * 2016-04-08 2017-10-12 シャープ株式会社 Action determination apparatus and action determination method
JP2017207848A (en) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド Portable information terminal, wearing arm judgment method, wearing direction judgment method, and program
JP2018000871A (en) * 2016-07-08 2018-01-11 国立大学法人岩手大学 Living body movement identification system and living body movement identification method
JP2018081445A (en) * 2016-11-15 2018-05-24 三菱電機インフォメーションシステムズ株式会社 Operation identifying device, operation identifying method, and operation identifying program
JP2018516099A (en) * 2015-03-27 2018-06-21 インテル コーポレイション Motion tracking using electronic devices
WO2018110030A1 (en) * 2016-12-16 2018-06-21 株式会社 東芝 Motion estimation method and motion estimation system
JP2018534096A (en) * 2015-09-25 2018-11-22 ジェ−メックス インク.J−MEX Inc. Motion recognition device and motion recognition method
US10143406B2 (en) 2013-07-11 2018-12-04 Casio Computer Co., Ltd. Feature-quantity extracting apparatus
JP2019005512A (en) * 2017-06-28 2019-01-17 富士通株式会社 Specific action detection program, specific action detection method, and specific action detection system
US10234827B2 (en) 2006-05-22 2019-03-19 Nike, Inc. Watch display using light sources with a translucent cover
JP2019054900A (en) * 2017-09-20 2019-04-11 カシオ計算機株式会社 Information processing apparatus, information processing system, program, and information processing method
JP2019076357A (en) * 2017-10-24 2019-05-23 富士通株式会社 Action determination system, action determination method, and action determination program
JP2019084271A (en) * 2017-11-09 2019-06-06 国立大学法人豊橋技術科学大学 Signal detection device
JP2019145143A (en) * 2015-03-26 2019-08-29 コニカミノルタ株式会社 Monitored person monitoring system, display device of monitored person monitoring system, display method of monitored person monitoring system and computer program
US10444791B2 (en) 2010-11-01 2019-10-15 Nike, Inc. Wearable device assembly having athletic functionality
WO2019208312A1 (en) * 2018-04-26 2019-10-31 株式会社日立ハイテクノロジーズ Walking manner display method, walking manner display system and walking manner analysis device
JP2019534062A (en) * 2016-08-31 2019-11-28 グリーンコム カンパニー リミテッドGreencomm Co.,Ltd. Fitness monitoring system
CN110688885A (en) * 2018-06-19 2020-01-14 本田技研工业株式会社 Control device and control method
JP2020518296A (en) * 2017-01-04 2020-06-25 インターリンク エレクトロニクス,インコーポレイテッド Multimodal sensor fusion platform
WO2020153113A1 (en) * 2019-01-25 2020-07-30 株式会社村田製作所 Action recognition device and action recognition method
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
KR102148382B1 (en) * 2019-04-25 2020-08-26 경희대학교 산학협력단 The meghod and device for conversion from signal of inertial sensor to image
WO2021001911A1 (en) * 2019-07-01 2021-01-07 株式会社ソニー・インタラクティブエンタテインメント Information processing device, information processing method, and program
JP2021500663A (en) * 2017-10-24 2021-01-07 アッサ アブロイ アーベーAssa Abloy Ab Wearable device with multi-biometrics
KR20210076283A (en) * 2019-12-13 2021-06-24 서울대학교산학협력단 System and method for detecting error type by behavior section, and system and method for correcting behavior using the same
JP2022075741A (en) * 2020-03-24 2022-05-18 カシオ計算機株式会社 Animation creation device, animation creation method, and program
JP2024054102A (en) * 2022-10-04 2024-04-16 日鉄ソリューションズ株式会社 Information processing device, information processing method, and program

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4884256B2 (en) * 2007-02-22 2012-02-29 株式会社日立製作所 Work management system, work management method, and management computer
JP4956724B2 (en) * 2008-01-12 2012-06-20 関東自動車工業株式会社 Tracing system
JPWO2009116597A1 (en) * 2008-03-18 2011-07-21 株式会社日立製作所 Posture grasping device, posture grasping program, and posture grasping method
JP5035370B2 (en) * 2010-03-12 2012-09-26 沖電気工業株式会社 Motion detection device, motion detection method, and program
US8805402B2 (en) * 2012-03-07 2014-08-12 Qualcomm Incorporated Low power geographic stationarity detection
CA2961368A1 (en) * 2014-09-15 2016-03-24 3M Innovative Properties Company Impairment detection
US10591592B2 (en) 2015-06-15 2020-03-17 Humatics Corporation High-precision time of flight measurement systems
US20160363664A1 (en) * 2015-06-15 2016-12-15 Humatics Corporation High precision subsurface imaging and location mapping with time of flight measurement systems
JP2019508920A (en) 2015-12-17 2019-03-28 ヒューマティクス コーポレイション Radio frequency localization technology and related systems, devices, and methods
US12080415B2 (en) 2020-10-09 2024-09-03 Humatics Corporation Radio-frequency systems and methods for co-localization of medical devices and patients

Cited By (207)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11194033A (en) * 1997-12-30 1999-07-21 Jatco Corp Portable position detector and position management system
JP2000076584A (en) * 1998-08-31 2000-03-14 Matsushita Electric Works Ltd Terminal equipment for vehicle operation management system
JP2000097720A (en) * 1998-09-25 2000-04-07 Toshiba Corp Position detecting system
JP2000097722A (en) * 1998-09-26 2000-04-07 Jatco Corp Portable position detector and position managing system
JP2000155757A (en) * 1998-11-18 2000-06-06 Fujitsu Ltd Mobile object characteristic extraction device, characteristic extraction method, and program recording medium therefor
US6374157B1 (en) 1998-11-30 2002-04-16 Sony Corporation Robot device and control method thereof
WO2000032360A1 (en) 1998-11-30 2000-06-08 Sony Corporation Robot device and control method thereof
JP4517509B2 (en) * 1998-11-30 2010-08-04 ソニー株式会社 Robot apparatus and control method thereof
JP2000245713A (en) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd Behavior recognizing device
JP2000285221A (en) * 1999-03-29 2000-10-13 Sony Corp Method and device for processing signal
JP2001059742A (en) * 1999-08-25 2001-03-06 Sharp Corp Walk data measuring instrument
JP2001167398A (en) * 1999-12-08 2001-06-22 Ship Res Inst Ministry Of Transport Traffic control system
JP2001198110A (en) * 2000-01-18 2001-07-24 Microstone Corp Body action sensing device
JP2001311628A (en) * 2000-02-17 2001-11-09 Mitsubishi Electric Research Laboratories Inc Method and device for navigation in indoor environment
JP2002048589A (en) * 2000-08-03 2002-02-15 Tohoku Denshi Sangyo Kk Moving path estimation device for moving objects
JP2002065640A (en) * 2000-08-28 2002-03-05 Hitachi Ltd Body motion sensing system, health management system and work management system
JP2002217811A (en) * 2001-01-15 2002-08-02 Hitachi Ltd State detection method, state detection device, mobile terminal device, and movement state observation system
WO2002069803A1 (en) * 2001-03-06 2002-09-12 Microstone Co., Ltd. Body motion detector
JP2002263086A (en) * 2001-03-06 2002-09-17 Microstone Corp Exercise measuring device
US7028547B2 (en) 2001-03-06 2006-04-18 Microstone Co., Ltd. Body motion detector
JP2002297611A (en) * 2001-03-29 2002-10-11 Toshiba Corp Map information acquiring method, position information acquiring method, map information acquiring device, client device, map information storage device, and program
JP2002328134A (en) * 2001-04-27 2002-11-15 Nec Tokin Corp Attitude state and orientation detection device
WO2002099614A1 (en) * 2001-06-01 2002-12-12 Sony Corporation User input apparatus
US6965842B2 (en) 2001-06-01 2005-11-15 Sony Corporation User input apparatus
JP2003024287A (en) * 2001-07-12 2003-01-28 Shin Sangyo Souzou Kenkyu Kiko Monitor device for body state
JP2005514683A (en) * 2001-12-06 2005-05-19 ニューヨーク・ユニバーシティ Logic device, data structure, system and method for multi-linear representation of multimodal data populations for synthesis, recognition and compression
JP2003220039A (en) * 2002-01-29 2003-08-05 Junichi Ninomiya Remote observation system and remote observation method for physical abnormality based on biological information and acceleration information of patient
JP2003325717A (en) * 2002-05-15 2003-11-18 Casio Comput Co Ltd Exercise history recording device and exercise history recording program
JPWO2004014230A1 (en) * 2002-08-09 2005-11-24 松下電器産業株式会社 Equilibrium analysis device, equilibrium analysis method, program thereof, and recording medium
JP2004081632A (en) * 2002-08-27 2004-03-18 Univ Nihon Method and apparatus for monitoring human operating condition
JP2004085511A (en) * 2002-08-29 2004-03-18 Hitachi Ltd Method and system for estimating moving speed and position of moving object and navigation system
JP2004138513A (en) * 2002-10-18 2004-05-13 Hitachi Ltd Indoor position detecting device and indoor position detecting method
JP2004157614A (en) * 2002-11-01 2004-06-03 Advanced Telecommunication Research Institute International Behavior analysis device
JP2004287539A (en) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd Communication support system
JP2005038018A (en) * 2003-07-15 2005-02-10 Asahi Kasei Electronics Co Ltd Number of step arithmetic device
JP2005110850A (en) * 2003-10-06 2005-04-28 Hitachi Metals Ltd Body motion evaluation method, swing motion evaluation method, and body motion measurement system
JP2005152633A (en) * 2003-11-21 2005-06-16 Polar Electro Oy Apparatus, method and computer program distribution medium for measuring physical activity level of human being
US8021312B2 (en) 2003-11-21 2011-09-20 Polar Electro Oy Arrangement, method and computer program for determining physical activity level of human being
JP2005257644A (en) * 2004-03-15 2005-09-22 Intelligent Cosmos Research Institute Device, method, and program for detecting position
JP2006101973A (en) * 2004-10-01 2006-04-20 Microstone Corp Apparatus for health management
US7674967B2 (en) 2005-03-22 2010-03-09 Sony Corporation Body movement detecting apparatus and method, and content playback apparatus and method
JP2006317405A (en) * 2005-05-16 2006-11-24 Ntt Docomo Inc Specific signal pattern detection apparatus and method
US7811203B2 (en) 2005-09-29 2010-10-12 Hitachi, Ltd. Walker behavior detection apparatus
JP2007160076A (en) * 2005-11-15 2007-06-28 Univ Nihon Human posture motion discrimination device and energy consumption calculation device
JP2007187555A (en) * 2006-01-13 2007-07-26 Nippon Telegr & Teleph Corp <Ntt> Motion recognition system and motion recognition method
JP2009525107A (en) * 2006-02-02 2009-07-09 インペリアル イノベーションズ リミテッド Gait analysis
JP2009538636A (en) * 2006-03-08 2009-11-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for monitoring functional use of limbs
JP2007282787A (en) * 2006-04-14 2007-11-01 Nintendo Co Ltd Game apparatus and game program
US10234827B2 (en) 2006-05-22 2019-03-19 Nike, Inc. Watch display using light sources with a translucent cover
JP2008097144A (en) * 2006-10-06 2008-04-24 Nec Corp Portable information terminal and portable information terminal control program
JP2008107866A (en) * 2006-10-23 2008-05-08 Chem Grouting Co Ltd Motion analysis method and analysis system
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
JP2008128939A (en) * 2006-11-24 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> Things determining apparatus, things determining method, program, and recording medium
US8009219B2 (en) 2006-12-07 2011-08-30 Sony Corporation Image display system, display apparatus, and display method
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
US9568998B2 (en) 2007-08-06 2017-02-14 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
US9972116B2 (en) 2007-08-06 2018-05-15 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
JP2009039157A (en) * 2007-08-06 2009-02-26 Sony Corp Biological motion information display processor, biological motion information processing system and biological motion information display processing method
US10262449B2 (en) 2007-08-06 2019-04-16 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10529114B2 (en) 2007-08-06 2020-01-07 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10937221B2 (en) 2007-08-06 2021-03-02 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
JP2009039466A (en) * 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International Action identification device, action identification system, and action identification method
JP2009106377A (en) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd Gait information display system
JP2009150663A (en) * 2007-12-18 2009-07-09 Sumitomo Electric Ind Ltd LOCATION DEVICE, COMPUTER PROGRAM, AND LOCATION METHOD
JP2009282442A (en) * 2008-05-26 2009-12-03 Hyogo College Of Medicine Finger hygiene enforcement system
JP2012503796A (en) * 2008-09-26 2012-02-09 マイクロソフト コーポレーション Compensating for expected motion of equipment
WO2010052849A1 (en) * 2008-11-04 2010-05-14 パナソニック株式会社 Measurement device, insulin infusion device, measurement method, method for controlling insulin infusion device, and program
US8597570B2 (en) 2008-11-04 2013-12-03 Panasonic Corporation Measurement device, insulin infusion device, measurement method, method for controlling insulin infusion device, and program
US10687762B2 (en) 2008-11-04 2020-06-23 Phc Holdings Corporation Measurement device
US11751815B2 (en) 2008-11-04 2023-09-12 Phc Holdings Corporation Measurement device
US9622690B2 (en) 2008-11-04 2017-04-18 Panasonic Healthcare Holdings Co., Ltd. Measurement device
US9855011B2 (en) 2008-11-04 2018-01-02 Panasonic Healthcare Holdings Co., Ltd. Measurement device
US10070822B2 (en) 2008-11-04 2018-09-11 Phc Holdings Corporation Measurement Device
JP2010113647A (en) * 2008-11-10 2010-05-20 Casio Hitachi Mobile Communications Co Ltd Pedometer and program
JP2009050721A (en) * 2008-11-25 2009-03-12 Hitachi Metals Ltd Swing movement assessment method, swing movement assessment apparatus, swing movement assessment system, and swing movement assessment program
JP2010125239A (en) * 2008-11-29 2010-06-10 Nihon Univ Human posture motion discrimination device
US8620993B2 (en) 2008-12-23 2013-12-31 Electronics And Telecommunications Research Institute Activity monitoring system and method for transmitting information for activity monitoring
KR101210277B1 (en) 2008-12-23 2012-12-18 한국전자통신연구원 System for activity monitoring and information transmission method for activity monitoring
JP2010148604A (en) * 2008-12-24 2010-07-08 Hitachi-Ge Nuclear Energy Ltd Action recognition apparatus, action recognition system, and action recognition method
JP2009118513A (en) * 2009-01-07 2009-05-28 Sony Corp Information processing apparatus and method, and program
JP2010161991A (en) * 2009-01-16 2010-07-29 Fujitsu Ltd Work recording device, work recording system, and work recording program
US8566272B2 (en) 2009-01-28 2013-10-22 Sony Corporation Information processing apparatus, information processing method, program for recognizing behavior
US9378457B2 (en) 2009-01-28 2016-06-28 Sony Corporation Information processing apparatus, information processing method, and program for determining a vehicle boarding state
JP2010198595A (en) * 2009-01-28 2010-09-09 Sony Corp Information processing apparatus, information processing method, and program
JP2014056585A (en) * 2009-01-28 2014-03-27 Sony Corp Information processing apparatus, information processing method, and program
US10565510B2 (en) 2009-01-28 2020-02-18 Sony Corporation Information processing apparatus, information processing method, program
JP2010190861A (en) * 2009-02-20 2010-09-02 Toshiba Corp State recognition device and state recognition method
US8521681B2 (en) 2009-02-20 2013-08-27 Kabushiki Kaisha Toshiba Apparatus and method for recognizing a context of an object
JP2010198461A (en) * 2009-02-26 2010-09-09 Nec Corp System, terminal, method and program for measurement of interest level
JP4679677B2 (en) * 2009-05-27 2011-04-27 パナソニック株式会社 Action recognition device
US8682608B2 (en) 2009-05-27 2014-03-25 Panasonic Corporation Behavior recognition apparatus
WO2010137325A1 (en) * 2009-05-27 2010-12-02 パナソニック株式会社 Behavior recognition device
CN102227616A (en) * 2009-05-27 2011-10-26 松下电器产业株式会社 Behavior recognition device
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
JP2010279638A (en) * 2009-06-08 2010-12-16 Nikon Corp Life log recording apparatus
JP2010286344A (en) * 2009-06-11 2010-12-24 Kddi Corp Method and system for estimating movement state of portable terminal device
JP2015046173A (en) * 2009-07-23 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
JP2011120871A (en) * 2009-09-01 2011-06-23 Adidas Ag Method and system for monitoring physiological and athletic performance characteristics of subject
US8504317B2 (en) 2009-09-04 2013-08-06 Panasonic Corporation Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program
WO2011027557A1 (en) * 2009-09-04 2011-03-10 パナソニック株式会社 Device for collecting position calibration information, method for collecting position calibration information, and program for collecting position calibration information
JP4677060B1 (en) * 2009-09-04 2011-04-27 パナソニック株式会社 Position calibration information collection device, position calibration information collection method, and position calibration information collection program
JP2011065423A (en) * 2009-09-17 2011-03-31 Hitachi Ltd Health management system, computer, and information management method
JP2011120684A (en) * 2009-12-09 2011-06-23 Nec Corp Action determination device, action determination system, action determination method, and program
JP2011123832A (en) * 2009-12-14 2011-06-23 Nippon Telegr & Teleph Corp <Ntt> Behavior/state monitoring method and program
JP2011141381A (en) * 2010-01-06 2011-07-21 Ricoh Co Ltd Stereoscopic image display device and stereoscopic image display method
JP2011156132A (en) * 2010-02-01 2011-08-18 Nec Corp Mode identification device, mode identification method, and program
JP2011177278A (en) * 2010-02-26 2011-09-15 Tokyo Institute Of Technology Gait disorder automatic analysis system
WO2011114620A1 (en) * 2010-03-16 2011-09-22 日本電気株式会社 Interest level measurement system
US9198611B2 (en) 2010-03-30 2015-12-01 Sony Corporation Information processing device, image output method, and program
JP2011206274A (en) * 2010-03-30 2011-10-20 Nec Corp Action determination device, action determination system, terminal device, action determination method, and program
JP2011210119A (en) * 2010-03-30 2011-10-20 Sony Corp Information processing device, image output method and program
JP2011240047A (en) * 2010-05-20 2011-12-01 Rie:Kk Biological information detector and system and method for monitoring subject
JP2012042470A (en) * 2010-08-16 2012-03-01 Fujitsu Ltd Method of identifying event occurrence from sensor data stream
US9107565B2 (en) 2010-08-16 2015-08-18 Fujitsu Limited Identifying an event occurrence from sensor data streams
JP2012093936A (en) * 2010-10-27 2012-05-17 Casio Comput Co Ltd Animal monitor support apparatus, animal monitor support method, monitor support server, monitor support terminal and program
US9314665B2 (en) 2010-11-01 2016-04-19 Nike, Inc. Wearable device assembly having athletic functionality and session tracking
US9734477B2 (en) 2010-11-01 2017-08-15 Nike, Inc. Wearable device having athletic functionality
US10444791B2 (en) 2010-11-01 2019-10-15 Nike, Inc. Wearable device assembly having athletic functionality
US10456623B2 (en) 2010-11-01 2019-10-29 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
JP2014500740A (en) * 2010-11-01 2014-01-16 ナイキ インターナショナル リミテッド Wearable device assembly with athletic function
US9757640B2 (en) 2010-11-01 2017-09-12 Nike, Inc. Wearable device assembly having athletic functionality
US12125575B2 (en) 2010-11-01 2024-10-22 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
US9750976B2 (en) 2010-11-01 2017-09-05 Nike, Inc. Wearable device assembly having athletic functionality and trend tracking
US12062424B2 (en) 2010-11-01 2024-08-13 Nike, Inc. Wearable device assembly having athletic functionality
US9474955B2 (en) 2010-11-01 2016-10-25 Nike, Inc. Wearable device assembly having athletic functionality
US11798673B2 (en) 2010-11-01 2023-10-24 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
US11495341B2 (en) 2010-11-01 2022-11-08 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
US11735308B2 (en) 2010-11-01 2023-08-22 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
US11749395B2 (en) 2010-11-01 2023-09-05 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
US9616289B2 (en) 2010-11-01 2017-04-11 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
US9539486B2 (en) 2010-11-01 2017-01-10 Nike, Inc. Wearable device assembly having athletic functionality
US9383220B2 (en) 2010-11-01 2016-07-05 Nike, Inc. Activity identification
JP2012128750A (en) * 2010-12-17 2012-07-05 Casio Comput Co Ltd Moving image generation device, moving image generation method and program
JP2012130522A (en) * 2010-12-21 2012-07-12 Fujitsu Ltd Action recognizing apparatus, action recognizing method, and action recognizing program
US9241037B2 (en) 2010-12-28 2016-01-19 Nec Corporation Server device, behavior promotion and suppression system, behavior promotion and suppression method, and recording medium
KR101448106B1 (en) * 2011-02-17 2014-10-08 주식회사 라이프사이언스테크놀로지 Analisys Method of Rehabilitation status using Electromyogram
JP2016039999A (en) * 2011-03-31 2016-03-24 クアルコム,インコーポレイテッド Devices, methods, and apparatuses for inferring position of mobile device
JP2014515101A (en) * 2011-03-31 2014-06-26 クアルコム,インコーポレイテッド Device, method and apparatus for inferring the location of a portable device
JP2012245062A (en) * 2011-05-25 2012-12-13 Fujitsu Ltd Apparatus, method and program for detecting body movement
JP2012245211A (en) * 2011-05-30 2012-12-13 Honda Motor Co Ltd Walking state estimating device and walking assist device using the same
JP2012245212A (en) * 2011-05-30 2012-12-13 Honda Motor Co Ltd Walking assist device
US9119762B2 (en) 2011-05-30 2015-09-01 Honda Motor Co., Ltd. Walking assist device, walking assist method, walking state estimating device and walking state estimating method
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
JP2014531237A (en) * 2011-09-14 2014-11-27 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Patient environment with accelerometer
US9289649B2 (en) 2011-11-01 2016-03-22 Nike, Inc. Wearable device assembly having athletic functionality and trend tracking
US9415266B2 (en) 2011-11-01 2016-08-16 Nike, Inc. Wearable device assembly having athletic functionality and milestone tracking
EP2786642A4 (en) * 2011-11-29 2015-09-09 Ricoh Co Ltd Device control system, device control method, and computer-readable recording medium
WO2013080809A1 (en) * 2011-11-29 2013-06-06 Ricoh Company, Limited Device control system, device control method, and computer-readable recording medium
JP2015505694A (en) * 2011-12-07 2015-02-26 アクセス ビジネス グループ インターナショナル リミテッド ライアビリティ カンパニー Behavior tracking and correction system
JP2013130495A (en) * 2011-12-22 2013-07-04 Hitachi Ltd Information processor and information processing method
JP2014115943A (en) * 2012-12-12 2014-06-26 Kddi Corp Animation content generation device, animation content generation method, and computer program
FR2999717A1 (en) * 2012-12-17 2014-06-20 Etienne Vautherin Method for characterization of state of traveler between mobile state and autonomous state, involves triggering signal state change when frequency component of greater amplitude corresponds to frequency included in preset interval
WO2014097348A1 (en) * 2012-12-18 2014-06-26 富士通株式会社 Method for controlling information processing device, control program, and information processing device
JPWO2014097348A1 (en) * 2012-12-18 2017-01-12 富士通株式会社 Information processing apparatus control method, control program, and information processing apparatus
US10466742B2 (en) 2013-03-15 2019-11-05 Nike, Inc. Wearable device assembly having athletic functionality
US10037053B2 (en) 2013-03-15 2018-07-31 Nike, Inc. Wearable device assembly having athletic functionality
US9720443B2 (en) 2013-03-15 2017-08-01 Nike, Inc. Wearable device assembly having athletic functionality
KR20190140887A (en) * 2013-05-06 2019-12-20 더 보잉 컴파니 Ergonomic data collection and analysis
JP2014217753A (en) * 2013-05-06 2014-11-20 ザ・ボーイング・カンパニーTheBoeing Company Ergonomic data collection and analysis
JP2015014587A (en) * 2013-06-06 2015-01-22 株式会社リコー Information processor, position determination method and position determination program
JP2016534584A (en) * 2013-06-28 2016-11-04 フェイスブック,インク. User activity tracking system and apparatus
US10143406B2 (en) 2013-07-11 2018-12-04 Casio Computer Co., Ltd. Feature-quantity extracting apparatus
JP2015166816A (en) * 2014-03-04 2015-09-24 富士通株式会社 Display device, display control program, and display control method
KR20150117603A (en) * 2014-04-10 2015-10-20 더 보잉 컴파니 Identifying movements using a motion sensing device coupled with an associative memory
JP2015226757A (en) * 2014-04-10 2015-12-17 ザ・ボーイング・カンパニーTheBoeing Company Identifying movements using motion sensing device coupled with associative memory
JP2016043121A (en) * 2014-08-25 2016-04-04 国立研究開発法人農業・食品産業技術総合研究機構 Animal's behavior determination device, behavior determination method, and program
JP2019145143A (en) * 2015-03-26 2019-08-29 コニカミノルタ株式会社 Monitored person monitoring system, display device of monitored person monitoring system, display method of monitored person monitoring system and computer program
JP2018516099A (en) * 2015-03-27 2018-06-21 インテル コーポレイション Motion tracking using electronic devices
JP2016212793A (en) * 2015-05-13 2016-12-15 ヤフー株式会社 Prediction device, terminal, prediction method, and prediction program
JP2016221130A (en) * 2015-06-03 2016-12-28 株式会社ユピテル Device and program
JPWO2017037915A1 (en) * 2015-09-03 2018-02-08 三菱電機株式会社 Action identification device, air conditioner and robot control device
WO2017037915A1 (en) * 2015-09-03 2017-03-09 三菱電機株式会社 Behavior identification device, air conditioner, and robot control device
JP2018534096A (en) * 2015-09-25 2018-11-22 ジェ−メックス インク.J−MEX Inc. Motion recognition device and motion recognition method
JP2016035760A (en) * 2015-10-07 2016-03-17 ソニー株式会社 Information processor, information processing method and computer program
JP2017070603A (en) * 2015-10-08 2017-04-13 株式会社ジェイアイエヌ Information processing method, information processing apparatus, and program
JP2016153797A (en) * 2016-04-01 2016-08-25 ラピスセミコンダクタ株式会社 Semiconductor device and electronic terminal
JP2016165477A (en) * 2016-04-06 2016-09-15 セイコーエプソン株式会社 Status detection method and recording medium
WO2017175720A1 (en) * 2016-04-08 2017-10-12 シャープ株式会社 Action determination apparatus and action determination method
JP2017207848A (en) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド Portable information terminal, wearing arm judgment method, wearing direction judgment method, and program
JP2016191710A (en) * 2016-06-14 2016-11-10 株式会社横須賀テレコムリサーチパーク Positioning device and positioning program
JP2016197437A (en) * 2016-07-07 2016-11-24 カシオ計算機株式会社 Watch device, watch method, and program
JP2018000871A (en) * 2016-07-08 2018-01-11 国立大学法人岩手大学 Living body movement identification system and living body movement identification method
JP2019534062A (en) * 2016-08-31 2019-11-28 グリーンコム カンパニー リミテッドGreencomm Co.,Ltd. Fitness monitoring system
JP2018081445A (en) * 2016-11-15 2018-05-24 三菱電機インフォメーションシステムズ株式会社 Operation identifying device, operation identifying method, and operation identifying program
WO2018110030A1 (en) * 2016-12-16 2018-06-21 株式会社 東芝 Motion estimation method and motion estimation system
JP2018097781A (en) * 2016-12-16 2018-06-21 株式会社東芝 Motion estimation method and motion estimation system
JP2020518296A (en) * 2017-01-04 2020-06-25 インターリンク エレクトロニクス,インコーポレイテッド Multimodal sensor fusion platform
JP2022028650A (en) * 2017-01-04 2022-02-16 インターリンク エレクトロニクス,インコーポレイテッド Multimodal sensor fusion platform
JP2019005512A (en) * 2017-06-28 2019-01-17 富士通株式会社 Specific action detection program, specific action detection method, and specific action detection system
JP2019054900A (en) * 2017-09-20 2019-04-11 カシオ計算機株式会社 Information processing apparatus, information processing system, program, and information processing method
JP2019076357A (en) * 2017-10-24 2019-05-23 富士通株式会社 Action determination system, action determination method, and action determination program
JP2021500663A (en) * 2017-10-24 2021-01-07 アッサ アブロイ アーベーAssa Abloy Ab Wearable device with multi-biometrics
JP2019084271A (en) * 2017-11-09 2019-06-06 国立大学法人豊橋技術科学大学 Signal detection device
WO2019208312A1 (en) * 2018-04-26 2019-10-31 株式会社日立ハイテクノロジーズ Walking manner display method, walking manner display system and walking manner analysis device
JP2019187878A (en) * 2018-04-26 2019-10-31 株式会社日立ハイテクノロジーズ Walking mode display method, walking mode display system and walking mode analyzer
CN110688885A (en) * 2018-06-19 2020-01-14 本田技研工业株式会社 Control device and control method
CN110688885B (en) * 2018-06-19 2022-12-06 本田技研工业株式会社 Control device and control method
WO2020153113A1 (en) * 2019-01-25 2020-07-30 株式会社村田製作所 Action recognition device and action recognition method
KR102148382B1 (en) * 2019-04-25 2020-08-26 경희대학교 산학협력단 The meghod and device for conversion from signal of inertial sensor to image
WO2021001911A1 (en) * 2019-07-01 2021-01-07 株式会社ソニー・インタラクティブエンタテインメント Information processing device, information processing method, and program
US11943519B2 (en) 2019-07-01 2024-03-26 Sony Interactive Entertainment Inc. Information processing device, information processing method, and program
JPWO2021001911A1 (en) * 2019-07-01 2021-11-25 株式会社ソニー・インタラクティブエンタテインメント Information processing equipment, information processing methods, and programs
KR20210076283A (en) * 2019-12-13 2021-06-24 서울대학교산학협력단 System and method for detecting error type by behavior section, and system and method for correcting behavior using the same
JP2022075741A (en) * 2020-03-24 2022-05-18 カシオ計算機株式会社 Animation creation device, animation creation method, and program
JP2024054102A (en) * 2022-10-04 2024-04-16 日鉄ソリューションズ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP3570163B2 (en) 2004-09-29

Similar Documents

Publication Publication Date Title
JP3570163B2 (en) Method and apparatus and system for recognizing actions and actions
US6941239B2 (en) Method, apparatus and system for recognizing actions
US11679300B2 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
US10352962B2 (en) Systems and methods for real-time data quantification, acquisition, analysis and feedback
US10973439B2 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
US10089763B2 (en) Systems and methods for real-time data quantification, acquisition, analysis and feedback
RU2745429C2 (en) Monitoring of plurality of joints using combination of built-in sensors and external sensor
US20110246123A1 (en) Personal status monitoring
US20150305654A1 (en) System and Method of Using Location Technology to Aid Patient Recovery
US20180160943A1 (en) Signature based monitoring systems and methods
JP2016034481A (en) Information analysis device, exercise analysis system, information analysis method, analysis program, image generation device, image generation method, image generation program, information display device, information display system, information display program, and information display method
JP2016034482A (en) Exercise analysis device, exercise analysis method, exercise analysis program, and exercise analysis system
US11185736B2 (en) Systems and methods for wearable devices that determine balance indices
JP2023504277A (en) Monitoring patients with chronic obstructive pulmonary disease
US9360932B1 (en) Systems and methods for virtually displaying real movements of objects in a 3D-space by means of 2D-video capture
JP2023534785A (en) Measuring method and measuring device
KR101647316B1 (en) System for analysing physical activity
TWI796035B (en) Biochemical evaluation system and biomechanical sensor and biomechanical evaluation platform thereof
JP2022048075A (en) Information processing system, server, information processing method and program
JP2022047901A (en) Information processing system, server, information processing method and program
JPH09173303A (en) Health care system for golf
TWI758993B (en) Lower limb rehabilitation system based on augmented reality and brain computer interface
Ridderstolpe Tracking, monitoring and feedback of patient exercises using depth camera technology for home based rehabilitation

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090702

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100702

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100702

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110702

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110702

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 9

EXPY Cancellation because of completion of term