[go: up one dir, main page]

JP3505040B2 - Portable information processing device - Google Patents

Portable information processing device

Info

Publication number
JP3505040B2
JP3505040B2 JP19958096A JP19958096A JP3505040B2 JP 3505040 B2 JP3505040 B2 JP 3505040B2 JP 19958096 A JP19958096 A JP 19958096A JP 19958096 A JP19958096 A JP 19958096A JP 3505040 B2 JP3505040 B2 JP 3505040B2
Authority
JP
Japan
Prior art keywords
unit
action
pattern
person
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19958096A
Other languages
Japanese (ja)
Other versions
JPH1024026A (en
Inventor
貴史 北口
憲彦 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP19958096A priority Critical patent/JP3505040B2/en
Publication of JPH1024026A publication Critical patent/JPH1024026A/en
Application granted granted Critical
Publication of JP3505040B2 publication Critical patent/JP3505040B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Gyroscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Navigation (AREA)
  • Calculators And Similar Devices (AREA)
  • Image Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、携帯型コンピュ
−タや電子手帳等の携帯型情報処理装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a portable information processing device such as a portable computer or an electronic notebook.

【0002】[0002]

【従来の技術】携帯型コンピュ−タには各種機能を有す
るものが開発され、例えば特開平3−55655号公報に示
されているように、キ−入力装置以外に画像入力装置を
設け、文書や人の顔や現場の状況等の情報を画像デ−タ
として入力したり、入力した画像デ−タを電話回線を利
用して送信する装置や、特開平6−301446号公報に示さ
れているように、GPS信号の受信機能を有し、GPS
信号により緯度,経度等の位置デ−タを利用して携帯し
ている人の位置を特定する装置が開発されている。
2. Description of the Related Art A portable computer having various functions has been developed. For example, as shown in Japanese Patent Laid-Open No. 3-55655, an image input device is provided in addition to a key input device to provide a document. A device for inputting information such as a person's face and the situation of a site as image data, and transmitting the input image data using a telephone line, and JP-A-6-301446. It has the function of receiving GPS signals,
A device has been developed that identifies the position of a person who is carrying it by using position data such as latitude and longitude based on a signal.

【0003】[0003]

【発明が解決しようとする課題】上記のように従来の携
帯型コンピュ−タは相手の顔や現場の状況等の画像を入
力したり携帯している人の位置を入力することはできる
が、携帯している人の行動そのものを入力して特定する
ことはできなかった。
As described above, the conventional portable computer can input the image of the face of the other party, the situation of the scene, etc., and the position of the person carrying it. It was not possible to input and identify the behavior of the person carrying the device.

【0004】この発明はかかる点を改善するためになさ
れたものであり、携帯している人の行動そのものを入力
して特定し、より詳細な各種情報を得ることができる携
帯型情報処理装置を得ることを目的とするものである。
The present invention has been made in order to improve such a point, and provides a portable information processing apparatus capable of inputting and specifying the action itself of a person carrying it to obtain various detailed information. The purpose is to obtain.

【0005】[0005]

【課題を解決するための手段】この発明に係る携帯型情
報処理装置は、運動状態検出部とパタ−ン格納部と行動
認識部と記録部及び出力部を有し、運動状態検出部は携
帯する人の上下運動,水平運動,回転運動の変化を検出
し、パタ−ン格納部は携帯する人の上下運動,水平運
動,回転運動の各種変化に応じた行動モデルパタ−ンを
記憶し、行動認識部は運動状態検出部で検出した運動状
態の変化とパタ−ン格納部に記憶した行動モデルパタ−
ンから携帯する人の行動パタ−ンを特定し、記録部は行
動認識部で特定した行動パタ−ンを逐次記憶し、出力部
は行動結果の出力が指定されたときに記録部に記憶した
行動特定結果を出力することを特徴とする。
A portable information processing apparatus according to the present invention has an exercise state detecting section, a pattern storing section, an action recognizing section, a recording section and an output section, and the exercise state detecting section is portable. Detects changes in vertical movement, horizontal movement, and rotational movement of the person who performs the action, and the pattern storage unit stores behavior model patterns in accordance with various changes in the vertical movement, horizontal movement, and rotational movement of the person who carries it, and The recognition unit changes the movement state detected by the movement state detection unit and the behavior model pattern stored in the pattern storage unit.
The action pattern of the person who carries it is specified from the screen, the recording unit sequentially stores the action pattern specified by the action recognition unit, and the output unit stores it in the recording unit when the output of the action result is designated. It is characterized by outputting the action identification result.

【0006】この発明に係る第2の携帯型情報処理装置
は、運動状態検出部と位置検出部と位置変化算出部とパ
タ−ン格納部と行動認識部と記録部及び出力部を有し、
運動状態検出部は携帯する人の上下運動,水平運動,回
転運動の変化を検出し、位置検出部は携帯する人の位置
を検出し、位置変化算出部は位置検出部からの位置信号
から携帯する人の位置変化の有無を検出し、パタ−ン格
納部は携帯する人の上下運動,水平運動,回転運動の各
種変化に応じた行動モデルパタ−ンを記憶し、行動認識
部は運動状態検出部で検出した運動状態の変化と位置変
化算出部で検出した携帯する人の位置変化の有無とパタ
−ン格納部に記憶した行動モデルパタ−ンから携帯する
人の行動パタ−ンを特定し、記録部は行動認識部で特定
した行動パタ−ンを逐次記憶し、出力部は行動結果の出
力が指定されたときに記録部に記憶した行動特定結果を
出力することを特徴とする。
A second portable information processing apparatus according to the present invention has a motion state detecting section, a position detecting section, a position change calculating section, a pattern storing section, an action recognizing section, a recording section and an output section.
The movement state detection unit detects changes in vertical movement, horizontal movement, and rotation movement of the carrying person, the position detection unit detects the position of the carrying person, and the position change calculation unit uses the position signal from the position detection unit to carry the movement. The pattern storage unit stores behavior model patterns according to various changes of the person's vertical movements, horizontal movements, and rotational movements, and the action recognition unit detects movement states. Change of the movement state detected by the section and the presence or absence of the position change of the carrying person detected by the position change calculating section, and the behavior pattern of the carrying person is specified from the behavior model pattern stored in the pattern storage section, The recording unit sequentially stores the action patterns specified by the action recognition unit, and the output unit outputs the action identification result stored in the recording unit when the output of the action result is designated.

【0007】上記運動状態検出部は直交する3軸の加速
度を検出する加速度センサと上記軸周りの角速度を検出
するジャイロとを有すると良い。
The motion state detecting section may include an acceleration sensor for detecting accelerations in three orthogonal axes and a gyro for detecting an angular velocity around the axes.

【0008】また、上記行動認識部の行動パタ−ン特定
を携帯する人の選択により実行させることが望ましい。
この行動認識部の行動パタ−ン特定の実行の有無を音声
入力手段で選択すると良い。
Further, it is desirable that the action pattern identification of the action recognition unit is executed by the selection of the person carrying the action pattern.
Whether or not the action pattern identification of the action recognition unit is performed may be selected by the voice input means.

【0009】さらに、携帯する人の周囲の画像を入力す
る画像入力手段を有し、入力した画像の変化から携帯す
る人の移動方向を算出してパタ−ン格納部に分類して格
納された行動モデルパタ−ンのなかから該当する行動モ
デルパタ−ン群を選択することが望ましい。
Further, it has an image input means for inputting an image of the surroundings of the person carrying it, calculates the moving direction of the person carrying from the change of the inputted image, and classifies and stores it in the pattern storage section. It is desirable to select the corresponding behavior model pattern group from the behavior model patterns.

【0010】また、上記画像入力手段で入力した物体ま
での距離を検出する距離検出手段を有し、検出した移動
距離によりパタ−ン格納部に格納した行動モデルパタ−
ン群を選択すると良い。
Further, there is a distance detecting means for detecting the distance to the object inputted by the image inputting means, and the behavior model pattern stored in the pattern storing section according to the detected moving distance.
It is good to select a group of groups.

【0011】[0011]

【発明の実施の形態】この発明においては、携帯型情報
処理装置は運動状態検出部とパタ−ン格納部と行動認識
部と記録部と出力部及び表示部を有する。運動状態検出
部は携帯する人が立ったり座ったりするときの上下運動
や歩行するときの水平運動,回転運動の変化を検出する
ものであり、あらかじめ定められた座標系の直交する3
軸の加速度を検出する加速度センサと直交する各軸回り
の角速度を検出するジャイロとを有する。パタ−ン格納
部は携帯する人の行動の各種変化に応じた行動モデルパ
タ−ンがあらかじめ格納してある。
BEST MODE FOR CARRYING OUT THE INVENTION In the present invention, a portable information processing apparatus has a motion state detecting section, a pattern storing section, an action recognizing section, a recording section, an output section and a display section. The motion state detection unit detects changes in vertical movements when a person carrying the device stands or sits, horizontal movements when walking, and changes in rotational motions.
An acceleration sensor that detects the acceleration of the axis and a gyro that detects the angular velocity around each axis orthogonal to each other. The pattern storage unit stores in advance a behavior model pattern according to various changes in the behavior of the person carrying it.

【0012】そして、携帯している人が行動を開始する
と、運動状態検出部の加速度センサとジャイロは携帯し
ている人の行動を示す信号を行動認識部に逐次入力す
る。行動認識部は入力した信号の組合せとパタ−ン格納
部に記憶した各種行動モデルパタ−ンとを比較し、携帯
している人の行動パタ−ンを特定し、特定した行動パタ
−ンを記録部に格納する。この携帯している人の行動状
態の入力と行動パタ−ンの特定を携帯している人が所定
の行動を終了するまで繰り返し、それまでの行動を確認
するために行動内容の出力が指示されると、出力部は記
録部に記憶した行動特定結果を表示部に表示し、ホスト
装置にも出力する。このようにして携帯している人の各
種行動内容を所定時間毎に特定して記憶するから、携帯
している人はあとから行動の状態を正確に確認すること
できる。
Then, when the person carrying the cell phone starts to act, the acceleration sensor of the motion state detecting section and the gyro sequentially input a signal indicating the action of the person carrying the cell to the activity recognizing section. The action recognition unit compares the combination of input signals with various action model patterns stored in the pattern storage unit, identifies the action pattern of the person who carries it, and records the identified action pattern. Store in the department. The input of the action state of the person carrying the cellphone and the identification of the action pattern are repeated until the person carrying the cellphone completes a predetermined action, and the output of the action content is instructed in order to confirm the action up to that point. Then, the output unit displays the action identification result stored in the recording unit on the display unit and also outputs the result to the host device. In this way, since the contents of various actions of the person carrying the mobile phone are specified and stored at predetermined time intervals, the person carrying the mobile phone can confirm the state of the activity accurately later.

【0013】また、行動パタ−ンを携帯している人の音
声による指示で特定することにより、必要とする行動の
情報を正確に得ることができる。
Further, by specifying the action pattern by the voice instruction of the person carrying the action pattern, the required action information can be accurately obtained.

【0014】さらに、携帯している人の位置を位置セン
サで検出し、携帯している人が歩行しているか停止して
いるかを判別すると、パタ−ン格納部に記憶した各種行
動モデルパタ−ンの全てを検索せずに行動パタ−ンを特
定することができ、行動パタ−ンを特定するときのパタ
−ン格納部の検索処理量を低減することができる。
Further, the position sensor detects the position of the person carrying the cellphone, and if it is determined whether the person carrying the cellphone is walking or stopped, various behavior model patterns stored in the pattern storage unit are stored. It is possible to specify the action pattern without searching all of the above, and it is possible to reduce the search processing amount of the pattern storage unit when the action pattern is specified.

【0015】また、携帯している人の周囲の画像を画像
入力手段で入力し、入力した画像の変化から携帯する人
の移動方向を算出したり、画像入力手段で入力した物体
までの距離を距離検出手段で検出して、移動方向と移動
距離及び運動状態検出部からのそのときの出力信号によ
りパタ−ン格納部に分類して格納された行動モデルパタ
−ンのなかから該当する行動モデルパタ−ン群を選択す
ると、実際に携帯型情報処理装置を携帯している人の個
性に合わせた行動モデルパタ−ンを得ることができ、行
動の認識をより正確に行うことができる。
Further, the image around the person carrying the image is inputted by the image inputting means, the moving direction of the person carrying the image is calculated from the change of the inputted image, and the distance to the object inputted by the image inputting means is calculated. The behavior model pattern detected by the distance detecting means, classified from the movement direction and movement distance, and the output signal from the movement state detecting section at that time into the pattern storing section and corresponding to the behavior model pattern stored in the pattern storing section. By selecting a group of actions, it is possible to obtain an action model pattern that matches the individuality of the person who actually carries the portable information processing device, and it is possible to more accurately recognize the action.

【0016】[0016]

【実施例】図1はこの発明の一実施例の構成を示すブロ
ック図である。図に示すように、携帯型情報処理装置1
は運動状態検出部2とパタ−ン格納部3と行動認識部4
と記録部5と出力部6及び表示部7を有する。運動状態
検出部2は携帯する人が立ったり座ったりするときの上
下運動や歩行するときの水平運動,回転運動の変化を検
出するものであり、あらかじめ定められた座標系の直交
する3軸の加速度を検出する加速度センサ21と直交す
る各軸回りの角速度を検出するジャイロ22とを有す
る。パタ−ン格納部3は携帯する人の行動の各種変化に
応じた行動モデルパタ−ンがあらかじめ格納してある。
この行動モデルパタ−ンは、例えば図2,図3,図4の
パタ−ン図に示すように、携帯する人が立ったり座った
り歩行したりする各種行動毎に加速度センサ21から得
られるX軸方向とY軸方向及びZ軸方向の加速度の波形
信号とジャイロ22から得られるX軸回りとY軸回り及
びZ軸回りの角速度の波形信号に対応した波形信号の各
種組合せが行動を示すシンボル例えば行動A,行動B,
行動C等とともに形成されている。例えば図2,図3に
示す行動A,行動Bの行動モデルパタ−ン31a,31
bは携帯している人が歩行している状態を示し、図4に
示す行動Cの行動モデルパタ−ン31cは携帯している
人が停止している状態で立ったり座ったりしている状態
を示す。行動認識部4は運動状態検出部2の加速度セン
サ21とジャイロ22から出力される波形信号の組合せ
とパタ−ン格納部3に記憶した各種行動モデルパタ−ン
31とを比較して携帯する人の行動パタ−ンを特定す
る。記録部5は行動認識部4で特定した行動パタ−ンを
逐次記憶する。出力部6は行動内容の出力が指定された
ときに記録部5に記憶した行動特定結果を表示部7に表
示するとともに外部のホスト装置に出力する。
1 is a block diagram showing the configuration of an embodiment of the present invention. As shown in the figure, the portable information processing device 1
Is a motion state detection unit 2, a pattern storage unit 3, and an action recognition unit 4
It has a recording unit 5, an output unit 6 and a display unit 7. The motion state detection unit 2 detects changes in vertical motion when the person carrying the device stands or sits, horizontal motion when walking, and changes in rotary motion. An acceleration sensor 21 for detecting acceleration and a gyro 22 for detecting angular velocity around each axis orthogonal to each other are included. The pattern storage unit 3 stores in advance action model patterns according to various changes in the actions of the person carrying the device.
This behavior model pattern is, for example, as shown in the pattern diagrams of FIGS. 2, 3 and 4, the X-axis obtained from the acceleration sensor 21 for each of various actions of a person who carries it, such as standing, sitting or walking. Symbols indicating the action of various combinations of waveform signals of acceleration in the direction of the Y-axis and Z-axis and waveform signals corresponding to the waveform signals of the angular velocity around the X-axis, around the Y-axis, and around the Z-axis obtained from the gyro 22. Action A, Action B,
It is formed with action C and the like. For example, the behavior model patterns 31a and 31 of the behaviors A and B shown in FIGS.
b shows a state in which the person carrying the mobile phone is walking, and behavior model pattern 31c of behavior C shown in FIG. 4 shows a state in which the person carrying the mobile phone stands and sits down. Show. The action recognition unit 4 compares the combination of the waveform signals output from the acceleration sensor 21 and the gyro 22 of the motion state detection unit 2 with various action model patterns 31 stored in the pattern storage unit 3 and compares them with those of a person who carries them. Identify behavior patterns. The recording unit 5 sequentially stores the action patterns specified by the action recognition unit 4. The output unit 6 displays the action identification result stored in the recording unit 5 on the display unit 7 when the output of the action content is designated, and outputs it to the external host device.

【0017】上記のように構成された携帯型情報処理装
置1で携帯している人の行動を入力して処理するときの
動作を図5のフロ−チャ−トを参照して説明する。携帯
している人が行動を開始すると、運動状態検出部2の加
速度センサ21とジャイロ22は携帯している人の行
動、例えば歩行したときに発生する上下方向の振動、前
方への加速などの状態を検出し、X軸方向とY軸方向及
びZ軸方向の加速度の波形信号とX軸回りとY軸回り及
びZ軸回りの角速度の波形信号を行動認識部4に逐次入
力する(ステップS1)。行動認識部4は携帯している
人が行動を開始してからあらかじめ定めた一定時間毎に
運動状態検出部2から入力しているX軸方向とY軸方向
及びZ軸方向の加速度の波形信号とX軸回りとY軸回り
及びZ軸回りの角速度の波形信号の組合せとパタ−ン格
納部3に記憶した各種行動モデルパタ−ン31とを比較
し、運動状態検出部2から出力された波形信号の組合せ
と一致する行動モデルパタ−ン31を検索して携帯する
人の歩く,座る,会議をする,食事をする等の行動パタ
−ンを特定し、特定した行動パタ−ンを各時間毎に記録
部5に格納する。この携帯している人の行動状態の入力
と行動パタ−ンの特定を携帯している人が所定の行動を
終了するまで一定時間ごとに繰り返す(ステップS
4)。携帯している人の行動が終了して、それまでの行
動を確認するために行動内容の出力を指示すると(ステ
ップS4,S5)、出力部6は記録部5に記憶した行動
特定結果を表示部7に表示する(ステップS6)。ま
た、行動特定結果を出力するときに外部のホスト装置に
接続されているとき、出力部6は記録部5に記憶した行
動特定結果をホスト装置にも出力する。
The operation of inputting and processing the behavior of the person who is carrying the portable information processing apparatus 1 having the above-described configuration will be described with reference to the flowchart of FIG. When the person carrying the cell phone starts to take action, the acceleration sensor 21 and the gyro 22 of the motion state detection unit 2 indicate the behavior of the person carrying the cell phone, such as vertical vibration generated when walking, acceleration in the forward direction, and the like. The state is detected, and the waveform signals of the acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction and the waveform signals of the angular velocity around the X-axis, the Y-axis, and the Z-axis are sequentially input to the action recognition unit 4 (step S1). ). The action recognition unit 4 is a waveform signal of acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction, which is input from the motion state detection unit 2 at a predetermined constant time after the person who carries the device starts the action. And a combination of waveform signals of angular velocities around the X-axis, the Y-axis, and the Z-axis, and various behavior model patterns 31 stored in the pattern storage unit 3 are compared, and the waveform output from the motion state detection unit 2 The behavior pattern pattern 31 that matches the signal combination is searched, and the behavior pattern such as walking, sitting, having a meeting, eating, etc. of the person carrying is specified, and the specified behavior pattern is set every hour. It is stored in the recording unit 5. The input of the behavior state of the person carrying the cellphone and the identification of the behavior pattern are repeated at regular intervals until the person carrying the cellphone completes a predetermined behavior (step S
4). When the action of the person who is carrying the device is completed and the output of the action content is instructed to confirm the action up to that point (steps S4 and S5), the output unit 6 displays the action identification result stored in the recording unit 5. It is displayed on the section 7 (step S6). Further, when the action specifying result is output, when the output unit 6 is connected to the external host device, the output unit 6 also outputs the action specifying result stored in the recording unit 5 to the host device.

【0018】このように携帯している人の各種行動内容
を所定時間毎に特定して記憶するから、携帯している人
はあとから行動の状態を正確に確認することできる。ま
た、特定した各種行動の内容をホスト装置に出力するこ
とにより携帯している行動の状況を容易に管理し利用す
ることができる。
As described above, since the contents of various actions of the person who carries the mobile phone are specified and stored at predetermined time intervals, the person who carries the mobile phone can accurately confirm the state of the activity later. In addition, by outputting the specified contents of various behaviors to the host device, it is possible to easily manage and use the situation of the carried behavior.

【0019】なお、上記実施例は携帯している人が所定
の行動を終了したときに記録部5に記憶した行動特定結
果を出力する場合について説明したが、携帯している人
の指定により任意のときに行動特定結果を表示部7やホ
スト装置に出力しても良い。
In the above embodiment, the case where the person carrying the mobile phone outputs the action specifying result stored in the recording unit 5 when the predetermined action is completed has been described. At this time, the action identification result may be output to the display unit 7 or the host device.

【0020】また、上記実施例はあらかじめ定めた一定
時間毎に行動パタ−ンを特定した場合について説明した
が、携帯している人の指示により行動パタ−ンを特定す
る時期を選択するようにしても良い。
In the above embodiment, the action pattern is specified every predetermined time, but the time when the action pattern is specified is selected according to the instruction of the person carrying the device. May be.

【0021】さらに、上記実施例は行動認識部4で行動
パタ−ンを特定するときに、運動状態検出部2から入力
しているX軸方向とY軸方向及びZ軸方向の加速度の波
形信号とX軸回りとY軸回り及びZ軸回りの角速度の波
形信号の組合せとパタ−ン格納部3に記憶した各種行動
モデルパタ−ン31の全てとを比較し行動パタ−ンを特
定した場合について説明したが、携帯している人の位置
が変化しているか否を確認して、歩行しているか停止し
ているかを判別すると、パタ−ン格納部3に記憶した各
種行動モデルパタ−ン31の全てを検索せずに行動パタ
−ンを特定することができる。
Further, in the above embodiment, when the action pattern is specified by the action recognition unit 4, the waveform signals of the acceleration in the X-axis direction, the Y-axis direction and the Z-axis direction which are input from the motion state detection unit 2. And the case where the action pattern is specified by comparing the combination of the waveform signals of the angular velocities around the X-axis, the Y-axis, and the Z-axis with all of the various action model patterns 31 stored in the pattern storage unit 3. As described above, if it is determined whether the person who is carrying the robot has changed its position and whether the person is walking or stopped, the behavior model patterns 31 stored in the pattern storage unit 3 are stored. The action pattern can be specified without searching all.

【0022】図6は携帯している人の指示により行動パ
タ−ンを特定する時期を選択したり、パタ−ン格納部3
に記憶した各種行動モデルパタ−ン31の全てを検索せ
ずに行動パタ−ンを特定するようにしたこの発明の他の
実施例の構成を示すブロック図である。図6に示すよう
に、携帯型情報処理装置1は運動状態検出部2とパタ−
ン格納部3と行動認識部4と記録部5と出力部6と表示
部7の他に位置検出センサ8と位置変化算出部9と音声
入力部10とスイッチ11と音声認識部12とCCDセ
ンサ13と移動方向算出部14と距離センサ15と移動
距離算出部16及びパタ−ン選択部17を有する。
In FIG. 6, the time when the action pattern is specified is selected according to the instruction of the person carrying it, and the pattern storage unit 3 is used.
FIG. 9 is a block diagram showing the configuration of another embodiment of the present invention in which an action pattern is specified without searching all of the various action model patterns 31 stored in FIG. As shown in FIG. 6, the portable information processing device 1 includes a motion state detection unit 2 and a pattern.
In addition to the storage unit 3, the action recognition unit 4, the recording unit 5, the output unit 6, and the display unit 7, a position detection sensor 8, a position change calculation unit 9, a voice input unit 10, a switch 11, a voice recognition unit 12, and a CCD sensor. 13, a moving direction calculating unit 14, a distance sensor 15, a moving distance calculating unit 16, and a pattern selecting unit 17.

【0023】位置検出センサ8はGPS受信機からな
り、GPS信号による緯度,経度等の位置デ−タを利用
して携帯している人の位置を特定する。位置変化算出部
9は位置検出センサ8からの位置信号により携帯してい
る人の位置が変化しているか否を検出する。音声入力部
10は小型のマイクからなり、携帯している人の音声を
入力する。音声認識部12は携帯しいる人がスイッチ1
1をオンにしたときに音声入力部10から入力された音
声を認識して音声認識信号を出力する。CCDセンサ1
3は携帯している人の周囲の画像を入力する。移動方向
算出部14はCCDセンサ13から入力した画像の変化
により携帯している人の移動方向を検出する。距離セン
サ15は、例えば超音波センサからなり、CCDセンサ
13で入力した画像に表示されている物体までの距離を
検出する。移動距離算出部16は距離センサ15から入
力される距離の変化から携帯している人の移動距離を算
出する。パタ−ン選択部17は移動方向算出部14と移
動距離算出部16から出力される携帯している人の移動
方向と移動距離から、パタ−ン格納部3に大分類して格
納された行動モデルパタ−ン31のなかから該当する行
動モデルパタ−ン群を選択する。
The position detecting sensor 8 is composed of a GPS receiver, and specifies the position of a person who is carrying it by using position data such as latitude and longitude based on GPS signals. The position change calculation unit 9 detects whether or not the position of the person who is carrying the device changes based on the position signal from the position detection sensor 8. The voice input unit 10 is composed of a small microphone and inputs the voice of a person who carries the voice. The person who carries the voice recognition unit 12 has the switch 1
When 1 is turned on, the voice input from the voice input unit 10 is recognized and a voice recognition signal is output. CCD sensor 1
3 inputs the image around the person who carries it. The moving direction calculation unit 14 detects the moving direction of the person who is carrying the device based on the change in the image input from the CCD sensor 13. The distance sensor 15 is composed of, for example, an ultrasonic sensor, and detects the distance to the object displayed in the image input by the CCD sensor 13. The moving distance calculation unit 16 calculates the moving distance of the person who carries the mobile phone from the change in the distance input from the distance sensor 15. The pattern selection unit 17 roughly classifies and stores the actions in the pattern storage unit 3 based on the moving direction and the moving distance of the person who carries the mobile device, which are output from the moving direction calculating unit 14 and the moving distance calculating unit 16. From the model patterns 31, a corresponding behavior model pattern group is selected.

【0024】上記のように構成した携帯型情報処理装置
1の動作を図7のフロ−チャ−トを参照して説明する。
携帯している人が行動を開始すると、運動状態検出部2
の加速度センサ21とジャイロ22は携帯している人の
行動を示すX軸方向とY軸方向及びZ軸方向の加速度の
波形信号とX軸回りとY軸回り及びZ軸回りの角速度の
波形信号を行動認識部4に逐次入力する(ステップS1
1)。また、位置検出センサ8で携帯している人の位置
を検出し、位置変化の有無を位置変化算出部9から行動
認識部4に入力する(ステップS12)。同時に、CC
Dセンサ13は携帯している人の周囲の画像を入力し、
距離センサ15はCCDセンサ13で入力した画像に表
示されている物体までの距離を検出する。このCCDセ
ンサ13から入力した画像の変化により移動方向算出部
14は携帯している人の移動方向を検出しパタ−ン選択
部17に送り、距離センサ15から入力される距離の変
化から移動距離算出部16は携帯している人の移動距離
を算出しパタ−ン修正部17に送る(ステップS1
3)。パタ−ン選択部17は音声認識部12から音声認
識信号が出力されていないときに、入力している携帯し
ている人の上下,前後,左右の移動方向と移動距離から
パタ−ン格納部3に大分類して格納された行動モデルパ
タ−ン31のなかから該当する行動モデルパタ−ン群を
選択する(ステップS14,S15)。このように携帯
している人の実際の行動により行動モデルパタ−ン群を
選択するから、実際に携帯型情報処理装置1を携帯して
いる人の運動状態に合わせた行動モデルパタ−ンを確実
に得ることができ、行動の認識をより正確に行うことが
できる。
The operation of the portable information processing apparatus 1 configured as described above will be described with reference to the flowchart of FIG.
When the person carrying the mobile phone starts to take action, the motion state detection unit 2
The acceleration sensor 21 and the gyro 22 are waveform signals of acceleration in the X-axis direction, Y-axis direction, and Z-axis direction, and waveform signals of angular velocity around the X-axis, around the Y-axis, and around the Z-axis, which indicate the behavior of the person carrying the cell Are sequentially input to the action recognition unit 4 (step S1
1). Further, the position detection sensor 8 detects the position of the person who is carrying it, and the presence / absence of a position change is input from the position change calculation unit 9 to the action recognition unit 4 (step S12). At the same time, CC
The D sensor 13 inputs an image of the surroundings of the person who carries it,
The distance sensor 15 detects the distance to the object displayed in the image input by the CCD sensor 13. The movement direction calculation unit 14 detects the movement direction of the person who carries it by the change in the image input from the CCD sensor 13 and sends it to the pattern selection unit 17, and the movement distance is detected from the change in the distance input from the distance sensor 15. The calculation unit 16 calculates the movement distance of the person who carries it and sends it to the pattern correction unit 17 (step S1).
3). When the voice recognition signal is not output from the voice recognition unit 12, the pattern selection unit 17 determines the pattern storage unit based on the moving direction and the moving distance of the person who is carrying the input, such as up, down, front and back, and left and right. A corresponding action model pattern group is selected from the action model patterns 31 roughly classified into 3 and stored (steps S14 and S15). Since the behavior model pattern group is selected according to the actual behavior of the person who carries the portable information processing apparatus, the behavior model pattern that matches the exercise state of the person who actually carries the portable information processing device 1 is surely obtained. It can be obtained, and the behavior can be recognized more accurately.

【0025】この状態で携帯している人が行動パタ−ン
を特定する必要が生じたら、スイッチ11をオンにして
音声入力部10から例えば「認識」という音声を入力す
る(ステップS14)。音声入力部10で入力された音
声は音声認識部12で認識され、音声認識部12は認識
した音声認識信号を保持し、スイッチ11がオンしてい
る間、継続して音声認識信号を行動認識部4に送る。行
動認識部4は音声認識信号が送られると携帯している人
の行動認識処理に入る(ステップS16)。行動認識処
理に入ると行動認識部4は、図8のフロ−チャ−トに示
すように、位置変化算出部9から入力している携帯して
いる人の位置変化有無を示す信号から携帯している人が
歩行中か停止しているのかを認識し(ステップS2
1)、携帯している人が歩行中のときは運動状態検出部
2から入力しているX軸方向とY軸方向及びZ軸方向の
加速度の波形信号とX軸回りとY軸回り及びZ軸回りの
角速度の波形信号の組合せとパタ−ン格納部3に記憶し
た、例えば図2,図3に示すような歩行中の行動モデル
パタ−ン31とを比較し、運動状態検出部2から出力さ
れた波形信号の組合せと一致する行動モデルパタ−ン3
1を検索して携帯する人の行動パタ−ンを特定する(ス
テップS22)。また、携帯している人が停止中のとき
は運動状態検出部2から入力しているX軸方向とY軸方
向及びZ軸方向の加速度の波形信号とX軸回りとY軸回
り及びZ軸回りの角速度の波形信号の組合せとパタ−ン
格納部3に記憶した、例えば図4に示すような停止中の
行動モデルパタ−ン31とを比較し、運動状態検出部2
から出力された波形信号の組合せと一致する行動モデル
パタ−ン31を検索して携帯する人の行動パタ−ンを特
定する(ステップS23)。そして特定した行動パタ−
ンを記録部5に格納する。このようにして携帯している
人が歩行しているか停止しているかを判別し、判別結果
によりパタ−ン格納部3に記憶した行動モデルパタ−ン
31を検索するから、行動パタ−ンを特定するときのパ
タ−ン格納部3の検索処理量を低減することができる。
When it becomes necessary for the person carrying the device in this state to specify the action pattern, the switch 11 is turned on and the voice "recognition" is input from the voice input unit 10 (step S14). The voice input by the voice input unit 10 is recognized by the voice recognition unit 12, the voice recognition unit 12 holds the recognized voice recognition signal, and continuously recognizes the voice recognition signal while the switch 11 is on. Send to Part 4. When the voice recognition signal is sent, the action recognition unit 4 starts the action recognition process of the person who carries it (step S16). When the action recognition process is started, the action recognition unit 4 carries the signal from the position change calculation unit 9 based on the signal indicating the presence / absence of the position change of the carrying person, as shown in the flowchart of FIG. Recognizes whether the walking person is walking or stopped (step S2
1) When the person carrying the device is walking, waveform signals of acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction, which are input from the motion state detection unit 2, and the X-axis rotation, the Y-axis rotation, and Z-axis. The combination of the waveform signals of the angular velocity around the axis and the behavior model pattern 31 during walking stored in the pattern storage unit 3, for example, as shown in FIGS. Behavior pattern pattern 3 that matches the combination of the generated waveform signals
1 is specified to specify the action pattern of the person who carries it (step S22). Further, when the person carrying the mobile phone is stopped, waveform signals of acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction input from the motion state detection unit 2 and the X-axis rotation, the Y-axis rotation, and the Z-axis rotation are input. The motion state detection unit 2 compares the combination of the waveform signals of the angular velocities with the pattern stored in the pattern storage unit 3 with the behavior model pattern 31 in a stopped state as shown in FIG.
The behavior pattern pattern 31 that matches the combination of the waveform signals output from is searched to specify the behavior pattern of the person who carries it (step S23). And the specified action pattern
Stored in the recording unit 5. In this way, it is determined whether the person who carries the device is walking or stopped, and the action model pattern 31 stored in the pattern storage unit 3 is searched based on the determination result, so that the action pattern is specified. It is possible to reduce the amount of search processing of the pattern storage unit 3 when performing.

【0026】この携帯している人の行動パタ−ンの特定
を携帯している人が所定の行動を終了するまで繰り返す
(ステップS17)。そして携帯している人の所定の行
動が終了して、それまでの行動を確認するために行動内
容の出力を指示すると(ステップS17,S18)、出
力部6は記録部5に記憶した行動特定結果を表示部7に
表示し、外部のホスト装置18に接続されているときは
ホスト装置18にも行動特定結果をホスト装置にも出力
する。このようにして携帯している人が必要する行動内
容をあとから正確に確認することができる。
The identification of the action pattern of the carrying person is repeated until the carrying person completes a predetermined action (step S17). Then, when the predetermined action of the person who carries the mobile phone is finished and the output of the action content is instructed to confirm the action up to that point (steps S17 and S18), the output unit 6 specifies the action stored in the recording unit 5. The result is displayed on the display unit 7, and when it is connected to the external host device 18, both the host device 18 and the action identification result are output to the host device. In this way, it is possible to accurately confirm the action content required by the person who carries it.

【0027】なお、上記実施例は記録部5に特定した行
動パタ−ンを記憶させた場合について説明したが、位置
検出センサ8で検出した位置と、移動方向算出部14で
検出した移動方向と、移動距離算出部16で算出した移
動距離を行動パタ−ンとともに記録部5に記録させるよ
うにしても良い。このように行動パタ−ンとともにその
ときの位置等を記憶することにより、より詳細な行動情
報を得ることができる。
In the above embodiment, the case where the specified action pattern is stored in the recording unit 5 has been described, but the position detected by the position detection sensor 8 and the moving direction detected by the moving direction calculation unit 14 are described. Alternatively, the movement distance calculated by the movement distance calculation unit 16 may be recorded in the recording unit 5 together with the action pattern. By storing the action pattern and the position at that time together with the action pattern, more detailed action information can be obtained.

【0028】また、上記実施例は音声信号が入力されて
いないときにパタ−ン格納部3に大分類して格納された
行動モデルパタ−ン31のなかから該当する行動モデル
パタ−ン群を選択した場合について説明したが、携帯型
情報処理装置1を新しい人が使いはじめたときに、初期
処理で行動モデルパタ−ン31のなかから使い始めた人
の運動動作に応じた行動モデルパタ−ン群を選択するよ
うにしても良い。
Further, in the above embodiment, the corresponding behavior model pattern group is selected from the behavior model patterns 31 which are roughly classified and stored in the pattern storage unit 3 when no voice signal is input. As described above, when a new person starts using the portable information processing device 1, a behavior model pattern group 31 is selected from the behavior model patterns 31 in the initial processing according to the motor movement of the person who has started using it. It may be done.

【0029】[0029]

【発明の効果】この発明は以上説明したように、携帯し
ている人が行動を開始すると、運動状態検出部から携帯
している人の行動を示す信号を行動認識部に逐次入力
し、行動認識部は入力した信号の組合せとあらかじめ記
憶した各種行動モデルパタ−ンとを比較し、携帯してい
る人の行動パタ−ンを特定し、特定した行動パタ−ンを
記録部に逐次格納し、それまでの行動を確認するために
行動内容の出力が指示されると、記録部に記憶した行動
特定結果を表示部やホスト装置に出力するから、携帯し
ている人はあとから行動の状態を正確に確認することで
きとともに各種行動の状況を容易に管理し利用すること
ができる。
As described above, according to the present invention, when the person carrying the mobile phone starts the action, a signal indicating the action of the mobile person is sequentially input from the motion state detecting section to the action recognizing section to perform the action. The recognition unit compares the combination of input signals with various behavior model patterns stored in advance, identifies the behavior pattern of the person who carries it, and sequentially stores the identified behavior pattern in the recording unit, When the output of the action content is instructed in order to confirm the action up to that point, the action identification result stored in the recording unit is output to the display unit or the host device, so that the person who carries it can change the action state later. It is possible to check accurately and easily manage and use the status of various actions.

【0030】また、携帯している人の行動を直交する3
軸の加速度を検出する加速度センサと直交する3軸の軸
回りの角速度を検出するジャイロで検出するから、携帯
する人の上下運動,水平運動,回転運動の変化を正確に
検出することができるとともに、行動モデルパタ−ンも
正確に形成することができる。
In addition, the behavior of the person carrying the cell is orthogonal to each other 3
Since the gyro that detects the angular velocity around the three axes orthogonal to the acceleration sensor that detects the acceleration of the axis is used, it is possible to accurately detect changes in the vertical movement, horizontal movement, and rotational movement of the person carrying it. The behavior model pattern can also be accurately formed.

【0031】また、行動パタ−ンを携帯している人の音
声による指示で特定することにより、必要とする行動の
情報を正確に得ることができる。
Further, by specifying the action pattern by the voice instruction of the person carrying the action pattern, it is possible to accurately obtain information on the required action.

【0032】さらに、携帯している人の位置を検出し、
携帯している人が歩行しているか停止しているかを判別
すると、記憶した各種行動モデルパタ−ンの全てを検索
せずに行動パタ−ンを特定することができ、行動パタ−
ンを特定するときのパタ−ン検索処理量を低減すること
ができる。
Furthermore, the position of the person carrying the device is detected,
If it is determined whether the person carrying the device is walking or stopped, the action pattern can be specified without searching all of the various action model patterns stored in the memory.
It is possible to reduce the pattern search processing amount when specifying a pattern.

【0033】また、携帯している人の周囲の画像を入力
し、入力した画像の変化から携帯する人の移動方向を算
出したり、画像として入力した物体までの距離を検出し
て、移動方向と移動距離及び運動状態検出部からのその
ときの出力信号によりパタ−ン格納部に分類して格納さ
れた行動モデルパタ−ンのなかから該当する行動モデル
パタ−ン群を選択すると、実際に携帯型情報処理装置を
携帯している人の運動状態に合わせた行動モデルパタ−
ンを得ることができ、行動の認識をより正確に行うこと
ができる。
Further, by inputting an image of the surroundings of the person who carries the mobile phone, the moving direction of the mobile phone is calculated from the change of the input image, or the distance to the object input as an image is detected to detect the moving direction. When the corresponding behavior model pattern group is selected from the behavior model patterns stored in the pattern storage unit according to the output signals from the movement distance and the motion state detection unit at that time, the actual mobile type pattern group is selected. A behavior model pattern that matches the exercise state of a person carrying an information processing device
It is possible to obtain behavior and to recognize behavior more accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】行動モデルパタ−ンの構成を示すパタ−ン図で
ある。
FIG. 2 is a pattern diagram showing a configuration of a behavior model pattern.

【図3】第2の行動モデルパタ−ンの構成を示すパタ−
ン図である。
FIG. 3 is a pattern showing a configuration of a second behavior model pattern.
Fig.

【図4】第3の行動モデルパタ−ンの構成を示すパタ−
ン図である。
FIG. 4 is a pattern showing a configuration of a third action model pattern.
Fig.

【図5】上記実施例の動作を示すフロ−チャ−トであ
る。
FIG. 5 is a flowchart showing the operation of the above embodiment.

【図6】第2の実施例の構成を示すブロック図である。FIG. 6 is a block diagram showing a configuration of a second exemplary embodiment.

【図7】第2の実施例の動作を示すフロ−チャ−トであ
る。
FIG. 7 is a flowchart showing the operation of the second embodiment.

【図8】第2の実施例の行動パタ−ン特定動作を示すフ
ロ−チャ−トである。
FIG. 8 is a flowchart showing the action pattern specifying operation of the second embodiment.

【符号の説明】[Explanation of symbols]

1 携帯型情報処理装置 2 運動状態検出部 3 パタ−ン格納部 4 行動認識部 5 記録部 6 出力部 7 表示部 8 位置検出センサ 9 位置変化算出部 10 音声入力部 11 スイッチ 12 音声認識部 13 CCDセンサ 14 移動方向算出部 15 距離センサ 16 移動距離算出部 17 パタ−ン選択部 18 ホスト装置 21 加速度センサ 22 ジャイロ 1 Portable information processing device 2 Motion status detector 3 pattern storage 4 Action recognition section 5 recording section 6 Output section 7 Display 8 Position detection sensor 9 Position change calculator 10 Voice input section 11 switch 12 Speech recognition unit 13 CCD sensor 14 Moving direction calculator 15 distance sensor 16 Moving distance calculator 17 Pattern selection section 18 Host device 21 Accelerometer 22 Gyro

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) A61B 5/11 G01B 21/00 G01C 19/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) A61B 5/11 G01B 21/00 G01C 19/00

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 運動状態検出部とパタ−ン格納部と行動
認識部と記録部及び出力部を有し、 運動状態検出部は携帯する人の上下運動,水平運動,回
転運動の変化を検出し、パタ−ン格納部は携帯する人の
上下運動,水平運動,回転運動の各種変化に応じた行動
モデルパタ−ンを記憶し、行動認識部は運動状態検出部
で検出した運動状態の変化とパタ−ン格納部に記憶した
行動モデルパタ−ンから携帯する人の行動パタ−ンを特
定し、記録部は行動認識部で特定した行動パタ−ンを逐
次記憶し、出力部は行動内容の出力が指定されたときに
記録部に記憶した行動特定結果を出力することを特徴と
する携帯型情報処理装置。
1. A motion state detection unit, a pattern storage unit, an action recognition unit, a recording unit, and an output unit, and the motion state detection unit detects changes in vertical movement, horizontal movement, and rotational movement of a person who carries it. However, the pattern storage unit stores behavior model patterns corresponding to various changes in vertical movements, horizontal movements, and rotational movements of a person who carries it, and the action recognition unit recognizes the movement state changes detected by the movement state detection unit. The action pattern of the person who carries it is specified from the action model pattern stored in the pattern storage unit, the recording unit sequentially stores the action pattern specified by the action recognition unit, and the output unit outputs the action content. A portable information processing device, which outputs the action identification result stored in the recording unit when is designated.
【請求項2】 運動状態検出部と位置検出部と位置変化
算出部とパタ−ン格納部と行動認識部と記録部及び出力
部を有し、 運動状態検出部は携帯する人の上下運動,水平運動,回
転運動の変化を検出し、位置検出部は携帯する人の位置
を検出し、位置変化算出部は位置検出部からの位置信号
から携帯する人の位置変化の有無を検出し、パタ−ン格
納部は携帯する人の上下運動,水平運動,回転運動の各
種変化に応じた行動モデルパタ−ンを記憶し、行動認識
部は運動状態検出部で検出した運動状態の変化と位置変
化算出部で検出した携帯する人の位置変化の有無とパタ
−ン格納部に記憶した行動モデルパタ−ンから携帯する
人の行動パタ−ンを特定し、記録部は行動認識部で特定
した行動パタ−ンを逐次記憶し、出力部は行動内容の出
力が指定されたときに記録部に記憶した行動特定結果を
出力することを特徴とする携帯型情報処理装置。
2. A motion state detecting unit, a position detecting unit, a position change calculating unit, a pattern storing unit, an action recognizing unit, a recording unit and an output unit, wherein the motion state detecting unit is a vertical movement of a person who carries it. The position detection unit detects the position of the person who carries it, and the position change calculation unit detects the presence or absence of the position change of the person who carries it from the position signal from the position detection unit. The storage unit stores behavior model patterns corresponding to various changes in the person's vertical movement, horizontal movement, and rotational movement, and the action recognition unit calculates changes in movement state and position changes detected by the movement state detection unit. The presence / absence of the position change of the carrying person detected by the department and the behavior pattern of the carrying person are specified from the behavior model patterns stored in the pattern storage unit, and the recording unit identifies the behavior pattern specified by the behavior recognition unit. Memory is stored sequentially, and the output section indicates the output of the action content. Portable information processing apparatus and outputting the behavior identification result stored in the recording unit when it is.
【請求項3】 上記運動状態検出部は直交する3軸の加
速度を検出する加速度センサと上記軸回りの角速度を検
出するジャイロとを有する請求項1又は2記載の携帯型
情報処理装置。
3. The portable information processing device according to claim 1, wherein the motion state detection unit includes an acceleration sensor that detects accelerations of three orthogonal axes and a gyro that detects an angular velocity around the axes.
【請求項4】 上記行動認識部の行動パタ−ン特定を携
帯する人の選択により実行させる請求項3記載の携帯型
情報処理装置。
4. The portable information processing apparatus according to claim 3, wherein the action pattern identification of the action recognition unit is executed by selection of a person carrying the action pattern.
【請求項5】 上記行動認識部の行動パタ−ン特定の実
行の有無を音声入力手段で選択する請求項4記載の携帯
型情報処理装置。
5. The portable information processing apparatus according to claim 4, wherein the voice input means selects whether or not to execute the action pattern identification of the action recognition unit.
【請求項6】 上記携帯する人の周囲の画像を入力する
画像入力手段を有し、入力した画像の変化から携帯する
人の移動方向を算出してパタ−ン格納部に分類して格納
された行動モデルパタ−ンのなかから該当する行動モデ
ルパタ−ン群を選択する請求項3記載の携帯型情報処理
装置。
6. An image input means for inputting an image of the surroundings of the person carrying the portable person, wherein the moving direction of the person carrying the portable person is calculated from the change of the input image, and is classified and stored in the pattern storage unit. 4. The portable information processing apparatus according to claim 3, wherein a corresponding behavior model pattern group is selected from the behavior model patterns.
【請求項7】 上記画像入力手段で入力した物体までの
距離を検出する距離検出手段を有し、検出した移動距離
によりパタ−ン格納部に格納した行動モデルパタ−ン群
を選択する請求項6記載の携帯型情報処理装置。
7. An action model pattern group stored in a pattern storage unit is selected according to the detected moving distance, the distance detecting means detecting the distance to the object input by the image input means. The portable information processing device described.
JP19958096A 1996-07-11 1996-07-11 Portable information processing device Expired - Fee Related JP3505040B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19958096A JP3505040B2 (en) 1996-07-11 1996-07-11 Portable information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19958096A JP3505040B2 (en) 1996-07-11 1996-07-11 Portable information processing device

Publications (2)

Publication Number Publication Date
JPH1024026A JPH1024026A (en) 1998-01-27
JP3505040B2 true JP3505040B2 (en) 2004-03-08

Family

ID=16410215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19958096A Expired - Fee Related JP3505040B2 (en) 1996-07-11 1996-07-11 Portable information processing device

Country Status (1)

Country Link
JP (1) JP3505040B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8351958B2 (en) 2008-07-15 2013-01-08 Panasonic Corporation Mobile device and method for identifying location thereof

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001087247A (en) * 1999-09-27 2001-04-03 Matsushita Electric Works Ltd Body activity discriminating method and device therefor
JP4612928B2 (en) * 2000-01-18 2011-01-12 マイクロストーン株式会社 Body motion sensing device
JP4095231B2 (en) * 2000-03-27 2008-06-04 マイクロストーン株式会社 Mobile phone with motion sensor
JP2002048589A (en) * 2000-08-03 2002-02-15 Tohoku Denshi Sangyo Kk Moving route estimation device for mobile
JP3753233B2 (en) * 2001-03-30 2006-03-08 財団法人くまもとテクノ産業財団 Condition evaluation system
JP2006277048A (en) * 2005-03-28 2006-10-12 Saneido Shoji:Kk In-facility movement detection system using CATV cable
JP5028751B2 (en) * 2005-06-09 2012-09-19 ソニー株式会社 Action recognition device
JP5009543B2 (en) * 2006-03-10 2012-08-22 株式会社エヌ・ティ・ティ・ドコモ Specific signal pattern detection system from multi-axis sensor, specific signal pattern detection method from multi-axis sensor
JP4897314B2 (en) * 2006-03-10 2012-03-14 株式会社エヌ・ティ・ティ・ドコモ Walking state detection system using sensor-equipped mobile terminal, walking state detection method using sensor-equipped mobile terminal
JP5003025B2 (en) * 2006-06-07 2012-08-15 富士通株式会社 Movement amount detection program and movement amount detection device
JP4895188B2 (en) * 2006-08-11 2012-03-14 横河電機株式会社 Inspection business system
JP5531227B2 (en) * 2008-06-09 2014-06-25 株式会社タニタ Behavior determination device
JP5208637B2 (en) 2008-09-16 2013-06-12 株式会社東芝 Information processing apparatus, method, and program
US20110054833A1 (en) * 2009-09-02 2011-03-03 Apple Inc. Processing motion sensor data using accessible templates
JP5440080B2 (en) * 2009-10-02 2014-03-12 ソニー株式会社 Action pattern analysis system, portable terminal, action pattern analysis method, and program
JP5035370B2 (en) * 2010-03-12 2012-09-26 沖電気工業株式会社 Motion detection device, motion detection method, and program
US8989769B2 (en) * 2011-01-11 2015-03-24 Qualcomm Incorporated Positioning system using light information
JP5704561B2 (en) * 2011-01-12 2015-04-22 独立行政法人産業技術総合研究所 Traveling direction estimation device, portable terminal, control program, computer-readable recording medium, and traveling direction estimation method
US8666693B2 (en) * 2011-02-24 2014-03-04 Qualcomm Incorporated Low average velocity pedestrial motion identification
JP5297547B2 (en) * 2012-05-07 2013-09-25 株式会社エヌ・ティ・ティ・ドコモ Specific signal pattern detection system from multi-axis sensor, specific signal pattern detection method from multi-axis sensor
JP6268945B2 (en) * 2013-02-04 2018-01-31 株式会社リコー Inertial device, method and program
CN106999106A (en) * 2014-12-02 2017-08-01 皇家飞利浦有限公司 The system and method for generating health data for the measurement result using wearable device
EP3603505A4 (en) 2017-03-27 2020-03-18 Fujitsu Limited INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
CN110929766B (en) * 2019-11-11 2023-02-03 南京航空航天大学 An adaptive mobile phone gesture recognition method based on Gaussian mixture clustering algorithm
US11818219B2 (en) * 2021-09-02 2023-11-14 Paypal, Inc. Session management system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8351958B2 (en) 2008-07-15 2013-01-08 Panasonic Corporation Mobile device and method for identifying location thereof

Also Published As

Publication number Publication date
JPH1024026A (en) 1998-01-27

Similar Documents

Publication Publication Date Title
JP3505040B2 (en) Portable information processing device
JP4812812B2 (en) Identification of mobile device tilt and translational components
CN104054039B (en) Augmented Reality With Sound And Geometric Analysis
EP2447809A2 (en) User device and method of recognizing user context
CN110015307B (en) Vehicle control method and device, readable storage medium and terminal equipment
US7725831B2 (en) Communication device, communication system, communication method, program and recording medium
EP1686778A1 (en) Motion-based sound setting apparatus and method and motion-based sound generating apparatus and method
CN110059686B (en) Character recognition method, device, equipment and readable storage medium
JP2012066026A (en) Information processing device and method, and program
CN113064823B (en) Method and device for testing functions of parts of automobile and computer storage medium
US20240296657A1 (en) Video classification method and apparatus
CN111105788B (en) Sensitive word score detection method and device, electronic equipment and storage medium
CN108844529A (en) Determine the method, apparatus and smart machine of posture
CN109085967A (en) A kind of call method of function of application, device and electronic equipment
CN111723124B (en) Data collision analysis method and device, electronic equipment and storage medium
JP2001289650A (en) Image processor, method of displaying image and memory medium readably by computer
CN107687854A (en) A kind of indoor navigation method, terminal and computer-readable recording medium
CN110633336B (en) Method and device for determining laser data search range and storage medium
CN109284591A (en) Face unlocking method and device
CN111081102B (en) Dictation result detection method and learning equipment
KR101774807B1 (en) Mobile terminal and operation method thereof
KR101613130B1 (en) Multi smartphone and control method thereof
JPH0944297A (en) Data inputting method and device
CN111325083B (en) Method and device for recording attendance information
CN111583669B (en) Overspeed detection method, overspeed detection device, control equipment and storage medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031212

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees