[go: up one dir, main page]

JPH10124681A - Portable information processor and method therefor - Google Patents

Portable information processor and method therefor

Info

Publication number
JPH10124681A
JPH10124681A JP8295955A JP29595596A JPH10124681A JP H10124681 A JPH10124681 A JP H10124681A JP 8295955 A JP8295955 A JP 8295955A JP 29595596 A JP29595596 A JP 29595596A JP H10124681 A JPH10124681 A JP H10124681A
Authority
JP
Japan
Prior art keywords
image
moving
user
surrounding environment
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8295955A
Other languages
Japanese (ja)
Inventor
Norihiko Murata
憲彦 村田
Takashi Kitaguchi
貴史 北口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP8295955A priority Critical patent/JPH10124681A/en
Publication of JPH10124681A publication Critical patent/JPH10124681A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Calculators And Similar Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a portable information processor and an information processing method in which movement orbits from an image and plural inputs or a surrounding three-dimensional environment can be automatically restore and recorded, and the action pattern of a user can be estimated for real. SOLUTION: A moving area detecting device 3 reads the image information of each frame photographed by an image inputting device 2, and detects a moving area on an image screen between the two frame images. A moving component detecting device 4 calculates the moving components of the user of a portable information processor between the two frame images in the moving area on the image screen between the two transmitted frame images, successively adds the calculated moving components, and calculates the movement orbit of the user. A three-dimension restoring device 5 calculates what kind of three-dimensional structure is obtained in an image projected on the image screen according to the calculated moving components and the condition of the change of a way of viewing on the image screen in the surrounding environment.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は携帯型情報処理装
置及び情報処理方法、特にリアルな情報管理の容易化に
関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to a portable information processing apparatus and an information processing method, and more particularly to facilitation of real information management.

【0002】[0002]

【従来の技術】電子技術の著しい進歩に伴い、自らの情
報を管理する携帯型の情報機器が普及し、例えば特開平
3−55655号公報や特開平5−158887号公報,実公平6
−15316号公報に示されているように各種機器が開発さ
れている。特開平3−55655号公報に示された携帯型の
情報処理装置は、入力装置としてキ−入力装置以外に画
像入力装置を備え、多様な情報処理を行うとともに電話
回線を用いて通信することにより、ビジネスを一層確実
かつ効率的に行うことができるようにしたものである。
また、特開平5−158887号公報に示された装置は、パ−
ムトップ型のコンピユ−タ−にGPS受信装置と電子ス
チルカメラを電気的に接続して組み込み、電子スチルカ
メラの定点撮影の精度を向上させるようにしたものであ
る。実公平6−15316号公報に示された装置は、集光装
置を設けた受光面を筐体の側壁に設け、筐体の他の側壁
に撮像装置のモニタ用ディスプレイを設け、文字、図形
等を直接電子メモに入力できるようにして操作を簡単化
している。この種の機器は、主に屋外や移動時に顧客情
報やスケジュ−ルなどのデ−タを入力し、後にパ−ソナ
ルコンピュ−タに転送して高度な情報管理を行うとうい
う形で利用されている。
2. Description of the Related Art With the remarkable progress in electronic technology, portable information devices for managing own information have become widespread. For example, Japanese Patent Application Laid-Open Nos. 3-55655 and 5-158887, and Japanese Utility Model Application Laid-Open No. H5-158887.
Various devices have been developed as disclosed in Japanese Patent Publication No. -15316. The portable information processing apparatus disclosed in Japanese Patent Application Laid-Open No. 3-55655 is provided with an image input device in addition to a key input device as an input device, and performs various information processing and communicates using a telephone line. , Making it possible to conduct business more reliably and efficiently.
The apparatus disclosed in Japanese Patent Application Laid-Open No. 5-158887 is
The GPS receiver and the electronic still camera are electrically connected to and incorporated in a computer of a multi-top type to improve the accuracy of fixed point photographing of the electronic still camera. In the device disclosed in Japanese Utility Model Publication No. 6-15316, a light receiving surface provided with a condensing device is provided on a side wall of a housing, and a monitor display of an imaging device is provided on another side wall of the housing, and characters, figures, and the like are provided. Can be entered directly into an electronic memo to simplify the operation. This type of device is used mainly for inputting customer information and data such as schedules when outdoors or when traveling, and then transferring the data to a personal computer for advanced information management. ing.

【0003】また、画像等を撮影してデジタル化しメモ
リに記録するデジタルカメラも出現し、それに伴い、デ
ジタルカメラで撮った画像をパ−ソナルコンピュ−タに
転送し、パ−ソナルコンピュ−タで画像情報を加工・編
集して、種々の用途に活かすということが盛んになって
いる。
[0003] In addition, digital cameras that take images and the like, digitize the images, and record the digitized images in a memory have also appeared. With the digital cameras, images taken by the digital cameras are transferred to a personal computer, and the images are transferred to the personal computer. 2. Description of the Related Art Processing and editing image information and utilizing it for various purposes is becoming popular.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、これら
の機器は、その場で発生した情報を実時間で自動的に処
理する能力に欠け、スケジュ−ルなどの記号情報と画像
などのパタ−ン情報を融合させる機能にも欠けている。
However, these devices lack the ability to automatically process the information generated on the spot in real time, and thus, symbol information such as schedules and pattern information such as images. Also lacks the ability to fuse

【0005】この発明はかかる点を改善し、画像その他
複数の入力からの移動軌跡や周囲の3次元環境を自動的
に復元して記録し、使用者の行動パタ−ンをリアルに推
定することができる携帯型情報処理装置及び情報処理方
法を得ることを目的とするものである。
The present invention has been made to solve the above problem, and automatically restores and records a moving trajectory from an image and a plurality of inputs and a surrounding three-dimensional environment to realistically estimate a user's action pattern. It is an object of the present invention to obtain a portable information processing apparatus and an information processing method capable of performing the above.

【0006】[0006]

【課題を解決するための手段】この発明に係る携帯型情
報処理装置は、画像入力装置と移動領域検出装置と移動
成分検出装置及び3次元復元装置を有し、画像入力装置
は画像を撮影して入力し、移動領域検出装置は入力した
フレ−ム画像間の移動領域を検出し、移動成分検出装置
は検出した移動領域から使用者自体の移動成分を算出
し、3次元復元装置は移動成分と画像情報より周囲環境
の3次元構造を算出することを特徴とする。
A portable information processing apparatus according to the present invention has an image input device, a moving area detecting device, a moving component detecting device, and a three-dimensional restoring device, and the image input device captures an image. The moving region detecting device detects the moving region between the input frame images, the moving component detecting device calculates the moving component of the user itself from the detected moving region, and the three-dimensional reconstruction device calculates the moving component. And a three-dimensional structure of the surrounding environment is calculated from the image information and the image information.

【0007】この発明に係る第2の携帯型情報処理装置
は、画像入力装置と移動領域検出装置と移動成分検出装
置と3次元復元装置と行動記憶装置及び行動認識装置を
有し、画像入力装置は画像を撮影して入力し、移動領域
検出装置は入力したフレ−ム画像間の移動領域を検出
し、移動成分検出装置は検出した移動領域から装置自体
の移動成分を算出し、3次元復元装置は算出した移動成
分と画像情報より周囲環境の3次元構造を算出し、行動
記憶装置にはあらかじめ移動軌跡と周囲環境の3次元構
造に対して各種行動を表す記号情報が格納され、行動認
識装置は移動成分検出装置で算出した移動成分と3次元
復元装置で算出した周囲環境の3次元構造及び行動記憶
装置に格納された各種行動を表す記号情報より使用者の
行動パタ−ンを算出することを特徴とする。
A second portable information processing apparatus according to the present invention includes an image input device, a moving area detecting device, a moving component detecting device, a three-dimensional restoring device, a behavior storage device, and a behavior recognizing device. Captures and inputs an image, the moving region detecting device detects a moving region between the input frame images, the moving component detecting device calculates a moving component of the device itself from the detected moving region, and performs three-dimensional reconstruction. The device calculates the three-dimensional structure of the surrounding environment from the calculated moving component and the image information. The action storage device stores in advance symbol information representing various actions for the moving trajectory and the three-dimensional structure of the surrounding environment, and recognizes the action. The device calculates the user's behavior pattern from the moving component calculated by the moving component detection device, the three-dimensional structure of the surrounding environment calculated by the three-dimensional reconstruction device, and the symbol information indicating various actions stored in the behavior storage device. And wherein the Rukoto.

【0008】この発明に係る第3の携帯型情報処理装置
は、画像入力装置と移動領域検出装置と測距装置と移動
成分検出装置と及び3次元復元装置を有し、画像入力装
置は画像を撮影して入力し、移動領域検出装置は入力し
たフレ−ム画像間の移動領域を検出し、測距装置は入力
した画像面上に投影された周囲環境の1点までの距離を
算出し、移動成分検出装置は検出した移動領域と算出し
た周囲環境の1点までの距離から使用者自体の移動成分
を算出し、3次元復元装置は算出した移動成分と画像情
報より周囲環境の3次元構造を算出することを特徴とす
る。
A third portable information processing apparatus according to the present invention has an image input device, a moving area detecting device, a distance measuring device, a moving component detecting device, and a three-dimensional restoring device. The moving area detecting device detects the moving region between the input frame images, and the distance measuring device calculates the distance to one point of the surrounding environment projected on the input image plane. The moving component detection device calculates the user's own moving component from the detected moving region and the calculated distance to one point in the surrounding environment, and the three-dimensional reconstruction device calculates the three-dimensional structure of the surrounding environment from the calculated moving component and image information. Is calculated.

【0009】この発明に係る第4の携帯型情報処理装置
は、画像入力装置と移動領域検出装置と測距装置と移動
成分検出装置と及び3次元復元装置を有し、画像入力装
置は画像を撮影して入力し、移動領域検出装置は入力し
たフレ−ム画像間の移動領域を検出し、測距装置は入力
した画像面上に投影された周囲環境の複数点までの距離
を算出し、移動成分検出装置は検出した移動領域と算出
した周囲環境の複数点までの距離から使用者自体の移動
成分を算出し、3次元復元装置は算出した移動成分と画
像情報より周囲環境の3次元構造を算出することを特徴
とする。
A fourth portable information processing apparatus according to the present invention has an image input device, a moving area detecting device, a distance measuring device, a moving component detecting device, and a three-dimensional restoring device. The moving area detecting device detects the moving region between the input frame images, and the distance measuring device calculates the distance to a plurality of points of the surrounding environment projected on the input image plane, The moving component detecting device calculates the moving component of the user itself from the detected moving region and the calculated distance to a plurality of points in the surrounding environment. The three-dimensional restoration device calculates the three-dimensional structure of the surrounding environment from the calculated moving component and the image information. Is calculated.

【0010】この発明に係る第5の携帯型情報処理装置
は、画像入力装置と移動領域検出装置と位置検出装置と
移動成分検出装置と及び3次元復元装置を有し、画像入
力装置は画像を撮影して入力し、移動領域検出装置は入
力したフレ−ム画像間の移動領域を検出し、位置検出装
置は緯度,経度により使用者の位置座標を検出し、移動
成分検出装置は検出した移動領域と使用者の位置座標か
ら使用者自体の移動成分を算出し、3次元復元装置は算
出した移動成分と画像情報より周囲環境の3次元構造を
算出することを特徴とする。
A fifth portable information processing apparatus according to the present invention includes an image input device, a moving area detecting device, a position detecting device, a moving component detecting device, and a three-dimensional restoring device. The moving region detecting device detects a moving region between the input frame images, the position detecting device detects the position coordinates of the user based on latitude and longitude, and the moving component detecting device detects the moving position. The moving component of the user itself is calculated from the area and the position coordinates of the user, and the three-dimensional reconstruction device calculates the three-dimensional structure of the surrounding environment from the calculated moving component and the image information.

【0011】この発明に係る第6の携帯型情報処理装置
は、画像入力装置と移動領域検出装置と運動検出装置と
移動成分検出装置と及び3次元復元装置を有し、画像入
力装置は画像を撮影して入力し、移動領域検出装置は入
力したフレ−ム画像間の移動領域を検出し、運動検出装
置は使用者の運動状態を検出し、移動成分検出装置は検
出した移動領域と使用者の運動状態から使用者自体の移
動成分を算出し、3次元復元装置は算出した移動成分と
画像情報より周囲環境の3次元構造を算出することを特
徴とする。
A sixth portable information processing apparatus according to the present invention includes an image input device, a moving area detecting device, a motion detecting device, a moving component detecting device, and a three-dimensional restoring device. The moving area detecting device detects the moving region between the input frame images, the motion detecting device detects the motion state of the user, and the moving component detecting device detects the moving region and the user. The three-dimensional reconstruction device calculates a three-dimensional structure of the surrounding environment from the calculated moving component and image information based on the motion state of the user.

【0012】この発明に係る情報処理方法は、使用者の
周囲の画像を撮影して入力し、入力したフレ−ム画像間
の移動領域を検出し、検出した移動領域から使用者自体
の移動成分を算出し、算出した移動成分と画像情報より
周囲環境の3次元構造を算出することを特徴とする。
The information processing method according to the present invention captures and inputs an image around the user, detects a moving area between the input frame images, and detects a moving component of the user from the detected moving area. Is calculated, and the three-dimensional structure of the surrounding environment is calculated from the calculated moving component and the image information.

【0013】この発明に係る第2の情報処理方法は、使
用者の周囲の画像を撮影して入力し、入力したフレ−ム
画像間の移動領域を検出し、検出した移動領域から装置
自体の移動成分を算出し、算出した移動成分と画像情報
より周囲環境の3次元構造を算出し、算出した移動成分
と3次元復元装置で算出した周囲環境の3次元構造及び
あらかじめ定められた移動軌跡と周囲環境の3次元構造
に対する各種行動を表す記号情報より使用者の行動パタ
−ンを算出することを特徴とする。
In a second information processing method according to the present invention, an image around a user is captured and input, a moving area between the input frame images is detected, and the apparatus itself is detected from the detected moving area. A moving component is calculated, a three-dimensional structure of the surrounding environment is calculated from the calculated moving component and the image information, and the calculated moving component and the three-dimensional structure of the surrounding environment calculated by the three-dimensional reconstruction device and a predetermined moving trajectory are calculated. It is characterized in that a user's action pattern is calculated from symbol information indicating various actions on the three-dimensional structure of the surrounding environment.

【0014】この発明に係る第3の情報処理方法は、使
用者の周囲の画像を撮影して入力し、入力したフレ−ム
画像間の移動領域を検出し、画像面上に投影された周囲
環境の1点までの距離を算出し、検出した移動領域と算
出した周囲環境の1点までの距離から使用者自体の移動
成分を算出し、算出した移動成分と画像情報より周囲環
境の3次元構造を算出することを特徴とする。
In a third information processing method according to the present invention, an image around a user is photographed and input, a moving area between the input frame images is detected, and a surrounding area projected on an image plane is detected. The distance to one point in the environment is calculated, the moving component of the user itself is calculated from the detected moving region and the calculated distance to one point in the surrounding environment, and the three-dimensional surrounding environment is calculated from the calculated moving component and the image information. It is characterized in that the structure is calculated.

【0015】この発明に係る第4の情報処理方法は、使
用者の周囲の画像を撮影して入力し、移動領域検出装置
は画像入力装置が入力したフレ−ム画像間の移動領域を
検出し、画像面上に投影された周囲環境の複数点までの
距離を算出し、検出した移動領域と算出した周囲環境の
複数点までの距離距離から使用者自体の移動成分を算出
し、算出した移動成分と画像情報より周囲環境の3次元
構造を算出することを特徴とする。
In a fourth information processing method according to the present invention, an image around a user is captured and input, and the moving area detecting device detects a moving area between frame images input by the image input device. Calculate the distance to a plurality of points in the surrounding environment projected on the image plane, calculate the moving component of the user itself from the detected moving area and the calculated distance to the plurality of points in the surrounding environment, and calculate the calculated movement. The three-dimensional structure of the surrounding environment is calculated from the components and the image information.

【0016】この発明に係る第5の情報処理方法は、使
用者の周囲の画像を撮影して入力し、入力したフレ−ム
画像間の移動領域を検出し、緯度,経度により使用者の
位置座標を検出し、検出した移動領域と検出した使用者
の位置座標から使用者自体の移動成分を算出し、算出し
た移動成分と画像情報より周囲環境の3次元構造を算出
することを特徴とする。
In a fifth information processing method according to the present invention, an image around a user is captured and input, a moving area between the input frame images is detected, and the position of the user is detected by latitude and longitude. Coordinates are detected, a moving component of the user itself is calculated from the detected moving area and the detected position coordinates of the user, and a three-dimensional structure of the surrounding environment is calculated from the calculated moving component and image information. .

【0017】この発明に係る第6の情報処理方法は、使
用者の周囲の画像を撮影して入力し、入力したフレ−ム
画像間の移動領域を検出し、使用者の運動状態を検出
し、検出した移動領域と検出した使用者の運動状態から
使用者自体の移動成分を算出し、算出した移動成分と画
像情報より周囲環境の3次元構造を算出することを特徴
とする。
In a sixth information processing method according to the present invention, an image around a user is captured and input, a moving area between the input frame images is detected, and a motion state of the user is detected. A moving component of the user itself is calculated from the detected moving region and the detected motion state of the user, and a three-dimensional structure of the surrounding environment is calculated from the calculated moving component and image information.

【0018】[0018]

【発明の実施の形態】この発明の携帯型情報処理装置
は、装置全体を管理し、処理手順やデ−タ転送制御を行
う制御装置と画像入力装置と移動領域検出装置と移動成
分検出装置と3次元復元装置及び記憶装置を有する。画
像入力装置は例えばCCDカメラを有し、1フレ−ム毎
の画像を撮影して記憶する。移動領域検出装置は画像入
力装置で撮影した1フレ−ム毎の画像情報を読み出して
2枚のフレ−ム画像間において画像面上での移動領域を
検出して移動成分検出装置に送る。移動成分検出装置は
送られた2枚のフレ−ム画像間における画像面上での移
動領域により2枚のフレ−ム画像間で携帯型情報処理装
置の使用者が移動した成分を算出し、算出した移動成分
を逐次加算して使用者の移動軌跡を求める。3次元復元
装置は移動成分検出装置で算出した移動成分と周囲環境
の画像面上での見え方の変化の条件から、画像面上に投
影された像がどのような3次元構造になっているのかを
算出する。この処理を画像撮影停止の指示が入力される
まで一定間隔毎に行い、入力した画像情報と使用者の移
動軌跡及び周囲環境の3次元情報を記憶装置に格納す
る。この記憶装置に格納した画像情報と使用者の移動軌
跡及び周囲環境の3次元情報を表示装置等に出力して確
認することにより、視覚的でリアルな情報管理をするこ
とができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A portable information processing apparatus according to the present invention manages the entire apparatus and controls processing procedures and data transfer, an image input apparatus, a moving area detecting apparatus, and a moving component detecting apparatus. It has a three-dimensional restoration device and a storage device. The image input device has a CCD camera, for example, and captures and stores an image for each frame. The moving area detecting device reads out image information for each frame taken by the image input device, detects a moving area on the image plane between two frame images, and sends the detected moving area to the moving component detecting device. The moving component detection device calculates a component that the user of the portable information processing device has moved between the two frame images based on a moving area on the image plane between the two transmitted frame images, The calculated moving components are sequentially added to obtain a moving locus of the user. The three-dimensional reconstruction device has a three-dimensional structure of the image projected on the image plane based on the moving component calculated by the moving component detection apparatus and the condition of the change in the appearance of the surrounding environment on the image plane. Is calculated. This processing is performed at regular intervals until an instruction to stop image capturing is input, and the input image information, the movement trajectory of the user, and the three-dimensional information of the surrounding environment are stored in the storage device. By outputting and confirming the image information, the user's movement trajectory, and the three-dimensional information of the surrounding environment stored in the storage device to a display device or the like, visual and realistic information management can be performed.

【0019】また、上記携帯型情報処理装置にあらかじ
め移動軌跡と周囲環境の3次元構造に対して歩行中や会
議中や食事中などの各種行動を表す記号情報を格納した
行動記憶装置と使用者の移動成分から得た移動軌跡と3
次元復元装置で得た3次元情報と行動記憶装置に格納し
てある各種行動を表す記号情報とを参照して使用者の行
動パタ−ンを算出する行動認識装置を設けて使用者の行
動も明確にすることにより、より正確な情報管理を行う
ことができる。
Also, an action storage device in which the portable information processing device previously stores symbol information representing various actions such as walking, a meeting, and eating with respect to the three-dimensional structure of the movement trajectory and the surrounding environment, and a user. Trajectory obtained from the moving component of
An action recognition device for calculating a user's action pattern by referring to the three-dimensional information obtained by the three-dimensional reconstruction device and the symbol information representing various actions stored in the action storage device is provided. By clarifying, more accurate information management can be performed.

【0020】また、使用者の移動軌跡と周囲環境の3次
元情報を得るとき、測距装置で画像面上に投影された周
囲環境のある点までの距離又は複数点までの距離を測定
することにより、周囲環境の3次元構造を長さ情報を含
めて算出することができる。
When obtaining three-dimensional information of a user's movement trajectory and surrounding environment, a distance measuring device measures a distance to a point or a plurality of points of the surrounding environment projected on an image plane. Accordingly, the three-dimensional structure of the surrounding environment can be calculated including the length information.

【0021】さらに、使用者の移動軌跡と周囲環境の3
次元情報を得るときに、使用者すなわち携帯型情報処理
装置の現在位置と実際の移動軌跡を位置検出装置で検出
したり、携帯型情報処理装置の撮像系の運動状況を加速
度センサやジャイロを有する運動検出装置で検出するこ
とにより、使用者の移動軌跡と長さ情報を含めた周囲環
境の3次元構造をより正確に算出することができる。
Furthermore, the user's movement trajectory and surrounding environment 3
When obtaining the dimensional information, the user, that is, the current position and the actual movement trajectory of the portable information processing device are detected by the position detection device, and the motion status of the imaging system of the portable information processing device is provided with an acceleration sensor or a gyro. By detecting with the motion detection device, the three-dimensional structure of the surrounding environment including the movement trajectory and the length information of the user can be calculated more accurately.

【0022】[0022]

【実施例】図1はこの発明の一実施例の構成を示すブロ
ック図である。図に示すように、携帯型情報処理装置
は、装置全体を管理し、処理手順やデ−タ転送制御を行
う制御装置1と画像入力装置2と移動領域検出装置3と
移動成分検出装置4と3次元復元装置5と表示装置6及
び記憶装置7を有する。画像入力装置2は画像を入力す
る例えばCCDカメラ21からなる撮影装置と入力した
画像を処理する画像処理部22を有する。画像処理部2
2にはCCDカメラ21で得た画像信号をデジタル信号
に変換するA/D変換部23と、デジタル信号に変換し
た画像情報を取り込むフレ−ム記憶部24と、フレ−ム
記憶部24に格納された画像情報をD/A変換して制御
装置1に送るD/A変換部25とを有する。制御装置1
は画像入力装置2から送られた画像情報を表示装置6に
出力するとともに記憶装置7に格納する。移動領域検出
装置3は画像入力装置2のフレ−ム記憶部24に格納さ
れたフレ−ム画像情報を入力し、少なくとも2枚のフレ
−ム画像情報を処理してフレ−ム画像間の移動領域を検
出する。この移動領域の検出は、フレ−ム画像間の差分
をとる方法や、相関法,特徴照合法,疎密法等で局所的
な画像特徴を用いて対応付けを行う方法、あるいは時空
間微分法を用いて移動領域を算出する方法等により行わ
れる。移動成分検出装置4は移動領域検出装置3で検出
した移動領域より携帯型情報処理装置の使用者すなわち
携帯型情報処理装置自体の移動成分を算出して逐次加算
する。3次元復元装置5は14は移動成分検出装置4で
算出した使用者の移動成分と画像入力装置2で入力した
画像情報より、使用者の周囲環境の3次元構造を算出す
る。例えば、2フレ−ムの画像間の局所的特徴の対応付
けを行ったときに、使用者自身の運動が回転無しで並進
のみである場合には、2点の対応関係がスケ−ル因子を
除いて一意に決定されることが知られ、使用者自身の運
動が並進と回転の両者よりなる場合には、5点の対応関
係が既知である場合、自身の移動成分と周囲環境の3次
元形状がスケ−ル因子を除いて一意に決定されることが
知られている。この処理を繰り返し行い、移動成分を逐
次加算すると、使用者の移動軌跡を求めることができ
る。記憶装置7には、このようにして得られた移動軌跡
と周囲環境の3次元情報が記録される。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. As shown in the figure, the portable information processing apparatus manages the entire apparatus, and performs a processing procedure and data transfer control, an image input apparatus 2, a moving area detecting apparatus 3, and a moving component detecting apparatus 4. It has a three-dimensional restoration device 5, a display device 6, and a storage device 7. The image input device 2 has a photographing device including, for example, a CCD camera 21 for inputting an image and an image processing unit 22 for processing the input image. Image processing unit 2
Reference numeral 2 denotes an A / D converter 23 for converting an image signal obtained by the CCD camera 21 into a digital signal, a frame storage 24 for taking in image information converted into a digital signal, and storage in the frame storage 24. And a D / A converter 25 for D / A converting the image information thus obtained and sending it to the control device 1. Control device 1
Outputs the image information sent from the image input device 2 to the display device 6 and stores it in the storage device 7. The moving area detection device 3 inputs the frame image information stored in the frame storage unit 24 of the image input device 2, processes at least two pieces of frame image information, and moves between the frame images. Detect the area. The detection of the moving area is performed by a method of obtaining a difference between frame images, a method of performing correlation using local image features such as a correlation method, a feature matching method, a sparse / dense method, or a spatio-temporal differentiation method. This is performed by a method of calculating a moving area using the method. The moving component detecting device 4 calculates the moving component of the user of the portable information processing device, that is, the portable information processing device itself from the moving region detected by the moving region detecting device 3 and sequentially adds the components. The three-dimensional restoring device 5 calculates a three-dimensional structure of the surrounding environment of the user from the moving component of the user calculated by the moving component detecting device 4 and the image information input by the image input device 2. For example, when local features are correlated between two-frame images, if the user's own motion is only translation without rotation, the correspondence between the two points indicates the scale factor. If the user's own motion consists of both translation and rotation, the correspondence between the five points is known, and the user's own movement components and the three-dimensional surrounding environment are known. It is known that the shape is uniquely determined except for the scale factor. By repeating this process and sequentially adding the moving components, the moving locus of the user can be obtained. The storage device 7 records the thus obtained movement trajectory and the three-dimensional information of the surrounding environment.

【0023】上記のように構成された携帯型情報処理装
置の動作を図2のフロ−チャ−トを参照して説明する。
The operation of the portable information processing apparatus configured as described above will be described with reference to the flowchart of FIG.

【0024】使用者から画像撮影を指示する信号を入力
すると(ステップS1)、画像入力装置2は1フレ−ム
毎の画像撮影を開始しフレ−ム記憶部24に格納する
(ステップS2)。移動領域検出装置3はフレ−ム記憶
部24に格納した1フレ−ム毎の画像情報を読み出して
2枚のフレ−ム画像間において画像面上での移動領域を
検出して移動成分検出装置4に送る(ステップS3)。
移動成分検出装置4は送られた2枚のフレ−ム画像間に
おける画像面上での移動領域により2枚のフレ−ム画像
間で使用者が移動した成分を算出して逐次加算する(ス
テップS4)。このように算出した使用者の移動成分を
画像撮影開始から逐次加算することにより、使用者の移
動軌跡を求めることができる。3次元復元装置5は移動
成分検出装置4で算出した移動成分と周囲環境の画像面
上での見え方の変化の条件から、画像面上に投影された
像がどのような3次元構造になっているのを算出する
(ステップS5)。この処理を画像撮影停止の指示が入
力されるまで一定間隔毎に行う(ステップS6)。そし
て画像撮影停止信号が入力されると、画像撮影を停止
し、入力した画像情報と使用者の移動軌跡及び周囲環境
の3次元情報を必要に応じて記憶装置7に格納する(ス
テップS6〜S8)。
When a signal for instructing image capturing is input from the user (step S1), the image input device 2 starts image capturing for each frame and stores it in the frame storage unit 24 (step S2). The moving area detecting device 3 reads out image information for each frame stored in the frame storage section 24, detects a moving area on an image plane between two frame images, and detects a moving component. 4 (step S3).
The moving component detection device 4 calculates the component moved by the user between the two frame images based on the moving area on the image plane between the two transmitted frame images, and sequentially adds the components (step). S4). The moving trajectory of the user can be obtained by sequentially adding the calculated moving components of the user from the start of image capturing. The three-dimensional restoring device 5 has a three-dimensional structure of the image projected on the image plane based on the moving component calculated by the moving component detection device 4 and the condition of the change of the appearance of the surrounding environment on the image plane. Is calculated (step S5). This process is performed at regular intervals until an instruction to stop image capturing is input (step S6). When the image capturing stop signal is input, the image capturing is stopped, and the input image information, the moving trajectory of the user, and the three-dimensional information of the surrounding environment are stored in the storage device 7 as necessary (steps S6 to S8). ).

【0025】この記憶装置7に格納した画像情報と使用
者の移動軌跡及び周囲環境の3次元情報を表示装置6に
表示して確認することにより、視覚的でリアルな情報管
理をすることができる。
By displaying and confirming the image information stored in the storage device 7 and the three-dimensional information of the user's movement trajectory and surrounding environment on the display device 6, visual and realistic information management can be performed. .

【0026】また、上記実施例は使用者の移動軌跡及び
周囲環境の3次元情報を明確にして情報管理をする場合
について説明したが使用者の行動も明確にすることによ
り、より正確な情報管理を行うことができる。
In the above-described embodiment, the case where the information management is performed by clarifying the user's movement trajectory and the three-dimensional information of the surrounding environment has been described. It can be performed.

【0027】このように使用者の行動も明確にする実施
例の構成を図3のブロック図に示す。図3に示すよう
に、携帯型情報処理装置は上記第1の実施例に示した制
御装置1と画像入力装置2と移動領域検出装置3と移動
成分検出装置4と3次元復元装置5と表示装置6及び記
憶装置7の他に行動記憶装置8と行動認識装置9を有す
る。行動記憶装置8にはあらかじめ移動軌跡と周囲環境
の3次元構造に対して歩行中や会議中や食事中などの各
種行動を表す記号情報が格納されている。行動認識装置
9は使用者の移動成分から得た移動軌跡と3次元復元装
置5で得た3次元情報と行動記憶装置8に格納してある
各種行動を表す記号情報とを参照して使用者の行動パタ
−ンを算出して出力する。
FIG. 3 is a block diagram showing the configuration of the embodiment which clarifies the behavior of the user. As shown in FIG. 3, the portable information processing device displays the control device 1, the image input device 2, the moving region detecting device 3, the moving component detecting device 4, and the three-dimensional restoring device 5 shown in the first embodiment. An action storage device 8 and an action recognition device 9 are provided in addition to the device 6 and the storage device 7. The behavior storage device 8 stores in advance symbol information indicating various behaviors such as walking, meetings, and meals with respect to the movement trajectory and the three-dimensional structure of the surrounding environment. The action recognition device 9 refers to the movement trajectory obtained from the movement component of the user, the three-dimensional information obtained by the three-dimensional restoration device 5, and the symbol information representing various actions stored in the action storage device 8, and refers to the user. Is calculated and output.

【0028】上記のように構成された携帯型情報処理装
置で使用者の行動も明確にするときの動作を図4のフロ
−チャ−トを参照して説明する。
The operation of the portable information processing apparatus having the above-described configuration for clarifying the user's action will be described with reference to the flowchart of FIG.

【0029】使用者から画像撮影を指示して画像を入力
してから画像面上に投影された像がどのような3次元構
造になっているのを算出するまでの処理は上記第1の実
施例と全く同じである(ステップS11〜S15)。行
動認識装置9は移動成分検出装置4で算出した使用者の
移動軌跡と3次元復元装置5で得た3次元情報と行動記
憶装置8に格納してある各種行動を表す記号情報とを参
照して使用者の行動パタ−ンを算出する(ステップS1
6)。この処理を画像撮影停止が指示されるまで一定間
隔毎に行う(ステップS17)。そして画像撮影停止信
号が入力されると画像撮影を停止し、入力した画像情報
と使用者の移動軌跡及び周囲環境の3次元情報を必要に
応じて記憶装置7に格納する(ステップS17〜S1
9)。
The processing from inputting the image by instructing the user to take an image to calculating the three-dimensional structure of the image projected on the image plane is performed in the first embodiment. This is exactly the same as the example (steps S11 to S15). The action recognition device 9 refers to the movement trajectory of the user calculated by the movement component detection device 4, the three-dimensional information obtained by the three-dimensional restoration device 5, and the symbol information representing various actions stored in the action storage device 8. To calculate the user's behavior pattern (step S1).
6). This process is performed at regular intervals until an instruction to stop image capturing is issued (step S17). Then, when the image shooting stop signal is input, the image shooting is stopped, and the input image information, the moving trajectory of the user, and the three-dimensional information of the surrounding environment are stored in the storage device 7 as necessary (steps S17 to S1).
9).

【0030】このようにして使用者の移動軌跡や周囲環
境の3次元情報とともに使用者の行動も認識することが
できる。
In this way, the user's action can be recognized together with the user's movement trajectory and the three-dimensional information of the surrounding environment.

【0031】この第2の実施例により実際に会議室と廊
下と休憩所の3種類の場所で連続画像を画像入力装置2
のCCDカメラ21を用いて画素数640×480で各5セッ
トずつ撮影し、それぞれ移動軌跡と3次元位置を撮影し
た。CCDカメラ21のカメラ座標系としては、図5に
示すように、CCDカメラ21の焦点を原点Oとし、画
像面を原点Oからの距離が焦点距離fで、X−Y平面に
並行な平面とする左手系の透視変換座標系26とし、3
次元復元装置5は選択した局所的な画像特徴に対応する
個所がX,Y,Z座標系における座標値すなわち3次元
位置を算出し、算出した3次元位置を行動認識装置9に
送り、行動認識装置9から使用者の行動を示す記号情報
が出力させる。
According to the second embodiment, continuous images are actually input to the image input device 2 at three types of places: a conference room, a corridor, and a resting place.
Each of the five sets was photographed at 640 × 480 pixels using the CCD camera 21, and the movement locus and the three-dimensional position were photographed. As a camera coordinate system of the CCD camera 21, as shown in FIG. 5, the focal point of the CCD camera 21 is defined as the origin O, and the image plane is defined as a plane parallel to the XY plane with a focal length f from the origin O. And a left-handed perspective transformation coordinate system 26
The dimension restoration device 5 calculates a coordinate value in the X, Y, Z coordinate system, that is, a three-dimensional position at a location corresponding to the selected local image feature, and sends the calculated three-dimensional position to the action recognition device 9 to perform action recognition. The device 9 outputs symbol information indicating the behavior of the user.

【0032】そして会議室と廊下と休憩所の3種類の場
所で対象物の角部等の局所的な画像特徴を約20個所選択
し、相関法により2フレ-ム間でそれらの対応関係を求
めることにより移動領域を検出し、3次元復元装置5で
局所的な画像特徴の3次元座標とその付近のエッジ情
報,色情報及び接続関係より平面が再構成され、図6に
示すような形で3次元構造51が復元されるようにし
た。そして5セットのデ−タのうち4セットの3次元位
置と移動軌跡をモデルとして行動記憶装置8に記憶させ
た。この行動記憶装置8には、図7の(a)に示すよう
に会議室の3次元構造52と、(b)に示すように廊下
の3次元構造53と、(c)に示すように休憩所の3次
元構造54を上から眺めた見取図として記憶している。
行動認識装置9は、入力された画像より復元した3次元
構造及び使用者の移動軌跡を見取図の形に変換し、行動
記憶装置8に格納されたモデルとの照合により、会議
中,廊下歩行中及び休憩中という使用者の行動を示す記
号情報を出力する。ここで、会議室に入室してから座席
に座るまでの連続画像を入力として選択したところ、図
8に示すような移動軌跡55と3次元構造56を得るこ
とができ、この移動軌跡55と3次元構造56を行動認
識装置9に入力した結果、「会議中」という行動情報記
号が出力され、使用者の行動を正しく認識していること
が確認できた。
Then, about 20 local image features such as corners of the object are selected in three types of places, such as a conference room, a corridor, and a resting place, and the correspondence between the two frames is determined by a correlation method. Then, the moving area is detected, and the plane is reconstructed by the three-dimensional reconstruction device 5 from the three-dimensional coordinates of the local image feature and the edge information, color information, and connection relations in the vicinity thereof, and the form shown in FIG. And the three-dimensional structure 51 is restored. Then, four sets of three-dimensional positions and movement trajectories of the five sets of data were stored in the action storage device 8 as models. The behavior storage device 8 has a three-dimensional structure 52 of a conference room as shown in FIG. 7A, a three-dimensional structure 53 of a corridor as shown in FIG. 7B, and a break as shown in FIG. The three-dimensional structure 54 is stored as a sketch viewed from above.
The action recognition device 9 converts the three-dimensional structure and the user's movement trajectory restored from the input image into a sketch form, and matches the model stored in the action storage device 8 during a meeting or a corridor walk. And symbol information indicating the user's behavior during a break. Here, when a continuous image from entering the conference room to sitting on the seat is selected as an input, a moving locus 55 and a three-dimensional structure 56 as shown in FIG. 8 can be obtained. As a result of inputting the dimensional structure 56 to the action recognition device 9, an action information symbol “during a meeting” was output, and it could be confirmed that the action of the user was correctly recognized.

【0033】なお、上記実施例は行動記憶装置8に格納
した各種行動を表す記号情報を参照して使用者の行動を
認識というモデルベ−スの認識を行う場合について説明
したが、行動認識装置9で学習・記憶機能により使用者
の行動を認識するようにしても良い。
In the above-described embodiment, the case where the model-based recognition of recognizing the user's action is performed by referring to the symbol information representing various actions stored in the action storage device 8 has been described. Then, the user's action may be recognized by the learning / memory function.

【0034】次に、画像面上に投影された周囲環境のあ
る点との距離を検出して使用者の移動軌跡と周囲環境の
3次元情報を得る第3の実施例を説明する。
Next, a description will be given of a third embodiment in which the distance to a certain point of the surrounding environment projected on the image plane is detected to obtain the moving trajectory of the user and the three-dimensional information of the surrounding environment.

【0035】第3の実施例の携帯型情報処理装置は、図
9のブロック図に示すように、第1の実施例に示した制
御装置1と画像入力装置2と移動領域検出装置3と移動
成分検出装置4と3次元復元装置5と表示装置6及び記
憶装置7の他に画像面上に投影された周囲環境のある点
との距離を検出する測距装置10を有する。この測距装
置10は3角測量の原理を利用した赤外線ステレオ法や
超音波等の波動を投射し、測定対象からの反射の伝播時
間より距離を計測する方法などを利用して周囲環境のあ
る点までの距離を検出する。3次元復元装置5は移動成
分検出装置4で算出した移動軌跡と測距装置10による
測距結果から周囲環境の3次元構造を出力する。例えば
2フレ−ム間の局所的特徴の対応付けを行ったときに、
5個所の対応関係が既知である場合、使用者自身の移動
成分と周囲環境の3次元形状が一意に決定されるが、ス
ケ−ル因子が不明なため、使用者自身の移動量や、物体
の大きさ、対象までの距離を算出することはできない。
しかし、画像上の投影されたある1点までの距離が判明
すればスケ−ル因子が決定され、周囲環境の3次元構造
を長さ情報を含めて算出することができる。
As shown in the block diagram of FIG. 9, the portable information processing apparatus according to the third embodiment includes a control device 1, an image input device 2, a moving area detection device 3 and a moving device shown in the first embodiment. In addition to the component detecting device 4, the three-dimensional restoring device 5, the display device 6, and the storage device 7, a distance measuring device 10 for detecting a distance between a certain point of the surrounding environment projected on the image plane is provided. The distance measuring apparatus 10 has a surrounding environment by using a method of projecting a wave such as an infrared stereo method or an ultrasonic wave using the principle of triangulation and measuring a distance from a propagation time of reflection from an object to be measured. Detect the distance to a point. The three-dimensional reconstruction device 5 outputs a three-dimensional structure of the surrounding environment from the movement trajectory calculated by the movement component detection device 4 and the distance measurement result by the distance measurement device 10. For example, when associating local features between two frames,
If the correspondences of the five locations are known, the user's own moving component and the three-dimensional shape of the surrounding environment are uniquely determined. However, since the scale factor is unknown, the user's own moving amount and the object Size and distance to the target cannot be calculated.
However, if the distance to one projected point on the image is known, the scale factor is determined, and the three-dimensional structure of the surrounding environment can be calculated including the length information.

【0036】上記のように構成された携帯型情報処理装
置で周囲環境の3次元構造を長さ情報を含めて算出する
ときの動作を図10のフロ−チャ−トを参照して説明す
る。
The operation when the three-dimensional structure of the surrounding environment including the length information is calculated by the portable information processing apparatus constructed as described above will be described with reference to the flowchart of FIG.

【0037】使用者から画像撮影を指示する信号を入力
すると(ステップS21)、画像入力装置2は1フレ−
ム毎の画像撮影を開始しフレ−ム記憶部24に格納する
(ステップS22)。移動領域検出装置3はフレ−ム記
憶部24に格納した1フレ−ム毎の画像情報を読み出し
て2枚のフレ−ム画像間において画像面上での移動領域
を検出して移動成分検出装置4に送る(ステップS2
3)。一方、測距装置10は使用者すなわち携帯型情報
処理装置自体から画像上のある1点に対応する周囲環境
中の1点までの距離を測定し移動成分検出装置4に送る
(ステップS24)。移動成分検出装置4は送られた移
動検出結果と測距結果を用いて2枚のフレ−ム画像間に
おける使用者の移動成分すなわち移動ベクトルを算出
し、算出した使用者の移動成分を画像撮影開始から逐次
加算して使用者の移動軌跡を求める(ステップS2
5)。3次元復元手段5は移動成分検出装置4で算出し
た移動成分と周囲環境の画像面上での見え方の変化の条
件から、画像面上に投影された像がどのような3次元構
造になっているかを大きさの情報付きで算出する(ステ
ップS26)。この処理を画像撮影停止の指示が入力さ
れるまで一定間隔毎に行う(ステップS27)。そして
画像撮影停止信号が入力されると、画像撮影を停止し、
入力した画像情報と使用者の移動軌跡及び周囲環境の3
次元情報を必要に応じて記憶装置7に格納する(ステッ
プS27〜S29)。このようにして周囲環境の3次元
構造を長さや大きさの情報を含めて算出することができ
る。
When a signal for instructing image capturing is input from the user (step S21), the image input device 2 displays one frame.
The image shooting for each program is started and stored in the frame storage unit 24 (step S22). The moving area detecting device 3 reads out image information for each frame stored in the frame storage section 24, detects a moving area on an image plane between two frame images, and detects a moving component. 4 (Step S2
3). On the other hand, the distance measuring device 10 measures the distance from the user, that is, the portable information processing device itself to one point in the surrounding environment corresponding to a certain point on the image, and sends it to the moving component detection device 4 (step S24). The moving component detecting device 4 calculates the moving component of the user between the two frame images, that is, the moving vector, using the transmitted moving detection result and the distance measurement result, and captures the calculated moving component of the user as an image. The moving locus of the user is obtained by successively adding from the start (step S2).
5). The three-dimensional restoring unit 5 determines what three-dimensional structure the image projected on the image plane has based on the moving component calculated by the moving component detection device 4 and the condition of the change of the appearance of the surrounding environment on the image plane. Is calculated with size information (step S26). This process is performed at regular intervals until an instruction to stop image capturing is input (step S27). When the image shooting stop signal is input, the image shooting is stopped,
3 of input image information, user's movement trajectory and surrounding environment
The dimensional information is stored in the storage device 7 as needed (steps S27 to S29). In this way, the three-dimensional structure of the surrounding environment can be calculated including the length and size information.

【0038】上記のように第3の実施例は画像面上に投
影された周囲環境のある点との距離を検出して周囲環境
の3次元構造を長さや大きさの情報を含めて算出する場
合について説明したが、画像面上に投影された周囲環境
の複数の点との距離を検出することにより、より正確な
3次元構造を出力することができる。
As described above, in the third embodiment, the distance to a certain point of the surrounding environment projected on the image plane is detected, and the three-dimensional structure of the surrounding environment is calculated including the length and size information. Although the case has been described, a more accurate three-dimensional structure can be output by detecting the distance to a plurality of points in the surrounding environment projected on the image plane.

【0039】画像面上に投影された周囲環境の複数の点
との距離を検出して3次元構造を出力する第4の実施例
の携帯型情報処理装置は、図11のブロック図に示すよ
うに、測距装置11を例えば光照射装置12と受光装置
13で構成し、光投影法により画像面上に投影された周
囲環境の複数の点との距離を検出する。光投影法は図1
2に示すように光照射装置12からスポット光やスリッ
ト光等の光波を測定対象物体14に照射し、対象物体1
4面上での反射を別の方向から受光装置13で観測する
ことにより、三角測量の原理に基づいて対象物体の距離
を測定する3次元計測法であり、対象物体の距離と凹凸
等の3次元形状を測定することができる。なお、この周
囲環境の複数の点との距離を検出する測距装置11とし
ては、赤外線ステレオ法において赤外線アレイを設けた
手法や超音波を用いた測距法において超音波送受信器を
複数設けた手法を採用しても良い。
A portable information processing apparatus according to a fourth embodiment, which detects distances from a plurality of points in the surrounding environment projected on an image plane and outputs a three-dimensional structure, as shown in the block diagram of FIG. First, the distance measuring device 11 includes, for example, a light irradiation device 12 and a light receiving device 13, and detects distances to a plurality of points in the surrounding environment projected on an image plane by a light projection method. Figure 1 shows the light projection method
As shown in FIG. 2, the light irradiation device 12 irradiates a light wave such as a spot light or a slit light to the object 14 to be measured.
This is a three-dimensional measurement method that measures the distance of a target object based on the principle of triangulation by observing reflections on four surfaces from different directions with a light receiving device 13. The dimensional shape can be measured. As the distance measuring device 11 for detecting the distance to a plurality of points in the surrounding environment, a method in which an infrared array is provided in an infrared stereo method or a plurality of ultrasonic transceivers is provided in a distance measuring method using ultrasonic waves. A technique may be adopted.

【0040】3次元複元装置5は移動成分検出装置4で
算出した使用者の移動軌跡と測距装置11による測距結
果から、周囲環境の3次元構造を出力する。すなわち、
第3の実施例に示したように、スケ−ル因子を考慮した
3次元構造復元はある1点までの距離が既知であれば求
まる。しかし、一般に画像のみから3次元構造を計算に
より復元するときには、画像のノイズや周囲環境と使用
者自身の移動方向の幾何的関係が原因で算出結果に多大
な誤差が生じる可能性がある。また、画像上の移動領域
を追跡する場合、2フレ−ム間の移動の大きさが未知で
あるため、探索範囲を大きくとらなければならない。こ
れに対して測距装置11で複数の地点までの距離を検出
し、画像から3次元復元した結果を測距装置11の距離
検出結果と照合することにより、正確な3次元構造を出
力することができる。また、距離検出結果を移動領域の
検出に活用することにより画像上での探索範囲が減少
し、計算コストを低減することができる。
The three-dimensional compounding device 5 outputs a three-dimensional structure of the surrounding environment from the movement trajectory of the user calculated by the moving component detecting device 4 and the distance measurement result by the distance measuring device 11. That is,
As shown in the third embodiment, the three-dimensional structure restoration in consideration of the scale factor can be obtained if the distance to a certain point is known. However, in general, when a three-dimensional structure is restored by calculation only from an image, a large error may occur in the calculation result due to noise in the image or the geometric relationship between the surrounding environment and the user's own moving direction. Also, when tracking a moving area on an image, the size of the movement between the two frames is unknown, so the search range must be large. On the other hand, the distance measuring device 11 detects the distances to a plurality of points, and outputs the accurate three-dimensional structure by comparing the result of the three-dimensional reconstruction from the image with the distance detection result of the distance measuring device 11. Can be. In addition, by utilizing the distance detection result for detecting the moving area, the search range on the image is reduced, and the calculation cost can be reduced.

【0041】上記のように構成された携帯型情報処理装
置で周囲環境の3次元構造をより正確に算出するときは
図13のフロ−チャ−トに示すように、使用者から画像
撮影を指示する信号を入力すると(ステップS31)、
画像入力装置2は1フレ−ム毎の画像撮影を開始しフレ
−ム記憶部24に格納する(ステップS32)。移動領
域検出装置3はフレ−ム記憶部24に格納した1フレ−
ム毎の画像情報を読み出して2枚のフレ−ム画像間にお
いて画像面上での移動領域を検出して移動成分検出装置
4に送る(ステップS33)。一方、測距装置11は使
用者すなわち携帯型情報処理装置自体から周囲環境中の
複数点までの距離を測定し移動成分検出装置4に送る
(ステップS34)。移動成分検出装置4は送られた移
動検出結果と測距結果を用いて2枚のフレ−ム画像間に
おける使用者の移動成分すなわち移動ベクトルを算出
し、算出した使用者の移動成分を画像撮影開始から逐次
加算して使用者の移動軌跡を求める(ステップS3
5)。3次元復元手段5は移動成分検出装置4で算出し
た移動成分と周囲環境の画像面上での見え方の変化の条
件から、画像面上に投影された像がどのような3次元構
造になっているかを大きさの情報付きで算出する(ステ
ップS36)。この処理を画像撮影停止の指示が入力さ
れるまで一定間隔毎に行い、画像撮影停止信号が入力さ
れると、画像撮影を停止し、入力した画像情報と使用者
の移動軌跡及び周囲環境の3次元情報を必要に応じて記
憶装置7に格納する(ステップS37〜S39)。この
ようにして周囲環境の3次元構造を長さや大きさの情報
を含めてより正確に算出することができる。
When the three-dimensional structure of the surrounding environment is to be calculated more accurately by the portable information processing apparatus constructed as described above, as shown in the flowchart of FIG. Is input (step S31),
The image input device 2 starts photographing an image for each frame and stores it in the frame storage unit 24 (step S32). The moving area detection device 3 stores one frame stored in the frame storage unit 24.
The image information for each frame is read, a moving area on the image plane between the two frame images is detected, and sent to the moving component detecting device 4 (step S33). On the other hand, the distance measuring device 11 measures the distance from the user, that is, the portable information processing device itself to a plurality of points in the surrounding environment, and sends it to the moving component detection device 4 (step S34). The moving component detecting device 4 calculates the moving component of the user between the two frame images, that is, the moving vector, using the transmitted moving detection result and the distance measurement result, and captures the calculated moving component of the user as an image. The moving locus of the user is obtained by successively adding from the start (step S3).
5). The three-dimensional restoring unit 5 determines what three-dimensional structure the image projected on the image plane has based on the moving component calculated by the moving component detection device 4 and the condition of the change of the appearance of the surrounding environment on the image plane. Is calculated with size information (step S36). This processing is performed at regular intervals until an instruction to stop image shooting is input. When an image shooting stop signal is input, image shooting is stopped, and the input image information, the user's movement trajectory, and the surrounding environment The dimension information is stored in the storage device 7 as needed (steps S37 to S39). In this way, the three-dimensional structure of the surrounding environment can be calculated more accurately, including information on the length and size.

【0042】次に、使用者すなわち携帯型情報処理装置
の現在位置を検出して使用者の移動軌跡と周囲環境の3
次元情報を得る第5の実施例を説明する。
Next, the current position of the user, that is, the portable information processing device is detected, and the movement trajectory of the user and the surrounding environment are detected.
A fifth embodiment for obtaining dimensional information will be described.

【0043】使用者の現在位置を検出して3次元構造を
出力する第5の実施例の携帯型情報処理装置は、図14
のブロック図に示すように、制御装置1と画像入力装置
2と移動領域検出装置3と移動成分検出装置4と3次元
復元装置5と表示装置6及び記憶装置7の他にGSP
(Global Positioning System)等の航法システムを利用
して使用者の現在位置と実際の移動軌跡を求める位置検
出装置15を有する。前述のように画像面上の移動領域
検出結果のみではスケ−ル因子が不明なため、使用者の
実際の移動量や物体の大きさ対象までの距離を算出する
ことできない。しかし、使用者の実際の移動方向と移動
量がわかればスケ−ル因子が決定され、周囲環境の3次
元構造を長さ情報を含めて算出することができる。この
ため第5の実施例においては位置検出装置15で使用者
の現在位置と実際の移動軌跡を検出するようにしたので
ある。
A portable information processing apparatus according to a fifth embodiment for detecting a current position of a user and outputting a three-dimensional structure is shown in FIG.
As shown in the block diagram of FIG. 1, in addition to the control device 1, the image input device 2, the moving region detecting device 3, the moving component detecting device 4, the three-dimensional restoring device 5, the display device 6, the storage device 7, and the GSP
(Global Positioning System) or the like, and has a position detecting device 15 for obtaining a user's current position and an actual trajectory using a navigation system. As described above, the scale factor is unknown only from the detection result of the moving area on the image plane, so that the actual moving amount of the user and the distance to the target of the size of the object cannot be calculated. However, if the actual moving direction and the moving amount of the user are known, the scale factor is determined, and the three-dimensional structure of the surrounding environment can be calculated including the length information. Therefore, in the fifth embodiment, the current position of the user and the actual trajectory of the user are detected by the position detecting device 15.

【0044】この第5の実施例においては、図15のフ
ロ−チャ−トに示すように、使用者から画像撮影を指示
する信号を入力して、画像入力装置2で1フレ−ム毎の
画像撮影を行い、移動領域検出装置3で2枚のフレ−ム
画像間において画像面上での移動領域を検出するととも
に位置検出装置15で使用者の現在位置を測定して前回
検出した位置との変化を検出する(ステップS41〜S
44)。移動成分検出装置4は移動領域の検出結果と位
置検出装置15で検出した使用者の位置変化から2枚の
フレ−ム画像間における使用者の移動ベクトルを検出
し、画像撮影開始から現在までの移動ベクトルを加算し
て使用者の移動軌跡を算出する(ステップS45)。3
次元復元装置5は検出した移動ベクトルと周囲環境の画
像面上での見え方の変化の条件から、画像面上に投影さ
れた像がどのような3次元構造になっているのかを大き
さの情報付きで算出する(ステップS46)。この処理
を画像撮影停止の指示が入力されるまで一定間隔毎に行
い、画像撮影停止信号が入力されると、画像撮影を停止
し、入力した画像情報と使用者の移動軌跡及び周囲環境
の3次元情報を必要に応じて記憶装置7に格納する(ス
テップS47〜S49)。このようにして使用者の移動
軌跡と長さや大きさの情報を含めた周囲環境の3次元構
造をより正確に算出することができる。
In the fifth embodiment, as shown in the flowchart of FIG. 15, a signal for instructing image capturing is input from the user, and the image input device 2 is used for each frame. An image is taken, the moving area detecting device 3 detects the moving area on the image plane between the two frame images, and the position detecting apparatus 15 measures the current position of the user to determine the position detected last time. (Steps S41 to S41)
44). The moving component detecting device 4 detects a moving vector of the user between the two frame images based on the detection result of the moving region and the change in the position of the user detected by the position detecting device 15, and detects the moving vector from the start of image capturing to the present. The movement vector of the user is calculated by adding the movement vectors (step S45). 3
From the detected movement vector and the condition of the change in the appearance of the surrounding environment on the image plane, the dimension restoration apparatus 5 determines the size of the three-dimensional structure of the image projected on the image plane. It is calculated with information (step S46). This processing is performed at regular intervals until an instruction to stop image shooting is input. When an image shooting stop signal is input, image shooting is stopped, and the input image information, the user's movement trajectory, and the surrounding environment The dimensional information is stored in the storage device 7 as needed (steps S47 to S49). In this way, the three-dimensional structure of the surrounding environment including the movement trajectory of the user and information on the length and size can be calculated more accurately.

【0045】次に、撮像系すなわち使用者の運動状況検
出して使用者の移動軌跡と周囲環境の3次元情報を得る
第6の実施例を説明する。この第6の実施例の携帯型情
報処理装置は、図14のブロック図に示すように、制御
装置1と画像入力装置2と移動領域検出装置3と移動成
分検出装置4と3次元復元装置5と表示装置6及び記憶
装置7の他に運動検出装置16を有する。運動検出装置
16は例えばX軸加速度センサ17aとY軸加速度セン
サ17bとZ軸加速度センサ17cとX軸用ジャイロ1
8aとY軸用ジャイロ18bとZ軸用ジャイロ18cと
を有し、X軸,Y軸,Z軸の加速成分を測定し、測定し
た加速度を積分することにより使用者の移動ベクトルを
求めることができる。また各ジャイロ18a〜18cで
X軸,Y軸,Z軸の各軸回りの回転成分を求めることが
できる。この移動ベクトルから使用者の実際の移動方向
と移動量がわかるので、スケ−ル因子が決定され、周囲
環境の3次元構造を長さ情報を含めて算出することがで
きる。また、撮像系の回転成分がわかるので、移動軌跡
と3次元構造検出に要する計算コストを軽減することが
できる。
Next, a description will be given of a sixth embodiment in which the imaging system, that is, the movement state of the user is detected to obtain the three-dimensional information of the movement trajectory of the user and the surrounding environment. As shown in the block diagram of FIG. 14, the portable information processing apparatus according to the sixth embodiment includes a control device 1, an image input device 2, a moving region detecting device 3, a moving component detecting device 4, and a three-dimensional restoring device 5. And a motion detection device 16 in addition to the display device 6 and the storage device 7. The motion detection device 16 includes, for example, an X-axis acceleration sensor 17a, a Y-axis acceleration sensor 17b, a Z-axis acceleration sensor 17c, and the X-axis gyro 1.
8a, a gyro 18b for the Y axis and a gyro 18c for the Z axis. The acceleration components of the X, Y, and Z axes are measured, and the user's movement vector is obtained by integrating the measured accelerations. it can. In addition, each of the gyros 18a to 18c can determine a rotation component around each of the X axis, the Y axis, and the Z axis. Since the actual movement direction and movement amount of the user can be known from the movement vector, the scale factor is determined, and the three-dimensional structure of the surrounding environment can be calculated including the length information. Further, since the rotation component of the imaging system can be known, the calculation cost required for detecting the movement trajectory and the three-dimensional structure can be reduced.

【0046】すなわち、この第6の実施例においては、
図17のフロ−チャ−トに示すように、使用者から画像
撮影を指示する信号を入力して、画像入力装置2で1フ
レ−ム毎の画像撮影を行い、移動領域検出装置3で2枚
のフレ−ム画像間において画像面上での移動領域を検出
するとともに運動検出装置16で撮像系すなわち使用者
の運動状況を測定し、使用者の現在位置と前回の測定位
置からの位置変化と撮像系の回転成分を検出する(ステ
ップS51〜S54)。この検出結果と移動領域の検出
結果から2枚のフレ−ム画像間における使用者の移動ベ
クトルと移動軌跡を算出し、画像面上に投影された像が
どのような3次元構造になっているのかを大きさの情報
付きで算出する(ステップS55,S56)。この処理
を画像撮影停止の指示が入力されるまで一定間隔毎に行
い、画像撮影停止信号が入力されると、画像撮影を停止
し、入力した画像情報と使用者の移動軌跡及び周囲環境
の3次元情報を必要に応じて記憶装置7に格納する(ス
テップS57〜S59)。このようにして使用者の移動
軌跡と長さや大きさの情報を含めた周囲環境の3次元構
造をより正確に算出することができる。
That is, in the sixth embodiment,
As shown in the flowchart of FIG. 17, a signal for instructing image capturing is input from the user, the image input device 2 captures an image for each frame, and the moving area detecting device 3 performs image capturing. The movement area on the image plane is detected between the frame images, and the motion detection device 16 measures the imaging system, that is, the motion status of the user, and changes the current position of the user and the position from the previous measurement position. And the rotation component of the imaging system are detected (steps S51 to S54). From this detection result and the detection result of the movement area, the movement vector and the movement trajectory of the user between the two frame images are calculated, and the three-dimensional structure of the image projected on the image plane is obtained. Is calculated with size information (steps S55 and S56). This processing is performed at regular intervals until an instruction to stop image shooting is input. When an image shooting stop signal is input, image shooting is stopped, and the input image information, the user's movement trajectory, and the surrounding environment The dimensional information is stored in the storage device 7 as needed (steps S57 to S59). In this way, the three-dimensional structure of the surrounding environment including the movement trajectory of the user and information on the length and size can be calculated more accurately.

【0047】上記各実施例では画像を1フレ−ム取り込
むたびに移動領域検出から3次元構造復元という一連の
処理を行う場合について説明したが、複数フレ−ム毎の
画像を用いて移動領域検出から3次元構造復元という一
連の処理を行うようにしても良い。
In each of the above-described embodiments, a case has been described in which a series of processing of detecting a moving region and restoring a three-dimensional structure is performed each time an image is captured, but the moving region is detected using images of a plurality of frames. , A series of processing of three-dimensional structure restoration may be performed.

【0048】また、上記各実施例では移動領域検出から
3次元構造復元という一連の処理を実時間処理する場合
について説明したが、画像情報をまとめて記憶装置7に
格納しておき、オフライン処理するようにしても良い。
Further, in each of the above embodiments, a case has been described in which a series of processing of detecting a moving area and restoring a three-dimensional structure is performed in real time. However, image information is collectively stored in the storage device 7 and processed offline. You may do it.

【0049】さらに、画像情報や移動軌跡及び3次元情
報を記憶手段7に格納するとともにネットワ−ク等で転
送したり、直接ネットワ−ク等で転送して確認し管理す
るようにしても良い。
Further, the image information, the movement trajectory and the three-dimensional information may be stored in the storage means 7 and transferred by a network or the like, or may be transferred and confirmed and managed by a network or the like directly.

【0050】[0050]

【発明の効果】この発明は以上説明したように、画像入
力装置で撮影した1フレ−ム毎の画像情報を読み出して
2枚のフレ−ム画像間において画像面上での移動領域を
検出し、検出した2枚のフレ−ム画像間における画像面
上での移動領域により2枚のフレ−ム画像間で携帯型情
報処理装置の使用者が移動した成分を算出し、算出した
移動成分を逐次加算して使用者の移動軌跡を求め、算出
した移動成分と周囲環境の画像面上での見え方の変化の
条件から、画像面上に投影された像がどのような3次元
構造になっているのかを算出するようにしたから、使用
者の移動軌跡及び周囲環境の3次元情報をリアルで確認
することができ、情報管理をより正確にすることができ
る。
As described above, the present invention reads out image information for each frame taken by an image input device and detects a moving area on an image plane between two frame images. Calculating a component that the user of the portable information processing apparatus has moved between the two frame images based on the moving area on the image plane between the two detected frame images, and calculating the calculated moving component. The moving trajectory of the user is obtained by successive addition, and based on the calculated moving components and the condition of the change of the appearance of the surrounding environment on the image plane, what kind of three-dimensional structure is obtained for the image projected on the image plane. Is calculated, it is possible to check the three-dimensional information of the user's movement trajectory and the surrounding environment in a realistic manner, and to more accurately manage the information.

【0051】また、上記携帯型情報処理装置にあらかじ
め移動軌跡と周囲環境の3次元構造に対して歩行中や会
議中や食事中などの各種行動を表す記号情報を格納して
おき、使用者の移動成分から得た移動軌跡と3次元情報
とあらかじめ格納してある各種行動を表す記号情報とを
参照して使用者の行動パタ−ンを算出して使用者の行動
も明確にすることにより、より正確な情報管理を行うこ
とができる。
Further, the portable information processing apparatus stores in advance symbol information indicating various actions such as walking, meeting, and eating with respect to the three-dimensional structure of the movement trajectory and the surrounding environment, and stores the user's information. By referring to the movement trajectory obtained from the movement component, the three-dimensional information, and the symbol information representing various actions stored in advance, the user's action pattern is calculated to clarify the user's action. More accurate information management can be performed.

【0052】また、使用者の移動軌跡と周囲環境の3次
元情報を得るときに、画像面上に投影された周囲環境の
ある点までの距離又は複数点までの距離を測定すること
により、周囲環境の3次元構造を長さ情報を含めて算出
することができ、才覚な情報を得ることができる。
When obtaining the three-dimensional information of the user's movement trajectory and the surrounding environment, the distance to a certain point or a plurality of points of the surrounding environment projected on the image plane is measured. The three-dimensional structure of the environment can be calculated including the length information, and brilliant information can be obtained.

【0053】さらに、使用者の移動軌跡と周囲環境の3
次元情報を得るときに、使用者すなわち携帯型情報処理
装置の現在位置と実際の移動軌跡を検出したり、携帯型
情報処理装置の撮像系の運動状況を検出することによ
り、使用者の移動軌跡と長さ情報を含めた周囲環境の3
次元構造をより正確に算出することができる。
Further, the user's movement trajectory and surrounding environment 3
When obtaining dimensional information, the user, ie, the current position and the actual movement trajectory of the portable information processing device, or the movement state of the imaging system of the portable information processing device is detected to detect the movement trajectory of the user. Of the surrounding environment including the length and length information
The dimensional structure can be calculated more accurately.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】上記実施例の動作を示すフロ−チャ−トであ
る。
FIG. 2 is a flowchart showing the operation of the embodiment.

【図3】第2の実施例の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of a second embodiment.

【図4】第2の実施例の動作を示すフロ−チャ−トであ
る。
FIG. 4 is a flowchart showing the operation of the second embodiment.

【図5】第2の実施例のカメラ座標系を示す説明図であ
る。
FIG. 5 is an explanatory diagram illustrating a camera coordinate system according to a second embodiment.

【図6】第2の実施例による3次元構造の具体例を示す
説明図である。
FIG. 6 is an explanatory diagram showing a specific example of a three-dimensional structure according to a second embodiment.

【図7】第2の実施例の行動記憶装置に記憶させたモデ
ルを示す説明図である。
FIG. 7 is an explanatory diagram illustrating a model stored in a behavior storage device according to a second embodiment.

【図8】第2の実施例で得た移動軌跡と3次元構造を示
す説明図である。
FIG. 8 is an explanatory diagram showing a movement locus and a three-dimensional structure obtained in a second embodiment.

【図9】第3の実施例の構成を示すブロック図である。FIG. 9 is a block diagram showing a configuration of a third embodiment.

【図10】第3の実施例の動作を示すフロ−チャ−トで
ある。
FIG. 10 is a flowchart showing the operation of the third embodiment.

【図11】第4の実施例の構成を示すブロック図であ
る。
FIG. 11 is a block diagram showing a configuration of a fourth embodiment.

【図12】第4の実施例の測距装置の測定動作を示す説
明図である。
FIG. 12 is an explanatory diagram illustrating a measuring operation of the distance measuring apparatus according to the fourth embodiment.

【図13】第4の実施例の動作を示すフロ−チャ−トで
ある。
FIG. 13 is a flowchart showing the operation of the fourth embodiment.

【図14】第5の実施例の構成を示すブロック図であ
る。
FIG. 14 is a block diagram showing a configuration of a fifth embodiment.

【図15】第5の実施例の動作を示すフロ−チャ−トで
ある。
FIG. 15 is a flowchart showing the operation of the fifth embodiment.

【図16】第6の実施例の構成を示すブロック図であ
る。
FIG. 16 is a block diagram showing a configuration of a sixth embodiment.

【図17】第6の実施例の動作を示すフロ−チャ−トで
ある。
FIG. 17 is a flowchart showing the operation of the sixth embodiment.

【符号の説明】[Explanation of symbols]

1 制御装置 2 画像入力装置 3 移動領域検出装置 4 移動成分検出装置 5 3次元復元装置 6 表示装置 7 記憶装置 8 行動記憶装置 9 行動認識装置 10 測距装置 11 測距装置 15 位置検出装置 16 運動検出装置 REFERENCE SIGNS LIST 1 control device 2 image input device 3 moving region detecting device 4 moving component detecting device 5 three-dimensional reconstruction device 6 display device 7 storage device 8 behavior storage device 9 behavior recognition device 10 ranging device 11 ranging device 15 position detection device 16 motion Detector

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 画像入力装置と移動領域検出装置と移動
成分検出装置及び3次元復元装置を有し、 画像入力装置は画像を撮影して入力し、移動領域検出装
置は入力したフレ−ム画像間の移動領域を検出し、移動
成分検出装置は検出した移動領域から使用者自体の移動
成分を算出し、3次元復元装置は移動成分と画像情報よ
り周囲環境の3次元構造を算出することを特徴とする携
帯型情報処理装置。
1. An image input device, a moving region detecting device, a moving component detecting device, and a three-dimensional restoring device. The image input device captures and inputs an image, and the moving region detecting device inputs a frame image. The moving component detecting device calculates the moving component of the user itself from the detected moving region, and the three-dimensional reconstruction device calculates the three-dimensional structure of the surrounding environment from the moving component and the image information. Characteristic portable information processing device.
【請求項2】 画像入力装置と移動領域検出装置と移動
成分検出装置と3次元復元装置と行動記憶装置及び行動
認識装置を有し、 画像入力装置は画像を撮影して入力し、移動領域検出装
置は入力したフレ−ム画像間の移動領域を検出し、移動
成分検出装置は検出した移動領域から装置自体の移動成
分を算出し、3次元復元装置は算出した移動成分と画像
情報より周囲環境の3次元構造を算出し、行動記憶装置
にはあらかじめ移動軌跡と周囲環境の3次元構造に対し
て各種行動を表す記号情報が格納され、行動認識装置は
移動成分検出装置で算出した移動成分と3次元復元装置
で算出した周囲環境の3次元構造及び行動記憶装置に格
納された各種行動を表す記号情報より使用者の行動パタ
−ンを算出することを特徴とする携帯型情報処理装置。
2. An image input device, a moving region detecting device, a moving component detecting device, a three-dimensional restoring device, a behavior storage device, and a behavior recognizing device. The device detects a moving region between the input frame images, the moving component detecting device calculates the moving component of the device itself from the detected moving region, and the three-dimensional reconstruction device calculates the surrounding environment from the calculated moving component and the image information. The action storage device stores in advance the movement trajectory and the symbol information representing various actions with respect to the three-dimensional structure of the surrounding environment, and the action recognition device stores the movement component calculated by the movement component detection device. A portable information processing apparatus, wherein a behavior pattern of a user is calculated from a three-dimensional structure of a surrounding environment calculated by a three-dimensional restoration apparatus and symbol information representing various actions stored in a behavior storage device.
【請求項3】 画像入力装置と移動領域検出装置と測距
装置と移動成分検出装置と及び3次元復元装置を有し、 画像入力装置は画像を撮影して入力し、移動領域検出装
置は入力したフレ−ム画像間の移動領域を検出し、測距
装置は入力した画像面上に投影された周囲環境の1点ま
での距離を算出し、移動成分検出装置は検出した移動領
域と算出した周囲環境の1点までの距離から使用者自体
の移動成分を算出し、3次元復元装置は算出した移動成
分と画像情報より周囲環境の3次元構造を算出すること
を特徴とする携帯型情報処理装置。
3. An image input device, a moving region detecting device, a distance measuring device, a moving component detecting device, and a three-dimensional restoring device. The image input device captures and inputs an image, and the moving region detecting device inputs. The distance measuring device calculates the distance to one point of the surrounding environment projected on the input image plane, and the moving component detecting device calculates the detected moving region. Portable information processing, wherein a moving component of the user itself is calculated from a distance to one point in the surrounding environment, and the three-dimensional reconstruction device calculates a three-dimensional structure of the surrounding environment from the calculated moving component and image information. apparatus.
【請求項4】 画像入力装置と移動領域検出装置と測距
装置と移動成分検出装置と及び3次元復元装置を有し、 画像入力装置は画像を撮影して入力し、移動領域検出装
置は入力したフレ−ム画像間の移動領域を検出し、測距
装置は入力した画像面上に投影された周囲環境の複数点
までの距離を算出し、移動成分検出装置は検出した移動
領域と算出した周囲環境の複数点までの距離から使用者
自体の移動成分を算出し、3次元復元装置は算出した移
動成分と画像情報より周囲環境の3次元構造を算出する
ことを特徴とする携帯型情報処理装置。
4. An image input device, a moving region detecting device, a distance measuring device, a moving component detecting device, and a three-dimensional restoring device, wherein the image input device captures and inputs an image, and the moving region detecting device inputs. The distance measuring device calculates the distance to a plurality of points in the surrounding environment projected on the input image plane, and the moving component detecting device calculates the moving region as the detected moving region. Portable information processing, wherein a user's own moving component is calculated from distances to a plurality of points in the surrounding environment, and the three-dimensional reconstruction device calculates a three-dimensional structure of the surrounding environment from the calculated moving component and image information. apparatus.
【請求項5】 画像入力装置と移動領域検出装置と位置
検出装置と移動成分検出装置と及び3次元復元装置を有
し、 画像入力装置は画像を撮影して入力し、移動領域検出装
置は入力したフレ−ム画像間の移動領域を検出し、位置
検出装置は使用者の位置座標を検出し、移動成分検出装
置は検出した移動領域と使用者の位置座標から使用者自
体の移動成分を算出し、3次元復元装置は算出した移動
成分と画像情報より周囲環境の3次元構造を算出するこ
とを特徴とする携帯型情報処理装置。
5. An image input device, a moving region detecting device, a position detecting device, a moving component detecting device, and a three-dimensional restoring device, wherein the image input device captures and inputs an image, and the moving region detecting device inputs the image. The moving region between the detected frame images is detected, the position detecting device detects the position coordinates of the user, and the moving component detecting device calculates the moving component of the user itself from the detected moving region and the position coordinates of the user. And a three-dimensional restoration device that calculates a three-dimensional structure of a surrounding environment from the calculated moving component and image information.
【請求項6】 画像入力装置と移動領域検出装置と運動
検出装置と移動成分検出装置と及び3次元復元装置を有
し、 画像入力装置は画像を撮影して入力し、移動領域検出装
置は入力したフレ−ム画像間の移動領域を検出し、運動
検出装置は使用者の運動状態を検出し、移動成分検出装
置は検出した移動領域と使用者の運動状態から使用者自
体の移動成分を算出し、3次元復元装置は算出した移動
成分と画像情報より周囲環境の3次元構造を算出するこ
とを特徴とする携帯型情報処理装置。
6. An image input device, a moving region detecting device, a motion detecting device, a moving component detecting device, and a three-dimensional restoring device. The image input device captures and inputs an image, and the moving region detecting device inputs. The movement detecting device detects the movement state of the user, and the movement component detection device calculates the movement component of the user itself from the detected movement region and the movement state of the user. And a three-dimensional restoration device that calculates a three-dimensional structure of a surrounding environment from the calculated moving component and image information.
【請求項7】 使用者の周囲の画像を撮影して入力し、
入力したフレ−ム画像間の移動領域を検出し、検出した
移動領域から使用者自体の移動成分を算出し、算出した
移動成分と画像情報より周囲環境の3次元構造を算出す
ることを特徴とする携帯型情報処理方法。
7. An image around the user is captured and input,
A moving area between input frame images is detected, a moving component of the user is calculated from the detected moving area, and a three-dimensional structure of a surrounding environment is calculated from the calculated moving component and image information. Portable information processing method.
【請求項8】 使用者の周囲の画像を撮影して入力し、
入力したフレ−ム画像間の移動領域を検出し、検出した
移動領域から装置自体の移動成分を算出し、算出した移
動成分と画像情報より周囲環境の3次元構造を算出し、
算出した移動成分と3次元復元装置で算出した周囲環境
の3次元構造及びあらかじめ定められた移動軌跡と周囲
環境の3次元構造に対する各種行動を表す記号情報より
使用者の行動パタ−ンを算出することを特徴とする携帯
型情報処理方法。
8. Photographing and inputting an image around the user,
Detecting a moving region between the input frame images, calculating a moving component of the apparatus itself from the detected moving region, calculating a three-dimensional structure of a surrounding environment from the calculated moving component and image information;
The user's action pattern is calculated from the calculated moving component, the three-dimensional structure of the surrounding environment calculated by the three-dimensional reconstruction device, and a predetermined moving trajectory and symbol information indicating various actions with respect to the three-dimensional structure of the surrounding environment. A portable information processing method, comprising:
【請求項9】 使用者の周囲の画像を撮影して入力し、
入力したフレ−ム画像間の移動領域を検出し、画像面上
に投影された周囲環境の1点までの距離を算出し、検出
した移動領域と算出した周囲環境の1点までの距離から
使用者自体の移動成分を算出し、算出した移動成分と画
像情報より周囲環境の3次元構造を算出することを特徴
とする携帯型情報処理方法。
9. An image around the user is taken and input,
The moving area between the input frame images is detected, the distance to one point in the surrounding environment projected on the image plane is calculated, and the distance is used from the detected moving area and the calculated distance to one point in the surrounding environment. A portable information processing method comprising: calculating a moving component of a user himself; and calculating a three-dimensional structure of a surrounding environment from the calculated moving component and image information.
【請求項10】 使用者の周囲の画像を撮影して入力
し、移動領域検出装置は画像入力装置が入力したフレ−
ム画像間の移動領域を検出し、画像面上に投影された周
囲環境の複数点までの距離を算出し、検出した移動領域
と算出した周囲環境の複数点までの距離距離から使用者
自体の移動成分を算出し、算出した移動成分と画像情報
より周囲環境の3次元構造を算出することを特徴とする
携帯型情報処理方法。
10. An image of a user's surroundings is taken and input, and the moving area detecting device is a frame input by the image input device.
Of the surrounding environment projected on the image plane, and calculates the distance to a plurality of points in the surrounding environment. A portable information processing method comprising: calculating a moving component; and calculating a three-dimensional structure of a surrounding environment from the calculated moving component and image information.
【請求項11】 使用者の周囲の画像を撮影して入力
し、入力したフレ−ム画像間の移動領域を検出し、緯
度,経度により使用者の位置座標を検出し、検出した移
動領域と検出した使用者の位置座標から使用者自体の移
動成分を算出し、算出した移動成分と画像情報より周囲
環境の3次元構造を算出することを特徴とする携帯型情
報処理方法。
11. An image around the user is captured and input, a moving area between the input frame images is detected, the position coordinates of the user are detected based on latitude and longitude, and the detected moving area is detected. A portable information processing method comprising: calculating a moving component of the user itself from the detected position coordinates of the user; and calculating a three-dimensional structure of a surrounding environment from the calculated moving component and image information.
【請求項12】 使用者の周囲の画像を撮影して入力
し、入力したフレ−ム画像間の移動領域を検出し、使用
者の運動状態を検出し、検出した移動領域と検出した使
用者の運動状態から使用者自体の移動成分を算出し、算
出した移動成分と画像情報より周囲環境の3次元構造を
算出することを特徴とする携帯型情報処理方法。
12. A surrounding image of a user is captured and input, a moving area between the input frame images is detected, a motion state of the user is detected, and the detected moving area and the detected user are detected. A mobile information processing method comprising: calculating a moving component of a user itself from a motion state of the user; and calculating a three-dimensional structure of a surrounding environment from the calculated moving component and image information.
JP8295955A 1996-10-18 1996-10-18 Portable information processor and method therefor Pending JPH10124681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8295955A JPH10124681A (en) 1996-10-18 1996-10-18 Portable information processor and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8295955A JPH10124681A (en) 1996-10-18 1996-10-18 Portable information processor and method therefor

Publications (1)

Publication Number Publication Date
JPH10124681A true JPH10124681A (en) 1998-05-15

Family

ID=17827269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8295955A Pending JPH10124681A (en) 1996-10-18 1996-10-18 Portable information processor and method therefor

Country Status (1)

Country Link
JP (1) JPH10124681A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7215319B2 (en) 2000-07-11 2007-05-08 International Business Machines Corporation Wristwatch type device and method for moving pointer
WO2008149674A1 (en) * 2007-06-05 2008-12-11 Olympus Corporation Image processing device, image processing program and image processing method
JP2008301877A (en) * 2007-06-05 2008-12-18 Olympus Corp Apparatus and program for processing image
JP2009028407A (en) * 2007-07-30 2009-02-12 Olympus Corp Image analyzing device and image analyzing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0374310U (en) * 1989-11-21 1991-07-25
JPH0462676A (en) * 1990-07-02 1992-02-27 Nippon Telegr & Teleph Corp <Ntt> 3D shape measuring device
JPH05196437A (en) * 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> Input device for three-dimensional information
JPH08261719A (en) * 1995-03-17 1996-10-11 Toshiba Corp Device and method for calculating amount of relative movement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0374310U (en) * 1989-11-21 1991-07-25
JPH0462676A (en) * 1990-07-02 1992-02-27 Nippon Telegr & Teleph Corp <Ntt> 3D shape measuring device
JPH05196437A (en) * 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> Input device for three-dimensional information
JPH08261719A (en) * 1995-03-17 1996-10-11 Toshiba Corp Device and method for calculating amount of relative movement

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7215319B2 (en) 2000-07-11 2007-05-08 International Business Machines Corporation Wristwatch type device and method for moving pointer
WO2008149674A1 (en) * 2007-06-05 2008-12-11 Olympus Corporation Image processing device, image processing program and image processing method
JP2008301877A (en) * 2007-06-05 2008-12-18 Olympus Corp Apparatus and program for processing image
US8107704B2 (en) 2007-06-05 2012-01-31 Olympus Corporation Image processing device, image processing program and image processing method
JP2009028407A (en) * 2007-07-30 2009-02-12 Olympus Corp Image analyzing device and image analyzing program

Similar Documents

Publication Publication Date Title
US12031838B2 (en) System, methods, device and apparatuses for preforming simultaneous localization and mapping
CN111983635B (en) Pose determination method and device, electronic equipment and storage medium
CN108765498B (en) Monocular vision tracking, device and storage medium
Goncalves et al. A visual front-end for simultaneous localization and mapping
US8803992B2 (en) Augmented reality navigation for repeat photography and difference extraction
CN112161619B (en) Pose detection method, three-dimensional scanning path planning method and detection system
JPH11259688A (en) Image recording device and determining method for position and direction thereof
JP7657308B2 (en) Method, apparatus and system for generating a three-dimensional model of a scene - Patents.com
WO2021200432A1 (en) Imaging instruction method, imaging method, imaging instruction device, and imaging device
KR101296601B1 (en) The camera control system and method for producing the panorama of map information
Cheng et al. AR-based positioning for mobile devices
CN117115244A (en) Cloud repositioning method, device and storage medium
KR102458559B1 (en) Construction management system and method using mobile electric device
JPH10124681A (en) Portable information processor and method therefor
JPH10320558A (en) Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium
JP3221384B2 (en) 3D coordinate measuring device
JP2005031044A (en) Three-dimensional error measuring device
JPH1023465A (en) Image pickup method and its device
JP3655065B2 (en) Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method
CN107478227B (en) Interactive large space positioning algorithm
WO2022075683A1 (en) Method and device for realizing augmented reality via mobile scan object model scaling
JPH05173644A (en) Three-dimensional body recording device
JP4027294B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
Laroche et al. Dynamical models for position measurement with global shutter and rolling shutter cameras
US20220198191A1 (en) Remote inspection and appraisal of buildings

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040608