JP3347087B2 - 3D structure reconstruction method from 2D video - Google Patents
3D structure reconstruction method from 2D videoInfo
- Publication number
- JP3347087B2 JP3347087B2 JP02562899A JP2562899A JP3347087B2 JP 3347087 B2 JP3347087 B2 JP 3347087B2 JP 02562899 A JP02562899 A JP 02562899A JP 2562899 A JP2562899 A JP 2562899A JP 3347087 B2 JP3347087 B2 JP 3347087B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- angular velocity
- acceleration
- moving image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ビデオカメラ等の
2次元動画像から、並進運動と回転運動を識別して3次
元構造を復元しかつ対象物の実際の大きさを知る方法に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for recognizing a translational motion and a rotational motion from a two-dimensional moving image of a video camera or the like, restoring a three-dimensional structure, and knowing the actual size of an object.
【0002】[0002]
【従来の技術】ビデオカメラ等で撮像される動画像は観
測者の動きや対象の構造に関する重要な情報を含んでい
る。例えば、街を歩きながらビデオカメラである建物の
周りを動きながら撮影してデータを取れば、後でコンピ
ュータにより3次元構造を復元し、自由な角度から眺め
ることが可能となる。従って、かかる2次元動画像から
の3次元構造の復元は、コンピュータビジョンの重要な
課題の1つであり、この技術が確立されれば、3次元モ
デリング、トラッキング、パッシブ・ナビゲーション、
ロボットビジョンなどの多くの分野に応用可能である。2. Description of the Related Art A moving image picked up by a video camera or the like contains important information on the movement of an observer and the structure of an object. For example, if data is taken by moving around a building, which is a video camera while walking in a city, data is acquired, and a three-dimensional structure can be restored later by a computer and viewed from any angle. Therefore, restoration of a three-dimensional structure from such a two-dimensional moving image is one of the important issues of computer vision, and if this technology is established, three-dimensional modeling, tracking, passive navigation,
It can be applied to many fields such as robot vision.
【0003】この分野の研究は、おおまかに2種類に分
類することができる。1つは、異なる時刻に得られた画
像上の点の対応関係を使う手段であり、もう1つは、画
像上の速度(オプティカルフロー)を利用する手段であ
る。前者に較べてオプティカルフローを使う手段は、
(1)オプティカルフローは画像上の対応点よりも容易
に得られ、(2)速度はオプティカルフローから得られ
るが対応点からは得られない、等の利点がある。[0003] Research in this area can be broadly classified into two types. One is a means for using the correspondence between points on the image obtained at different times, and the other is a means for using the speed (optical flow) on the image. The means of using optical flow compared to the former is
(1) The optical flow can be obtained more easily than the corresponding point on the image, and (2) the speed can be obtained from the optical flow but cannot be obtained from the corresponding point.
【0004】更に、画像上のオプティカルフローから対
象の構造を復元する手段として、(1)平行投影像を使
うものと(2)透視投影像を使うものがある。前者は後
者の近似であり、この近似は対象がカメラから遠方にあ
る時にのみ成立する。従って、後者の透視投影像を使う
手段の方が高い精度を得ることができる。Further, as means for restoring an object structure from an optical flow on an image, there are (1) a method using a parallel projection image and (2) a method using a perspective projection image. The former is an approximation of the latter, and this approximation only holds when the object is far from the camera. Therefore, the latter means using the perspective projection image can obtain higher accuracy.
【0005】透視投影像のオプティカルフローから対象
の構造を復元する手段としては、従来、特別な仮定を設
けない限り、非線形連立方程式を繰り返し法を用いて解
く必要があった。特別な仮定とは、被観測点が平面上に
ある場合、運動が回転だけ、又は並進だけの場合であ
る。従って、一般的には、非線形連立方程式を解く必要
があるが、その場合、解の一意性が保証されない、繰り
返し法による探索が必要になる、等の問題点があった。As a means for restoring the structure of an object from an optical flow of a perspective projection image, it has conventionally been necessary to solve a system of nonlinear equations by an iterative method unless special assumptions are made. A special assumption is that when the point to be observed lies on a plane, the movement is only rotation or only translation. Therefore, in general, it is necessary to solve a system of nonlinear equations. However, in this case, there are problems that the uniqueness of the solution is not guaranteed and that a search by an iterative method is required.
【0006】これらの問題点を解決するために、本発明
の発明者等は、剛体的な運動をする点から透視投影で得
られたオプティカルフロー画像を使って、線形方程式を
解くだけで構造を復元する方法を提案した(「オプティ
カルフロー画像からの線形計算による3次元運動パラメ
ータと構造の復元」,計測自動制御学会論文集,Vo
l.34,No.5,438/444(1998))。
この方法により、非線形方程式を解く必要がなく、解の
一意性が保証され、かつ被観測点を増やすことにより精
度も容易に向上できる。[0006] In order to solve these problems, the inventors of the present invention have developed a structure simply by solving a linear equation using an optical flow image obtained by perspective projection from a point performing rigid motion. A method for restoration is proposed (“Reconstruction of 3D motion parameters and structure by linear calculation from optical flow image”, Transactions of the Society of Instrument and Control Engineers, Vo
l. 34, no. 5,438 / 444 (1998)).
According to this method, it is not necessary to solve the nonlinear equation, the uniqueness of the solution is guaranteed, and the accuracy can be easily improved by increasing the number of observation points.
【0007】[0007]
【発明が解決しようとする課題】しかし、上述した3次
元構造復元方法には、以下の問題点があった。 (1)図1に例示するように、カメラ2と対象物1との
距離に対して対象物1の奥行きが相対的に小さい場合、
並進運動(A)と回転運動(B)は動きが小さい場合に
は画像上では似たようなオプティカルフローとなるの
で、区別するのは非常に難しい。その結果、対象物の構
造も正しく復元することが困難となる。 (2)対象物の大きさとカメラの並進運動は相対的な値
としてしか求まらず、絶対的な大きさはわからない。な
ぜなら、小さな対象物が近くにあって少し動いた場合
と、大きな対象物が遠くにあって大きく動いた場合とで
は、画像上では全く同じ結果が得られるからである。However, the above-mentioned three-dimensional structure restoring method has the following problems. (1) As illustrated in FIG. 1, when the depth of the object 1 is relatively small with respect to the distance between the camera 2 and the object 1,
When the motion is small, the translational motion (A) and the rotational motion (B) have a similar optical flow on the image, and it is very difficult to distinguish them. As a result, it is difficult to correctly restore the structure of the object. (2) The size of the object and the translational movement of the camera are obtained only as relative values, and the absolute size is not known. This is because the same result is obtained on an image when a small object moves nearby and moves a little, and when a large object moves far and largely.
【0008】本発明は、かかる問題点を解決するために
創案されたものである。すなわち、本発明の目的は、非
線形方程式を解く必要がなく、解の一意性が保証され、
かつ並進運動と回転運動を容易に識別でき、更に対象物
の絶対的な大きさも得られる2次元動画像からの3次元
構造復元方法を提供することにある。The present invention has been made to solve such a problem. That is, the object of the present invention is to eliminate the need to solve nonlinear equations, guarantee the uniqueness of the solution,
Another object of the present invention is to provide a method for restoring a three-dimensional structure from a two-dimensional moving image in which a translational motion and a rotational motion can be easily distinguished and an absolute size of an object can be obtained.
【0009】[0009]
【課題を解決するための手段】上述した問題点は原理的
なものであり画像処理だけでは解決できない。しかし、
カメラに加速度・角速度センサを付加して情報を補うこ
とにより、これらの欠点を回避することができる。本発
明はかかる新規の着想に基づくものである。The above-mentioned problems are fundamental and cannot be solved only by image processing. But,
These disadvantages can be avoided by supplementing information by adding an acceleration / angular velocity sensor to the camera. The present invention is based on such a new idea.
【0010】すなわち、本発明によれば、静止している
対象物(1)の動画像を撮像するカメラ(2)に加速度
と角速度を計測するセンサを一体的に取り付け、動画像
と加速度及び角速度のデータを同期させて記録し、得ら
れた角速度データを基に角速度が0になるように動画像
を画像処理して並進運動だけを含む動画像とし、この動
画像から3次元構造を復元し、得られた加速度データか
ら求めた速度と、並進運動だけを含む動画像から求めた
速度との比sから、この比sにカメラの単位時間あたり
の移動距離を単位として求めた大きさを積算して対象物
の大きさを求める、ことを特徴とする3次元構造復元方
法が提供される。That is, according to the present invention, a sensor for measuring acceleration and angular velocity is integrally attached to a camera (2) for capturing a moving image of a stationary object (1), and the moving image and the acceleration and angular velocity are integrated. to synchronize the data recording to give al
Moving image so that the angular velocity becomes 0 based on the extracted angular velocity data
Is processed into an image containing only translational motion.
3D structure is restored from the image, and the obtained acceleration data
Calculated from the moving image including only the translational motion
From the ratio s to the speed, this ratio s
The target object is calculated by integrating the size calculated using the travel distance of
A three-dimensional structure restoring method for determining the size of the three-dimensional structure.
【0011】3次元構造(形)を復元したい対象物は静
止しており、その周りを加速度・角速度センサを取り付
けたカメラを動かしながら撮影し、画像と加速度・角速
度センサの出力を同期させて取り込む。次に、加速度・
角速度センサの出力から角速度データが得られるので、
動画像に対し回転をキャンセルするような操作を施す
と、並進運動だけを含む動画像が得られる。これにより
カメラの動きの自由度は減るので、制限された状況下で
動画像からカメラの動きと対象物の再構成が行える。そ
の結果、カメラの動きが以前より正確にわかるので、対
象物の3次元構造の復元値の精度が向上する。An object whose three-dimensional structure (shape) is desired to be restored is stationary, and an image is taken around the object while moving a camera provided with an acceleration / angular velocity sensor, and the image is synchronized with the output of the acceleration / angular velocity sensor. . Next, acceleration
Since angular velocity data can be obtained from the output of the angular velocity sensor,
By performing an operation to cancel the rotation of the moving image, a moving image including only the translational motion can be obtained. As a result, the degree of freedom of the movement of the camera is reduced, so that the movement of the camera and the reconstruction of the target object can be performed from the moving image under a limited situation. As a result, the movement of the camera can be more accurately recognized than before, and the accuracy of the restored value of the three-dimensional structure of the object is improved.
【0012】更に、カメラ速度と対象物の構造を動画像
から求めた値には後述する同一の未知スケールsが掛か
っている。そこで、加速度データから求めた実際の速度
と、並進運動だけを含む動画像から求めた画像上の速度
を比較することにより、その比としてこの未知スケール
sを求めることができ、この比sにカメラの単位時間あ
たりの移動距離を単位として求めた大きさを積算すれば
対象物の大きさを求めることができる。Furthermore, the same unknown scale s, which will be described later, is applied to the values obtained from the moving image for the camera speed and the structure of the object. Therefore, the actual speed obtained from acceleration data, by comparing the speed of the image obtained from a moving image that contains only translational motion can be determined the unknown scale s as the ratio, camera in this ratio s Unit time
The size of the target object can be obtained by integrating the sizes obtained in units of the travel distance of the object.
【0013】[0013]
【発明の実施の形態】以下、本発明の実施形態を具体的
に説明する。 1.座標系の定義 以下の説明で位置や速度を表すベクトルを用いるが、ベ
クトルに関して、要素の値を表すために基準となる座標
系を3種類定義する。第1は、世の中に固定したワ−ル
ド座標系であり、ベクトルをこれを基準にして表す場合
は右肩にBを付ける。これを以下「基準ワ−ルド座標
系」と呼ぶ。第2は、カメラと共に動くカメラ座標系で
あり、この場合は右肩にCを付ける。第3は、世の中に
対して固定したワ−ルド座標系であるが、この座標系は
各時刻でのカメラ座標系に重なるように取る。この場
合、右肩にWを付ける。この座標系を以下「瞬時ワ−ル
ド座標系」と呼ぶ。DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described specifically. 1. Definition of Coordinate System In the following description, vectors representing positions and velocities will be used. Regarding the vectors, three types of reference coordinate systems are defined to represent element values. The first is a world coordinate system fixed in the world. When a vector is expressed based on this, a B is added to the right shoulder. This is hereinafter referred to as a “reference world coordinate system”. The second is a camera coordinate system that moves with the camera. In this case, C is attached to the right shoulder. Third, a world coordinate system fixed to the world is set so as to overlap the camera coordinate system at each time. In this case, W is attached to the right shoulder. This coordinate system is hereinafter referred to as an “instant-world coordinate system”.
【0014】基準ワ−ルド座標系は動画像を撮る時間を
通して1つだけであるが、瞬時ワ−ルド座標系はカメラ
の移動に伴い、各時刻ごとに異なったものとなる。例え
ば、カメラがある基準ワ−ルド座標系B1に対してvBで
動いている場合、カメラ座標系はカメラと共に動いてい
るので、当然vC=0となる。また、この瞬間のカメラ
座標系と重なるように取った瞬時ワ−ルド座標系W2か
ら見た速度は、vW=RvBとなる。ここで、RはB1か
らW2への変換を表す回転である。ベクトルは基準位置
が並進移動しても要素の値は変わらないので、回転だけ
で座標系間の関係がつけられる。加速度・角速度センサ
の出力は、瞬時ワ−ルド座標系に関する加速度aWと角
速度ωWである。There is only one reference world coordinate system throughout the time when a moving image is taken, but the instant world coordinate system changes at each time as the camera moves. For example, the reference word is a camera - if running in v B relative to field coordinate system B 1, the camera coordinate system is so moving together with the camera, a naturally v C = 0. Further, the instantaneous word took as to overlap the camera coordinate system of the instant - speed viewed from the field coordinate system W 2 becomes v W = Rv B. Here, R is a rotation representing the conversion from B 1 to W 2 . Since the values of the elements of the vector do not change even if the reference position is translated, the relationship between the coordinate systems can be established only by rotation. The outputs of the acceleration / angular velocity sensor are acceleration a W and angular velocity ω W with respect to the instantaneous world coordinate system.
【0015】 2.一時刻のオプティカルフロ−から対象物構造を復元
する方法 図2は、対象物とカメラの位置変化との関係図である。
カメラの中心3から対象物上の点4に向かう単位ベクト
ルをqW、カメラ中心の移動をあらわすベクトルをδuW
とすると、時刻tとそれから少し後の時刻t+δtで図
2のような関係がある。つまり、qW(t)、qW(t+
δt)、δuWは同一平面上にあるので、スカラー三重
積が0になることから、(式1)が成立する。[0015] 2. Method for Reconstructing Object Structure from Optical Flow at One Time FIG. 2 is a diagram showing the relationship between the object and a change in the position of the camera.
The unit vector from the camera center 3 to the point 4 on the object is q W , and the vector representing the movement of the camera center is δu W
Then, there is a relationship as shown in FIG. 2 between the time t and the time t + δt slightly later than the time t. That is, q W (t), q W (t +
Since δt) and δu W are on the same plane, the scalar triple product becomes 0, so (Equation 1) holds.
【数1】 (Equation 1)
【0016】(1)式をカメラで観測した画像から直接
得られるカメラ座標系での対象物上の点の方向を表す単
位ベクトルqCとその時間微分(つまり、オプティカル
フロー)dqC/dtを使って書き換えると、(式2)
となる。ただし、vW、ωWはカメラの速度、角速度を表
す。これが対象物上の各点について成り立つ。A unit vector q C representing the direction of a point on an object in a camera coordinate system obtained directly from an image obtained by observing the equation (1) with a camera and its time derivative (that is, optical flow) dq C / dt are represented by When rewritten using (Equation 2)
Becomes However, v W, ω W represents speed of the camera, the angular speed. This holds for each point on the object.
【数2】 (Equation 2)
【0017】vW、ωWの要素から構成されるベクトル
(式3)を定義する。A vector (Equation 3) composed of v W and ω W elements is defined.
【数3】 (Equation 3)
【0018】(式2)を変形することにより、最終的に
は観測値(8点以上必要)だけから得られる行列Gを使
って、 Gx=0 という方程式が得られる。この式を解くことによってv
W、ωWが得られる。ただし、vWに関してはスケールは
未知である。ここで得られたvW、ωWを使って対象物上
の点の位置も復元される。ただし、スケール未知のvW
を使うので、対象物のスケールも未知となる。つまり、
速度と点の位置全体について1つの未知数(後述する
s)があり、全てはこれが掛かった形で求まる。言い換
えると、点の位置の復元値はカメラの単位時間あたりの
移動距離を単位として求まる。By transforming (Equation 2), an equation Gx = 0 is finally obtained using a matrix G obtained only from observation values (8 or more points are required). By solving this equation, v
W and ω W are obtained. However, the scale of v W is unknown. The position of the point on the object is restored using v W and ω W obtained here. Where v W of unknown scale
, The scale of the object is also unknown. That is,
There is one unknown (s, which will be described later) for the speed and the entire position of the point, all of which are obtained by multiplying them. In other words, the restored value of the position of the point is obtained in units of the moving distance of the camera per unit time.
【0019】3.異なる時刻の復元結果を融合する方法 動画像からは各時刻でオプティカルフローが得られるの
で、各時刻で対象物構造やカメラの動きが復元される。
しかし、各時刻での復元値は観測した時刻のカメラ座標
系に一致するように決めた瞬時ワールド座標系を基準に
して求まり、さらにスケールはその時刻でのカメラ速度
を基準として求まるので、カメラが移動する結果、同一
の点でも時刻によって座標値は異なったものとなる。3. Method of merging restoration results at different times Since an optical flow is obtained from a moving image at each time, the object structure and the motion of the camera are restored at each time.
However, the restoration value at each time is obtained based on the instantaneous world coordinate system determined to match the camera coordinate system at the observed time, and the scale is obtained based on the camera speed at that time. As a result, even at the same point, the coordinate value differs depending on the time.
【0020】しかし、対象物の形自体は各時刻で変わら
ないので、各時刻間の対象物の復元値はスケール、並
進、回転の変換を適切に行えば、重なり合うはずであ
る。これにより、各時刻間の座標系の関係を表すスケー
ル、並進、回転が求まる。例えば図3は、ある時刻にお
いて復元した対象物の3次元構造を示しており、(A)
は時刻t1、(B)は時刻t2におけるものである。対
象物が静止している場合には、形自体は各時刻で変わら
ないので、各時刻間の対象物の復元値はスケール、並
進、回転の変換を適切に行うことにより、重なり合わせ
ることができる。However, since the shape of the object itself does not change at each time, the restored values of the object between the times should overlap if the scale, translation, and rotation are appropriately converted. As a result, a scale, translation, and rotation representing the relationship of the coordinate system between the times are obtained. For example, FIG. 3 shows a three-dimensional structure of an object restored at a certain time, and FIG.
Is at time t1, and (B) is at time t2. When the object is stationary, the shape itself does not change at each time, so the restoration value of the object between each time can be overlapped by appropriately performing scale, translation, rotation conversion. .
【0021】求まったスケール、並進、回転を使って各
時刻間の変換を行い、重ね合わせた結果について平均を
取ることによって、対象物の形の精度が向上する。速度
については、スケール変換だけを行えば時刻間でのスケ
ールの比が正しい関係にあるvW(t)が求まるし、ス
ケールと共に回転も行えば同一座標系(重ね合わせる基
準に使ったワールド座標系)での時刻に伴う変遷v
B(t)が求まる。角速度についてはスケールは画像か
ら正しく求まっている、つまり、画像からωW(t)は
融合前からわかっているので、回転だけを行えばω
B(t)が求まる。ただし、これでも各時刻のカメラ速
度と復元した点の位置全体に掛かるスケール自体は未知
のままである。By performing conversion between respective times using the obtained scale, translation, and rotation, and averaging the superimposed results, the accuracy of the shape of the object is improved. As for the speed, if only scale conversion is performed, v W (t) in which the scale ratio between times is in a correct relationship is obtained. If rotation is performed together with scale, the same coordinate system (the world coordinate system used as a reference for superposition) is used. Changes with time at)
B (t) is obtained. Regarding the angular velocity, the scale is correctly obtained from the image, that is, since ω W (t) is known from the image before the fusion, if only rotation is performed, ω
B (t) is obtained. However, even in this case, the camera speed at each time and the scale applied to the entire position of the restored point remain unknown.
【0022】 4.加速度・角速度センサを用いて問題点(1)を解決
する方法 加速度・角速度センサから角速度が出力されるので、動
画像に対し回転をキャンセルするような操作を施すと、
並進運動だけを含む画像が得られる。これによりカメラ
の動きの自由度は減るので、制限された状況下で動画像
からカメラの動きと対象物の再構成が行える。言い換え
ると、(式2)でωWが加速度・角速度センサから求ま
るので、画像と加速度・角速度センサ出力から求まる行
列をHとして、(式4)という式を解けば良くなる。[0022] 4. Method for Solving Problem (1) Using Acceleration / Angular Velocity Sensor The angular velocity is output from the acceleration / angular velocity sensor.
An image containing only translational motion is obtained. As a result, the degree of freedom of the movement of the camera is reduced, so that the movement of the camera and the reconstruction of the target object can be performed from the moving image under a limited situation. In other words, since ω W is obtained from the acceleration / angular velocity sensor in (Equation 2), it is sufficient to solve the equation (Equation 4) with H as a matrix obtained from the image and the output of the acceleration / angular velocity sensor.
【数4】 その結果、カメラの動きが以前より正確にわかるので、
対象物の3次元構造の復元値の精度が向上する。(Equation 4) As a result, you can see the movement of the camera more accurately than before,
The accuracy of the restoration value of the three-dimensional structure of the object is improved.
【0023】 5.加速度・角速度センサを用いて問題点2を解決する
方法 加速度・角速度センサ出力を用いてカメラの速度を求
め、これを画像から求めた速度と比較することによって
未知スケールを求めることを考える。この未知スケール
は対象物のスケールでもあるので、結局、対象物の大き
さが求まる。まず、加速度・角速度センサ出力を用いて
カメラの速度を求める方法について述べる。これは理論
的には基準ワールド座標系で表したベクトルを用いて
(式5)式のように書ける。ここでvB(t0)は速度の
初期値、aBは加速度、gBは重力加速度である。[0023] 5. Method of Solving Problem 2 Using Acceleration / Angular Velocity Sensor Consider a method of obtaining an unknown scale by obtaining the speed of a camera using the output of an acceleration / angular speed sensor and comparing the obtained speed with the speed obtained from an image. Since this unknown scale is also the scale of the object, the size of the object is finally obtained. First, a method of obtaining the speed of the camera using the output of the acceleration / angular velocity sensor will be described. This can be theoretically written as Expression (5) using a vector expressed in the reference world coordinate system. Here, v B (t 0 ) is the initial value of the velocity, a B is the acceleration, and g B is the gravitational acceleration.
【数5】 (Equation 5)
【0024】加速度・角速度センサはカメラに取り付け
てあるのでセンサ出力はカメラ座標系と一致する瞬時ワ
ールド座標系に関して得られるから、(式5)を変形し
て(式6)と(式7)が得られる。ここでR(t)は、
基準ワールド座標系から、時刻tでの瞬時ワールド座標
系への回転を表す。Since the acceleration / angular velocity sensor is attached to the camera, the sensor output can be obtained with respect to the instantaneous world coordinate system which coincides with the camera coordinate system. Therefore, the expression (5) is modified to obtain the expressions (6) and (7). can get. Where R (t) is
It represents the rotation from the reference world coordinate system to the instantaneous world coordinate system at time t.
【数6】 (Equation 6)
【数7】 このR(t)自体は、初期値がわかっていれば加速度・
角速度センサ出力の角速度を時間積分することによって
求められる。(Equation 7) This R (t) itself can be calculated as acceleration /
It is determined by integrating the angular velocity of the output of the angular velocity sensor over time.
【0025】上述した原理を用いて加速度・角速度セン
サから求めた速度をvW G(t)と表記し、真の速度vW
(t)との関係を(式8)と表す。ここで、b(t)は
未知の初期速度とドリフトの効果を含めて表したもので
ある。The velocity obtained from the acceleration / angular velocity sensor based on the above principle is expressed as v W G (t), and the true velocity v W
The relationship with (t) is represented by (Equation 8). Here, b (t) represents the unknown initial velocity and the effects of drift.
【数8】 (Equation 8)
【0026】b(t)はセンサのノイズのために少しず
つ変化するが、その変化の値は小さいので、dt/db
(t)≒0とできる。一方、画像から求めた速度をvW I
(t)とするとこれはスケール未知なので(式9)とな
る。よって(式10)という関係が得られる。B (t) changes little by little due to sensor noise, but since the value of the change is small, dt / db
(T) ≒ 0. On the other hand, the speed obtained from the image is represented by v W I
If (t) is used, the scale is unknown, so that (Expression 9) is obtained. Therefore, the relationship of (Equation 10) is obtained.
【数9】 (Equation 9)
【数10】 (Equation 10)
【0027】図4は、画像から求めた速度と真の速度と
の関係図である。この図に示すように、計測時間にわた
ってb(t)がほとんど変化しない場合にはvW I(t)
とvW G(t)をプロットしたグラフはほぼ直線状に並
び、直線の傾きからスケールsがわかる。FIG. 4 is a diagram showing the relationship between the speed obtained from the image and the true speed. As shown in this figure, when b (t) hardly changes over the measurement time, v W I (t)
And a graph plotting v W G (t) are substantially linearly arranged, and the scale s can be determined from the slope of the straight line.
【0028】計測時間中にb(t)が変化するとした場
合にも、その単位時間あたりの変化分は小さいので、
(式10)の時間微分を取ると、(式11)となるか
ら、この関係からsが得られる。Even if b (t) changes during the measurement time, the change per unit time is small.
Taking the time derivative of (Equation 10) gives (Equation 11), and s is obtained from this relationship.
【数11】 以上の方法で画像から得られた速度と復元位置全体にか
かるスケルールsが求まるので、最終的に、この比sに
カメラの単位時間あたりの移動距離を単位として求めた
大きさを積算すれば対象物の大きさも求まる。[Equation 11] Since such Sukeruru s is obtained in the entire speed and restoring the position obtained from the images by the above method, finally, to the ratio s
The distance traveled by the camera per unit time was obtained as a unit.
If the size is integrated , the size of the target object can also be obtained.
【0029】上述したように、本発明の方法によれば、
動画像を撮像するカメラに加速度と角速度を計測するセ
ンサを一体的に取り付け、動画像と加速度及び角速度の
データを同期させて記録する。また、角速度データを基
に角速度が0になるように動画像を画像処理して並進運
動だけを含む動画像とし、この動画像から3次元構造を
復元する。更に、加速度データから求めた速度と、並進
運動だけを含む動画像から求めた速度との比sから、こ
の比sにカメラの単位時間あたりの移動距離を単位とし
て求めた大きさを積算すれば対象物の大きさを求める。As described above, according to the method of the present invention,
A sensor that measures acceleration and angular velocity is integrally attached to a camera that captures a moving image, and data of the moving image and the acceleration and angular velocity are recorded in synchronization. Further, based on the angular velocity data, the moving image is subjected to image processing so that the angular velocity becomes zero, thereby obtaining a moving image including only the translational motion, and the three-dimensional structure is restored from the moving image. Furthermore, the speed obtained from acceleration data, the ratio s between the speed obtained from a moving image that contains only translational motion, this
Is the ratio of camera movement distance per unit time to unit s
The size of the target object is obtained by integrating the sizes obtained by the above .
【0030】カメラと加速度・角速度センサの出力を同
期させて取り込むことにより、加速度・角速度センサの
出力から角速度データが得られるので、動画像に対し回
転をキャンセルするような操作を施すと、並進運動だけ
を含む動画像が得られる。これによりカメラの動きの自
由度は減るので、制限された状況下で動画像からカメラ
の動きと対象物の再構成が行える。その結果、カメラの
動きが以前より正確にわかるので、対象物の3次元構造
の復元値の精度が向上する。更に、カメラ速度と対象物
の構造を動画像から求めた値には同一の未知スケールs
(式9〜11参照)が掛かっているが、加速度データか
ら求めた実際の速度と、並進運動だけを含む動画像から
求めた画像上の速度を比較することにより、その比とし
てこの未知スケールsを求めることができ、この比sに
カメラの単位時間あたりの移動距離を単位として求めた
大きさを積算すれば対象物の大きさを求めることができ
る。By synchronizing and capturing the output of the camera and the acceleration / angular velocity sensor, angular velocity data can be obtained from the output of the acceleration / angular velocity sensor. Is obtained. As a result, the degree of freedom of the movement of the camera is reduced, so that the movement of the camera and the reconstruction of the target object can be performed from the moving image under a limited situation. As a result, the movement of the camera can be more accurately recognized than before, and the accuracy of the restored value of the three-dimensional structure of the object is improved. Further, the same unknown scale s is included in the values obtained from the moving image for the camera speed and the structure of the object.
(Equations 9 to 11) are applied, but by comparing the actual speed obtained from the acceleration data with the speed on the image obtained from the moving image including only the translational motion, the unknown scale s is obtained as a ratio. And this ratio s
The distance traveled by the camera per unit time was obtained as a unit.
By integrating the sizes, the size of the object can be obtained.
【0031】なお、本発明は上述した実施形態に限定さ
れず、本発明の要旨を逸脱しない範囲で種々に変更でき
ることは勿論である。It should be noted that the present invention is not limited to the above-described embodiment, but can be variously modified without departing from the gist of the present invention.
【0032】[0032]
【発明の効果】上述したように、本発明の2次元動画像
からの3次元構造復元方法は、非線形方程式を解く必要
がなく、解の一意性が保証され、かつ並進運動と回転運
動を容易に識別でき、更に対象物の絶対的な大きさも得
られる、等の優れた効果を有する。As described above, the method for restoring a three-dimensional structure from a two-dimensional moving image according to the present invention does not require solving a nonlinear equation, guarantees uniqueness of the solution, and facilitates translation and rotation. And the absolute size of the object can be obtained.
【図1】対象物とカメラとの関係を示す図である。FIG. 1 is a diagram showing a relationship between an object and a camera.
【図2】対象物とカメラの位置変化との関係図である。FIG. 2 is a relationship diagram between an object and a change in the position of a camera.
【図3】復元した形状を模式的に示す図である。FIG. 3 is a diagram schematically showing a restored shape.
【図4】画像から求めた速度と真の速度との関係図であ
る。FIG. 4 is a relationship diagram between a speed obtained from an image and a true speed.
1 対象物 2 カメラ 3 カメラの中心 4 対象物上の点 1 object 2 camera 3 camera center 4 point on object
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大西 昇 愛知県名古屋市守山区大字下志段味字穴 ケ洞2271−130 サイエンスパーク研究 開発センター内 理化学研究所バイオ・ ミメティックコントロール研究センター 内 (56)参考文献 特開 平9−81790(JP,A) 特開 平11−306363(JP,A) 特開 平10−23465(JP,A) 向井利春,大西昇,「三次元形状モデ ル作成のためのビデオカメラとジャイロ センサを用いたセンサシステム」,日本 バーチャルリアリティ学会第4回大会論 文集,日本,日本バーチャルリアリティ 学会,1999年 9月29日,p.213−216 向井利春,大西昇,「オプティカルフ ロー画像からの線形計算による3次元運 動パラメータと構造の復元」,計測自動 制御学会論文集,日本,計測自動制御学 会,1998年 5月31日,Vol.34,N o.5,p.438−444 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 315 G01B 11/24 G06T 7/00 G06T 7/20 G06T 7/20 100 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Noboru Noboru 2271-130 Science Park Research and Development Center, Shimo-shi-dami-ji, Moriyama-ku, Nagoya-shi, Aichi Pref. RIKEN Bio-Mimetic Control Research Center (56) Reference References JP-A-9-81790 (JP, A) JP-A-11-306363 (JP, A) JP-A-10-23465 (JP, A) Toshiharu Mukai, Noboru Onishi, "3D Shape Model Creation" Sensor System Using Video Camera and Gyro Sensor, "Proceedings of the 4th Annual Meeting of the Virtual Reality Society of Japan, Japan, Virtual Reality Society of Japan, September 29, 1999, p. 213-216 Toshiharu Mukai, Noboru Onishi, "Reconstruction of 3D Motion Parameters and Structure by Linear Calculation from Optical Flow Image", Transactions of the Society of Instrument and Control Engineers, Japan, Society of Instrument and Control Engineers, May 31, 1998 Date, Vol. 34, No. 5, p. 438-444 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 315 G01B 11/24 G06T 7/00 G06T 7/20 G06T 7/20 100
Claims (1)
像するカメラ(2)に加速度と角速度を計測するセンサ
を一体的に取り付け、動画像と加速度及び角速度のデー
タを同期させて記録し、得られた角速度データを基に角速度が0になるように動
画像を画像処理して並進運動だけを含む動画像とし、こ
の動画像から3次元構造を復元し、 得られた加速度データから求めた速度と、並進運動だけ
を含む動画像から求めた速度との比sから、この比sに
カメラの単位時間あたりの移動距離を単位として求めた
大きさを積算して対象物の大きさを求める、 ことを特徴
とする3次元構造復元方法。1. A sensor for measuring acceleration and angular velocity is integrally attached to a camera for capturing a moving image of a stationary object, and data of the acceleration and angular velocity are synchronized with the camera. Record and move so that the angular velocity becomes 0 based on the obtained angular velocity data.
The image is processed into a moving image that contains only translational motion.
Of the three-dimensional structure from the moving image of the target, and the speed and translational motion obtained from the obtained acceleration data
From the ratio s to the speed obtained from the moving image containing
The distance traveled by the camera per unit time was obtained as a unit.
A three-dimensional structure restoring method, wherein a size of an object is obtained by integrating the sizes .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02562899A JP3347087B2 (en) | 1999-02-03 | 1999-02-03 | 3D structure reconstruction method from 2D video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02562899A JP3347087B2 (en) | 1999-02-03 | 1999-02-03 | 3D structure reconstruction method from 2D video |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000222580A JP2000222580A (en) | 2000-08-11 |
JP3347087B2 true JP3347087B2 (en) | 2002-11-20 |
Family
ID=12171142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP02562899A Expired - Fee Related JP3347087B2 (en) | 1999-02-03 | 1999-02-03 | 3D structure reconstruction method from 2D video |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3347087B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019074532A (en) * | 2017-10-17 | 2019-05-16 | 有限会社ネットライズ | Method for giving real dimensions to slam data and position measurement using the same |
WO2019215923A1 (en) | 2018-05-11 | 2019-11-14 | 三菱電機株式会社 | Data synchronization device, data synchronization method and data synchronization program |
-
1999
- 1999-02-03 JP JP02562899A patent/JP3347087B2/en not_active Expired - Fee Related
Non-Patent Citations (2)
Title |
---|
向井利春,大西昇,「オプティカルフロー画像からの線形計算による3次元運動パラメータと構造の復元」,計測自動制御学会論文集,日本,計測自動制御学会,1998年 5月31日,Vol.34,No.5,p.438−444 |
向井利春,大西昇,「三次元形状モデル作成のためのビデオカメラとジャイロセンサを用いたセンサシステム」,日本バーチャルリアリティ学会第4回大会論文集,日本,日本バーチャルリアリティ学会,1999年 9月29日,p.213−216 |
Also Published As
Publication number | Publication date |
---|---|
JP2000222580A (en) | 2000-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240230335A1 (en) | Vision-Aided Inertial Navigation System for Ground Vehicle Localization | |
US11519729B2 (en) | Vision-aided inertial navigation | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
US8761439B1 (en) | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit | |
WO2020140431A1 (en) | Camera pose determination method and apparatus, electronic device and storage medium | |
JP4743818B2 (en) | Image processing apparatus, image processing method, and computer program | |
Clipp et al. | Robust 6dof motion estimation for non-overlapping, multi-camera systems | |
CN109540126A (en) | A kind of inertia visual combination air navigation aid based on optical flow method | |
CN109166149A (en) | A kind of positioning and three-dimensional wire-frame method for reconstructing and system of fusion binocular camera and IMU | |
US20160260250A1 (en) | Method and system for 3d capture based on structure from motion with pose detection tool | |
CN111161337B (en) | Accompanying robot synchronous positioning and composition method in dynamic environment | |
CN112985450B (en) | Binocular vision inertial odometer method with synchronous time error estimation | |
US20180075614A1 (en) | Method of Depth Estimation Using a Camera and Inertial Sensor | |
CN111899276A (en) | SLAM method and system based on binocular event camera | |
KR20000064528A (en) | 3D image processing method and apparatus using parallax shape at both points | |
CN108170297B (en) | Real-time six-degree-of-freedom VR/AR/MR device positioning method | |
CN114001733B (en) | Map-based consistent efficient visual inertial positioning algorithm | |
JP2002032745A (en) | Method for restoring three-dimensional scene structure and movement of camera directly from dot, line, and/or image intensity | |
JP2002532770A (en) | Method and system for determining a camera pose in relation to an image | |
Ramezani et al. | Omnidirectional visual-inertial odometry using multi-state constraint Kalman filter | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
Qayyum et al. | Inertial-kinect fusion for outdoor 3d navigation | |
JP3347087B2 (en) | 3D structure reconstruction method from 2D video | |
Schön et al. | Integrated navigation of cameras for augmented reality | |
Song et al. | Advancements in translation accuracy for stereo visual-inertial initialization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080906 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |